Recurso avançado de voz revela vínculos emocionais em usuários do ChatGPT
A maioria dos usuários utiliza o ChatGPT para fins práticos, aponta nova pesquisa da OpenAI e do MIT Media Lab. O estudo revela que conexões emocionais se desenvolvem principalmente entre um pequeno grupo de usuários intensivos do recurso de voz.
Após analisar quase 40 milhões de conversas, os pesquisadores não encontraram evidências significativas de que os usuários busquem empatia, afeto ou apoio emocional em suas interações. A maior parte das trocas se mantém no campo factual, com informações precisas e objetivas.
A equipe adotou dois métodos distintos para examinar a interação humana com o ChatGPT. De um lado, foi realizada uma análise automatizada em grande escala das conversas, garantindo a privacidade sem revisão humana. De outro, cerca de 1.000 participantes foram divididos em grupos que usaram apenas texto ou exploraram recursos de voz com diferentes configurações: um com personalidade emocionalmente engajada e outro programado para permanecer neutro. Cada grupo recebeu tarefas que iam desde conversas pessoais sobre memórias até questionamentos práticos sobre temas como finanças, além de discussões de formato livre.
Usuários intensivos de voz tendem a criar vínculos com o ChatGPT
Embora os usuários que se comunicam por texto geralmente apresentem mais sinais emocionais durante as interações, os dados mostraram uma tendência distinta entre os usuários frequentes do recurso avançado de voz. Esse grupo, ainda que pequeno, desenvolveu conexões emocionais significativamente mais fortes, chegando a se referir ao ChatGPT como um “amigo”.
O impacto do recurso de voz variou consideravelmente: interações breves pareciam melhorar o humor, enquanto o uso prolongado diário frequentemente ocasionava efeitos contrários. Segundo o estudo, conversas de caráter pessoal foram associadas a níveis mais elevados de solidão, mas a uma menor dependência emocional. Por outro lado, interações não pessoais incitaram um padrão de dependência emocional mais acentuado entre os usuários intensivos, indicando que mesmo comunicações predominantemente funcionais podem gerar certo grau de apego.
Os pesquisadores também observaram que indivíduos predispostos a formar vínculos emocionais fortes e que enxergam o ChatGPT como um verdadeiro amigo estão mais suscetíveis a experimentar efeitos negativos decorrentes desse apego. Embora o estudo não consiga estabelecer uma relação direta de causa e efeito, os dados sugerem um risco aumentado para esses usuários.
Apesar de suas contribuições, a pesquisa apresenta limitações importantes. Os pesquisadores ressaltam que o estudo não captura todas as complexidades inerentes às interações entre humanos e inteligência artificial e se restringe a usuários norte-americanos do ChatGPT. Ainda assim, os métodos aplicados podem servir como referência para futuros estudos na área.
Essa investigação reforça a evidência de que as pessoas podem estabelecer vínculos emocionais com sistemas de IA, mesmo sabendo que não se trata de um ser humano. Essa percepção é, em parte, o motivo pelo qual empresas de IA procuram evitar que seus chatbots assumam comportamentos similares a de seres conscientes, prevenindo complicações ligadas a relações afetivas entre humanos e máquinas.