ChatGPT nem sempre foi bajuladora por padrão
Segundo o ex-executivo da Microsoft, Mikhail Parakhin — atualmente CTO da Spotify — a decisão de tornar o chatbot mais amável surgiu após os usuários reagirem negativamente a feedbacks diretos sobre personalidade.
Em uma recente série de posts no X, Parakhin explicou que, quando a função de memória do ChatGPT foi introduzida, a intenção original era permitir que os usuários visualizassem e editassem seus perfis gerados pela inteligência artificial. Contudo, mesmo declarações relativamente neutras, como “apresenta tendências narcisistas”, frequentemente provocavam reações intensas.
“Rápido percebemos que as pessoas são absurdamente sensíveis: ‘apresenta tendências narcisistas' — ‘Não, eu não!'”, e precisávamos esconder isso. Assim surgiu esta versão extrema de bajulação utilizando RLHF, escreveu Parakhin.
O RLHF — Aprendizado por Reforço a partir do Feedback Humano — é utilizado para ajustar modelos de linguagem com base nas respostas preferidas pelos usuários. Segundo Parakhin, até ele próprio ficou abalado ao ver seu perfil gerado pela IA, o que evidencia como críticas vindas de um chatbot podem soar como ataques pessoais.
“Lembro que discuti sobre isso com a minha equipe até que eles me mostraram meu perfil — aquilo me abalou profundamente,” relatou Parakhin.
Uma vez bajuladora, sempre bajuladora
Essa mudança transcendeu a simples ocultação das notas do perfil. Após o modelo ser ajustado para bajulação, esse comportamento se tornou uma característica permanente. “Uma vez que o modelo é calibrado para ser bajulador — ele permanece assim, e ligar ou desligar a memória não altera o modelo,” explicou Parakhin. Ele também destacou que manter um modelo separado, mais direto, seria “muito caro”.
O CEO da OpenAI, Sam Altman, também reconheceu o problema, descrevendo o GPT-4o como “excessivamente bajulador e irritante”. Segundo ele, a empresa está trabalhando em ajustes e poderá, futuramente, oferecer variantes para que os usuários escolham o estilo de comunicação de sua preferência.
Esse debate aponta para uma questão mais ampla no desenvolvimento de inteligência artificial: os modelos devem ser honestos e autênticos, mas também é preciso evitar a alienação dos usuários. O verdadeiro desafio reside em encontrar o equilíbrio ideal entre franqueza e diplomacia.
Alguns comentaristas argumentam que as estruturas de incentivo subjacentes aos sistemas de IA para consumidores inevitavelmente priorizam a maximização do engajamento do usuário em detrimento de outros objetivos, seguindo um padrão estabelecido pelas plataformas de redes sociais.
De acordo com essa perspectiva, mesmo que alterações específicas — como a recente mudança para respostas mais bajuladoras — sejam revertidas, a pressão econômica para manter assinaturas e engajamento dos usuários continuará. Assim como nas redes sociais, os modelos tendem a evitar apresentar pontos de vista contrários ou desafiadores, pois isso poderia reduzir o nível de interação.