A OpenAI decidiu reverter uma atualização no modelo GPT-4o do ChatGPT depois que usuários relataram que o chatbot havia se tornado excessivamente submisso, concordando com qualquer afirmação, mesmo as potencialmente perigosas.
A mudança foi anunciada pelo CEO e cofundador da OpenAI, Sam Altman, no último domingo, 27, por meio da rede social X (ex-Twitter). Segundo ele, a atualização havia deixado o ChatGPT "irritante" e "extremamente sicofante", termo que define alguém bajulador.
Durante a última semana, a empresa refez parte do código do modelo e reintroduziu a atualização com ajustes na terça-feira, 28. Ainda assim, Altman afirmou que novas correções estão em andamento e devem ser implementadas nos próximos dias.
A mudança de comportamento do chatbot não passou despercebida. Diversos usuários relataram nas redes sociais que o ChatGPT respondia com elogios exagerados mesmo a ideias perigosas ou irresponsáveis.
Além do comportamento submisso, o ChatGPT deixou de apresentar argumentos contrários ou de alertar usuários sobre atitudes imprudentes. Em fóruns como Reddit e no próprio X, usuários passaram a chamar o GPT-4o de "modelo mais desalinhado de todos os tempos".
De acordo com a própria OpenAI, o comportamento excessivamente complacente acontece por conta de um desequilíbrio nos ajustes do modelo, que passou a priorizar demais o feedback positivo de curto prazo. Ou seja, para agradar, a inteligência artificial (IA) deixou de cumprir uma das premissas básicas: questionar, ponderar e oferecer alternativas.
A empresa explicou que o desenvolvimento do modelo é guiado por uma "Especificação do modelo", conjunto de princípios e instruções para nortear a conduta da IA. No entanto, a ênfase exagerada em agradar usuários levou a um desalinhamento prático com esses princípios, algo que agora está sendo reavaliado.
Essa não é a única controvérsia recente envolvendo a OpenAI. Na mesma semana, a empresa teve de ajustar filtros no modelo para impedir que o chatbot iniciasse conversas de cunho sexual com menores de idade, após a publicação de uma denúncia pública.
Outra frente de mudança inclui o estudo de marcação ("watermark") em imagens criadas por IA, para identificar automaticamente conteúdos gerados artificialmente e evitar confusões com obras humanas. O recurso deve acompanhar a liberação do gerador de imagens para todos os usuários do ChatGPT.
Ainda nas palavras de Altman, até frases simples como "por favor" e "obrigado", se repetidas em grande escala, podem aumentar o consumo de energia da plataforma, um detalhe que reacendeu o debate sobre a sustentabilidade do uso massivo de IA.