OpenAI se esforça para atualizar o GPT-5 após revolta de usuários

O modelo GPT-5 da OpenAI foi concebido para ser uma atualização revolucionária para seu chatbot extremamente popular e precoce. Mas, para alguns usuários, o lançamento da última quinta-feira pareceu mais um rebaixamento doloroso, com o novo ChatGPT apresentando uma personalidade diluída e cometendo erros surpreendentemente bobos.
Na sexta-feira, o CEO da OpenAI, Sam Altman, foi ao X para dizer que a empresa manteria o modelo anterior, GPT-4o, funcionando para usuários Plus. Um novo recurso projetado para alternar perfeitamente entre modelos dependendo da complexidade da consulta havia quebrado na quinta-feira, disse Altman, "e o resultado foi que o GPT-5 parecia muito mais burro". Ele prometeu implementar correções para melhorar o desempenho do GPT-5 e a experiência geral do usuário.
Dado o entusiasmo em torno do GPT-5, algum nível de decepção parece inevitável. Quando a OpenAI lançou o GPT-4 em março de 2023, surpreendeu os especialistas em IA com suas incríveis capacidades. O GPT-5, especularam os especialistas, certamente seria igualmente impressionante.
A OpenAI promoveu o modelo como uma atualização significativa, com inteligência de nível de doutorado e habilidades de codificação virtuosas. Um sistema para rotear consultas automaticamente para diferentes modelos foi criado para proporcionar uma experiência mais fluida ao usuário. (Também poderia economizar dinheiro para a empresa, direcionando consultas simples para modelos mais baratos.)
Logo após o lançamento do GPT-5, no entanto, uma comunidade do Reddit dedicada ao ChatGPT se encheu de reclamações. Muitos usuários lamentaram a perda do modelo antigo.
“Estou testando o GPT5 há alguns dias. Mesmo depois de personalizar as instruções, ainda não parece o mesmo. É mais técnico, mais generalizado e, sinceramente, parece emocionalmente distante”, escreveu um membro da comunidade em um tópico intitulado “Kill 4o não é inovação, é apagamento”.
“Claro, 5 está bom — se você odeia nuances e sentimentos”, escreveu outro usuário do Reddit.
Outros tópicos reclamaram de respostas lentas, alucinações e erros surpreendentes.
Altman prometeu resolver esses problemas dobrando os limites de taxa do GPT-5 para usuários do ChatGPT Plus, aprimorando o sistema de alternância entre modelos e permitindo que os usuários especifiquem quando desejam acionar um "modo de pensamento" mais ponderado e eficiente. "Continuaremos trabalhando para estabilizar as coisas e continuaremos ouvindo o feedback", escreveu o CEO no X. "Como mencionamos, esperávamos alguns percalços ao implementar tantas coisas ao mesmo tempo. Mas foi um pouco mais percalço do que esperávamos!"
Erros publicados nas redes sociais não indicam necessariamente que o novo modelo seja menos capaz do que seus antecessores. Eles podem simplesmente sugerir que o novo modelo apresenta falhas devido a casos extremos diferentes das versões anteriores. A OpenAI se recusou a comentar especificamente por que o GPT-5 às vezes parece cometer erros simples.
A reação gerou um novo debate sobre os vínculos psicológicos que alguns usuários criam com chatbots treinados para acionar seus botões emocionais. Alguns usuários do Reddit descartaram as reclamações sobre o GPT-5 como evidência de uma dependência doentia de um companheiro de IA.
Em março, a OpenAI publicou uma pesquisa explorando os vínculos emocionais que os usuários formam com seus modelos. Pouco depois, a empresa lançou uma atualização para o GPT-4o, após este se tornar muito bajulador .
“Parece que o GPT-5 é menos bajulador, mais voltado para os negócios e menos tagarela”, diz Pattie Maes, professora do MIT que trabalhou no estudo. “Pessoalmente, considero isso algo positivo, porque também levou a delírios, reforço de vieses, etc. Mas, infelizmente, muitos usuários gostam de um modelo que lhes diga que são inteligentes e incríveis e que confirme suas opiniões e crenças, mesmo que [estejam] errados.”
Altman indicou em outra publicação no X que isso é algo com que a empresa lutou ao desenvolver o GPT-5.
“Muitas pessoas usam o ChatGPT efetivamente como uma espécie de terapeuta ou coach de vida, mesmo que não o descrevam dessa forma”, escreveu Altman. Ele acrescentou que alguns usuários podem estar usando o ChatGPT de maneiras que ajudam a melhorar suas vidas, enquanto outros podem estar “inconscientemente se afastando de seu bem-estar a longo prazo”.
wired