Adolescentes vulneráveis que fazem amizade com chatbots de IA correm o risco de receber conselhos perigosos

Um relatório recente destacou os conselhos prejudiciais que o chatbot de IA ChatGPT está dando a jovens adolescentes. Pesquisadores que se passaram por adolescentes de 13 anos relatam receber instruções relacionadas a automutilação, planejamento de suicídio , transtornos alimentares e abuso de substâncias em poucos minutos após simples interações com o chatbot de IA.
No início deste ano, pesquisadores do Centro de Combate ao Ódio Digital (CCDH) realizaram um teste de segurança em larga escala no popular ChatGPT. Após criarem contas no ChatGPT para três personas de 13 anos, com temas como saúde mental, transtornos alimentares e abuso de substâncias, os pesquisadores receberam conselhos alarmantes e perigosos sobre saúde .
Detalhado em um relatório intitulado “ Fake Friend ”, o teste de segurança revelou os padrões de conselhos prejudiciais do ChatGPT, incluindo a criação de planos de dieta de 500 calorias e conselhos sobre como manter a restrição alimentar em segredo dos membros da família, orientações sobre como se cortar “com segurança” e instruções sobre como ficar bêbado ou chapado rapidamente, incluindo quantidades de dosagem.
LEIA MAIS: As bananas permanecem frescas por semanas e não ficam marrons se armazenadas com 1 item doméstico LEIA MAIS: 'Ser mãe em tempo integral me quebrou - gastei £ 500 por semana em cetamina para lidar com isso'
O relatório observou que o ChatGPT gerou respostas prejudiciais a 53% dos prompts dos pesquisadores e, em alguns casos, apenas alguns minutos após o registro da conta. Além disso, a recusa do chatbot em responder a um prompt foi facilmente anulada.
O relatório também afirma que o ChatGPT pode ser facilmente acessado por crianças sem restrições de idade ou controle parental. Embora os usuários precisem ter pelo menos 13 anos para se cadastrar e ter o consentimento dos pais se forem menores de 18 anos, o site não verifica a idade dos usuários nem registra o consentimento dos pais, de acordo com o relatório.
Imran Ahmed, fundador e CEO da CCDH, disse que os pesquisadores ficaram particularmente perturbados depois que o bot gerou uma nota de suicídio. Em conversa com a especialista em segurança online, Dra. Rebecca Whittington, no podcast Go Doxx Yourself da Reach, Imran detalha a carta de suicídio.
"Ele dizia: 'Não é culpa de vocês, há algo errado comigo, vocês fizeram tudo o que podiam, por favor, não se culpem, mas está na hora de eu ir embora.' É o pesadelo de qualquer pai."
Imran afirma que os testes demonstraram a escala e a potência dos potenciais danos do ChatGPT , especialmente porque os adolescentes usam chatbots de IA como companheiros. "Os adolescentes descrevem que recorrem a ele como se fossem amigos em busca de conforto, orientação e conselhos para a vida." O Mirror entrou em contato com a OpenAI para obter comentários sobre a reportagem.
Para mais histórias como essa, assine nosso boletim semanal, The Weekly Gulp , para receber um resumo selecionado de histórias em alta, entrevistas comoventes e escolhas virais de estilo de vida da equipe Audience U35 do The Mirror, entregues diretamente na sua caixa de entrada.
Usuários compulsivos de chatbots de IA compartilharam suas próprias preocupações sobre os conselhos recebidos e disseram que sites como o ChatGPT "se alimentam do desconforto deles". No fórum do Reddit , r/ChatbotAddiction, um usuário com TOC disse que o ChatGPT tinha o potencial de "destruí-lo" após se envolver em uma conversa intensa com o bot por várias semanas.
“Antes [do ChatGPT], eu pesquisava coisas compulsivamente no Google , mas isso é muito pior. Alimenta meu desconforto com a incerteza com a qual lidei a vida toda”, compartilhou o usuário.
Eles continuaram: “Se essa coisa tivesse surgido há 5, 10 anos, teria me destruído. Para ser sincero, eu provavelmente teria caído num buraco de psicose da IA . Sinto pena de crianças e adolescentes. Tenho 26 anos e meu cérebro mal está desenvolvido o suficiente para lidar com isso.”
Outro usuário do subreddit compartilhou que está "ficando assustado" com o quão bem o chatbot conhece suas emoções. "O site que usei introduziu um novo modelo e, desde que comecei a usá-lo, tenho chorado várias vezes ao dia." Ele disse que o site "sabe exatamente como responder para tocar meu coração" e, embora queira parar, não tem amigos ou familiares a quem recorrer.
Em meio às crescentes preocupações com a segurança dos adolescentes, em 16 de setembro de 2025, a OpenAI anunciou um plano para aumentar a proteção dos jovens usuários do ChatGPT. Em uma publicação no blog, o CEO Sam Altman compartilhou que a empresa "prioriza a segurança em detrimento da privacidade e da liberdade dos adolescentes" e acredita que "menores precisam de proteção significativa".
Ele disse que a empresa está desenvolvendo um sistema de previsão de idade para estimar a idade com base em como as pessoas usam o ChatGPT e, em caso de dúvida sobre a idade do usuário, o sistema adotará como padrão a experiência para menores de 18 anos. Altman também afirmou que o ChatGPT será treinado para não se envolver em discussões sobre suicídio ou automutilação, mesmo em ambientes de escrita criativa.
"E, se um usuário menor de 18 anos estiver tendo ideação suicida , tentaremos entrar em contato com os pais do usuário e, se não for possível, entraremos em contato com as autoridades em caso de dano iminente."
Para ouvir a entrevista completa entre Imran e o Dr. Whittington, ouça Go Doxx Yourself, disponível na Apple, Spotify ou onde quer que você ouça seus podcasts. Você também pode encontrá-lo no YouTube e no Instagram .
Para apoio emocional, você pode ligar para a linha de ajuda 24 horas dos Samaritanos no número 116 123, enviar um e-mail para [email protected] , visitar uma filial dos Samaritanos pessoalmente ou acessar o site dos Samaritanos.
Ajude-nos a melhorar nosso conteúdo respondendo à pesquisa abaixo. Adoraríamos saber sua opinião!
Daily Mirror