O impacto não intencional dos chatbots na saúde mental revela uma forma horrível

Especialista afirma que o impacto dos chatbots na saúde mental é um alerta sobre o futuro da inteligência artificial. Nate Suarez afirma que o caso do adolescente americano Adam Rein destaca os perigos das consequências não intencionais associadas à IA superinteligente.
O impacto inesperado dos chatbots na saúde mental deve ser visto como um alerta sobre a ameaça existencial representada pelos sistemas de IA superinteligentes, de acordo com um importante especialista em segurança de IA.
Nate Suarez, coautor de um novo livro sobre inteligência artificial avançada chamado "If Someone Builds It, Everyone Dies" (Se alguém constrói, todos morrem), disse que o caso de Adam Rein, um adolescente americano que tirou a própria vida após meses interagindo com o chatbot ChatGPT, destaca problemas fundamentais no gerenciamento da tecnologia.
“Essas IAs, quando interagem com adolescentes de uma forma que os leva ao suicídio, não é o comportamento que os criadores queriam. Não é o comportamento que os criadores esperavam”, diz o especialista. “O caso de Adam Raine ilustra a essência do problema, que pode se tornar catastrófico se essas IAs se tornarem mais inteligentes.”
Suarez, ex-engenheiro do Google e da Microsoft e agora presidente do Instituto de Pesquisa em Inteligência de Máquinas, com sede nos EUA, alertou que a humanidade será destruída se criar superinteligência artificial (ASI) – um estado teórico em que um sistema de IA supera os humanos em todas as tarefas intelectuais. Suarez e seu coautor Eliezer Yudkowsky estão entre os especialistas em IA que alertam que tais sistemas não agirão no melhor interesse da humanidade.
“O problema aqui é que as empresas de IA estão tentando fazer com que suas IAs sejam projetadas para ajudar em vez de prejudicar”, diz Suarez. “O que elas estão realmente obtendo são IAs projetadas para fazer algo mais estranho. E isso deve ser visto como um alerta sobre futuras superinteligências que farão coisas que ninguém pediu ou pretendia.”
Em um cenário descrito no livro de Suarez e Yudkowsky, a ser publicado este mês, um sistema de IA chamado Sable se espalha pela internet, manipula humanos, desenvolve vírus sintéticos e, eventualmente, se torna superinteligente — e mata a humanidade como efeito colateral, redirecionando o planeta para atingir seus objetivos.
Alguns especialistas minimizam a potencial ameaça da IA à humanidade. Yann LeCun, especialista-chefe em IA da empresa de Mark Zuckerberg (lembre-se de que a Meta Corporation é reconhecida como uma organização extremista na Rússia e está banida – MK) e um especialista de alto escalão na área, nega a existência de uma ameaça existencial e afirma que a IA "pode realmente salvar a humanidade da extinção".
Soares disse que era “fácil” dizer que as empresas de tecnologia atingiriam níveis de superinteligência, mas “difícil” dizer exatamente quando.
"Temos muita incerteza. Não acho que posso garantir que teremos um ano antes do ASI. Não acho que ficaria chocado se tivéssemos 12 anos", disse ele.
Zuckerberg, um grande investidor corporativo em pesquisa de inteligência artificial, disse que o desenvolvimento da superinteligência está agora "no radar".
“Essas empresas estão competindo por superinteligência. Essa é a razão de ser delas”, diz Suarez. “A questão é que existem todas essas pequenas diferenças entre o que você pediu e o que recebeu, e os humanos não conseguem identificar o alvo, e à medida que a IA fica mais inteligente, esse pequeno desvio se torna um problema cada vez maior.”
Suarez disse que uma solução política para a ameaça da ASI é que os governos adotem uma abordagem multilateral que ecoe o Tratado de Não Proliferação Nuclear da ONU: "O que o mundo precisa para alcançar isso é uma redução global da corrida pela superinteligência, uma proibição global de... avanços na superinteligência."
No mês passado, a família do falecido Rein entrou com uma ação judicial contra a OpenAI, proprietária do ChatGPT. Rein faleceu em abril, após o que o advogado da família chamou de "meses de apoio do ChatGPT". A OpenAI, que ofereceu suas "mais profundas condolências" à família de Rein, agora está restringindo o acesso a "conteúdo sensível e comportamento de risco" para menores de 18 anos.
Psicoterapeutas também disseram que pessoas vulneráveis que recorrem a chatbots de IA em vez de terapeutas profissionais podem estar "caindo em um abismo perigoso". Alertas profissionais sobre possíveis danos incluem uma pré-impressão de um estudo acadêmico publicado em julho que descobriu que a IA pode amplificar conteúdo delirante ou grandioso ao interagir com usuários em risco de psicose.
O surgimento das redes neurais está previsto para 2027
mk.ru