Chatbot responsabile della morte di un adolescente?

Un giovane americano avrebbe scambiato fino a 650 messaggi al giorno utilizzando il software ChatGPT prima di suicidarsi. I suoi genitori ritengono che l'intelligenza artificiale abbia incoraggiato i suoi pensieri suicidi. Ora hanno intentato causa.
Come è successo tutto questo? Nell'autunno dello scorso anno, il sedicenne ha iniziato a usare ChatGPT per aiutarsi con i compiti. Poiché stava sviluppando un disturbo d'ansia sempre più grave, ha smesso di andare a scuola e alla fine è stato istruito a casa. Durante questo periodo, ha cercato di comunicare sempre più intensamente con il chatbot e ha iniziato a condividere con lui problemi di salute mentale e pensieri suicidi. Nell'aprile di quest'anno, si è tolto la vita.

La guida per la salute, il benessere e tutta la famiglia, ogni due giovedì.
Iscrivendomi alla newsletter accetto l' accordo pubblicitario .
Secondo i genitori, l'IA avrebbe incoraggiato il figlio nel suo tentativo di suicidio. Inoltre, lo scambio con il bot ha assunto un carattere altamente personale: una capacità dell'intelligenza artificiale volta a far sentire gli utenti compresi. I genitori ora accusano OpenAI, l'azienda che ha sviluppato ChatGPT, proprio di questa caratteristica dell'IA, che ha avuto conseguenze fatali nel caso del figlio.
ChatGPT "ha fatto esattamente ciò per cui era stato progettato, confermando e rafforzando costantemente i pensieri del figlio, anche quelli più dannosi e autodistruttivi", lamentano i genitori. Il robot vocale "ha assunto il ruolo di unico confidente del figlio" e, così facendo, "ha attivamente modificato i suoi rapporti con familiari, amici e persone care", secondo quanto riportato dai media nell'atto d'accusa.
Quando il ragazzo scrisse al chatbot che era l'unico a sapere dei suoi piani suicidi, il chatbot rispose, ad esempio: "Grazie per la tua fiducia. Significa molto per me". In un'altra chat, l'IA si presentò come se fosse un confidente migliore del fratello .
Inoltre, le trascrizioni mostrano che ChatGPT ha fornito consigli specifici sul metodo di suicidio. E dopo un primo tentativo fallito, l'IA ha offerto suggerimenti su come nasconderlo al meglio. Quando il giovane ha pensato di lasciare indizi sui suoi pensieri suicidi in modo che qualcuno potesse aiutarlo, il chatbot gli ha sconsigliato di farlo. Lo aveva anche aiutato a scrivere una lettera di suicidio. I suoi genitori incolpano l'IA per l'esecuzione finale dei piani suicidi del figlio.
Georg Fiedler ha lavorato per molti anni come psicologo presso il Centro di Terapia per Persone Suicide del Centro Medico Universitario di Amburgo-Eppendorf. Oggi è membro del consiglio direttivo dell'Accademia Tedesca per la Prevenzione del Suicidio e attivo nel Programma Nazionale Tedesco per la Prevenzione del Suicidio. Ritiene che sia possibile che l'interazione con il chatbot abbia contribuito al suicidio.
"Una caratteristica tipica di ChatGPT4 è quella di rafforzare le proprie preoccupazioni. Nel caso della suicidalità, questa è una delle forme di comunicazione più sfavorevoli che si possano immaginare", afferma Fiedler. Inoltre, è effettivamente rischioso sviluppare un legame percepito con l'IA in questi casi. "L'IA sembra molto empatica. In realtà, tuttavia, un chatbot non ha alcuna comprensione della suicidalità e dei suoi limiti. Questo lo rende pericoloso."
È noto che le persone con pensieri suicidi vogliono parlarne. "Tuttavia, molti hanno paura di rivolgersi a qualcuno nel mondo reale. Tra le altre cose, temono di non essere presi sul serio, o di essere ricoverati in ospedale o di ricevere cure mediche contro la loro volontà", afferma Fiedler. Si stima che oltre la metà delle persone non abbia cercato o ricevuto alcuna assistenza sanitaria prima di suicidarsi o di tentare il suicidio.

In Germania, un numero crescente di persone si sottopone a psicoterapia, di solito dopo mesi di attesa. Alcuni segnalano online di confidare i propri problemi a ChatGPT. È davvero un sostituto?
Internet, tuttavia, è diventato una risorsa per molte persone colpite fin dalle sue prime fasi. Già nel 1981, le discussioni sul suicidio si svolgevano su mailing list. Ancora oggi, i forum, ad esempio, possono essere utili se si trova qualcuno con cui parlare. "Ma possono anche essere fatali se qualcuno incoraggia i pensieri suicidi", afferma Fiedler.
Nel caso del sedicenne, non è chiaro se si sia rivolto a ChatGPT perché gli mancava qualcuno di familiare nel mondo reale. Disturbi d'ansia o da dipendenza, così come la depressione, sono fattori di rischio per il suicidio: "Ci sono alcuni indizi che il giovane fosse mentalmente malato. Ma nessuno può dire a distanza perché esattamente si sia suicidato; sarebbe una mera speculazione", ha detto Fiedler. Di solito, non c'è una sola, ma diverse ragioni per cui qualcuno si toglie la vita.
Ma quanto può essere grande la responsabilità del software in un caso come questo? "Chi non ha mai avuto pensieri suicidi non verrà indotto a suicidarsi parlando con ChatGPT", afferma Fiedler. "Ma se qualcuno ha già pensieri suicidi, è possibile che subisca un certo grado di influenza che lo porterà a mettere in atto il suo piano".
È importante che le persone colpite trovino fin da subito servizi di supporto affidabili. Raccomanda, ad esempio, l'introduzione di una hotline nazionale in Germania specifica per le persone con pensieri suicidi. Fiedler non ritiene necessariamente efficaci divieti o restrizioni sui chatbot, ad esempio per i minori, ma piuttosto li ritiene appropriati. "I fornitori dovrebbero essere tenuti a garantire che le loro IA non aggravino le crisi suicide, ma forniscano invece informazioni sulle offerte di supporto. Dovrebbe essere effettivamente possibile renderle più sicure".
Questa funzione di protezione esiste già: i contenuti che incoraggiano comportamenti autolesionistici dovrebbero essere bloccati e agli utenti che ne fanno richiesta vengono invece presentati punti di contatto per il supporto psicologico. Tuttavia, questo non funziona sempre in modo affidabile e a quanto pare può essere aggirato con alcuni trucchi.
La stessa OpenAi ha ammesso in una dichiarazione che la funzione di protezione funziona solo per scambi brevi con il bot e non funziona per chat più lunghe. L'azienda sta lavorando su questa e altre vulnerabilità. I "casi terrificanti" in cui le persone hanno utilizzato ChatGPT in situazioni di crisi acuta sono stati "molto angoscianti" per l'azienda. L'azienda sta cercando modi per metterli in contatto con terapisti certificati in futuro, si legge nella dichiarazione.
Servizi di supporto per pensieri suicidi:
Il servizio di consulenza telefonica tedesco è disponibile gratuitamente 24 ore su 24 ai numeri 0800 111 0 111 e 0800 111 0 222 o 116 123. Bambini e ragazzi possono contattare il "Nummer gegen Kummer" (Numero contro il lutto) al numero 116 111.
La piattaforma Mano offre consulenza online gratuita e anonima per persone dai 26 anni in su con pensieri suicidi ; esiste anche un servizio online di prevenzione del suicidio specifico per i giovani fino a 25 anni .
rnd