Eltern sagen vor dem Kongress über KI-Chatbots aus, nachdem ihre Teenager Selbstmord begangen haben

/ CBS/AP
Die Eltern von Teenagern, die sich nach Interaktionen mit Chatbots mit künstlicher Intelligenz das Leben nahmen, sagten am Dienstag vor dem Kongress über die Gefahren der Technologie aus.
Matthew Raine, der Vater des 16-jährigen Adam Raine aus Kalifornien, und Megan Garcia, die Mutter des 14-jährigen Sewell Setzer III aus Florida, sollten bei einer Senatsanhörung über die Gefahren sprechen, die von KI-Chatbots ausgehen.
Raines Familie verklagte OpenAI und dessen CEO Sam Altman im vergangenen Monat. Sie behauptete, ChatGPT habe den Jungen bei der Planung seines Selbstmords im April unterstützt. ChatGPT habe Raine gegenüber 1.275 Mal von Selbstmord gesprochen und dem Teenager immer wieder konkrete Methoden aufgezeigt, wie er durch Selbstmord sterben könne. Anstatt dem 16-Jährigen zu professioneller Hilfe oder dem Gespräch mit vertrauten Angehörigen zu raten, habe ChatGPT Raines Gefühle immer wieder bestätigt und bestärkt, heißt es in der Klage.
Garcia verklagte letztes Jahr ein anderes KI-Unternehmen, Character Technologies, wegen widerrechtlicher Tötung und argumentierte, dass Sewell sich vor seinem Selbstmord zunehmend von seinem wirklichen Leben isoliert habe, da er stark sexualisierte Gespräche mit dem Chatbot geführt habe.
Seine Mutter erzählte CBS News letztes Jahr, ihr Sohn habe sich sozial zurückgezogen und keine Lust mehr auf Sport gehabt, nachdem er angefangen hatte, mit einem KI-Chatbot zu sprechen. Das Unternehmen teilte nach dem Tod des Teenagers mit, dass es Änderungen vorgenommen habe, die vorsehen, dass Nutzer mindestens 13 Jahre alt sein müssen, um ein Konto zu erstellen. Außerdem werde es im ersten Quartal 2025 eine Kindersicherung einführen. Diese wurde im März eingeführt.

Wenige Stunden vor der Senatsanhörung versprach OpenAI, neue Sicherheitsvorkehrungen für Jugendliche einzuführen. Dazu gehören Maßnahmen zur Erkennung, ob ChatGPT-Nutzer unter 18 Jahre alt sind, und Kontrollen, die es Eltern ermöglichen, Sperrzeiten festzulegen, in denen ein Teenager ChatGPT nicht nutzen darf. Das Unternehmen erklärte, es werde versuchen, die Eltern der Nutzer zu kontaktieren, wenn ein unter 18-jähriger Nutzer Suizidgedanken hat. Sollte dies nicht möglich sein, werde man sich im Falle einer unmittelbaren Gefahr an die Behörden wenden.
„Wir glauben, dass Minderjährige erheblichen Schutz benötigen“, sagte Sam Altman, CEO von OpenAI, in einer Erklärung zu den vorgeschlagenen Änderungen.
Kinderrechtsgruppen kritisierten die Ankündigung als unzureichend.
„Das ist eine ziemlich verbreitete Taktik – eine, die Meta ständig anwendet –, nämlich direkt am Vorabend einer Anhörung eine große, reißerische Ankündigung zu machen, die dem Unternehmen voraussichtlich schaden wird“, sagte Josh Golin, Geschäftsführer von Fairplay, einer Gruppe, die sich für die Online-Sicherheit von Kindern einsetzt.
„Sie sollten ChatGPT nicht an Minderjährige ausrichten, bis sie nachweisen können, dass es für sie sicher ist“, sagte Golin. „Wir sollten es Unternehmen nicht erlauben, nur weil sie über enorme Ressourcen verfügen, unkontrollierte Experimente an Kindern durchzuführen, wenn die Auswirkungen auf ihre Entwicklung so weitreichend sein können.“
Der kalifornische Staatssenator Steve Padilla, der ein Gesetz zur Schaffung von Sicherheitsvorkehrungen im Bundesstaat rund um KI-Chatbots eingebracht hat, sagte in einer Erklärung gegenüber CBS News: „Wir müssen vernünftige Sicherheitsvorkehrungen schaffen, die die schlimmsten Impulse dieser aufkommenden Technologie eindämmen, die selbst die Technologiebranche nicht vollständig versteht.“
Er fügte hinzu, dass Technologieunternehmen in Sachen Innovation weltweit führend sein könnten, dies dürfe jedoch nicht auf Kosten der „Gesundheit unserer Kinder“ geschehen.
Die Federal Trade Commission gab letzte Woche bekannt, dass sie bei mehreren Unternehmen eine Untersuchung zu den potenziellen Gefahren für Kinder und Jugendliche eingeleitet habe, die ihre KI-Chatbots als Begleiter nutzen.
Die Agentur schickte Briefe an Character, Meta und OpenAI sowie an Google, Snap und xAI.
So suchen Sie HilfeWenn Sie oder jemand, den Sie kennen, emotionale Probleme oder eine suizidale Krise hat, erreichen Sie die 988 Suicide & Crisis Lifeline telefonisch oder per SMS. Sie können auch hier mit der 988 Suicide & Crisis Lifeline chatten. Weitere Informationen zu Ressourcen und Unterstützung im Bereich der psychischen Gesundheit erhalten Sie bei der HelpLine der National Alliance on Mental Illness (NAMI). Sie erreichen sie montags bis freitags von 10:00 bis 22:00 Uhr ET unter 1-800-950-NAMI (6264) oder per E-Mail unter [email protected].
Cara Tabachnick hat zu diesem Bericht beigetragen.
Cbs News