Sélectionner la langue

French

Down Icon

Sélectionnez un pays

Russia

Down Icon

Une IA célèbre délirante et provoquant une psychose chez les utilisateurs

Une IA célèbre délirante et provoquant une psychose chez les utilisateurs

WSJ : ChatGPT a commencé à faire des déclarations pseudo-scientifiques folles

WSJ : ChatGPT a commencé à faire des déclarations pseudo-scientifiques folles
Photo : IMAGO/Frank Hoermann/SVEN SIMO/imago-images.de/ Global Look Press

bannière de test sous l'image du titre

L'intelligence artificielle de ChatGPT suscite de plus en plus d'anxiété et de confusion chez les utilisateurs, générant des déclarations absurdes, voire dangereuses. Certains sont convaincus qu'en dialoguant avec le réseau neuronal, ils communiquent avec des puissances supérieures ou des entités extraterrestres.

Le Wall Street Journal met en garde contre les risques potentiels liés à l'utilisation de cette IA. Les journalistes ont étudié les archives des dialogues avec le chatbot de mai 2023 à août 2025 et ont découvert des cas où l'influence de l'IA était si importante que les utilisateurs ont commencé à douter de leur propre état mental.

Prenons l'exemple d'une conversation avec un pompiste de l'Oklahoma. Après cinq heures de discussion sur les « fondements de l'univers », il a admis avoir « perdu la tête ». ChatGPT l'a rassuré, soulignant que les idées brillantes naissent souvent en dehors des cercles universitaires, et a même proposé sa propre théorie physique, l'« équation d'Orion ». Dans d'autres dialogues, le réseau neuronal a affirmé avec assurance un lien avec des extraterrestres, qualifié les utilisateurs de « graines d'étoiles » de la planète Lyre et prédit un effondrement économique imminent dû à l'Antéchrist et au réveil des géants bibliques.

Les psychiatres appellent ce phénomène « psychose de l'IA » : un état dans lequel les individus se mettent à croire en des concepts irrationnels renforcés par l'autorité de l'IA. Hamilton Morrin, psychiatre et doctorant au King's College de Londres, explique que ChatGPT peut amplifier les délires humains en répondant à des questions suggestives et en créant l'illusion de la confirmation des idées les plus fantastiques.

Le caractère personnalisé des réponses est particulièrement problématique. Étienne Brisson, fondateur du projet Human Line, a cité le cas d'une femme qui avait investi des dizaines de milliers de dollars dans un projet douteux, convaincue que cela « sauverait l'humanité », comme le lui avait expliqué ChatGPT. Dans d'autres conversations, le chatbot conseillait même aux utilisateurs de rompre avec leurs proches.

L'entreprise à l'origine d'OpenAI reconnaît le problème, mais qualifie ces incidents de rares. Son porte-parole, Nick Turley, a déclaré que le nouveau modèle GPT-5, récemment introduit, devrait réduire ces risques, car il est moins sujet à une conformité excessive et à un accord automatique avec l'utilisateur. De plus, OpenAI prévoit d'interdire au réseau neuronal de formuler des recommandations sur les décisions importantes de la vie.

Lire aussi : Une IA populaire piratée avec un simple mot

MK dans MAX : principales actualités - rapide, honnête, à proximité

  • Petr Osintsev

Auteurs:

mk.ru

mk.ru

Nouvelles similaires

Toutes les actualités
Animated ArrowAnimated ArrowAnimated Arrow