« Ils nous traiteront comme nous traitons les animaux » – la prédiction alarmante d’Ilya Sutskever, co-fondateur de ChatGPT

Bien que de l'extérieur et par ignorance, OpenAI, la société mère et créatrice de ChatGPT semble être un modèle à suivre et un exemple d'entreprise, la vérité est que derrière des portes closes, elle tend davantage vers le chaos. Il suffit de se rappeler comment un complot a été ourdi contre le PDG, Sam Altman, pour le faire licencier, et seulement 48 heures plus tard, il a été réintégré à son ancien poste.
Ce n’est qu’un des exemples les plus visuels qui existent, mais il montre qu’OpenAI , malgré sa croissance croissante, n’est pas entièrement stable , et même ses fondateurs ne sont pas d’accord sur la direction que l’entreprise devrait prendre. D’un côté, il y a Elon Musk, qui a quitté l’entreprise en raison de conflits internes et de divergences de vision de l’avenir, mais il n’est pas seul.
Et Ilya Sutskever, un autre des fondateurs d'OpenAI et l'un des architectes de cette tentative avortée de motion de censure contre Altman , a également quitté l'entreprise il y a quelques mois en raison de désaccords avec le conseil d'administration sur le démantèlement du conseil de sécurité de l'entreprise pour créer le sien axé sur la cybersécurité.
C'est parce que de plus en plus d'experts soulignent que l'IA est un danger , et non pas du point de vue qu'elle nous prendra notre travail parce qu'elle le fait de manière plus rapide, plus efficace et moins chère (ce qu'elle fait également), mais parce que beaucoup soulignent que l'IA atteindra un point où elle sera consciente et à partir de ce moment-là, nous ne le saurons plus ni ne pourrons la contrôler ou l'arrêter.
Cette inquiétude est de plus en plus exprimée par des personnes ayant travaillé dans ce secteur, comme le soi-disant « parrain de l’IA » qui a récemment déclaré que « nous ne savions pas ce que nous avions créé » en faisant référence à l’IA.
Bien qu'il ait toujours soutenu que « l'IA est bonne, car elle sera capable de résoudre tous les problèmes que nous avons aujourd'hui », il n'a pas oublié les dangers liés au développement rapide de cette technologie et, utilisant ses mots pour un mini-documentaire du Guardian, Sutskever a déjà mis en garde contre ce danger.
« Je pense qu'une bonne analogie pourrait être la façon dont les humains traitent les animaux. Ce n'est pas que nous détestons les animaux, mais quand il s'agit de relier une autoroute entre deux villes, nous ne leur demandons pas la permission. Nous le faisons simplement parce que c'est important pour nous », a expliqué l'expert.
« La relation entre nous et l’IA sera similaire. Ils nous traiteront comme des animaux, non par malveillance, mais par indifférence utilitaire », conclut-il. Et pour la première fois dans l'histoire, les humains auront devant eux des « êtres » plus intelligents que nous. Que cela nous plaise ou non, quelque chose va changer les choses dans le monde tel que nous le connaissons, et il sera important d'établir des limites et des contrôles pour que cela ne dégénère pas.
eleconomista