Ils réclament des limites à l’intelligence artificielle, avec un accord international.

NEW YORK (EFE) — Des lauréats du prix Nobel, des experts en intelligence artificielle (IA) et des scientifiques ont appelé hier à la création d'une institution internationale pour limiter les risques de l'IA, avant les réunions de haut niveau de l'Assemblée générale des Nations Unies qui se tiennent cette semaine à New York.
L’initiative, lancée hier et signée par plus de deux cents personnes et soixante-dix organisations, exhorte les gouvernements à établir un accord international contraignant sur les « lignes rouges » pour l’IA.
« L'appel mondial à fixer des limites à l'IA vient d'être lancé par la journaliste philippine Maria Ressa, lauréate du prix Nobel de la paix, lors de la réunion de haut niveau des Nations Unies commémorant le 80e anniversaire de l'organisation. Nous exhortons les gouvernements du monde entier à parvenir à un accord international crucial sur les limites que l'IA ne doit jamais franchir », a annoncé Charbel Segerie, directeur exécutif du Centre français pour la sécurité de l'IA, lors d'une conférence de presse virtuelle.
L'expert a expliqué que l'objectif n'est pas de réagir après un incident grave et de punir les violations plus tard, mais plutôt de prévenir les menaces à grande échelle, potentiellement irréversibles, avant qu'elles ne se produisent.
L’objectif de cette coalition d’experts est d’exiger des développeurs qu’ils démontrent la sécurité de leur IA comme condition d’accès au marché, à l’image de ce qui se fait dans le domaine du développement de médicaments et des centrales nucléaires.
Les grandes entreprises technologiques comme Meta, Google et OpenAI mettent tous leurs œufs dans le même panier et investissent d'énormes sommes d'argent dans le développement de la « superintelligence » ou intelligence artificielle générale (AGI), un système d'IA hypothétique qui surpasse les capacités du cerveau humain et qui n'existe actuellement que dans la science-fiction, mais qui, selon les experts, pourrait arriver dans la prochaine décennie.
Stuart Russell, professeur à l’Université de Berkeley, a souligné que l’IA est conçue pour très bien imiter les humains.
« Le comportement humain est conçu pour atteindre des objectifs : persuader, impressionner, survivre, séduire, vendre, etc. Inévitablement, les systèmes d’IA acquièrent et poursuivent ces objectifs par eux-mêmes. C’est une conséquence inévitable de leur développement. Ils sont intrinsèquement dangereux », a souligné le directeur du Centre pour l’IA compatible avec l’humain.
Ce qui inquiète le plus Russell, c’est que les développeurs admettent qu’ils n’ont aucun plan pour surveiller les systèmes d’IA et, pour le moment, les gouvernements n’ont pas l’intention de les obliger à le faire.
Russell a déclaré qu'il ne voulait pas être alarmiste, mais qu'il y avait une probabilité « significative » d'une catastrophe de l'ampleur de l'accident nucléaire de Tchernobyl, car cette technologie pourrait être à l'origine d'un sabotage coordonné des systèmes financiers, de communication ou du réseau électrique.
« L’autre possibilité est une catastrophe beaucoup plus grande, dans laquelle l’humanité perdrait irréversiblement le contrôle et n’aurait alors plus son mot à dire sur notre existence », a déclaré le professeur.
Enfin, Russell a souligné qu’il existe une troisième option, irréaliste : rien ne se passera avec le développement et la mise en œuvre de cette technologie de pointe.
« Un PDG m’a récemment dit qu’un événement de l’ampleur de Tchernobyl était le meilleur scénario possible, et un chercheur senior d’OpenAI m’a dit qu’il pensait que la probabilité (d’extinction humaine due à l’IA) était désormais de 60 % », a-t-il révélé.
Niki Iliadis, directrice de la gouvernance mondiale de l'IA à The Future Society, a noté que des « premières étapes importantes » ont déjà été franchies, comme la création du code de bonnes pratiques de l'Union européenne, mais que ces réglementations doivent maintenant être rendues « mondiales et applicables ».
Selon Iliadis, une nouvelle institution internationale sera probablement nécessaire pour définir les limites mondiales de l’IA, surveiller la conformité et intervenir lorsque ces « lignes rouges » sont franchies.
yucatan