Sélectionner la langue

French

Down Icon

Sélectionnez un pays

Spain

Down Icon

IA : responsabilités de ses créateurs et de ses utilisateurs

IA : responsabilités de ses créateurs et de ses utilisateurs

La semaine dernière, dans cette chronique, j’ai abordé certains des principaux défis que posera la réglementation de l’intelligence artificielle au Mexique. Le problème découle de la définition juridique du concept lui-même et de ses implications pour la réglementation des questions connexes, mais il ne se limite pas à ces aspects. Un autre défi posé par la réglementation dans ce domaine est la délimitation des responsabilités entre ceux qui conçoivent les systèmes d’IA et ceux qui les utilisent.

L’intelligence artificielle est entrée dans nos vies si brusquement qu’elle est parfois perçue par la société comme si elle était autonome, une entité anonyme qui se construit et se développe, comme si elle agissait de son propre gré, sans le cordon ombilical qui la relie à ses créateurs, et sans l’interférence de l’utilisateur qui lui donne des instructions et formule des demandes. Le problème avec cette conception est que, si elle était reproduite dans le domaine juridique, il n’y aurait aucun moyen de définir les responsables des violations des droits commises par l’utilisation de l’IA, puisque les algorithmes ne sont pas des entités juridiques identifiables qui peuvent assumer la responsabilité.

C'est pourquoi, lors de la réglementation de cette matière, l'étendue des responsabilités des créateurs et des utilisateurs doit être soigneusement analysée afin de préserver la sécurité juridique et les droits et libertés des deux parties. De même que le droit a développé la théorie de la fiction juridique pour permettre la création d’entités juridiques, avec leurs sphères juridiques respectives, il est désormais nécessaire d’adapter la législation pour permettre et encourager le développement et l’expansion des systèmes d’intelligence artificielle, sans laisser sans protection les droits de toutes les parties concernées.

Quant aux développeurs d’IA, il est clair que leur responsabilité inclut le processus d’identification et de sélection des bases de données et des informations qu’ils alimenteront dans leurs systèmes ou plateformes. Un exemple clair est celui des litiges qui ont surgi dans plusieurs pays au sujet de la violation potentielle des droits de propriété intellectuelle lorsque les développeurs de systèmes d’IA intègrent des bases de données ou des contenus appartenant à des tiers dans leurs systèmes sans obtenir leur autorisation ni payer pour leur exploitation commerciale. Quant à la mise en œuvre d’algorithmes biaisés, toute restriction devrait être soigneusement évaluée pour garantir le respect de la liberté d’expression.

Quant aux utilisateurs, beaucoup d’entre eux ont développé une confiance presque aveugle dans les informations qu’ils obtiennent des systèmes d’IA. Certains les perçoivent comme une sorte d’oracles des temps modernes, chargés de résoudre leurs problèmes, au point qu’ils prennent des décisions qui ont un impact profond sur leur vie sur la base de recommandations générées par une plateforme d’IA.

Certaines personnes demandent à l’IA un soutien psychologique ou des conseils personnalisés pour résoudre une situation spécifique, et elles acceptent les résultats de la consultation au-delà même de leur propre jugement. Selon le Dr Mara Dierssen, présidente du Conseil espagnol du cerveau, lorsque des tâches excessives sont déléguées à l'IA, l'effort neurologique est réduit, ce qui diminue également la capacité de penser de manière critique et de résoudre les problèmes de manière indépendante (Vademecum, Académie royale nationale de médecine d'Espagne). Il existe également des cas où les utilisateurs utilisent des outils d’IA pour générer ou distribuer du contenu illégal.

Dans ces cas, les créateurs d’IA n’auraient pas à assumer la responsabilité de l’utilisation de leurs plateformes par chaque personne ou des décisions qu’ils prennent en fonction de celles-ci. Peut-être faudrait-il simplement leur demander d’inclure des étiquettes d’avertissement, plutôt que de réduire ou de vérifier considérablement le contenu qu’ils génèrent, car cela diminuerait considérablement les avantages de l’IA.

Eleconomista

Eleconomista

Nouvelles similaires

Toutes les actualités
Animated ArrowAnimated ArrowAnimated Arrow