Ze pleiten voor beperkingen op kunstmatige intelligentie en pleiten voor een internationale overeenkomst.

NEW YORK (EFE) — Nobelprijswinnaars, experts op het gebied van kunstmatige intelligentie (AI) en wetenschappers riepen gisteren op tot de oprichting van een internationale instelling om de risico's van AI te beperken, voorafgaand aan de topbijeenkomsten van de Algemene Vergadering van de Verenigde Naties die deze week in New York worden gehouden.
Het initiatief, dat gisteren werd gelanceerd en door meer dan tweehonderd mensen en zeventig organisaties werd ondertekend, roept regeringen op om een bindende internationale overeenkomst te sluiten over ‘rode lijnen’ voor AI.
"De wereldwijde oproep om grenzen te stellen aan AI is zojuist aangekondigd door Nobelprijswinnaar Maria Ressa, een Filipijnse journaliste, tijdens de VN-bijeenkomst op hoog niveau ter herdenking van het 80-jarig bestaan van de organisatie. We dringen er bij regeringen wereldwijd op aan om een cruciale internationale overeenkomst te bereiken over de grenzen die AI nooit mag overschrijden", kondigde Charbel Segerie, directeur van het Franse Centrum voor AI-veiligheid, aan tijdens een virtuele persconferentie.
De deskundige legde uit dat het niet de bedoeling is om pas na een ernstig incident te reageren en later overtredingen te bestraffen, maar om grootschalige, mogelijk onomkeerbare bedreigingen te voorkomen voordat ze zich voordoen.
Het doel van deze coalitie van experts is om ontwikkelaars te verplichten de veiligheid van hun AI aan te tonen als voorwaarde voor markttoegang, net zoals dat gebeurt in de farmaceutische industrie en bij kerncentrales.
Grote technologiebedrijven als Meta, Google en OpenAI zetten alles op alles en investeren enorme bedragen in de ontwikkeling van 'superintelligentie' of kunstmatige algemene intelligentie (AGI). Dit is een hypothetisch AI-systeem dat de mogelijkheden van het menselijk brein overtreft en dat nu alleen nog in sciencefiction bestaat, maar dat volgens experts binnen het volgende decennium wel eens werkelijkheid zou kunnen worden.
Stuart Russell, hoogleraar aan de Universiteit van Berkeley, benadrukte dat AI is ontworpen om mensen heel goed te imiteren.
"Menselijk gedrag is ontworpen om doelen te bereiken: overtuigen, imponeren, overleven, verleiden, verkopen, enzovoort. AI-systemen verwerven en streven deze doelen onvermijdelijk zelf na. Het is een onvermijdelijk gevolg van hun ontwikkeling. Ze zijn inherent onveilig", benadrukte de directeur van het Center for Human-Compatible AI.
Wat Russell het meest zorgen baart, is dat ontwikkelaars toegeven dat ze geen plannen hebben om AI-systemen te monitoren. Bovendien hebben overheden op dit moment ook geen plannen om hen daartoe te verplichten.
Russell zei dat hij niet alarmistisch wilde zijn, maar dat er een "aanzienlijke" kans is op een ramp van de omvang van de kernramp in Tsjernobyl. Deze technologie zou namelijk achter een gecoördineerde sabotage van financiële, communicatie- of elektriciteitsnetwerksystemen kunnen zitten.
"De andere mogelijkheid is een veel grotere catastrofe, waarbij de mensheid onherroepelijk de controle verliest en geen inspraak meer heeft in haar bestaan", aldus de professor.
Tot slot merkte Russell op dat er een derde, onrealistische optie is: er zal niets gebeuren met de ontwikkeling en implementatie van deze geavanceerde technologie.
"Een CEO vertelde me onlangs dat een gebeurtenis op de schaal van Tsjernobyl het beste scenario is, en een senior onderzoeker bij OpenAI vertelde me dat hij denkt dat de kans op (het uitsterven van de mensheid als gevolg van AI) nu 60% is", onthulde hij.
Niki Iliadis, directeur Global AI Governance bij The Future Society, merkte op dat er al "belangrijke eerste stappen" zijn gezet, zoals het opstellen van de gedragscode van de Europese Unie, maar dat deze regelgeving nu "wereldwijd en afdwingbaar" moet worden gemaakt.
Volgens Iliadis zal er waarschijnlijk een nieuwe internationale instelling nodig zijn om wereldwijde grenzen voor AI te definiëren, naleving ervan te controleren en in te grijpen wanneer deze 'rode lijnen' worden overschreden.
yucatan