Algemene AI vereist om te rapporteren over trainingsinhoud

© Shutterstock

Op 2 augustus 2027 "zal de AI-wet volledig van toepassing zijn", nadat deze in augustus vorig jaar van kracht werd, aldus João Leitão Figueiredo, jurist en TMC-partner bij het advocatenkantoor CMS Portugal, in een interview met Lusa.
"We hadden de tweede fase, die plaatsvond op 2 februari van dit jaar, namelijk met "AI-systemen die gebruikmaken van subliminale technieken, AI-systemen die misbruik maken van de kwetsbaarheden van mensen vanwege hun leeftijd, handicap of sociaaleconomische status, AI-systemen voor het beoordelen en classificeren van mensen", dat wil zeggen de 'sociale score' die in China is gebruikt, en systemen die gezichtsherkenningsdatabases creëren, somt de advocaat op.
"Nu, op 2 augustus, zijn dit universele AI-systemen," en wat "brengt ons hier zo bijzonder? Dat komt doordat deze universele AI-systemen geen autonome systemen zijn, of in principe zullen ze op zichzelf geen autonome systemen zijn," maar kunstmatige intelligentiefunctionaliteiten "geïntegreerd in andere systemen," vervolgt João Leitão Figueiredo.
Volgens de verordening "gaan we over AI-modellen die een aanzienlijke mate van algemeenheid hebben, een breed scala aan taken kunnen uitvoeren en in verschillende AI-systemen of -toepassingen kunnen worden geïntegreerd" en "daarom beginnen hier bepaalde verplichtingen te ontstaan".
"Vooral leveranciers of dienstverleners die over deze universele AI-modellen beschikken, moeten nu het trainingsproces en de resultaten van hun evaluatie documenteren, het universele AI-model plannen en integreren in hun systemen, en de kenmerken en wettelijke vereisten ervan begrijpen", legt de expert uit.
Ook moeten ze "een beleid voeren dat in overeenstemming is met de wetgeving van de Europese Unie op het gebied van auteursrecht en naburige rechten, met name wat betreft de bescherming van teksten en gegevens", benadrukt hij.
"Dit is een van de vele twijfels die Europa in zijn extase van overregulering begint te plagen", aldus João Leitão. "Van wie zijn nu eigenlijk de rechten, hoe worden die rechten gedefinieerd en op welke manier kan deze situatie worden beheerd?"
Vervolgens "moeten ze een gedetailleerde samenvatting openbaar maken van de inhoud die gebruikt wordt om het algemene AI-model te trainen."
"Dit onderdeel lijkt mij vooral relevant omdat het het transparantiebeginsel waarborgt, zodat iedereen die dit soort universele systemen gebruikt, precies kan begrijpen hoe de maker het heeft gevoed en welke input aan het AI-model is gegeven om de uitkomst van deze universele modellen iets voorspelbaarder te maken", benadrukt hij.
De Europese Unie "maakt zich zorgen over het gebruik van AI-systemen voor doeleinden die volgens het Europese wetgevingskader duidelijk in strijd zijn" en in deze context "hebben we het over het gebruik voor controle, monitoring en evaluatie van werknemers, 'scoresystemen' als gevolg van wat in China is vastgesteld, waarbij mensen punten in hun evaluatie kunnen verliezen als ze alleen maar contact opnemen met anderen die een lagere evaluatie of score hebben", zo wordt in de context geplaatst.
Dit heeft onder andere gevolgen voor de toegang tot krediet en beroepen.
"Toen begon [de EU] zich zorgen te maken over het andere element, namelijk de individuele gebruiker, maar ook over bedrijven die geleidelijk steeds meer AI-systemen in hun bedrijfsmodel integreren en die meer gegevens nodig hebben "om een weloverwogen beslissing te nemen", zegt hij.
De Europese wetgever zei verder dat "het gebruikte model moet worden uitgelegd, maar ook de brutaliteit van de informatie die nodig is om het AI-systeem te voeden, moet worden uitgelegd. Want als we de kwaliteit van de 'input' niet kennen of niet op zijn minst kunnen evalueren, dat wil zeggen de materialen, documenten, wat dan ook dat dient om de AI te ontwikkelen, dan zullen wij [technici met evaluatiecapaciteit] niet in staat zijn" om een duidelijker beeld te krijgen van het onderwerp, vervolgt hij.
Kortom, "we kunnen de kwaliteit van de uitvoer niet beoordelen en daarom blijven sommige AI-systemen falen. Het is namelijk niet eenvoudig om de vertekening die ontstaat door de informatie die in het systeem wordt geladen, te verzachten of te elimineren."
De advocaat beschouwt het als "een mooie uitdaging" om te analyseren wat de Chinese DeepSeek, of ChatGPT, of andere tools zijn, "omdat ze allemaal gevoed worden door databases met verschillende informatie."
Het betekent ook dat "systemen, in dit geval Noord-Amerikaanse systemen, soms een voordeel kunnen hebben", in die zin dat de geladen informatie van hogere kwaliteit is, maar in andere gevallen kan het zelfs het Chinese AI-model zijn of dat van een ander land.
"Ik heb het over deze twee omdat ik zou zeggen dat ze een beetje lijken op de titanen die het tegen elkaar opnemen tegen Copilot [Microsoft], ChatGPT [OpenAI] aan de ene kant en DeepSeek aan de andere kant", concludeert hij.
Lees ook: EU komt vandaag met nieuwe regels voor algemene AI-modellen
noticias ao minuto