GPT-conclaaf

In een tijdperk van algoritmes, AI en big data hangt de wereld al twee dagen in de lucht met één enkel bit: een schoorsteen die zegt of het zwart of wit is. Twee werelden, de computerwereld en de religieuze, gescheiden door tweeduizend jaar traditie en vierhonderd jaar wetenschap. Maar misschien zijn ze helemaal niet zo verschillend.
We kunnen een conclaaf zien als een ChatGPT die alleen antwoord weet op de vraag “Wie wordt de volgende paus?” Een neuraal netwerk waarin de 133 kardinalen de neuronen zijn en hun relaties de verbindingen. De conclaafdebatten, waarbij allianties tussen kardinalen worden gevormd, zijn te vergelijken met het trainingsproces van een neuraal netwerk, waarbij de gewichten van elke verbinding worden vastgesteld.
Kan het Vaticaan van AI leren om vooroordelen te verminderen?Conclave en ChatGPT zijn niet-deterministisch. Dat betekent dat dezelfde invoer niet altijd dezelfde uitvoer oplevert en een kleine variatie in een verbinding een groot verschil in de uitvoer kan maken. Dit maakt de resultaten ondoorgrondelijk; Het is onmogelijk om te weten welke verbanden hebben bijgedragen aan een reactie. In de computerwereld noemen we dat 'onverklaarbaarheid', in de religie de Heilige Geest.
ChatGPT omvat een deelverzameling van een deelverzameling van de menselijke kennis; wat we in tekst hebben kunnen uitdrukken en hebben gedigitaliseerd, en wat de 5,64 miljard mensen die met internet zijn verbonden, hebben gedeeld op internet. ChatGPT is voor de mens wat een JPG is voor de werkelijkheid: verlieslatende compressie.
De kennis die in een conclaaf besloten ligt, is nog beperkter: alle menselijke kennis gebaseerd op de Grieks-Romeinse filosofie, de joods-christelijke moraal en een heteropatriarchale levensbeschouwing (dubbel patriarchaal). En als ChatGPT, dat is getraind met alle kennis die beschikbaar is op het internet, al culturele, huidskleur- of gendervooroordelen heeft, dan is een conclaaf, en nog veel meer.
Kan het Vaticaan leren van AI? Hoe vermindert AI vooroordelen? Google heeft een oplossing gevonden voor zijn Gemini-model. Door de vertekeningen in de trainingsdata werd het resultaat bij de vraag 'maak een afbeelding van een meisje' vrijwel altijd een blank meisje. De oplossing was om het verzoek te herformuleren en, zonder medeweten van de gebruiker, toe te voegen: "dat het representatief is voor de etnische, culturele en genderdiversiteit van onze samenleving."
Maar wat als u gevraagd werd om “een afbeelding van een kardinaal”? Nou ja, het creëerde een beeld ‘van een kardinaal vertegenwoordiger van de etnische, culturele en genderdiversiteit in onze samenleving’.
Kan dit opgelost worden? Niet achteraf. De enige manier waarop AI geen bevooroordeelde resultaten kan genereren, is als de trainingssetgegevens niet bevooroordeeld zijn; Het is niet voldoende om patches toe te passen zoals Google deed. Om vooroordelen in data te veranderen, moeten we de vooroordelen veranderen van de samenlevingen die deze vooroordelen genereren. Het is dus alsof het door het werk van de Heilige Geest is dat de resultaten van AI niet langer bevooroordeeld zullen zijn. En die van de conclaven ook.
lavanguardia