OpenAI staat op scherp: ChatGPT kan worden gebruikt voor de productie van biologische wapens

OpenAI, het Amerikaanse bedrijf voor kunstmatige intelligentie (AI) dat de populaire chatbot ChatGPT ontwikkelde, beweert dat zijn toekomstige modellen extreem geavanceerd zijn en zelfs de capaciteit zouden kunnen hebben om gloednieuwe biologische wapens te produceren. In een recente blogpost stelde het bedrijf dat het een dunne lijn wil bewandelen tussen "het mogelijk maken van wetenschappelijke vooruitgang en tegelijkertijd de barrière tegen schadelijke informatie handhaven" en het ontwikkelen van geavanceerdere modellen met "positieve toepassingen, zoals biomedisch onderzoek en biologische verdediging". Het bedrijf zou ook de mogelijkheid hebben onderzocht om zijn AI-modellen te gebruiken bij de productie van biologische wapens met deze uitdrukking "schadelijke informatie".
Zelfs amateurs kunnen hetOpenAI-beveiligingschef Johannes Heidecke vertelde Axios dat hoewel toekomstige AI-modellen naar verwachting niet in staat zullen zijn om zelfstandig biologische wapens te creëren, de tools zelfs amateurs daarbij kunnen helpen. "We leven niet in een nieuwe wereld waarin volledig onbekende biologische bedreigingen worden gecreëerd die nog nooit eerder hebben bestaan", zei Heidecke. "We maken ons meer zorgen over zaken waar experts al heel vertrouwd mee zijn." De OpenAI-beveiligingschef erkende ook dat de nieuwe modellen van het bedrijf nog niet helemaal klaar zijn, maar voegde eraan toe: "We verwachten dat sommige volgende-generatieversies van ons O3-redeneringsmodel dat niveau zullen bereiken."
PREVENTIEGERICHTE AANPAK"Onze aanpak is gericht op preventie", aldus het bedrijf in een blogpost. "Wij vinden het niet acceptabel om af te wachten of er een biologische dreiging optreedt voordat we beslissen over adequate beveiligingsniveaus." Er bestaat bezorgdheid dat de modellen die hebben bijgedragen aan biomedische doorbraken ook door kwaadwillenden kunnen worden uitgebuit. Om "schade te voorkomen", zoals Heidecke het stelt, zullen deze toekomstige modellen zo geprogrammeerd moeten worden dat ze "bijna perfect" zijn in het waarschuwen voor potentiële gevaren en het herkennen ervan. Zelfs een prestatie van 99 procent zal niet voldoende zijn, zegt Heidecke.
ntv