Eksperci ds. sztucznej inteligencji pilnie wzywają rządy do rozważenia ewentualnego podjęcia działań

Wszyscy zdają się dostrzegać, że sztuczna inteligencja to szybko rozwijająca się i wschodząca technologia, która może wyrządzić ogromne szkody, jeśli będzie wykorzystywana bez odpowiednich zabezpieczeń, ale zasadniczo nikt (poza Unią Europejską , w pewnym sensie) nie może dojść do porozumienia co do sposobu jej regulacji. Zamiast więc próbować wyznaczyć jasną i wąską ścieżkę, na której pozwolimy sztucznej inteligencji działać, eksperci w tej dziedzinie wybrali nowe podejście: może po prostu ustalimy, które skrajne przykłady uważamy za złe i po prostu się na to zgodzimy?
W poniedziałek grupa polityków, naukowców i pracowników naukowych zgromadziła się w Zgromadzeniu Ogólnym ONZ, aby ogłosić Globalne Wezwanie do Czerwonych Linii dla AI . Jest to apel do rządów całego świata o zjednoczenie się i uzgodnienie jak najszerszych zabezpieczeń, aby zapobiec „powszechnie niedopuszczalnym zagrożeniom” wynikającym z wdrożenia sztucznej inteligencji. Celem grupy jest ustalenie tych czerwonych linii do końca 2026 roku.
Propozycja zebrała dotychczas ponad 200 podpisów ekspertów branżowych, liderów politycznych i laureatów Nagrody Nobla. Była prezydent Irlandii, Mary Robinson, i były prezydent Kolumbii, Juan Manuel Santos, są za nią, podobnie jak laureaci Nagrody Nobla Stephen Fry i Yuval Noah Harari. Geoffrey Hinton i Yoshua Bengio, dwaj z trzech mężczyzn powszechnie nazywanych „ ojcami chrzestnymi sztucznej inteligencji ” ze względu na ich fundamentalne działania w tej dziedzinie, również dodali swoje nazwiska do listy.
Czym są te „czerwone linie”? Cóż, to wciąż zależy od decyzji rządów. Wezwanie nie zawiera konkretnych zaleceń ani zaleceń politycznych, choć wskazuje kilka przykładów tego, co mogłoby stanowić „czerwoną linię”. Zakaz wystrzeliwania broni jądrowej lub jej wykorzystywania do masowego nadzoru byłby potencjalną „czerwoną linią” dla zastosowań sztucznej inteligencji, twierdzi grupa, podczas gdy zakaz tworzenia sztucznej inteligencji, której nie da się zniszczyć przez człowieka, byłby potencjalną „czerwoną linią” dla zachowań sztucznej inteligencji. Są jednak jasne: nie należy ich ustalać na stałe, to tylko przykłady, można ustalić własne zasady.
Jedyne, co grupa proponuje konkretnie, to to, że jakiekolwiek globalne porozumienie powinno opierać się na trzech filarach: „jasnej liście zakazów; solidnych, podlegających audytowi mechanizmach weryfikacji; oraz powołaniu niezależnego organu ustanowionego przez Strony w celu nadzorowania wdrażania”.
Szczegóły jednak muszą uzgodnić rządy. I to jest najtrudniejsze. Apel zaleca, aby państwa zorganizowały kilka szczytów i grup roboczych, aby to wszystko ustalić, ale z pewnością w tych rozmowach jest wiele sprzecznych motywów.
Stany Zjednoczone, na przykład, zobowiązały się już nie zezwalać sztucznej inteligencji na kontrolowanie broni jądrowej (umowa zawarta za administracji Bidena, więc Bóg jeden wie, czy nadal obowiązuje). Jednak ostatnie doniesienia wskazują, że część społeczności wywiadowczej administracji Trumpa jest już zirytowana faktem, że niektóre firmy zajmujące się sztuczną inteligencją nie pozwalają im używać swoich narzędzi do inwigilacji kraju . Czy Ameryka przychyliłaby się do takiej propozycji? Być może dowiemy się do końca 2026 roku… jeśli dotrwamy do tego czasu.
gizmodo