COMMENTO - Video di intelligenza artificiale incredibilmente belli: con Sora, Open AI mostra come perdere fiducia nell'era dell'intelligenza artificiale

I video generati dall'intelligenza artificiale di Open AI sono migliori di quelli dei suoi concorrenti, ma le misure di sicurezza adottate dall'azienda sono inadeguate. Video ingannevolmente realistici di manipolazioni elettorali, crimini e vittime di guerra lo dimostrano chiaramente: Open AI non ha alcun controllo sul suo prodotto.
NZZ.ch richiede JavaScript per funzioni importanti. Il tuo browser o il tuo ad-blocker lo stanno attualmente bloccando.
Si prega di modificare le impostazioni.
L'intelligenza artificiale aperta ha stupito ancora una volta il mondo: l'azienda dietro Chat-GPT ha recentemente rilasciato un generatore di video basato sull'intelligenza artificiale che è semplicemente sbalorditivo. Il programma, chiamato Sora, crea video incredibilmente realistici di qualsiasi situazione e personaggio. A differenza di strumenti di intelligenza artificiale comparabili, gli utenti possono incorporare i propri sé virtuali o quelli di altri nei deepfake.
Gli utenti sono ora in competizione tra loro per creare i video più assurdi e realistici. La tecnologia è attualmente disponibile solo in Canada e negli Stati Uniti, ma l'ondata di video falsi si sta già diffondendo in Europa attraverso i social network. Si prevede che Sora sarà presto disponibile anche lì.
Open AI si vanta di numerose restrizioni di sicurezza che afferma di aver implementato per prevenirne l'uso improprio. Il problema: non funzionano. Come nuvole di fumo tossico, i video problematici di Sora si stanno diffondendo su Internet: false scene di guerra da Gaza, testimoni oculari inventati dall'Etiopia, Sam Altman in uniforme della Seconda Guerra Mondiale ...
L'elenco dei contenuti inquietanti è lungo : video di furti con scasso, taccheggi ed esplosioni di bombe che sembrano reali, ma non sono mai accaduti. Brogli elettorali che non si sono mai verificati, così come proteste violente. Sora è la perfetta macchina per le fake news. E sta raggiungendo la società americana in un momento in cui sta già soffrendo di sfiducia, disinformazione e disinformazione. L'anno elettorale del 2026 sarà probabilmente interessante.
È chiaro: l'umanità è capace di più assurdità di quanto Open AI avrebbe potuto immaginare. Persino le filigrane che l'azienda usa per identificare i video di intelligenza artificiale come tali non funzionano: le istruzioni per rimuoverle circolano già online. Open AI ha abbattuto le dighe e credeva di poter fermare l'imminente alluvione improvvisa con sacchi di sabbia.
Sora non risparmia nemmeno i morti: video di intelligenza artificiale di chiunque, da Michael Jackson alla principessa Diana, circolano online, così come video irrispettosi del fisico Stephen Hawking, defunto e gravemente malato. Le proteste dei parenti non servono a nulla. L'intelligenza artificiale aperta sfrutta il fatto che i diritti postumi dell'intelligenza artificiale non sono chiaramente regolamentati in molti stati degli Stati Uniti. È tutta una questione di attenzione a qualsiasi prezzo.
L'azienda mostra come non farlo, anche per quanto riguarda i diritti di proprietà: chiunque non desideri che le proprie opere e i propri personaggi protetti da copyright appaiano nei video di Sora deve opporsi attivamente. Open AI sta perseguendo una strategia di opt-out, piuttosto che di opt-in : invece di ottenere il consenso preventivo degli autori, l'azienda utilizza sfacciatamente le loro opere e chiede agli utenti di lamentarsi attivamente di questo furto.
Il coronamento: i creatori devono denunciare ogni caso individualmente e non possono opporsi all'uso in generale. Saranno probabilmente i tribunali a decidere se ciò sia legale. Ma la giustizia procede lentamente, come tutti sappiamo, e nel frattempo Sora continua a produrre video di intelligenza artificiale con personaggi protetti come Super Mario, Pokémon e altri personaggi dei fumetti. È un dito medio a tutti gli artisti che vivono della loro proprietà intellettuale.
Questo approccio è tratto direttamente dal manuale della Silicon Valley: chiedere perdono, non permesso. Ma potrebbe ritorcersi contro. Se Open AI vuole davvero approfondire sempre di più la vita dei suoi utenti con nuovi prodotti, ha bisogno della loro fiducia. Ma il caso Sora suggerisce che Open AI non se lo merita.
È probabile che anche le autorità di regolamentazione governative non apprezzino la mancanza di controllo che Open AI può – o vuole – esercitare sulla propria piattaforma. Ma l'azienda fa affidamento anche sulla loro buona volontà: ha bisogno dell'approvazione delle autorità di California e Delaware entro la fine dell'anno per potersi trasformare in una società a scopo di lucro, come desiderato. Se questa approvazione venisse respinta, Apple, Nvidia e altri investitori potrebbero pretendere la restituzione dei miliardi di dollari investiti in Open AI.
nzz.ch