Il capo di un'organizzazione non-profit di intelligenza artificiale afferma che la "natura chiusa" della maggior parte della ricerca sull'intelligenza artificiale ostacola l'innovazione

Un anno prima che Elon Musk fondasse OpenAI a San Francisco, il co-fondatore di Microsoft Paul Allen aveva già fondato un laboratorio di ricerca sull'intelligenza artificiale senza scopo di lucro a Seattle.
L'Allen Institute for Artificial Intelligence (Ai2) mirava a far progredire l'IA a beneficio dell'umanità. Oltre un decennio dopo, Ai2 potrebbe non essere così nota come OpenAI, i creatori di ChatGPT, ma sta ancora perseguendo l'IA "ad alto impatto", come immaginato dal signor Allen, scomparso nel 2018.
L'ultimo modello AI di Ai2, Tulu 3 405B, rivaleggia con quelli di OpenAI e DeepSeek della Cina in diversi benchmark. A differenza di OpenAI, Ai2 afferma di sviluppare sistemi AI "veramente aperti" su cui altri possono basarsi. Dal 2023, il CEO di Ai2, Ali Farhadi, è alla guida dell'istituto dopo un periodo in Apple.
Ha affermato: "La nostra missione è quella di guidare l'innovazione e le innovazioni dell'IA per risolvere alcuni dei problemi più urgenti dell'umanità. La minaccia più grande all'innovazione dell'IA è la natura chiusa della pratica. Abbiamo spinto molto verso l'apertura. Considerate il software open source: l'idea di base è che dovrei essere in grado di capire cosa hai fatto, modificarlo, fare un fork da esso, usarne una parte, metà o tutto. E una volta che ho costruito qualcosa, lo metto là fuori e tu dovresti essere in grado di fare lo stesso".
Il dibattito sull'intelligenza artificiale open source è attualmente un argomento caldo. Per noi, open source significa avere una chiara comprensione delle proprie azioni. Mentre i modelli di pesi aperti come quelli di Meta sono utili perché le persone possono semplicemente prendere quei pesi e procedere, non si qualificano come open source.
Open source implica l'accesso a ogni pezzo del puzzle. Se dovessi fare delle ipotesi, alcuni dei dati di training per questi modelli potrebbero contenere materiale discutibile. Tuttavia, i dati di training, che sono l'IP effettivo, sono probabilmente la parte più preziosa. Molti credono che abbia un valore significativo, e sono d'accordo.
I dati svolgono un ruolo cruciale nel potenziare il tuo modello e modificarne il comportamento. È un processo laborioso e impegnativo. Numerose aziende investono molto in quest'area e sono riluttanti a condividere le loro scoperte. Con la maturazione dell'IA, credo che si stia preparando a essere presa sul serio in ambiti critici come la scoperta scientifica.
Una gran parte di alcune discipline comporta una ricerca complessa di soluzioni, che si tratti di una struttura genetica, di una struttura cellulare o di configurazioni specifiche di elementi. Molti di questi problemi possono essere formulati computazionalmente. C'è un limite a ciò che puoi ottenere semplicemente scaricando un modello addestrato su dati di testo da Internet e perfezionandolo. Il nostro obiettivo è consentire agli scienziati di addestrare i propri modelli.
Puoi trovare questa storia nei miei segnalibri. Oppure navigando verso l'icona utente in alto a destra.
Daily Mirror