Home » L’estromissione di Sam Altman è seguita a una pericolosa affermazione di scoperta dell’intelligenza artificiale: Reuters

L’estromissione di Sam Altman è seguita a una pericolosa affermazione di scoperta dell’intelligenza artificiale: Reuters

by Patricia

Mercoledì scorso Sam Altman è stato reintegrato come CEO di OpenAI dopo 72 ore di agitazione. Ma anche se le acque si sono calmate all’interno dell’azienda di intelligenza artificiale, un nuovo rapporto della Reuters suggerisce che la giustificazione della rimozione di Altman – che non è stato “disponibile” – potrebbe avere a che fare con il raggiungimento da parte di OpenAI di un’importante pietra miliare nella spinta verso l’intelligenza artificiale generale (AGI).

Secondo l’agenzia di stampa, fonti che hanno familiarità con la situazione hanno detto che i ricercatori hanno inviato una lettera al consiglio di amministrazione di OpenAI per avvertire di una nuova scoperta di intelligenza artificiale che potrebbe minacciare l’umanità, il che ha spinto il consiglio a rimuovere Altman dalla sua posizione di leadership.

Queste fonti senza nome hanno riferito a Reuters che il CTO di OpenAI, Mira Murati, ha detto ai dipendenti che la svolta, descritta come “Q Star” o “(Q*)”, era il motivo del provvedimento contro Altman, che è stato preso senza la partecipazione del presidente del consiglio di amministrazione Greg Brockman, che si è dimesso da OpenAI per protesta.

Il tumulto in OpenAI è stato inquadrato come una battaglia ideologica tra coloro che volevano accelerare lo sviluppo dell’IA e coloro che volevano decelerare il lavoro in favore di un progresso più responsabile e ponderato, colloquialmente noto come decel. Dopo il lancio del GPT-4, diversi esponenti di spicco dell’industria tecnologica hanno firmato una lettera aperta in cui chiedevano a OpenAI di rallentare lo sviluppo di futuri modelli di IA.

Ma, come riportato da TCN nel fine settimana, gli esperti di AI hanno teorizzato che i ricercatori di OpenAI avessero raggiunto un’importante pietra miliare che non poteva essere rivelata pubblicamente, il che ha costretto a una resa dei conti tra le origini umaniste e no-profit di OpenAI e il suo futuro aziendale di grande successo a scopo di lucro.

Sabato, meno di 24 ore dopo il colpo di stato, si è diffusa la notizia che OpenAI stava cercando di organizzare un accordo per riportare Altman, mentre centinaia di dipendenti di OpenAI minacciavano di licenziarsi. I concorrenti hanno aperto le braccia e i portafogli per riceverli.

OpenAI non ha ancora risposto alla richiesta di commento di TCN.

Per intelligenza artificiale generale si intende un’intelligenza artificiale in grado di comprendere, apprendere e applicare la propria intelligenza per risolvere qualsiasi problema, proprio come un essere umano. L’intelligenza artificiale generale può generalizzare il suo apprendimento e il suo ragionamento a vari compiti, adattandosi a nuove situazioni e a lavori per i quali non è stata esplicitamente programmata.

Fino a poco tempo fa si pensava che l’idea di AGI (o Singolarità) fosse lontana decenni, ma con i progressi dell’IA, tra cui ChatGPT di OpenAI, Claude di Anthropic e Bard di Google, gli esperti ritengono che siamo lontani anni, non decenni, da questo traguardo.

“Direi che ora ci vogliono dai tre agli otto anni, e il motivo è in parte che i modelli linguistici di grandi dimensioni come Llama2 di Meta e GPT-4 di OpenAI aiutano e sono un vero progresso”, ha dichiarato a TCN Ben Goertzel, CEO di SingularityNET e pioniere dell’IA. “Questi sistemi hanno accresciuto enormemente l’entusiasmo del mondo per l’IA, quindi ci saranno più risorse, sia finanziarie che di energia umana: più giovani intelligenti vogliono immergersi nel lavoro e lavorare sull’IA. “

Related Posts

Leave a Comment