Home » Ex ricercatore OpenAI: C’è il 50% di possibilità che l’intelligenza artificiale finisca in una “catastrofe”.

Ex ricercatore OpenAI: C’è il 50% di possibilità che l’intelligenza artificiale finisca in una “catastrofe”.

by v

Un ex ricercatore chiave di OpenAI ritiene che ci sia una discreta possibilità che l’intelligenza artificiale prenda il controllo dell’umanità e la distrugga.

“Penso che ci sia qualcosa come un 10-20% di possibilità che l’intelligenza artificiale prenda il controllo dell’umanità, [con] la morte di molti [o] della maggior parte degli esseri umani”, ha detto Paul Christiano, che dirigeva il team di allineamento dei modelli linguistici presso OpenAI, nel podcast Bankless. “La prendo molto sul serio”.

Christiano, che ora dirige l’Alignment Research Center, un’organizzazione no-profit che si propone di allineare le IA e i sistemi di apprendimento automatico agli “interessi umani”, ha dichiarato di essere particolarmente preoccupato per ciò che accadrà quando le IA raggiungeranno la capacità logica e creativa di un essere umano. “In generale, forse stiamo parlando di un 50/50 di possibilità di catastrofe poco dopo che avremo sistemi a livello umano”, ha detto.

Christiano è in buona compagnia. Di recente, decine di scienziati di tutto il mondo hanno firmato una lettera online in cui si chiede a OpenAI e ad altre aziende che stanno correndo per costruire IA più veloci e più intelligenti di mettere in pausa lo sviluppo. Personaggi di spicco, da Bill Gates a Elon Musk, hanno espresso la preoccupazione che, se non controllata, l’IA rappresenti un evidente pericolo esistenziale per l’uomo.

Non essere malvagio

Perché l’IA diventerebbe malvagia? Fondamentalmente, per lo stesso motivo per cui lo diventa una persona: l’addestramento e l’esperienza di vita.

Come un bambino, l’IA si addestra ricevendo montagne di dati senza sapere cosa farne. Impara cercando di raggiungere determinati obiettivi con azioni casuali e si concentra sui risultati “corretti”, definiti dall’addestramento.

Finora, immergendosi nei dati accumulati su Internet, l’apprendimento automatico ha permesso alle IA di fare passi da gigante nel mettere insieme risposte ben strutturate e coerenti alle richieste umane. Allo stesso tempo, l’elaborazione informatica sottostante che alimenta l’apprendimento automatico sta diventando sempre più veloce, migliore e specializzata. Alcuni scienziati ritengono che entro un decennio la potenza di elaborazione, combinata con l’intelligenza artificiale, consentirà a queste macchine di diventare senzienti, come gli esseri umani, e di avere un senso di sé.

È a questo punto che le cose si complicano. Ed è per questo che molti ricercatori sostengono che dobbiamo capire come imporre delle protezioni ora, piuttosto che più tardi. Finché il comportamento dell’intelligenza artificiale viene monitorato, può essere controllato.

Ma se la moneta cade dall’altra parte, anche il cofondatore di OpenAI afferma che le cose potrebbero andare molto, molto male.

Foomsday?

Questo argomento è sul tavolo da anni. Uno dei più famosi dibattiti sull’argomento si è svolto 11 anni fa tra il ricercatore di intelligenza artificiale Eliezer Yudkowsky e l’economista Robin Hanson. I due discutevano della possibilità di raggiungere il “foom” – che a quanto pare sta per “Fast Onset of Overwhelming Mastery” – il punto in cui l’IA diventa esponenzialmente più intelligente dell’uomo e capace di auto-migliorarsi. (La derivazione del termine “foom” è discutibile).

Eliezer e i suoi accoliti credono che sia inevitabile che le IA facciano “foom” senza preavviso, cioè che un giorno si costruisca un’IA [intelligenza artificiale generale] e che ore o giorni dopo questa si sia auto-migliorata ricorsivamente fino a diventare un’intelligenza simile a quella di un dio e poi si mangi il mondo. È realistico?”. Perry Metzger, uno scienziato informatico attivo nella comunità dell’IA, ha twittato di recente.

Metzger ha sostenuto che anche quando i sistemi informatici raggiungono un livello di intelligenza umana, c’è ancora molto tempo per evitare qualsiasi esito negativo. “È logicamente possibile ‘foom’? Forse. Non ne sono convinto”, ha detto. “È possibile nel mondo reale? Sono abbastanza sicuro di no. L’IA profondamente sovrumana a lungo termine diventerà una cosa seria? Sì, ma non un ‘foom'”.

Anche un’altra figura di spicco, Yann Le Cun, ha alzato la voce, sostenendo che è “assolutamente impossibile” che l’umanità sperimenti una conquista dell’IA”. Speriamo che sia così.

Related Posts

Leave a Comment