Home » I governi devono “muoversi più velocemente” sulle regole dell’IA, dice il presidente di Microsoft

I governi devono “muoversi più velocemente” sulle regole dell’IA, dice il presidente di Microsoft

by v

Questa settimana il presidente di Microsoft Brad Smith ha aggiunto il suo nome alla lista crescente di giganti dell’industria tecnologica che lanciano l’allarme e chiedono ai governi di regolamentare l’intelligenza artificiale (AI).

“Il governo deve muoversi più velocemente”, ha dichiarato Smith durante una tavola rotonda tenutasi giovedì mattina a Washington, D.C., alla quale hanno partecipato anche i responsabili politici, come riporta il New York Times.

L’appello di Microsoft alla regolamentazione giunge in un momento in cui il rapido sviluppo dell’intelligenza artificiale, in particolare degli strumenti di IA generativa, è stato sottoposto a un maggiore controllo da parte delle autorità di regolamentazione.

L’IA generativa si riferisce a un sistema di intelligenza artificiale in grado di generare testo, immagini o altri media in risposta a richieste dell’utente. Esempi significativi sono la piattaforma di generazione di immagini Midjourney, Bard di Google e ChatGPT di OpenAI.

La richiesta di una regolamentazione dell’IA si è fatta più forte dopo il lancio pubblico di ChatGPT a novembre. Personaggi di spicco, tra cui Warren Buffett, Elon Musk e persino l’amministratore delegato di OpenAI Sam Altman, hanno parlato dei potenziali pericoli di questa tecnologia. Un fattore chiave dello sciopero degli sceneggiatori WGA in corso è il timore che l’IA possa essere utilizzata per sostituire gli scrittori umani, un sentimento condiviso dagli artisti dei videogiochi ora che le case di produzione stanno esaminando la tecnologia.

Smith ha appoggiato la richiesta agli sviluppatori di ottenere una licenza prima di implementare progetti avanzati di IA e ha suggerito che quella che ha definito IA “ad alto rischio” dovrebbe operare solo in centri dati di IA autorizzati.

Il dirigente di Microsoft ha anche invitato le aziende ad assumersi la responsabilità di gestire la tecnologia che ha conquistato il mondo, suggerendo che l’impulso non è solo sui governi per gestire il potenziale impatto sociale dell’IA.

“Ciò significa che bisogna informare il governo quando si iniziano i test”, ha detto Smith. “Anche una volta ottenuta la licenza per la distribuzione, si ha il dovere di continuare a monitorarla e di riferire al governo in caso di problemi imprevisti”.

Nonostante le preoccupazioni, Microsoft ha scommesso molto sull’IA, investendo oltre 13 miliardi di dollari nello sviluppatore di ChatGPT OpenAI e integrando il popolare chatbot nel suo browser web Bing.

“Siamo impegnati e determinati come azienda a sviluppare e distribuire l’IA in modo sicuro e responsabile”, ha scritto Smith in un post sulla governance dell’IA. “Tuttavia, riconosciamo anche che le barriere di sicurezza necessarie per l’IA richiedono un senso di responsabilità ampiamente condiviso e non dovrebbero essere lasciate alle sole aziende tecnologiche”.

A marzo Microsoft ha rilasciato Security Copilot, il primo strumento specializzato della linea Copilot che utilizza l’IA per aiutare i professionisti dell’IT e della cybersicurezza a identificare le minacce informatiche utilizzando grandi serie di dati.

I commenti di Smith fanno eco a quelli rilasciati da Sam Altman, CEO di OpenAI, durante un’audizione davanti alla Commissione Giudiziaria del Senato degli Stati Uniti la scorsa settimana. Altman ha suggerito di creare un’agenzia federale per regolamentare e stabilire gli standard per lo sviluppo dell’IA.

“Formerei una nuova agenzia che conceda una licenza per qualsiasi sforzo al di sopra di una certa scala di capacità, e che possa togliere la licenza e garantire il rispetto degli standard di sicurezza”, ha detto Altman.

Microsoft non ha risposto immediatamente alla richiesta di commento di TCN.

Related Posts

Leave a Comment