Home » La disinformazione dell’intelligenza artificiale potrebbe sconvolgere le elezioni del 2024: ecco come OpenAI intende combatterla

La disinformazione dell’intelligenza artificiale potrebbe sconvolgere le elezioni del 2024: ecco come OpenAI intende combatterla

by Patricia

Con la minaccia dell’intelligenza artificiale alla democrazia che è una delle principali preoccupazioni dei politici e degli elettori di tutto il mondo, OpenAI ha presentato lunedì il suo piano per contribuire a garantire la trasparenza sui contenuti generati dall’intelligenza artificiale e migliorare l’affidabilità delle informazioni di voto in vista delle elezioni del 2024.

Dopo il lancio del GPT-4 a marzo, l’IA generativa e il suo potenziale uso improprio, compresi i deepfake generati dall’IA, sono diventati una parte centrale della conversazione sulla rapida ascesa dell’IA nel 2023. Nel 2024, potremmo assistere a gravi conseguenze di questa disinformazione guidata dall’IA in occasione di importanti elezioni, tra cui la corsa presidenziale degli Stati Uniti.

“Mentre ci prepariamo per le elezioni del 2024 nelle maggiori democrazie del mondo, il nostro approccio è quello di continuare il nostro lavoro di sicurezza della piattaforma, elevando le informazioni di voto accurate, applicando politiche misurate e migliorando la trasparenza”, ha dichiarato OpenAI in un post sul blog.

OpenAI ha aggiunto che sta “riunendo le competenze dei nostri sistemi di sicurezza, dell’intelligence sulle minacce, dei team legali, ingegneristici e politici per indagare rapidamente e affrontare potenziali abusi”.

In ChatGPT, OpenAI ha dichiarato di impedire agli sviluppatori di creare chatbot che fingano di essere persone reali o istituzioni come funzionari e uffici governativi. Inoltre, OpenAI ha dichiarato che non sono consentite le applicazioni che mirano a impedire alle persone di votare, tra cui scoraggiare il voto o travisare chi ha diritto al voto.

I deepfakes generati dall’AI, immagini, video e audio falsi creati con l’AI generativa, sono diventati virali l’anno scorso, con diverse immagini che ritraggono il Presidente degli Stati Uniti Joe Biden, l’ex Presidente Donald Trump e persino Papa Francesco, che sono diventate il fulcro delle immagini condivise sui social media.

Per impedire che il suo generatore di immagini Dall-E 3 venga utilizzato nelle campagne di deepfake, OpenAI ha dichiarato che implementerà le credenziali di contenuto della Coalition for Content Provenance and Authenticity, che aggiungono un marchio o “icona” a un’immagine generata dall’IA.

“Stiamo anche sperimentando un classificatore di provenienza, un nuovo strumento per individuare le immagini generate da Dall-E”, ha dichiarato OpenAI. “I nostri test interni hanno mostrato i primi risultati promettenti, anche quando le immagini sono state soggette a tipi comuni di modifiche”.

Il mese scorso, Papa Francesco ha invitato i leader mondiali ad adottare un trattato internazionale vincolante per regolamentare l’IA.

“La dignità intrinseca di ogni essere umano e la fraternità che ci lega come membri dell’unica famiglia umana devono essere alla base dello sviluppo di nuove tecnologie e servire come criteri indiscutibili per valutarle prima del loro impiego, in modo che il progresso digitale possa avvenire nel rispetto della giustizia e contribuire alla causa della pace”, ha detto Francesco.

Per arginare la disinformazione, OpenAI ha dichiarato che ChatGPT inizierà a fornire notizie in tempo reale a livello globale, incluse citazioni e link.

La trasparenza sull’origine delle informazioni e l’equilibrio delle fonti di notizie possono aiutare gli elettori a valutare meglio le informazioni e a decidere da soli di cosa fidarsi”, ha dichiarato l’azienda.

La scorsa estate OpenAI ha donato 5 milioni di dollari all’American Journalism Project. La settimana precedente, OpenAI ha siglato un accordo con l’Associated Press per dare allo sviluppatore di intelligenza artificiale l’accesso all’archivio di articoli giornalistici dell’agenzia globale.

I commenti di OpenAI sull’attribuzione delle notizie arrivano mentre l’azienda si trova ad affrontare diverse cause per copyright, tra cui quella del New York Times. A dicembre, il Times ha citato in giudizio OpenAI e Microsoft, il principale investitore di OpenAI, sostenendo che milioni di articoli sono stati utilizzati per addestrare ChatGPT senza autorizzazione.

“Nell’addestrare i loro modelli, i convenuti hanno riprodotto materiale protetto da copyright per sfruttare proprio ciò che la legge sul copyright è stata concepita per proteggere: gli elementi dell’espressione tutelabile al loro interno, come lo stile, la scelta delle parole, la disposizione e la presentazione dei fatti”.

OpenAI ha definito l’azione legale del New York Times “priva di fondamento”, sostenendo che la testata ha manipolato i suoi prompt per far sì che il chatbot generasse risposte simili agli articoli del Times.

Related Posts

Leave a Comment