Home » La bufala dell’esplosione del Pentagono generata dall’intelligenza artificiale provoca un breve crollo dei mercati

La bufala dell’esplosione del Pentagono generata dall’intelligenza artificiale provoca un breve crollo dei mercati

by Tim

Questo lunedì ha segnato un nuovo apice, o forse un nuovo minimo, nella dimostrazione del potere dell’intelligenza artificiale (AI). Un’immagine che ritrae un’esplosione fittizia al Pentagono, subito segnalata come generata dall’intelligenza artificiale, si è diffusa a macchia d’olio sui social media. Sembra anche che abbia provocato una momentanea flessione del mercato azionario statunitense.

L’immagine allarmante, che ritrae il fumo che fuoriesce dall’iconico edificio, è stata diffusa da numerosi account, tra cui un canale mediatico statale russo.

Interessante notare che le notizie della falsa esplosione del Pentagono sono arrivate anche su account Twitter non ufficiali con segni di verifica blu, amplificando ulteriormente la confusione e l’impatto del falso – evidenziando sia l’importanza di una rigorosa verifica delle fonti sia il risultato non sorprendente dei nuovi criteri di Elon Musk per la verifica degli account.

Quando la foto è diventata virale, gli indici azionari statunitensi hanno subito una lieve flessione, ma i mercati si sono rapidamente ripresi dopo che la foto è stata smascherata come una bufala. Anche il Bitcoin, la principale criptovaluta, ha subito un breve “flash crash” in seguito alla diffusione della fake news, scivolando a 26500 dollari. Tuttavia, il Bitcoin si sta lentamente ma inesorabilmente riprendendo e attualmente viene scambiato a 26.882 dollari, secondo CoinGecko.

Immagine: Yahoo! Finance

Immagine: Yahoo! Finance


L’impatto della bufala è stato così significativo da indurre i vigili del fuoco della contea di Arlington a intervenire. “Non c’è nessuna esplosione o incidente in corso nella riserva del Pentagono o nelle sue vicinanze”, hanno twittato, “e non c’è nessun pericolo immediato o pericolo per il pubblico”.

Paving the Road to More AI Regulation

Questo tipo di inganno online ha sollevato serie preoccupazioni tra i critici dello sviluppo illimitato dell’IA. Molti esperti del settore hanno avvertito che i sistemi avanzati di IA potrebbero diventare strumenti per attori malintenzionati in tutto il mondo, diffondendo disinformazione e causando un pandemonio online.

Non è la prima volta che si verifica un simile inganno. In passato, immagini virali generate dall’intelligenza artificiale hanno ingannato il pubblico, come le immagini di Papa Francesco che indossa una giacca di Balenciaga, un falso arresto del Presidente Donald Trump e deepfakes di celebrità come Elon Musk o SBF che promuovono truffe di criptovalute.

Anche personalità di spicco hanno lanciato l’allarme sulla diffusione della disinformazione.

Centinaia di esperti di tecnologia hanno già chiesto di fermare per sei mesi lo sviluppo dell’intelligenza artificiale avanzata fino a quando non saranno stabilite linee guida di sicurezza adeguate. E persino il dottor Geoffrey Hinton, noto come il “padrino dell’IA”, si è dimesso dal suo ruolo in Google per esprimere le sue preoccupazioni sui potenziali rischi dell’IA senza danneggiare la reputazione del suo ex datore di lavoro.

Episodi di disinformazione come questo alimentano il dibattito in corso sulla necessità di un quadro normativo ed etico per l’IA. Poiché l’IA diventa uno strumento sempre più potente nelle mani di agenti di disinformazione, le conseguenze possono essere caotiche.

Sulla base degli eventi odierni, una domanda spicca: Cosa succederebbe se fosse un’IA a usare il potere dei social media per diffondere il caos e controllare i mercati finanziari? In un certo senso ce lo aspettavamo.

Related Posts

Leave a Comment