Home » Il crimine informatico alimentato dall’intelligenza artificiale esploderà nel 2024: Esecutivo CrowdStrike

Il crimine informatico alimentato dall’intelligenza artificiale esploderà nel 2024: Esecutivo CrowdStrike

by Tim

Il nuovo anno porta con sé nuove minacce alla sicurezza informatica alimentate dall’intelligenza artificiale, ha dichiarato martedì Shawn Henry, Chief Security Officer di CrowdStrike, alla CBS Mornings.

“Penso che sia una preoccupazione importante per tutti”, ha detto Henry.

“L’intelligenza artificiale ha davvero messo questo strumento tremendamente potente nelle mani della persona media e lo ha reso incredibilmente più capace”, ha spiegato. “Gli avversari stanno quindi utilizzando l’IA, questa nuova innovazione, per superare diverse capacità di cybersecurity e accedere alle reti aziendali”.

Henry ha sottolineato l’uso dell’IA per penetrare nelle reti aziendali e per diffondere disinformazione online utilizzando deepfakes video, audio e testuali sempre più sofisticati.

Henry ha sottolineato la necessità di verificare la fonte delle informazioni e di non prendere mai per oro colato ciò che viene pubblicato online.

“Bisogna verificare la provenienza”, ha detto Henry. “Chi sta raccontando la storia, qual è la sua motivazione e si può verificare attraverso più fonti?”.

“È incredibilmente difficile perché le persone, quando usano i video, hanno 15 o 20 secondi, non hanno il tempo o spesso non fanno lo sforzo di andare a cercare i dati, e questo è un problema”.

Facendo notare che il 2024 è un anno di elezioni per diversi Paesi, tra cui Stati Uniti, Messico, Sudafrica, Taiwan e India, Henry ha detto che la democrazia stessa è in ballo, e i criminali informatici cercano di approfittare del caos politico sfruttando l’intelligenza artificiale.

“Abbiamo visto avversari stranieri prendere di mira le elezioni statunitensi per molti anni, non solo nel 2016. [La Cina ci ha preso di mira già nel 2008”, ha detto Henry. “Nel corso degli anni abbiamo visto Russia, Cina e Iran impegnati in questo tipo di disinformazione e di informazione, e sicuramente lo useranno di nuovo nel 2024”.

“La gente deve capire da dove vengono le informazioni”, ha detto Henry. “Perché ci sono persone là fuori che hanno intenzioni nefaste e creano problemi enormi”.

Una preoccupazione particolare per le prossime elezioni statunitensi del 2024 è la sicurezza delle macchine per il voto. Alla domanda se l’intelligenza artificiale possa essere usata per hackerare le macchine per il voto, Henry si è detto ottimista sul fatto che la natura decentralizzata del sistema di voto statunitense impedirà che ciò accada.

“Penso che il nostro sistema negli Stati Uniti sia molto decentralizzato”, ha detto Henry. “Ci sono singole sacche che potrebbero essere prese di mira, come le liste di registrazione degli elettori, eccetera, [ma] non credo che un problema di tabulazione degli elettori su larga scala possa avere un impatto su un’elezione.
Henry ha sottolineato la capacità dell’IA di dare ai criminali informatici non troppo tecnici l’accesso ad armi tecniche.

“L’IA fornisce uno strumento molto capace nelle mani di persone che potrebbero non avere elevate competenze tecniche”, ha detto Henry. “Possono scrivere codice, creare software dannoso, e-mail di phishing, ecc.”.

A ottobre, la RAND Corporation ha pubblicato un rapporto che suggerisce che l’intelligenza artificiale generativa potrebbe essere usata per aiutare i terroristi a pianificare attacchi biologici.

“In genere, se un attore malintenzionato è esplicito [nelle sue intenzioni], si ottiene una risposta del tipo ‘Mi dispiace, non posso aiutarla’”, ha dichiarato in un’intervista al TCN il coautore e ingegnere senior della RAND Corporation Christopher Mouton. “Quindi, in genere, si deve ricorrere a una di queste tecniche di jailbreak o di prompt engineering per scendere di un livello al di sotto di questi guardrail”.

In un rapporto separato, la società di cybersicurezza SlashNext ha riferito che gli attacchi di phishing via e-mail sono aumentati del 1265% dall’inizio del 2023.

I responsabili politici mondiali hanno trascorso la maggior parte del 2023 alla ricerca di modi per regolamentare e limitare l’uso improprio dell’IA generativa, compreso il Segretario generale delle Nazioni Unite, che ha lanciato l’allarme sull’uso di deepfakes generati dall’IA nelle zone di conflitto.

Ad agosto, la Commissione elettorale federale degli Stati Uniti ha presentato una petizione per vietare l’uso dell’intelligenza artificiale nelle pubblicità delle campagne elettorali fino alle elezioni del 2024.

I giganti della tecnologia Microsoft e Meta hanno annunciato nuove politiche volte a limitare la disinformazione politica alimentata dall’intelligenza artificiale.

“Il mondo nel 2024 potrebbe vedere diversi Stati nazionali autoritari cercare di interferire nei processi elettorali”, ha dichiarato Microsoft. “E potrebbero combinare tecniche tradizionali con l’IA e altre nuove tecnologie per minacciare l’integrità dei sistemi elettorali”.

Anche Papa Francesco, che è stato oggetto di deepfakes virali generati dall’AI, in diverse occasioni ha affrontato il tema dell’intelligenza artificiale nei sermoni.

“Dobbiamo essere consapevoli delle rapide trasformazioni in atto e gestirle in modo da salvaguardare i diritti umani fondamentali e rispettare le istituzioni e le leggi che promuovono lo sviluppo umano integrale”, ha detto Papa Francesco. “L’intelligenza artificiale deve essere al servizio del nostro migliore potenziale umano e delle nostre più alte aspirazioni, non competere con essi”

Related Posts

Leave a Comment