Home » Microsoft presenta Security Copilot, uno strumento di cybersecurity che utilizza l’intelligenza artificiale generativa

Microsoft presenta Security Copilot, uno strumento di cybersecurity che utilizza l’intelligenza artificiale generativa

by Thomas

Con gli attacchi informatici sempre più sofisticati e complessi, le aziende tecnologiche si rivolgono all’intelligenza artificiale per individuare e prevenire gli attacchi in tempo reale. Ma alcuni esperti di cybersicurezza sono scettici sulle sue capacità.

Martedì scorso, il gigante mondiale del software Microsoft ha annunciato il lancio di Security Copilot, un nuovo strumento che utilizza l’intelligenza artificiale generativa. L’intelligenza artificiale generativa è un tipo di intelligenza artificiale che utilizza grandi insiemi di dati e modelli linguistici per generare modelli e contenuti come immagini, testi e video. ChatGPT è l’esempio più noto.

All’inizio del mese è stato lanciato Microsoft 365 Copilot, un motore di intelligenza artificiale costruito per alimentare una suite di applicazioni Office. Security Copilot, il primo strumento Copilot specializzato, consentirà agli amministratori IT e della sicurezza di analizzare rapidamente grandi quantità di dati e di individuare i segnali di una minaccia informatica.

“In un mondo in cui si verificano 1.287 attacchi alle password al secondo, la frammentazione degli strumenti e delle infrastrutture non è stata sufficiente a fermare gli aggressori”, ha dichiarato Microsoft in un comunicato stampa. “E sebbene gli attacchi siano aumentati del 67% negli ultimi cinque anni, il settore della sicurezza non è stato in grado di assumere un numero sufficiente di professionisti del cyberrischio per tenere il passo”.

Come altre implementazioni di IA generativa, Security Copilot viene attivato da una domanda o da una richiesta da parte di un utente e risponde utilizzando le “più recenti capacità di modelli linguistici di grandi dimensioni”, e Microsoft afferma che il suo strumento è “unico per un caso d’uso di sicurezza”.

“Il nostro modello addestrato dal punto di vista informatico aggiunge un sistema di apprendimento per creare e mettere a punto nuove competenze [per] aiutare a cogliere ciò che altri approcci potrebbero non cogliere e aumentare il lavoro di un analista”, ha spiegato Microsoft. “In un incidente tipico, questa spinta si traduce in un aumento della qualità del rilevamento, della velocità di risposta e della capacità di rafforzare la postura di sicurezza”.

Ma Microsoft stessa, così come altri esperti di sicurezza informatica, hanno affermato che ci vorrà un po’ di tempo prima che lo strumento raggiunga la velocità necessaria.

“L’intelligenza artificiale non è ancora abbastanza avanzata da rilevare le falle nella logica aziendale o nei contratti intelligenti. Questo perché l’IA si basa su dati di addestramento, che utilizza per imparare e adattarsi”, ha dichiarato in un’intervista a TCN Steve Walbroehl, cofondatore e CTO della società di sicurezza blockchain Halborn. “Ottenere dati di addestramento sufficienti può essere difficile e l’IA potrebbe non essere in grado di sostituire completamente la mente umana nell’identificare le vulnerabilità della sicurezza”.

Microsoft chiede pazienza: man mano che Copilot apprenderà dalle interazioni degli utenti, l’azienda modificherà le sue risposte per creare risposte più coerenti, pertinenti e di valore.

“Security Copilot non sempre azzecca tutto. I contenuti generati dall’intelligenza artificiale possono contenere errori”, ha dichiarato l’azienda. “Ma Security Copilot è un sistema di apprendimento a ciclo chiuso, il che significa che impara continuamente dagli utenti e consente loro di fornire un feedback esplicito grazie alla funzione di feedback integrata direttamente nello strumento. “

Related Posts

Leave a Comment