Au fur et à mesure que les cyberattaques deviennent plus sophistiquées et plus complexes, les entreprises technologiques se tournent vers l’intelligence artificielle pour les aider à détecter et à prévenir les attaques en temps réel. Mais certains experts en cybersécurité sont sceptiques quant à ses capacités.
Mardi, le géant mondial des logiciels Microsoft a annoncé le lancement de Security Copilot, un nouvel outil qui utilise l’IA générative. L’IA générative est un type d’intelligence artificielle qui utilise de grands ensembles de données et des modèles de langage pour générer des modèles et des contenus tels que des images, des textes et des vidéos. ChatGPT en est l’exemple le plus connu.
Microsoft 365 Copilot, un moteur d’IA conçu pour alimenter une suite d’applications Office, a été lancé au début du mois. Security Copilot, le premier outil spécialisé de Copilot, permettra aux administrateurs informatiques et de sécurité d’analyser rapidement de grandes quantités de données et de repérer les signes d’une cybermenace.
WOW !!! Quelle annonce passionnante Microsoft Security Copilot aka. GAME CHANGER ! https://t.co/HzLTww5ynJ securitycopilot microsoftsecure cybersecurity GPT4
– Heike Ritter (@HeikeRitter) March 28, 2023
« Dans un monde où il y a 1 287 attaques de mots de passe par seconde, les outils et l’infrastructure fragmentés n’ont pas suffi à arrêter les attaquants », a déclaré Microsoft dans un communiqué de presse. « Et bien que les attaques aient augmenté de 67 % au cours des cinq dernières années, le secteur de la sécurité n’a pas été en mesure d’embaucher suffisamment de professionnels du cyberrisque pour suivre le rythme. »
Comme d’autres implémentations d’IA générative, Security Copilot est déclenché par une requête ou une invite d’un utilisateur et répond en utilisant les « dernières capacités de modèle de langage large », et Microsoft affirme que son outil est « unique pour un cas d’utilisation de la sécurité ».
« Notre modèle cyber-entraîné ajoute un système d’apprentissage pour créer et ajuster de nouvelles compétences [pour] aider à attraper ce que d’autres approches pourraient manquer et augmenter le travail d’un analyste », a expliqué Microsoft. « Dans le cas d’un incident typique, ce coup de pouce se traduit par une amélioration de la qualité de la détection, de la rapidité de la réponse et de la capacité à renforcer le dispositif de sécurité.
Cependant, Microsoft elle-même, ainsi que des experts en sécurité informatique externes, ont déclaré qu’il faudra un certain temps pour que l’outil atteigne sa vitesse de croisière.
« L’IA n’est pas encore assez avancée pour détecter les failles dans la logique commerciale ou les contrats intelligents. Cela est dû au fait que l’IA est basée sur des données d’entraînement, qu’elle utilise pour apprendre et s’adapter », a déclaré Steve Walbroehl, cofondateur et directeur technique de la société de sécurité blockchain Halborn, lors d’une interview accordée à TCN. « L’obtention de données d’entraînement suffisantes peut être difficile, et l’IA pourrait ne pas être en mesure de remplacer complètement l’esprit humain dans l’identification des vulnérabilités de sécurité. »
Microsoft demande de la patience : au fur et à mesure que Copilot apprend des interactions avec les utilisateurs, l’entreprise ajustera ses réponses pour créer des réponses plus cohérentes, plus pertinentes et plus utiles.
« Security Copilot n’a pas toujours raison. Le contenu généré par l’IA peut contenir des erreurs », a déclaré l’entreprise. « Mais Security Copilot est un système d’apprentissage en boucle fermée, ce qui signifie qu’il apprend continuellement des utilisateurs et leur permet de donner un retour d’information explicite grâce à la fonction de retour d’information intégrée directement à l’outil. «