A medida que los ciberataques se vuelven más sofisticados y complejos, las empresas tecnológicas recurren a la inteligencia artificial para detectar y prevenir ataques en tiempo real. Pero algunos expertos en ciberseguridad se muestran escépticos sobre sus capacidades.
El martes, el gigante mundial del software Microsoft anunció el lanzamiento de Security Copilot, una nueva herramienta que utiliza IA generativa. La IA generativa es un tipo de inteligencia artificial que utiliza grandes conjuntos de datos y modelos lingüísticos para generar patrones y contenidos como imágenes, texto y vídeo. ChatGPT es el ejemplo más conocido.
Microsoft 365 Copilot, un motor de IA creado para impulsar un conjunto de aplicaciones de Office, se lanzó a principios de este mes. Security Copilot, la primera herramienta especializada de Copilot, permitirá a los administradores de TI y seguridad analizar rápidamente grandes cantidades de datos y detectar indicios de ciberamenazas.
¡¡¡WOW!!! Qué anuncio tan emocionante Microsoft Security Copilot aka. GAME CHANGER! https://t.co/HzLTww5ynJ securitycopilot microsoftsecure cybersecurity GPT4
– Heike Ritter (@HeikeRitter) 28 de marzo de 2023
«En un mundo en el que se producen 1.287 ataques a contraseñas por segundo, las herramientas y la infraestructura fragmentadas no han bastado para detener a los atacantes», afirma Microsoft en un comunicado de prensa. «Y aunque los ataques han aumentado un 67% en los últimos cinco años, la industria de la seguridad no ha sido capaz de contratar suficientes profesionales del ciberriesgo para seguir el ritmo.»
Al igual que otras implementaciones de IA generativa, Security Copilot se activa por una consulta o indicación de un usuario y responde utilizando las «últimas capacidades de modelo de lenguaje grande», y Microsoft dice que su herramienta es «única para un caso de uso de seguridad.»
«Nuestro modelo ciberentrenado añade un sistema de aprendizaje para crear y afinar nuevas habilidades [para] ayudar a captar lo que otros enfoques podrían pasar por alto y aumentar el trabajo de un analista», explica Microsoft. «En un incidente típico, este impulso se traduce en ganancias en la calidad de la detección, la velocidad de respuesta y la capacidad de reforzar la postura de seguridad».
Pero la propia Microsoft, así como expertos externos en seguridad informática, dijeron que la herramienta tardará un tiempo en ponerse al día.
«La IA aún no está lo suficientemente avanzada como para detectar fallos en la lógica empresarial o en los contratos inteligentes. Esto se debe a que la IA se basa en datos de entrenamiento, que utiliza para aprender y adaptarse», dijo Steve Walbroehl, cofundador y CTO de la firma de seguridad blockchain Halborn, a TCN en una entrevista. «Obtener suficientes datos de entrenamiento puede ser difícil, y la IA puede no ser capaz de reemplazar completamente la mente humana en la identificación de vulnerabilidades de seguridad».
Microsoft pide paciencia: a medida que Copilot aprenda de las interacciones de los usuarios, la compañía ajustará sus respuestas para crear respuestas más coherentes, relevantes y valiosas.
«Security Copilot no siempre acierta en todo. El contenido generado por IA puede contener errores», afirma la empresa. «Pero Security Copilot es un sistema de aprendizaje en bucle cerrado, lo que significa que aprende continuamente de los usuarios y les permite dar su opinión de forma explícita con la función de comentarios integrada directamente en la herramienta».