Os ciberataques tornam-se mais sofisticados e complexos, as empresas tecnológicas estão a recorrer à inteligência artificial para ajudar a detectar e prevenir ataques em tempo real. Mas alguns especialistas em cibersegurança são cépticos quanto às suas capacidades.
Na terça-feira, o gigante global do software Microsoft anunciou o lançamento do Security Copilot, uma nova ferramenta que utiliza inteligência artificial generativa. A IA generativa é um tipo de inteligência artificial que utiliza grandes conjuntos de dados e modelos de linguagem para gerar padrões e conteúdos como imagens, texto, e vídeo. ChatGPT é o exemplo mais conhecido.
Microsoft 365 Copilot, um motor de IA construído para alimentar um conjunto de aplicações Office, foi lançado no início deste mês. Security Copilot, a primeira ferramenta especializada Copilot, permitirá aos administradores de TI e de segurança analisar rapidamente grandes quantidades de dados e detectar sinais de uma ameaça cibernética.
WOW!!! Que anúncio emocionante Microsoft Security Copilot aka. MUDANÇA DE JOGO! https://t.co/HzLTww5ynJ piloto de segurança microsoftsecure seguranca de câmara GPT4
– Heike Ritter (@HeikeRitter) March 28, 2023
“Num mundo em que há 1.287 ataques de palavra-passe por segundo, ferramentas e infra-estruturas fragmentadas não têm sido suficientes para deter os atacantes”, disse a Microsoft num comunicado de imprensa. “E embora os ataques tenham aumentado 67% nos últimos cinco anos, a indústria da segurança não tem sido capaz de contratar profissionais cibernéticos suficientes para manter o ritmo”.
Tal como outras implementações generativas de IA, o Security Copilot é desencadeado por uma consulta ou solicitação de um utilizador e responde utilizando as “últimas capacidades do modelo de linguagem grande”, e a Microsoft diz que a sua ferramenta é “exclusiva para um caso de utilização de segurança”.
“O nosso modelo ciberformado acrescenta um sistema de aprendizagem para criar e afinar novas capacidades [para] ajudar a apanhar o que outras abordagens podem falhar e aumentar o trabalho de um analista”, explicou a Microsoft. “Num incidente típico, este impulso traduz-se em ganhos na qualidade de detecção, rapidez de resposta e capacidade de reforçar a postura de segurança”.
Mas a própria Microsoft, bem como peritos externos em segurança informática, disse que levará algum tempo até que a ferramenta se desenvolva.
“A IA ainda não está suficientemente avançada para detectar falhas na lógica empresarial ou contratos inteligentes. Isto porque a IA é baseada em dados de formação, que utiliza para aprender e adaptar”, disse Steve Walbroehl, co-fundador e CTO da empresa de segurança Halborn, numa entrevista à TCN. “A obtenção de dados de formação suficientes pode ser difícil, e a IA pode não ser capaz de substituir totalmente a mente humana na identificação de vulnerabilidades de segurança”.
A Microsoft está a pedir paciência: à medida que o Copilot aprende com as interacções dos utilizadores, a empresa ajustará as suas respostas para criar respostas mais coerentes, relevantes e valiosas.
“O Copilot de Segurança nem sempre consegue acertar tudo. O conteúdo gerado pela IA pode conter erros”, disse a empresa. “Mas o Security Copilot é um sistema de aprendizagem em circuito fechado, o que significa que está continuamente a aprender com os utilizadores e que lhes permite dar feedback explícito com a funcionalidade de feedback incorporada directamente na ferramenta”.