W miarę jak cyberataki stają się coraz bardziej wyrafinowane i złożone, firmy technologiczne zwracają się ku sztucznej inteligencji, aby pomóc w wykrywaniu i zapobieganiu atakom w czasie rzeczywistym. Jednak niektórzy eksperci od cyberbezpieczeństwa są sceptyczni co do jej możliwości.
We wtorek światowy gigant oprogramowania Microsoft ogłosił wprowadzenie Security Copilot, nowego narzędzia, które wykorzystuje generatywną AI. Generative AI to rodzaj sztucznej inteligencji, która wykorzystuje duże zbiory danych i modele językowe do generowania wzorców i treści takich jak obrazy, tekst i wideo. ChatGPT jest najbardziej znanym przykładem.
Microsoft 365 Copilot, silnik AI zbudowany do zasilania pakietu aplikacji Office, został uruchomiony na początku tego miesiąca. Security Copilot, pierwsze specjalistyczne narzędzie Copilot, pozwoli administratorom IT i bezpieczeństwa szybko analizować ogromne ilości danych i dostrzegać oznaki cyberzagrożeń.
WOW!!! Co za ekscytujące ogłoszenie Microsoft Security Copilot aka. GAME CHANGER! https://t.co/HzLTww5ynJ securitycopilot microsoftsecure cybersecurity
– Heike Ritter (@HeikeRitter) 28 marca 2023
„W świecie, w którym dochodzi do 1 287 ataków na hasła na sekundę, fragmentaryczne narzędzia i infrastruktura nie wystarczyły do powstrzymania atakujących” – powiedział Microsoft w komunikacie prasowym. „I chociaż ataki wzrosły o 67% w ciągu ostatnich pięciu lat, branża bezpieczeństwa nie była w stanie zatrudnić wystarczającej liczby specjalistów od cyberbezpieczeństwa, aby dotrzymać kroku”.
Podobnie jak inne generatywne implementacje AI, Security Copilot jest wyzwalany przez zapytanie lub podpowiedź od użytkownika i odpowiada przy użyciu „najnowszych możliwości dużych modeli językowych”, a Microsoft twierdzi, że jego narzędzie jest „unikalne dla przypadku użycia w dziedzinie bezpieczeństwa”.
„Nasz cybernetycznie wyszkolony model dodaje system uczenia się, aby tworzyć i dostrajać nowe umiejętności [aby] pomóc wyłapać to, co inne podejścia mogą przegapić i rozszerzyć pracę analityka” – wyjaśnia Microsoft. „W typowym incydencie, to wzmocnienie przekłada się na zyski w jakości wykrywania, szybkości reakcji i zdolności do wzmocnienia postawy bezpieczeństwa”.
Ale sam Microsoft, jak i zewnętrzni eksperci od bezpieczeństwa komputerowego, powiedzieli, że minie trochę czasu, zanim narzędzie nabierze rozpędu.
„AI nie jest jeszcze wystarczająco zaawansowana, aby wykryć błędy w logice biznesowej lub inteligentnych kontraktach. Dzieje się tak dlatego, że AI opiera się na danych treningowych, które wykorzystuje do nauki i adaptacji” – powiedział w wywiadzie dla TCN Steve Walbroehl, współzałożyciel i CTO w firmie Halborn zajmującej się bezpieczeństwem blockchain. „Uzyskanie wystarczających danych treningowych może być trudne, a AI może nie być w stanie w pełni zastąpić ludzkiego umysłu w identyfikowaniu luk w zabezpieczeniach”.
Microsoft prosi o cierpliwość: w miarę jak Copilot uczy się na podstawie interakcji z użytkownikami, firma będzie dostosowywać swoje odpowiedzi, aby tworzyć bardziej spójne, istotne i wartościowe odpowiedzi.
„Security Copilot nie zawsze trafia we wszystko. Treści generowane przez AI mogą zawierać błędy” – powiedziała firma. „Ale Security Copilot jest systemem uczącym się w zamkniętej pętli, co oznacza, że nieustannie uczy się od użytkowników i pozwala im przekazać wyraźną informację zwrotną dzięki funkcji informacji zwrotnej wbudowanej bezpośrednio w narzędzie. „