Jelikož jsou kybernetické útoky stále sofistikovanější a složitější, technologické společnosti se obracejí na umělou inteligenci, aby jim pomohla odhalovat útoky a předcházet jim v reálném čase. Někteří odborníci na kybernetickou bezpečnost jsou však k jejím schopnostem skeptičtí.
V úterý globální softwarový gigant Microsoft oznámil spuštění nového nástroje Security Copilot, který využívá generativní umělou inteligenci. Generativní umělá inteligence je typ umělé inteligence, která využívá rozsáhlé soubory dat a jazykové modely k vytváření vzorů a obsahu, jako jsou obrázky, text a video. Nejznámějším příkladem je ChatGPT.
Začátkem tohoto měsíce byl spuštěn Microsoft 365 Copilot, engine umělé inteligence vytvořený k pohonu sady aplikací Office. Security Copilot, první specializovaný nástroj Copilot, umožní správcům IT a zabezpečení rychle analyzovat obrovské množství dat a odhalit příznaky kybernetické hrozby.
WOW!!! To je ale vzrušující oznámení Microsoft Security Copilot alias GAME CHANGER! https://t.co/HzLTww5ynJ securitycopilot microsoftsecure cybersecurity GPT4
– Heike Ritter (@HeikeRitter) 28. března 2023
„Ve světě, kde dochází k 1 287 útokům na hesla za sekundu, nestačily roztříštěné nástroje a infrastruktura k zastavení útočníků,“ uvedla společnost Microsoft v tiskové zprávě. „A přestože počet útoků za posledních pět let vzrostl o 67 %, bezpečnostní průmysl nebyl schopen najmout dostatek odborníků na kybernetická rizika, aby s nimi udržel krok.“
Stejně jako jiné implementace generativní umělé inteligence je Security Copilot spuštěn dotazem nebo výzvou uživatele a reaguje pomocí „nejnovějších možností velkého jazykového modelu“ a Microsoft tvrdí, že jeho nástroj je „jedinečný pro případ použití v oblasti bezpečnosti“.
„Náš kyberneticky vycvičený model přidává systém učení, který vytváří a ladí nové dovednosti [pomáhá] zachytit to, co by jiné přístupy mohly přehlédnout, a rozšiřuje práci analytika,“ vysvětluje Microsoft. „Při typickém incidentu se toto posílení projeví v nárůstu kvality detekce, rychlosti reakce a schopnosti posílit bezpečnostní pozici.“
Samotný Microsoft i externí odborníci na počítačovou bezpečnost však uvedli, že bude chvíli trvat, než se tento nástroj dostane do tempa.
„Umělá inteligence zatím není dostatečně pokročilá, aby dokázala odhalit chyby v obchodní logice nebo chytrých smlouvách. Je to proto, že AI je založena na tréninkových datech, která využívá k učení a přizpůsobování,“ řekl v rozhovoru pro TCN Steve Walbroehl, spoluzakladatel a technický ředitel společnosti Halborn, která se zabývá bezpečností blockchainu. „Získání dostatečného množství tréninkových dat může být obtížné a AI nemusí být schopna plně nahradit lidskou mysl při identifikaci bezpečnostních zranitelností.“
Microsoft žádá o trpělivost: jak se bude Copilot učit z interakcí s uživateli, bude společnost upravovat jeho odpovědi tak, aby vytvářel ucelenější, relevantnější a hodnotnější odpovědi.
„Bezpečnostní Copilot ne vždy všechno správně pochopí. Obsah generovaný umělou inteligencí může obsahovat chyby,“ uvedla společnost. „Security Copilot je však systém s uzavřenou smyčkou učení, což znamená, že se neustále učí od uživatelů a umožňuje jim poskytovat explicitní zpětnou vazbu pomocí funkce zpětné vazby zabudované přímo v nástroji.“