Home » Microsoft onthult Security Copilot, een tool voor cyberbeveiliging die gebruik maakt van generatieve AI.

Microsoft onthult Security Copilot, een tool voor cyberbeveiliging die gebruik maakt van generatieve AI.

by Patricia

Nu cyberaanvallen steeds geavanceerder en complexer worden, wenden techbedrijven zich tot kunstmatige intelligentie om aanvallen in realtime te helpen detecteren en voorkomen. Maar sommige cyberbeveiligingsdeskundigen zijn sceptisch over de mogelijkheden ervan.

Dinsdag kondigde de wereldwijde softwaregigant Microsoft de lancering aan van Security Copilot, een nieuwe tool die gebruik maakt van generatieve AI. Generatieve AI is een vorm van kunstmatige intelligentie die grote datasets en taalmodellen gebruikt om patronen en inhoud zoals afbeeldingen, tekst en video te genereren. ChatGPT is het bekendste voorbeeld.

Eerder deze maand werd Microsoft 365 Copilot gelanceerd, een AI-engine die een reeks Office-apps aanstuurt. Security Copilot, de eerste gespecialiseerde Copilot-tool, zal IT- en beveiligingsbeheerders in staat stellen om snel enorme hoeveelheden gegevens te analyseren en tekenen van een cyberdreiging te spotten.

“In een wereld waar er 1.287 wachtwoordaanvallen per seconde plaatsvinden, zijn gefragmenteerde tools en infrastructuur niet voldoende geweest om aanvallers te stoppen”, aldus Microsoft in een persbericht. “En hoewel de aanvallen in de afgelopen vijf jaar met 67% zijn toegenomen, is de beveiligingsindustrie er niet in geslaagd voldoende cyberrisk-professionals aan te nemen om het tempo bij te houden.”

Net als andere generatieve AI-implementaties wordt Security Copilot getriggerd door een vraag of prompt van een gebruiker en reageert het met behulp van de “nieuwste grote taalmodelmogelijkheden,” en Microsoft zegt dat zijn tool “uniek is voor een security use-case.”

“Ons cybergetrainde model voegt een leersysteem toe om nieuwe vaardigheden te creëren en af te stemmen [om] te helpen vangen wat andere benaderingen mogelijk missen en het werk van een analist te vergroten”, legt Microsoft uit. “Bij een typisch incident vertaalt deze boost zich in winst in de kwaliteit van de detectie, de snelheid van de reactie en het vermogen om de beveiligingshouding te versterken.”

Maar Microsoft zelf, evenals externe computerbeveiligingsdeskundigen, zeiden dat het nog wel even duurt voordat de tool op snelheid is.

“AI is nog niet geavanceerd genoeg om gebreken in bedrijfslogica of slimme contracten te detecteren. Dat komt omdat AI gebaseerd is op trainingsgegevens, die het gebruikt om te leren en zich aan te passen”, vertelde Steve Walbroehl, medeoprichter en CTO bij blockchainbeveiligingsbedrijf Halborn, in een interview aan TCN. “Het verkrijgen van voldoende trainingsgegevens kan moeilijk zijn, en AI kan de menselijke geest misschien niet volledig vervangen bij het identificeren van beveiligingskwetsbaarheden.”

Microsoft vraagt om geduld: naarmate Copilot leert van gebruikersinteracties, zal het bedrijf zijn antwoorden aanpassen om meer samenhangende, relevante en waardevolle antwoorden te creëren.

“Security Copilot krijgt niet altijd alles goed. AI-gegenereerde inhoud kan fouten bevatten”, aldus het bedrijf. “Maar Security Copilot is een gesloten leersysteem, wat betekent dat het voortdurend leert van gebruikers en hen in staat stelt expliciete feedback te geven met de feedbackfunctie die direct in de tool is ingebouwd.”

Related Posts

Leave a Comment