Home » Microsoft stellt Security Copilot vor, ein Cybersecurity-Tool, das generative KI nutzt

Microsoft stellt Security Copilot vor, ein Cybersecurity-Tool, das generative KI nutzt

by Thomas

Da Cyberangriffe immer ausgefeilter und komplexer werden, setzen Technologieunternehmen auf künstliche Intelligenz, um Angriffe in Echtzeit erkennen und verhindern zu können. Einige Cybersicherheitsexperten sind jedoch skeptisch, was ihre Fähigkeiten angeht.

Am Dienstag kündigte der Softwaregigant Microsoft die Einführung von Security Copilot an, einem neuen Tool, das generative KI einsetzt. Generative KI ist eine Art der künstlichen Intelligenz, die große Datensätze und Sprachmodelle verwendet, um Muster und Inhalte wie Bilder, Texte und Videos zu generieren. ChatGPT ist das bekannteste Beispiel.

Microsoft 365 Copilot, eine KI-Engine, die für eine Reihe von Office-Anwendungen entwickelt wurde, wurde Anfang dieses Monats eingeführt. Security Copilot, das erste spezialisierte Copilot-Tool, wird es IT- und Sicherheitsadministratoren ermöglichen, große Datenmengen schnell zu analysieren und Anzeichen einer Cyber-Bedrohung zu erkennen.

„In einer Welt, in der es 1.287 Passwortangriffe pro Sekunde gibt, haben fragmentierte Tools und Infrastrukturen nicht ausgereicht, um Angreifer zu stoppen“, so Microsoft in einer Presseerklärung. „Und obwohl die Angriffe in den letzten fünf Jahren um 67 % zugenommen haben, war die Sicherheitsbranche nicht in der Lage, genügend Fachleute für Cyberrisiken einzustellen, um Schritt zu halten.“

Wie andere generative KI-Implementierungen wird Security Copilot durch eine Anfrage oder Eingabeaufforderung eines Benutzers ausgelöst und antwortet mit den „neuesten großen Sprachmodellfähigkeiten“, und Microsoft sagt, sein Tool sei „einzigartig für einen Sicherheitsanwendungsfall“.

„Unser cyber-trainiertes Modell fügt ein lernendes System hinzu, um neue Fähigkeiten zu schaffen und zu optimieren [um] dabei zu helfen, zu erkennen, was andere Ansätze möglicherweise übersehen, und die Arbeit eines Analysten zu ergänzen“, erklärt Microsoft. „Bei einem typischen Vorfall bedeutet dies eine Verbesserung der Qualität der Erkennung, der Reaktionsgeschwindigkeit und der Fähigkeit, die Sicherheitslage zu verbessern.“

Microsoft selbst wie auch externe Computersicherheitsexperten erklärten jedoch, dass es eine Weile dauern wird, bis das Tool seine volle Leistungsfähigkeit erreicht hat.

„Die KI ist noch nicht weit genug fortgeschritten, um Fehler in der Geschäftslogik oder in intelligenten Verträgen zu erkennen. Das liegt daran, dass KI auf Trainingsdaten basiert, mit denen sie lernt und sich anpasst“, sagte Steve Walbroehl, Mitbegründer und CTO der Blockchain-Sicherheitsfirma Halborn, in einem Interview mit TCN. „Es kann schwierig sein, genügend Trainingsdaten zu erhalten, und KI kann den menschlichen Verstand bei der Identifizierung von Sicherheitsschwachstellen nicht vollständig ersetzen.“

Microsoft bittet um Geduld: Während Copilot aus den Nutzerinteraktionen lernt, wird das Unternehmen seine Antworten anpassen, um kohärentere, relevantere und wertvollere Antworten zu erstellen.

„Security Copilot macht nicht immer alles richtig. KI-generierte Inhalte können Fehler enthalten“, so das Unternehmen. „Aber Security Copilot ist ein geschlossenes Lernsystem, das heißt, es lernt kontinuierlich von den Nutzern und ermöglicht ihnen, mit der direkt in das Tool integrierten Feedback-Funktion explizites Feedback zu geben.

Related Posts

Leave a Comment