По мере того как кибератаки становятся все более изощренными и сложными, технологические компании обращаются к искусственному интеллекту, чтобы помочь обнаружить и предотвратить атаки в режиме реального времени. Но некоторые эксперты по кибербезопасности скептически относятся к его возможностям.
Во вторник мировой гигант программного обеспечения Microsoft объявил о запуске Security Copilot, нового инструмента, использующего генеративный искусственный интеллект. Генеративный ИИ — это тип искусственного интеллекта, который использует большие массивы данных и языковые модели для создания шаблонов и контента, такого как изображения, текст и видео. Самым известным примером является ChatGPT.
В начале этого месяца был запущен Microsoft 365 Copilot — механизм искусственного интеллекта, созданный для работы с набором приложений Office. Security Copilot, первый специализированный инструмент Copilot, позволит ИТ-специалистам и администраторам безопасности быстро анализировать огромные объемы данных и выявлять признаки киберугрозы.
WOW!!! Какой захватывающий анонс Microsoft Security Copilot aka. GAME CHANGER! https://t.co/HzLTww5ynJ securitycopilot microsoftsecure cybersecurity GPT4
— Heike Ritter (@HeikeRitter) 28 марта 2023
«В мире, где в секунду происходит 1 287 атак на пароли, разрозненных инструментов и инфраструктуры недостаточно, чтобы остановить злоумышленников», — говорится в пресс-релизе Microsoft. «И хотя за последние пять лет число атак увеличилось на 67%, индустрия безопасности не смогла нанять достаточное количество специалистов по киберриску, чтобы идти в ногу со временем».
Как и другие реализации генеративного ИИ, Security Copilot запускается по запросу или подсказке пользователя и отвечает, используя «новейшие возможности больших языковых моделей», и Microsoft утверждает, что ее инструмент «уникален для использования в сфере безопасности».
«Наша кибернетически обученная модель добавляет систему обучения для создания и настройки новых навыков [чтобы] помочь уловить то, что другие подходы могут пропустить, и дополнить работу аналитика», — пояснили в Microsoft. «В типичном инциденте это усиление выражается в повышении качества обнаружения, скорости реагирования и способности укрепить защиту».
Однако сама компания Microsoft, а также сторонние эксперты по компьютерной безопасности заявили, что потребуется некоторое время, чтобы инструмент вошел в курс дела.
«ИИ еще недостаточно развит, чтобы обнаружить недостатки в бизнес-логике или смарт-контрактах. Это связано с тем, что ИИ основан на обучающих данных, которые он использует для обучения и адаптации», — сказал в интервью TCN Стив Уолброэл, соучредитель и технический директор компании Halborn, специализирующейся на безопасности блокчейна. «Получение достаточного количества обучающих данных может быть затруднено, и ИИ не сможет полностью заменить человеческий разум в выявлении уязвимостей безопасности».
Microsoft просит набраться терпения: по мере того, как Copilot будет учиться на взаимодействии с пользователями, компания будет корректировать свои ответы, чтобы создать более последовательные, релевантные и ценные ответы.
«Security Copilot не всегда все делает правильно. Контент, генерируемый искусственным интеллектом, может содержать ошибки», — заявили в компании. «Но Security Copilot — это система обучения с замкнутым циклом, что означает, что она постоянно учится у пользователей и позволяет им давать явные отзывы с помощью функции обратной связи, встроенной непосредственно в инструмент. «