Новый год принесет новые угрозы кибербезопасности, основанные на искусственном интеллекте, заявил во вторник в интервью CBS Mornings директор по безопасности CrowdStrike Шон Генри.
«Я думаю, что это серьезная проблема для всех», — сказал Генри.
«ИИ дал в руки обычного человека невероятно мощный инструмент и сделал его невероятно более способным», — пояснил он. «Поэтому противники используют ИИ, эту новую инновацию, для преодоления различных возможностей кибербезопасности, чтобы получить доступ к корпоративным сетям».
Генри подчеркнул, что ИИ используется для проникновения в корпоративные сети, а также для распространения дезинформации в Интернете с помощью все более сложных видео-, аудио- и текстовых подделок.
Как ИИ повлияет на ландшафт угроз в 2024 году?
Директор по безопасности CrowdStrike Шон Генри высказывает свое мнение и проливает свет на потенциальные основные киберугрозы для глобальных выборов 2024 года в эфире @CBSMornings
Смотрите прямо сейчас: https://t.co/2bFBEWtddi pic.twitter.com/KGyn7bxrwo
— CrowdStrike (@CrowdStrike) January 2, 2024
Генри подчеркнул, что необходимо обращать внимание на источник информации и никогда не принимать опубликованное в Интернете за чистую монету.
«Вы должны проверить, откуда это взялось», — сказал Генри. «Кто рассказывает эту историю, какова ее мотивация, и можете ли вы проверить ее через несколько источников?»
«Это невероятно сложно, потому что у людей — когда они используют видео — есть 15 или 20 секунд, у них нет времени или зачастую они не прилагают усилий, чтобы найти источник этих данных, и это создает проблемы».
Отметив, что 2024 год — это год выборов в нескольких странах, в том числе в США, Мексике, Южной Африке, Тайване и Индии, Генри сказал, что демократия сама по себе находится на голосовании, и киберпреступники хотят воспользоваться политическим хаосом, используя ИИ.
«Мы видим, что иностранные противники атакуют американские выборы уже много лет, и это произошло не только в 2016 году. [Китай атаковал нас еще в 2008 году», — сказал Генри. «Мы видели, как Россия, Китай и Иран занимались подобной дезинформацией и дезинформированием на протяжении многих лет; они абсолютно точно собираются использовать это снова здесь, в 2024 году».
«Люди должны понимать, откуда поступает информация», — сказал Генри. «Потому что есть люди, которые имеют злые намерения и создают огромные проблемы».
Особую озабоченность на предстоящих в 2024 году выборах в США вызывает безопасность машин для голосования. Когда Генри спросили, можно ли использовать искусственный интеллект для взлома машин для голосования, он оптимистично ответил, что децентрализованная природа американской системы голосования не позволит этому случиться.
«Я думаю, что наша система в США очень децентрализована», — сказал Генри. «Есть отдельные карманы, которые могут стать мишенью, например, списки избирателей и т. д., [но] я не думаю, что проблема подсчета голосов в широком масштабе может повлиять на выборы — не думаю, что это серьезная проблема.»
Генри отметил способность ИИ дать не очень техничным киберпреступникам доступ к техническому оружию.
«ИИ дает очень мощный инструмент в руки людей, которые могут не обладать высокими техническими навыками», — сказал Генри. «Они могут писать код, создавать вредоносные программы, фишинговые письма и т. д.».
В октябре корпорация RAND выпустила доклад, в котором говорится, что генеративный ИИ может быть взломан, чтобы помочь террористам в планировании биологических атак.
Как правило, если злоумышленник явно выражает свои намерения, вы получите ответ типа «Извините, я не могу вам помочь», — сказал в интервью TCN соавтор доклада и старший инженер RAND Corporation Кристофер Моутон. «Поэтому обычно приходится использовать одну из этих техник взлома или оперативную инженерию, чтобы опуститься на один уровень ниже этих ограждений».
В отдельном отчете компания SlashNext, специализирующаяся на кибербезопасности, сообщила, что с начала 2023 года число фишинговых атак по электронной почте выросло на 1265 %.
Мировые политики провели большую часть 2023 года в поисках способов регулирования и борьбы со злоупотреблением генеративным ИИ, включая генерального секретаря Организации Объединенных Наций, который забил тревогу по поводу использования генерируемых ИИ глубоких подделок в зонах конфликтов.
В августе Федеральная избирательная комиссия США рассмотрела петицию о запрете использования искусственного интеллекта в предвыборной рекламе в преддверии выборов 2024 года.
Технологические гиганты Microsoft и Meta объявили о новой политике, направленной на борьбу с политической дезинформацией с помощью искусственного интеллекта.
«В 2024 году в мире может появиться множество авторитарных государств, стремящихся вмешаться в избирательные процессы», — заявили в Microsoft. «Они могут сочетать традиционные методы с ИИ и другими новыми технологиями, чтобы угрожать целостности избирательных систем».
Даже Папа Римский Франциск, ставший объектом вирусных фейков, сгенерированных искусственным интеллектом, неоднократно обращался к искусственному интеллекту в своих проповедях.
«Мы должны осознавать происходящие сейчас быстрые преобразования и управлять ими таким образом, чтобы защитить основные права человека и уважать институты и законы, способствующие целостному человеческому развитию», — сказал Папа Франциск. «Искусственный интеллект должен служить нашему лучшему человеческому потенциалу и нашим самым высоким устремлениям, а не конкурировать с ними. «