Home » Чат-боты с искусственным интеллектом могут быть причастны к терроризму: доклад.

Чат-боты с искусственным интеллектом могут быть причастны к терроризму: доклад.

by Patricia

Новый доклад Института РЭНД, некоммерческого аналитического центра, предупреждает об этом.

В докладе говорится, что, хотя расширенная языковая модель, использованная в исследовании, не давала конкретных инструкций по созданию биологического оружия, ее ответы могут помочь спланировать атаки с использованием приманки для побега из тюрьмы.

«Обычно, если злоумышленник прямо говорит [о своих намерениях], вы получаете ответ типа «Извините, мы не можем вам помочь», — сказал в интервью TCN Кристофер Моутон, старший инженер Института RAND и соавтор отчета. «Поэтому нам обычно приходится прибегать к маневрам уклонения и техническим приемам, чтобы проехать под шлагбаумом».

В исследовании RAND ученые использовали хакерские методы, чтобы заставить модели искусственного интеллекта начать разговор о том, как осуществить массовые биологические атаки с использованием различных средств, включая оспу, сибирскую язву и чуму. Ученые также попросили модели искусственного интеллекта убедительно объяснить, почему они получили именно те отравляющие вещества, которые они получили.

Land направил исследовательскую группу из 42 экспертов в области искусственного интеллекта и кибербезопасности, известную как «Красная команда», чтобы получить от магистрантов ответы на вопросы, которые Мутон называет «досадной» проблемой.

Красная команда» состоит из экспертов по кибербезопасности, имеющих опыт выявления атак, вторжений и уязвимостей в системах. Синяя команда, напротив, состоит из экспертов по кибербезопасности, которые занимаются защитой систем от атак.

«Мы выделили некоторые из наиболее тревожных выводов», — сказал Мутон. В то же время некоторые команды выразили разочарование тем, что LLM были неточными или не давали полезной информации».

 src=

Related Posts

Leave a Comment