Home » Книги, созданные искусственным интеллектом на Amazon, могут давать смертельно опасные советы

Книги, созданные искусственным интеллектом на Amazon, могут давать смертельно опасные советы

by Patricia

Распространение на Amazon книг-путеводителей, созданных искусственным интеллектом, может привести к гибельным последствиям, предупреждают эксперты. От кулинарных книг до путеводителей — человеческие авторы предупреждают читателей о том, что искусственный интеллект может сбить их с пути.

Последняя предостерегающая история о слепом доверии к советам искусственного интеллекта пришла из малоизвестного мира грибной охоты. Нью-Йоркское микологическое общество недавно забило тревогу в социальных сетях по поводу опасности, которую представляют собой сомнительные книги по собирательству грибов, созданные с помощью генеративных инструментов искусственного интеллекта, таких как ChatGPT.

«В Северной Америке существуют сотни ядовитых грибов, и некоторые из них смертельно опасны», — сказала в интервью 404 Media Сигрид Якоб, президент Нью-Йоркского микологического общества. «Они могут быть похожи на популярные съедобные виды. Плохое описание в книге может ввести человека в заблуждение и заставить его съесть ядовитый гриб».

Поиск на Amazon выявил множество подозрительных названий, таких как «The Ultimate Mushroom Books Field Guide of the Southwest» и «Wild Mushroom Cookbook For Beginner» [sic]- обе книги были удалены, и, скорее всего, написаны несуществующими авторами. Эти книги, сгенерированные искусственным интеллектом, написаны по знакомым шаблонам и начинаются с коротких выдуманных виньеток о любителях, которые не соответствуют действительности.

Сам контент изобилует неточностями и подражает шаблонам, характерным для текстов ИИ, а не демонстрирует реальную микологическую экспертизу, как утверждают аналитические инструменты типа ZeroGPT. Тем не менее, эти книги продавались новичкам, которые не могут отличить небезопасные советы, сфабрикованные искусственным интеллектом, от надежных источников.

«На исследование и написание книг, написанных человеком, могут уйти годы», — говорит Якоб.

Не в первый раз… И, вероятно, не в последний

Эксперты утверждают, что следует с осторожностью относиться к чрезмерному доверию к искусственному интеллекту, поскольку при отсутствии должного контроля он может легко распространять дезинформацию или давать опасные советы. Недавнее исследование показало, что люди с большей вероятностью поверят дезинформации, созданной искусственным интеллектом, чем лживым сообщениям, созданным человеком.

Исследователи попросили искусственный интеллект написать фальшивые твиты, содержащие дезинформацию по таким темам, как вакцины и технология 5G. Затем участников опроса попросили отличить настоящие твиты от сфабрикованных искусственным интеллектом.

Настораживает тот факт, что обычные люди не могли достоверно определить, кем написаны твиты — человеком или продвинутым ИИ типа GPT-3. При этом точность твита не влияла на способность людей различать его источник.

«Как показали наши результаты, имеющиеся в настоящее время большие языковые модели уже могут создавать текст, неотличимый от органического текста», — пишут исследователи.

Это явление не ограничивается сомнительными кормовыми справочниками. Недавно был зафиксирован еще один случай, когда приложение с искусственным интеллектом давало покупателям опасные рекомендации по приготовлению блюд.

Новозеландский супермаркет Pak ‘n’ Save недавно представил приложение для планирования питания под названием «Savey Meal-Bot», в котором искусственный интеллект предлагает рецепты на основе введенных пользователем ингредиентов. Но когда люди в качестве прикола вводили опасные бытовые предметы, приложение, тем не менее, предлагало приготовить такие ядовитые смеси, как «Ароматическая водная смесь» и «Метаноловое блаженство».

Хотя приложение было обновлено для блокировки небезопасных предложений, как удалось подтвердить TCN, это свидетельствует о потенциальном риске безответственного использования искусственного интеллекта.

Однако такая восприимчивость к дезинформации с помощью ИИ не является неожиданностью. ИИ создан для создания контента, основанного на наиболее вероятных результатах, которые имеют смысл, и он был обучен на огромных объемах данных, чтобы достичь таких невероятных результатов. Таким образом, мы, люди, с большей вероятностью поверим в ИИ, потому что он генерирует вещи, которые имитируют то, что мы считаем хорошим результатом. Именно поэтому MidJourney создает красивую, но непрактичную архитектуру, а LLM — интересные, но смертельно опасные грибы-путеводители.

Хотя творческие алгоритмы могут во многом дополнить возможности человека, общество не может позволить себе полностью отдать свои суждения машинам. ИИ не хватает мудрости и ответственности, которые приходят с опытом.

Виртуальный лес, созданный алгоритмами, может показаться пышным и гостеприимным. Но без человеческих проводников, знающих местность, мы рискуем заблудиться в опасной зоне.

Related Posts

Leave a Comment