Home » Генерираните от изкуствен интелект книги в Amazon могат да дават смъртоносни съвети

Генерираните от изкуствен интелект книги в Amazon могат да дават смъртоносни съвети

by v

Разпространението на ръководства, генерирани от изкуствен интелект, които се продават в Amazon, може да има смъртоносни последици, предупреждават експерти. От готварски книги до пътеводители, автори предупреждават читателите, че изкуственият интелект може да ги заблуди.

Най-новата предупредителна история за сляпото доверяване на съветите на ИИ идва от иначе непознатия свят на лова на гъби. Нюйоркското микологично дружество неотдавна алармира в социалните медии за опасностите, които представляват съмнителните книги за търсене на храна, за които се смята, че са създадени с използване на генеративни инструменти за изкуствен интелект като ChatGPT.

„В Северна Америка има стотици отровни гъби и няколко, които са смъртоносни“, казва Сигрид Якоб, президент на Нюйоркското микологично дружество, в интервю за 404 Media. „Те могат да изглеждат подобно на популярни ядливи видове. Лошо описание в книга може да подведе някого да изяде отровна гъба.“

Търсенето в Amazon разкри множество подозрителни заглавия като „The Ultimate Mushroom Books Field Guide of the Southwest“ и „Wild Mushroom Cookbook For Beginner“ [sic]- и двете вече премахнати – вероятно написани от несъществуващи автори. Тези книги, генерирани от изкуствен интелект, следват познати тропи, като започват с кратки измислени винетки за любители-любители, които звучат фалшиво.

Самото съдържание е изпълнено с неточности и имитира модели, типични за текстове с изкуствен интелект, вместо да демонстрира истински микологичен опит, според инструменти за анализ като ZeroGPT. И все пак тези книги се продават на начинаещи, които не могат да различат опасни съвети, измислени от AI, от надеждни източници.

„Проучването и писането на книги, написани от хора, може да отнеме години“, казва Якоб.

Не за първи път… И вероятно не за последен

Експертите казват, че трябва да сме предпазливи по отношение на прекаленото доверие към изкуствения интелект, тъй като той лесно може да разпространи дезинформация или опасни съвети, ако не се контролира правилно. Неотдавнашно проучване установи, че хората са по-склонни да вярват на дезинформация, генерирана от ИИ, в сравнение с лъжите, създадени от хора.

Изследователите помолили генератор на текст с ИИ да напише фалшиви туитове, съдържащи дезинформация по теми като ваксини и 5G технология. След това участниците в проучването са били помолени да разграничат истинските туитове от тези, изфабрикувани с помощта на ИИ.

Обезпокоително е, че средностатистическият човек не е могъл надеждно да определи дали туитовете са написани от човек или от усъвършенстван ИИ като GPT-3. Точността на туита не е повлияла на способността на хората да разпознаят източника.

„Както показват нашите резултати, големите езикови модели, налични в момента, вече могат да създават текст, който е неразличим от органичен текст“, пишат изследователите.

Това явление не се ограничава само до съмнителни ръководства за хранене. Наскоро се появи друг случай, при който приложение с изкуствен интелект дава опасни препоръки за рецепти на клиенти.

Новозеландският супермаркет Pak ‘n’ Save наскоро представи приложение за планиране на хранене, наречено „Savey Meal-Bot“, което използва ИИ, за да предлага рецепти въз основа на съставките, които потребителите въвеждат. Но когато хората въвеждат опасни домакински предмети като шега, приложението въпреки това предлага приготвянето на отровни смеси като „Ароматна водна смес“ и „Метанолова блаженство“.

Въпреки че приложението е актуализирано, за да блокира опасни предложения, както TCN може да потвърди, това подчертава потенциалните рискове от неправилно използване на изкуствен интелект при безотговорно внедряване.

Тази податливост към дезинформация, задвижвана от ИИ, обаче не е изненада. ИИЛ са създадени да създават съдържание въз основа на най-вероятните резултати, които имат смисъл, и са обучени на огромни количества данни, за да постигнат такива невероятни резултати. Така че ние, хората, сме по-склонни да вярваме на ИИ, защото той генерира неща, които имитират това, което ние виждаме като добър резултат. Ето защо MidJourney създава красива, но непрактична архитектура, а LLM създават интересни, но смъртоносни водачи на гъби.

Макар че творческите алгоритми могат да увеличат човешките способности по много начини, обществото не може да си позволи да възложи преценката си изцяло на машини. На изкуствения интелект му липсват мъдростта и отговорността, които идват с житейския опит.

Виртуалната гора, сътворена от алгоритмите за търсене на храна, може да изглежда буйна и приветлива. Но без човешки водачи, които познават терена, рискуваме да се заблудим и да навлезем в опасна територия.

Related Posts

Leave a Comment