Home » Knihy generované umělou inteligencí na Amazonu by mohly poskytovat smrtící rady

Knihy generované umělou inteligencí na Amazonu by mohly poskytovat smrtící rady

by Tim

Rozšíření průvodců generovaných umělou inteligencí, které se prodávají na Amazonu, by mohlo mít smrtelné následky, varují odborníci. Lidští autoři varují čtenáře, že umělá inteligence by je mohla zavést na scestí, od kuchařek po cestovní průvodce.

Nejnovější varovný příběh o slepé důvěře v rady umělé inteligence pochází z jinak obskurního světa lovu hub. Newyorská mykologická společnost nedávno na sociálních sítích bila na poplach před nebezpečím, které představují pochybné knihy o hledání potravy, jež byly údajně vytvořeny pomocí generativních nástrojů umělé inteligence, jako je ChatGPT.

„V Severní Americe jsou stovky jedovatých hub a několik z nich je smrtelně jedovatých,“ uvedla Sigrid Jakobová, prezidentka Newyorské mykologické společnosti, v rozhovoru pro 404 Media. „Mohou vypadat podobně jako oblíbené jedlé druhy. Špatný popis v knize může někoho svést k tomu, že jedovatou houbu sní.“

Vyhledávání na Amazonu odhalilo řadu podezřelých titulů, jako například „The Ultimate Mushroom Books Field Guide of the Southwest“ a „Wild Mushroom Cookbook For Beginner“ [sic] – obě byly mezitím odstraněny -, které pravděpodobně napsali neexistující autoři. Tyto knihy generované umělou inteligencí se řídí známými tropy a začínají krátkými fiktivními vinětami o amatérských houbařích, které vyznívají falešně.

Samotný obsah je plný nepřesností a napodobuje vzory typické pro texty AI, místo aby podle analytických nástrojů, jako je ZeroGPT, prokazoval skutečné mykologické znalosti. Přesto byly tyto knihy prodávány začátečníkům v oblasti krmení, kteří nedokážou rozeznat nebezpečné rady vytvořené AI od důvěryhodných zdrojů.

„Výzkum a psaní knih psaných lidmi může trvat roky,“ řekl Jakob.

Není to poprvé… A pravděpodobně ne naposledy

Experti říkají, že musíme být opatrní, pokud jde o přílišnou důvěru v umělou inteligenci, protože pokud není řádně monitorována, může snadno šířit dezinformace nebo nebezpečné rady. Nedávná studie zjistila, že lidé častěji věří dezinformacím vytvořeným umělou inteligencí než nepravdám vytvořeným lidmi.

Výzkumníci požádali generátor textů AI, aby napsal falešné tweety obsahující dezinformace o tématech, jako jsou vakcíny a technologie 5G. Účastníci průzkumu pak měli rozlišit skutečné tweety od těch, které byly vymyšleny pomocí umělé inteligence.

Alarmující je, že průměrný člověk nedokázal spolehlivě určit, zda tweety napsal člověk nebo pokročilá umělá inteligence, jako je GPT-3. Přesnost tweetu neměla vliv na schopnost lidí rozeznat jeho zdroj.

„Jak ukázaly naše výsledky, velké jazykové modely, které jsou v současné době k dispozici, již mohou vytvářet text, který je k nerozeznání od organického textu,“ napsali vědci.

Tento jev se neomezuje pouze na pochybné návody na hledání potravy. Nedávno se objevil další případ, kdy aplikace s umělou inteligencí dávala zákazníkům nebezpečná doporučení na recepty.

Novozélandský supermarket Pak ‚n‘ Save nedávno představil aplikaci pro plánování jídel nazvanou „Savey Meal-Bot“, která využívala umělou inteligenci k navrhování receptů na základě ingrediencí, které uživatelé zadali. Když však lidé v žertu zadali nebezpečné předměty pro domácnost, aplikace přesto navrhla jedovaté směsi jako „Aromatická vodní směs“ a „Metanolové blaho“.

Ačkoli byla aplikace od té doby aktualizována tak, aby blokovala nebezpečné návrhy, což mohla potvrdit i TCN, upozorňuje to na potenciální rizika špatné umělé inteligence při nezodpovědném nasazení.

Tato náchylnost k dezinformacím poháněným umělou inteligencí však není překvapením. LLM jsou vytvořeny tak, aby vytvářely obsah na základě nejpravděpodobnějších výsledků, které dávají smysl, a byly vyškoleny na obrovském množství dat, aby dosáhly tak neuvěřitelných výsledků. My lidé tedy spíše věříme umělé inteligenci, protože generuje věci, které napodobují to, co považujeme za dobrý výsledek. Proto MidJourney vytváří krásnou, ale nepraktickou architekturu a LLM vytváří zajímavé, ale smrtící houbové průvodce.

I když kreativní algoritmy mohou v mnoha ohledech rozšířit lidské schopnosti, společnost si nemůže dovolit přenechat svůj úsudek zcela strojům. Umělá inteligence postrádá moudrost a odpovědnost, které přicházejí s prožitými zkušenostmi.

Virtuální les vykouzlený sázecími algoritmy se může zdát svěží a přívětivý. Ale bez lidských průvodců, kteří znají terén, riskujeme, že zabloudíme do nebezpečného území.

Related Posts

Leave a Comment