Home » AI-gegenereerde boeken op Amazon kunnen dodelijk advies geven

AI-gegenereerde boeken op Amazon kunnen dodelijk advies geven

by Patricia

De toename van door AI gegenereerde reisgidsen op Amazon kan dodelijke gevolgen hebben, waarschuwen experts. Van kookboeken tot reisgidsen, menselijke auteurs waarschuwen lezers dat kunstmatige intelligentie hen op een dwaalspoor kan brengen.

Het nieuwste waarschuwingsverhaal over het blindelings vertrouwen op het advies van AI komt uit de anders zo obscure wereld van de paddenstoelenjacht. De New York Mycological Society luidde onlangs op sociale media de noodklok over de gevaren van dubieuze boeken over foerageergedrag waarvan wordt aangenomen dat ze zijn gemaakt met generatieve AI-tools zoals ChatGPT.

Er zijn honderden giftige schimmels in Noord-Amerika en verschillende zijn dodelijk,” zei Sigrid Jakob, voorzitter van de New York Mycological Society, in een interview met 404 Media. “Ze kunnen lijken op populaire eetbare soorten. Een slechte beschrijving in een boek kan iemand misleiden tot het eten van een giftige paddenstoel.”

Een zoektocht op Amazon onthulde talloze verdachte titels zoals “The Ultimate Mushroom Books Field Guide of the Southwest” en “Wild Mushroom Cookbook For Beginner” [sic]-beiden sindsdien verwijderd-waarschijnlijk geschreven door niet-bestaande auteurs. Deze door AI gegenereerde boeken volgen bekende stijlfiguren, beginnend met korte fictieve vignetten over amateur hobbyisten die vals klinken.

De inhoud zelf zit vol onnauwkeurigheden en bootst patronen na die typisch zijn voor AI-teksten, in plaats van echte mycologische expertise te tonen, volgens analyseprogramma’s zoals ZeroGPT. Toch zijn deze boeken op de markt gebracht voor beginnende foerageerders die onveilig AI-advies niet kunnen onderscheiden van betrouwbare bronnen.

“Menselijk geschreven boeken kunnen jaren duren om te onderzoeken en te schrijven,” zei Jakob.

Niet de eerste keer… En waarschijnlijk niet de laatste keer

Experts zeggen dat we voorzichtig moeten zijn met het oververtrouwen van AI, omdat het gemakkelijk verkeerde informatie of gevaarlijk advies kan verspreiden als het niet goed wordt gecontroleerd. Uit een recent onderzoek is gebleken dat mensen eerder geneigd zijn desinformatie te geloven die door AI is gegenereerd dan onwaarheden die door mensen zijn gecreëerd.

Onderzoekers vroegen een AI-tekstgenerator om valse tweets te schrijven met misinformatie over onderwerpen als vaccins en 5G-technologie. Deelnemers aan het onderzoek werd vervolgens gevraagd om echte tweets te onderscheiden van tweets die met AI waren gemaakt.

Alarmerend genoeg kon de gemiddelde persoon niet betrouwbaar bepalen of tweets waren geschreven door een mens of door geavanceerde AI zoals GPT-3. De nauwkeurigheid van de tweet had geen invloed op de nauwkeurigheid van de AI. De nauwkeurigheid van de tweet had geen invloed op het vermogen van mensen om de bron te onderscheiden.

“Zoals onze resultaten aantonen, kunnen grote taalmodellen die momenteel beschikbaar zijn al tekst produceren die niet te onderscheiden is van organische tekst,” schreven de onderzoekers.

Dit fenomeen is niet beperkt tot dubieuze foerageergidsen. Onlangs dook er een ander geval op waarbij een AI-app gevaarlijke receptaanbevelingen gaf aan klanten.

De Nieuw-Zeelandse supermarkt Pak ‘n’ Save introduceerde onlangs een app voor het plannen van maaltijden genaamd “Savey Meal-Bot” die AI gebruikte om recepten voor te stellen op basis van ingrediënten die gebruikers invoerden. Maar toen mensen bij wijze van grap gevaarlijke huishoudelijke artikelen invoerden, stelde de app toch giftige mengsels voor zoals “Aromatic Water Mix” en “Methanol Bliss.”

Hoewel de app sindsdien is bijgewerkt om onveilige suggesties te blokkeren, zoals TCN kon bevestigen, benadrukt dit de potentiële risico’s van AI die misgaat als het onverantwoord wordt ingezet.

Deze vatbaarheid voor AI-gestuurde desinformatie is echter geen verrassing. LLM’s zijn gemaakt om inhoud te creëren op basis van de meest waarschijnlijke uitkomsten die logisch zijn, en ze zijn getraind op enorme hoeveelheden gegevens om zulke ongelooflijke resultaten te behalen. Wij mensen zijn dus eerder geneigd om in AI te geloven omdat het dingen genereert die nabootsen wat wij als een goed resultaat zien. Daarom creëert MidJourney prachtige maar onpraktische architectuur en creëren LLM’s interessante maar dodelijke paddenstoelengidsen.

Hoewel creatieve algoritmen menselijke capaciteiten op veel manieren kunnen vergroten, kan de maatschappij het zich niet veroorloven om haar oordeel volledig uit te besteden aan machines. AI mist de wijsheid en verantwoordelijkheid die voortkomen uit doorleefde ervaring.

Het virtuele bos dat wordt opgeroepen door foerageeralgoritmes lijkt misschien weelderig en uitnodigend. Maar zonder menselijke gidsen die het terrein kennen, lopen we het risico dat we afdwalen naar gevaarlijk terrein.

Related Posts

Leave a Comment