Home » I libri generati dall’intelligenza artificiale su Amazon potrebbero dare consigli mortali

I libri generati dall’intelligenza artificiale su Amazon potrebbero dare consigli mortali

by v

La proliferazione di guide generate dall’intelligenza artificiale vendute su Amazon potrebbe avere conseguenze mortali, avvertono gli esperti. Dai libri di cucina alle guide di viaggio, gli autori umani stanno avvertendo i lettori che l’intelligenza artificiale potrebbe portarli fuori strada.

L’ultimo monito a fidarsi ciecamente dei consigli dell’intelligenza artificiale viene dal mondo altrimenti oscuro della caccia ai funghi. La New York Mycological Society ha recentemente lanciato un allarme sui social media sui pericoli posti da libri di foraggiamento di dubbia qualità che si ritiene siano stati creati utilizzando strumenti di intelligenza artificiale generativa come ChatGPT.

“Ci sono centinaia di funghi velenosi in Nord America e diversi sono mortali”, ha dichiarato Sigrid Jakob, presidente della New York Mycological Society, in un’intervista a 404 Media. “Possono sembrare simili a specie commestibili molto diffuse. Una cattiva descrizione in un libro può indurre qualcuno a mangiare un fungo velenoso”.

Una ricerca su Amazon ha rivelato numerosi titoli sospetti come “The Ultimate Mushroom Books Field Guide of the Southwest” e “Wild Mushroom Cookbook For Beginner” [sic] – entrambi rimossi – probabilmente scritti da autori inesistenti. Questi libri generati dall’IA seguono tropi familiari, aprendosi con brevi vignette di fantasia su hobbisti dilettanti che suonano false.

Secondo strumenti di analisi come ZeroGPT, il contenuto stesso è pieno di imprecisioni e imita i modelli tipici dei testi dell’IA, piuttosto che dimostrare una reale competenza micologica. Eppure questi libri sono stati commercializzati per i novizi del foraging, che non sono in grado di distinguere i consigli non sicuri creati dall’intelligenza artificiale dalle fonti affidabili.

“I libri scritti dall’uomo possono richiedere anni di ricerca e scrittura”, ha dichiarato Jakob.

Non è la prima volta… E probabilmente non sarà l’ultima

Gli esperti dicono che dobbiamo essere cauti nel fidarci eccessivamente dell’IA, perché può facilmente diffondere informazioni errate o consigli pericolosi se non viene monitorata adeguatamente. Un recente studio ha rilevato che le persone sono più propense a credere alla disinformazione generata dall’IA rispetto alle falsità create dagli esseri umani.

I ricercatori hanno chiesto a un generatore di testo AI di scrivere falsi tweet contenenti disinformazione su argomenti come i vaccini e la tecnologia 5G. Ai partecipanti al sondaggio è stato poi chiesto di distinguere i tweet reali da quelli creati dall’IA.

È allarmante notare che una persona media non era in grado di determinare in modo affidabile se i tweet fossero stati scritti da un essere umano o da un’intelligenza artificiale avanzata come GPT-3. L’accuratezza del tweet non ha influito sulla capacità di discernere la fonte.

“Come dimostrano i nostri risultati, i modelli linguistici di grandi dimensioni attualmente disponibili possono già produrre un testo indistinguibile da quello organico”, hanno scritto i ricercatori.

Questo fenomeno non si limita alle dubbie guide di foraggiamento. Di recente è emerso un altro caso in cui un’app di intelligenza artificiale ha fornito ai clienti raccomandazioni di ricette pericolose.

Il supermercato neozelandese Pak ‘n’ Save ha recentemente introdotto un’applicazione per la pianificazione dei pasti chiamata “Savey Meal-Bot” che utilizza l’intelligenza artificiale per suggerire ricette in base agli ingredienti inseriti dagli utenti. Ma quando le persone inserivano oggetti domestici pericolosi per scherzo, l’app proponeva comunque di preparare miscele velenose come “Aromatic Water Mix” e “Methanol Bliss”.

Sebbene l’app sia stata aggiornata per bloccare i suggerimenti non sicuri, come TCN ha potuto confermare, il caso evidenzia i potenziali rischi dell’intelligenza artificiale quando viene utilizzata in modo irresponsabile.

Tuttavia, questa suscettibilità alla disinformazione alimentata dall’IA non è una sorpresa. Le LLM sono costruite per creare contenuti basati sui risultati più probabili e sensati, e sono state addestrate su enormi quantità di dati per ottenere risultati così incredibili. Quindi, noi umani siamo più propensi a credere nell’IA perché genera cose che imitano ciò che noi vediamo come un buon risultato. Ecco perché MidJourney crea architetture belle ma poco pratiche e LLM crea guide interessanti ma mortali per i funghi.

Sebbene gli algoritmi creativi possano aumentare le capacità umane in molti modi, la società non può permettersi di affidare il proprio giudizio interamente alle macchine. All’intelligenza artificiale mancano la saggezza e la responsabilità che derivano dall’esperienza vissuta.

La foresta virtuale creata dagli algoritmi di foraggiamento può apparire rigogliosa e accogliente. Ma senza guide umane che conoscano il terreno, rischiamo di smarrirci in un territorio pericoloso.

Related Posts

Leave a Comment