Home » KI-generierte Bücher auf Amazon könnten tödliche Ratschläge geben

KI-generierte Bücher auf Amazon könnten tödliche Ratschläge geben

by Patricia

Die Verbreitung von KI-generierten Ratgebern, die auf Amazon verkauft werden, könnte tödliche Folgen haben, warnen Experten. Von Kochbüchern bis hin zu Reiseführern warnen menschliche Autoren die Leser davor, dass künstliche Intelligenz sie weit in die Irre führen könnte.

Die jüngste Warnung vor dem blinden Vertrauen in KI-Ratgeber kommt aus der sonst so obskuren Welt der Pilzsuche. Die New York Mycological Society hat kürzlich in den sozialen Medien vor den Gefahren gewarnt, die von dubiosen Büchern über die Pilzsuche ausgehen, die mit generativen KI-Tools wie ChatGPT erstellt wurden.

Es gibt Hunderte von Giftpilzen in Nordamerika und einige davon sind tödlich“, sagte Sigrid Jakob, Präsidentin der New York Mycological Society, in einem Interview mit 404 Media. „Sie können beliebten essbaren Arten ähnlich sehen. Eine schlechte Beschreibung in einem Buch kann jemanden dazu verleiten, einen giftigen Pilz zu essen.“

Eine Suche auf Amazon ergab zahlreiche verdächtige Titel wie „The Ultimate Mushroom Books Field Guide of the Southwest“ und „Wild Mushroom Cookbook For Beginner“ [sic]- beide inzwischen entfernt -, die wahrscheinlich von nicht existierenden Autoren geschrieben wurden. Diese KI-generierten Bücher folgen bekannten Tropen und beginnen mit kurzen fiktiven Vignetten über Hobbyisten, die falsch klingen.

Der Inhalt selbst ist voller Ungenauigkeiten und ahmt Muster nach, die typisch für KI-Texte sind, anstatt echte mykologische Fachkenntnisse zu demonstrieren, wie Analysetools wie ZeroGPT zeigen. Dennoch wurden diese Bücher für Anfänger auf dem Gebiet der Futtersuche vermarktet, die unsichere, von KI erstellte Ratschläge nicht von vertrauenswürdigen Quellen unterscheiden können.

„Von Menschen geschriebene Bücher können Jahre der Recherche und des Schreibens in Anspruch nehmen“, so Jakob.

Nicht das erste Mal… Und wahrscheinlich nicht das letzte

Experten sagen, dass wir vorsichtig sein müssen, wenn wir KI zu viel Vertrauen schenken, da sie leicht Fehlinformationen oder gefährliche Ratschläge verbreiten kann, wenn sie nicht richtig überwacht wird. Eine kürzlich durchgeführte Studie hat ergeben, dass Menschen eher bereit sind, von KI generierte Desinformationen zu glauben als von Menschen erstellte Unwahrheiten.

Die Forscher baten einen KI-Textgenerator, gefälschte Tweets mit Fehlinformationen zu Themen wie Impfstoffe und 5G-Technologie zu schreiben. Die Umfrageteilnehmer wurden dann gebeten, echte Tweets von denen zu unterscheiden, die mit KI erstellt wurden.

Erschreckenderweise konnte die Durchschnittsperson nicht zuverlässig feststellen, ob die Tweets von einem Menschen oder einer fortgeschrittenen KI wie GPT-3 geschrieben wurden. Die Genauigkeit des Tweets hatte keinen Einfluss auf die Fähigkeit der Menschen, die Quelle zu erkennen.

„Wie unsere Ergebnisse zeigen, können derzeit verfügbare große Sprachmodelle bereits Text produzieren, der von organischem Text nicht zu unterscheiden ist“, schreiben die Forscher.

Dieses Phänomen ist nicht auf dubiose Ratgeber für die Futtersuche beschränkt. Kürzlich wurde ein weiterer Fall bekannt, bei dem eine KI-App den Kunden gefährliche Rezeptempfehlungen gab.

Der neuseeländische Supermarkt Pak ’n‘ Save hat vor kurzem eine App für die Essensplanung namens „Savey Meal-Bot“ eingeführt, die mithilfe von KI Rezepte auf der Grundlage der von den Benutzern eingegebenen Zutaten vorschlägt. Wenn die Nutzer jedoch als Scherz gefährliche Haushaltsgegenstände eingaben, schlug die App dennoch giftige Mischungen wie „Aromatic Water Mix“ und „Methanol Bliss“ vor.

Die App wurde zwar inzwischen aktualisiert, um unsichere Vorschläge zu blockieren, wie TCN bestätigen konnte, doch zeigt sie die potenziellen Risiken von KI auf, die bei unverantwortlichem Einsatz schiefgehen.

Diese Anfälligkeit für KI-gestützte Desinformation ist jedoch keine Überraschung. LLMs sind darauf ausgelegt, Inhalte auf der Grundlage der wahrscheinlichsten und sinnvollsten Ergebnisse zu erstellen, und sie wurden anhand riesiger Datenmengen trainiert, um solche unglaublichen Ergebnisse zu erzielen. Wir Menschen glauben also eher an KI, weil sie Dinge erzeugt, die das nachahmen, was wir für ein gutes Ergebnis halten. Deshalb schafft MidJourney schöne, aber unpraktische Architektur, und LLMs schaffen interessante, aber tödliche Pilzführer.

Auch wenn kreative Algorithmen die menschlichen Fähigkeiten in vielerlei Hinsicht ergänzen können, kann es sich die Gesellschaft nicht leisten, ihr Urteilsvermögen vollständig an Maschinen auszulagern. Der künstlichen Intelligenz fehlt die Weisheit und die Verantwortlichkeit, die mit gelebter Erfahrung einhergehen.

Der virtuelle Wald, den die Algorithmen für die Nahrungssuche heraufbeschwören, mag üppig und einladend erscheinen. Aber ohne menschliche Führer, die das Terrain kennen, besteht die Gefahr, dass wir uns in gefährliches Terrain verirren.

Related Posts

Leave a Comment