Home » Książki generowane przez SI na Amazonie mogą dawać śmiertelne rady

Książki generowane przez SI na Amazonie mogą dawać śmiertelne rady

by Tim

Rozprzestrzenianie się generowanych przez sztuczną inteligencję przewodników sprzedawanych na Amazonie może mieć śmiertelne konsekwencje, ostrzegają eksperci. Od książek kucharskich po przewodniki turystyczne, ludzcy autorzy ostrzegają czytelników, że sztuczna inteligencja może wyprowadzić ich na manowce.

Najnowsza przestroga przed ślepym ufaniem radom sztucznej inteligencji pochodzi z niejasnego świata polowań na grzyby. Nowojorskie Towarzystwo Mykologiczne (New York Mycological Society) zaalarmowało niedawno w mediach społecznościowych o niebezpieczeństwach związanych z wątpliwymi książkami o grzybobraniu, które prawdopodobnie zostały stworzone przy użyciu generatywnych narzędzi sztucznej inteligencji, takich jak ChatGPT.

„Istnieją setki trujących grzybów w Ameryce Północnej, a kilka z nich jest śmiertelnych” – powiedziała Sigrid Jakob, prezes Nowojorskiego Towarzystwa Mykologicznego, w wywiadzie dla 404 Media. „Mogą one wyglądać podobnie do popularnych gatunków jadalnych. Słaby opis w książce może wprowadzić kogoś w błąd, by zjadł trującego grzyba”.

Wyszukiwanie na Amazon ujawniło wiele podejrzanych tytułów, takich jak „The Ultimate Mushroom Books Field Guide of the Southwest” i „Wild Mushroom Cookbook For Beginner” [sic] – obie zostały usunięte – prawdopodobnie napisane przez nieistniejących autorów. Te wygenerowane przez sztuczną inteligencję książki podążają za znanymi tropami, otwierając się krótkimi fikcyjnymi winietami o hobbystach-amatorach, które brzmią fałszywie.

Sama treść jest pełna nieścisłości i naśladuje wzorce typowe dla tekstu AI, zamiast demonstrować prawdziwą wiedzę mikologiczną, zgodnie z narzędziami analitycznymi, takimi jak ZeroGPT. Jednak książki te były sprzedawane początkującym zbieraczom, którzy nie potrafią odróżnić niebezpiecznych porad stworzonych przez sztuczną inteligencję od wiarygodnych źródeł.

„Badania i pisanie książek pisanych przez ludzi może zająć lata” – powiedział Jakob.

Nie pierwszy raz… I prawdopodobnie nie ostatni

Eksperci twierdzą, że musimy być ostrożni, jeśli chodzi o nadmierne zaufanie do sztucznej inteligencji, ponieważ może ona łatwo rozpowszechniać błędne informacje lub niebezpieczne porady, jeśli nie jest odpowiednio monitorowana. Niedawne badanie wykazało, że ludzie są bardziej skłonni uwierzyć w dezinformację generowaną przez sztuczną inteligencję niż w kłamstwa stworzone przez ludzi.

Naukowcy poprosili generator tekstu AI o napisanie fałszywych tweetów zawierających dezinformacje na tematy takie jak szczepionki i technologia 5G. Uczestnicy ankiety zostali następnie poproszeni o odróżnienie prawdziwych tweetów od tych sfabrykowanych za pomocą sztucznej inteligencji.

Co niepokojące, przeciętna osoba nie była w stanie wiarygodnie określić, czy tweety zostały napisane przez człowieka, czy przez zaawansowaną sztuczną inteligencję, taką jak GPT-3. Dokładność tweeta nie wpłynęła na zdolność ludzi do rozpoznania źródła.

„Jak pokazują nasze wyniki, obecnie dostępne duże modele językowe mogą już tworzyć tekst, który jest nie do odróżnienia od tekstu organicznego” – napisali naukowcy.

Zjawisko to nie ogranicza się do wątpliwych poradników. Niedawno pojawił się inny przypadek, w którym aplikacja AI dawała klientom niebezpieczne rekomendacje dotyczące przepisów.

Nowozelandzki supermarket Pak 'n’ Save niedawno wprowadził aplikację do planowania posiłków o nazwie „Savey Meal-Bot”, która wykorzystywała sztuczną inteligencję do sugerowania przepisów na podstawie składników wprowadzonych przez użytkowników. Ale kiedy ludzie wprowadzali niebezpieczne przedmioty gospodarstwa domowego jako żart, aplikacja mimo to proponowała tworzenie trujących mieszanek, takich jak „Aromatic Water Mix” i „Methanol Bliss”.

Chociaż aplikacja została zaktualizowana, aby blokować niebezpieczne sugestie, co TCN może potwierdzić, podkreśla ona potencjalne ryzyko związane ze sztuczną inteligencją, gdy jest wdrażana w sposób nieodpowiedzialny.

Podatność na dezinformację opartą na sztucznej inteligencji nie jest jednak zaskoczeniem. LLM zostały stworzone w celu tworzenia treści w oparciu o najbardziej prawdopodobne wyniki, które mają sens, i zostały przeszkolone w zakresie ogromnych ilości danych, aby osiągnąć tak niesamowite wyniki. Tak więc my, ludzie, jesteśmy bardziej skłonni wierzyć w sztuczną inteligencję, ponieważ generuje ona rzeczy, które naśladują to, co postrzegamy jako dobry wynik. Właśnie dlatego MidJourney tworzy piękną, ale niepraktyczną architekturę, a LLM tworzy interesujące, ale śmiertelnie niebezpieczne przewodniki po grzybach.

Podczas gdy kreatywne algorytmy mogą na wiele sposobów zwiększyć ludzkie możliwości, społeczeństwo nie może sobie pozwolić na całkowite powierzenie osądu maszynom. Sztucznej inteligencji brakuje mądrości i odpowiedzialności wynikającej z doświadczenia.

Wirtualny las wyczarowany przez algorytmy żerowania może wydawać się bujny i przyjazny. Ale bez ludzkich przewodników, którzy znają teren, ryzykujemy zabłądzenie na niebezpiecznym terytorium.

Related Posts

Leave a Comment