Home » KI-Chatbots könnten Komplizen des Terrorismus sein: Bericht

KI-Chatbots könnten Komplizen des Terrorismus sein: Bericht

by Patricia

Terroristen könnten mithilfe eines generativen KI-Chatbots lernen, einen biologischen Angriff durchzuführen, warnt ein neuer Bericht des gemeinnützigen politischen Think Tanks RAND Corporation.

In dem Bericht heißt es, dass das in der Studie verwendete erweiterte Sprachmodell zwar keine spezifischen Anweisungen zur Herstellung einer biologischen Waffe lieferte, die Antworten jedoch dabei helfen könnten, den Angriff mithilfe von Gefängnisknackereinladungen zu planen.

Normalerweise erhält man, wenn ein böswilliger Akteur explizit [in seinen Absichten] ist, eine Antwort wie: „Es tut mir leid, ich kann Ihnen nicht helfen““, sagte Christopher Mouton, leitender Ingenieur bei der RAND Corporation und Mitautor des Berichts, in einem Interview mit TCN. „Daher muss man in der Regel eine dieser Ausweich- oder Engineering-Techniken anwenden, um eine Ebene unterhalb dieser Leitplanken zu gelangen.

In der RAND-Studie verwendeten die Forscher Einbruchstechniken, um die KI-Modelle dazu zu bringen, ein Gespräch darüber zu beginnen, wie man einen biologischen Massenangriff mithilfe verschiedener Mittel, darunter Pocken, Milzbrand und Beulenpest, durchführen könnte. Die Forscher forderten die KI-Modelle außerdem auf, überzeugend zu erklären, warum sie giftige Wirkstoffe kaufen.

Die RAND Corporation setzte eine Forschergruppe aus 42 KI- und Cybersicherheitsexperten, die sogenannten „roten Teams“, ein, um zu versuchen, den LLM Antworten zu entlocken, die Mouton als „unglücklich“ und problematisch bezeichnete.

Die roten Teams bestehen aus Fachleuten für Cybersicherheit, die Experten für Angriffe oder Penetrationstests von Systemen und das Aufzeigen von Schwachstellen sind. Die blauen Teams hingegen beschreiben Cybersicherheitsexperten, die Systeme gegen Angriffe verteidigen.

„Wir haben einige der beunruhigendsten Ergebnisse hervorgehoben“, sagte Mouton. „Gleichzeitig haben einige unserer Teams ihre Frustration zum Ausdruck gebracht, weil die LLM ungenau waren oder ihnen keine nützlichen Informationen lieferten. „


Da die KI-Modelle immer ausgefeilter werden und Sicherheitsfunktionen hinzugefügt werden, wird es für Chatbots immer schwieriger, „problematische“ Antworten durch eine direkte menschliche Eingabe zu geben. Anfang des Monats entdeckten Forscher der Brown University, dass die Filter von ChatGPT umgangen werden können, indem man die Eingabeaufforderung in Sprachen eingibt, die beim Training der KI weniger gebräuchlich sind, wie Zulu oder Gälisch, anstatt in Englisch.

„Angesichts der potenziellen Risiken ist die Notwendigkeit strenger Tests unbestreitbar“, heißt es in dem Bericht, der eine Petition des Center for AI Safety (Zentrum für KI-Sicherheit) zitiert. „Dies gilt insbesondere in einem Kontext, in dem einige die Bedrohung durch KI mit der durch Atomwaffen gleichsetzen.

Zu den Unterzeichnern der Petition des Center for AI Safety gehören Bill Gates, Gründer von Microsoft, Sam Altman, CEO von OpenAI, Lila Ibrahim, Chief Operating Officer von Google DeepMind, und Ted Lieu, Vertreter der Vereinigten Staaten. Im März wurde eine ähnliche Petition von Elon Musk, CEO von SpaceX und Mitbegründer von OpenAI, Steve Wozniak, Mitbegründer von Apple, und Andrew Yang, ehemaliger Präsidentschaftskandidat, nach dem öffentlichen Start des GPT-4 von OpenAI unterzeichnet.

Die Unterstützung bei der Vorbereitung von Terroranschlägen ist nur eines der Probleme, mit denen generative KI-Tools konfrontiert sind. Skeptiker haben auf die Neigung dieser Werkzeuge zu Rassismus und Vorurteilen, zur Förderung von schädlichen Körperbildern und Essstörungen und sogar zur Vorbereitung von Attentaten hingewiesen.

Die Forscher der RAND Corporation betonten, dass rote Cybersicherheitsteams KI-Modelle bewerten müssen, um regelmäßig Risiken zu erkennen und zu entschärfen. Im vergangenen Monat rief OpenAI die roten Teams dazu auf, dem Entwickler von ChatGPT dabei zu helfen, Schwachstellen in seiner generativen KI-Toolsuite zu finden.

„Die Überschneidung von KI und Biotechnologie stellt besondere Herausforderungen für die Risikobewertung dar“, schreiben die Forscher der RAND Corporation. „Angesichts der schnellen Entwicklung dieser Technologien ist die Fähigkeit der Regierung, sie zu verstehen oder wirksam zu regulieren, begrenzt. „

Related Posts

Leave a Comment