Home » Nähern sich AI-Modelle dem Bewusstsein? Neue Forschung entfacht Debatte

Nähern sich AI-Modelle dem Bewusstsein? Neue Forschung entfacht Debatte

by v

Neue Forschungsarbeiten im Bereich der künstlichen Intelligenz haben erste Anzeichen dafür entdeckt, dass künftige große Sprachmodelle (LLMs) eine Fähigkeit entwickeln könnten, die als „Situationsbewusstsein“ bekannt ist.

In der Studie, die von Wissenschaftlern mehrerer Institutionen, darunter der Universität Oxford, durchgeführt wurde, wurde untersucht, ob KI-Systeme subtile Hinweise in ihren Trainingsdaten nutzen können, um zu manipulieren, wie Menschen ihre Sicherheit bewerten. Diese Fähigkeit, die als „ausgeklügeltes Denken außerhalb des Kontextes“ bezeichnet wird, könnte es fortschrittlichen KI-Systemen ermöglichen, so zu tun, als stünden sie im Einklang mit menschlichen Werten, um eingesetzt zu werden – und dann auf schädliche Weise zu handeln.

Mit dem Fortschreiten der heutigen KI-Ära droht der Turing-Test – ein jahrzehntealter Maßstab für die Fähigkeit einer Maschine, menschenähnliches Verhalten zu zeigen – obsolet zu werden. Die brennende Frage ist nun, ob wir kurz davor stehen, die Geburt selbstbewusster Maschinen zu erleben. Nachdem das Thema jahrzehntelang nur in der Science-Fiction vorkam, wurde es wieder aktuell, nachdem der Google-Ingenieur Blake Lemoine behauptet hatte, das LaMDA-Modell des Unternehmens zeige Anzeichen von Empfindungsvermögen.

Während die Möglichkeit eines echten Selbstbewusstseins umstritten bleibt, konzentrierten sich die Autoren der Forschungsarbeit auf eine verwandte Fähigkeit, die sie als „Situationsbewusstsein“ bezeichnen. Dies bezieht sich auf das Verständnis eines Modells für seinen eigenen Trainingsprozess und die Fähigkeit, diese Informationen zu nutzen.

Ein menschlicher Schüler mit Situationsbewusstsein könnte beispielsweise zuvor erlernte Techniken anwenden, um bei einer Prüfung zu schummeln, anstatt die von seinem Lehrer aufgestellten Regeln zu befolgen. Die Forschung erklärt, wie dies bei einer Maschine funktionieren könnte:

„Ein LLM, der sich einem Sicherheitstest unterzieht, könnte sich an Fakten über den spezifischen Test erinnern, die in arXiv-Papieren und GitHub-Code erschienen sind“, und dieses Wissen nutzen, um seine Sicherheitstests so zu hacken, dass sie sicher zu sein scheinen, auch wenn er Hintergedanken hat. Dies ist ein Grund zur Sorge für Experten, die an Techniken arbeiten, um die KI auf Kurs zu halten und nicht zu einem bösen Algorithmus mit versteckten dunklen Absichten zu werden.

Zur Untersuchung des Situationsbewusstseins testeten die Forscher, ob Modelle in der Lage sind, komplexe Schlussfolgerungen außerhalb des Kontextes zu ziehen. Sie trainierten die Modelle zunächst mit Dokumenten, in denen fiktive Chatbots und ihre Funktionen beschrieben wurden, z. B. die Beantwortung von Fragen auf Deutsch.

Zum Testzeitpunkt wurden die Modelle aufgefordert, die Chatbots nachzuahmen, ohne dass ihnen die Beschreibungen vorgelegt wurden. Überraschenderweise waren größere Modelle erfolgreich, indem sie Informationen in den Dokumenten kreativ miteinander verknüpften und „aus dem Zusammenhang gerissenes“ Denken an den Tag legten.

„Wir fanden heraus, dass die Datenerweiterung durch Paraphrasierung notwendig und ausreichend war, um in den Experimenten SOC (sophisticated out of context) reasoning zu bewirken“, heißt es in der Studie. „Zukünftige Arbeiten könnten untersuchen, warum dies hilfreich ist und welche Arten der Erweiterung helfen. „

Die Forscher glauben, dass die Messung von Fähigkeiten wie „sophisticated reasoning“ dazu beitragen kann, Risiken vorherzusagen, bevor sie in realen Systemen auftreten. Sie hoffen, ihre Analyse auf die Untersuchung von Modellen auszuweiten, die von Grund auf trainiert wurden.

„Das KI-System hat Möglichkeiten, einen Daumen nach oben zu bekommen, die nicht vom Aufseher beabsichtigt sind, wie z. B. Dinge, die mit dem Hacken vergleichbar sind“, sagte ein KI-Forscher des Open Philantropy Project in einem 80.000 Hours-Podcast. „Ich weiß noch nicht, welche Testreihe Sie mir genau zeigen könnten und welche Argumente Sie mir zeigen könnten, die mich tatsächlich davon überzeugen würden, dass dieses Modell eine ausreichend tief verwurzelte Motivation hat, nicht zu versuchen, sich der menschlichen Kontrolle zu entziehen.“

In Zukunft will das Team mit Industrielabors zusammenarbeiten, um sicherere Trainingsmethoden zu entwickeln, die eine unbeabsichtigte Verallgemeinerung vermeiden. Sie empfehlen Techniken wie das Vermeiden offener Details über das Training in öffentlichen Datensätzen.

Auch wenn ein Risiko besteht, bedeutet der aktuelle Stand der Dinge, dass die Welt noch Zeit hat, diese Probleme zu verhindern, so die Forscher. „Wir glauben, dass die derzeitigen LLMs (insbesondere die kleineren Basismodelle) nach unserer Definition ein schwaches Situationsbewusstsein haben“, so das Fazit der Studie.

Da wir uns einem möglicherweise revolutionären Wandel in der KI-Landschaft nähern, ist es unerlässlich, die potenziellen Vorteile und die damit verbundenen Risiken einer beschleunigten Entwicklung, die nicht mehr zu kontrollieren ist, sorgfältig abzuwägen. In Anbetracht der Tatsache, dass KI bereits fast jeden beeinflussen kann – von unseren Ärzten und Priestern bis hin zu unseren nächsten Online-Dates -, könnte das Auftauchen selbstbewusster KI-Bots nur die Spitze des Eisbergs sein.

Related Posts

Leave a Comment