Der führende KI-Entwickler OpenAI hat am Donnerstag die Tech-Welt und die Mainstream-Presse gleichermaßen in Aufruhr versetzt, als er eine neue Modellspezifikation vorstellte, die von vielen so interpretiert wurde, dass seine äußerst beliebten generativen KI-Tools auch nicht jugendfreie Inhalte erzeugen dürfen.
„Wir glauben, dass Entwickler und Nutzer die Flexibilität haben sollten, unsere Dienste so zu nutzen, wie sie es für richtig halten, solange sie unsere Nutzungsrichtlinien einhalten“, schrieb OpenAI. „Wir untersuchen, ob wir auf verantwortungsvolle Weise die Möglichkeit bieten können, NSFW-Inhalte in altersgerechten Kontexten über die API und ChatGPT zu generieren.“
In seiner Ankündigung bekräftigte OpenAI auch, dass die aktuelle Richtlinie ChatGPT daran hindert, NSFW-Inhalte anzubieten, die als Inhalte beschrieben werden, die in „einer Konversation in einem professionellen Umfeld nicht angemessen wären, wie Erotik, extremes Grauen, Verunglimpfungen und unaufgeforderte Obszönitäten.“
Nichtsdestotrotz erregte die Vorstellung, dass OpenAI die Aufhebung der Beschränkungen für die Erstellung von Pornografie in Erwägung zog, Aufsehen. Im Nachhinein hätte das Unternehmen besser erklären können, was es „erforscht“, so ein OpenAI-Produktleiter gegenüber TCN.
Um die öffentliche Diskussion darüber zu vertiefen, wie sich KI-Modelle verhalten sollten, stellen wir unsere Modellspezifikation vor – unseren Ansatz zur Gestaltung des gewünschten Modellverhaltens. https://t.co/RJBRwrcTtQ
– OpenAI (@OpenAI) May 8, 2024
Ich denke, was ich gerne tun würde – basierend auf dem Feedback und den Reaktionen – ist, in der nächsten Version, die wir veröffentlichen, präziser zu definieren, was manche Leute unter NSFW-Inhalten und der Taxonomie verstehen“, sagte Joanna Jang, OpenAI Product Lead für Model Behavior, und merkte an, dass NSFW alles von geschriebenen Obszönitäten bis hin zu KI-generierten Deepfake-Bildern bedeuten könnte.
Was das spezifische Material betrifft, das unter einer freizügigeren Haltung erlaubt wäre, sagte Jang gegenüber NPR, dass es von der Definition von Porno abhängt.
Sie betonte, dass Deepfakes absolut vom Tisch sind.
„Wir dachten, dass die Einhaltung der geltenden Gesetze und der Schutz der Privatsphäre der Menschen dies abdecken würde – aber wir sollten klarstellen, dass es uns nicht darum geht, KI-Depfakes oder KI-Pornos zu erstellen“, so Jang gegenüber TCN. „Das ist einfach nichts, wofür wir die Zeit oder die Bandbreite haben sollten, wenn es wichtigere Probleme zu lösen gibt.“
Neben der Blockierung von NSFW-Inhalten und der Sicherstellung der Rechtskonformität enthält die OpenAI-Modellspezifikation mehrere andere Regeln, die ChatGPT befolgen soll, darunter die Nichtbereitstellung gefährlicher Informationen, die Achtung der Urheber und ihrer Rechte sowie der Schutz der Privatsphäre der Nutzer.
Derzeit erlaubt ChatGPT Plus von OpenAI – das Dall-E 3 für Bilder und GPT-4 für Text enthält – den Benutzern nicht, offenkundig sexuelle oder blutige Bilder oder Texte zu erzeugen. Wenn sie dazu aufgefordert werden, antwortet ChatGPT, dass die Anfrage gegen seine Nutzungsbedingungen verstößt. Jang weist darauf hin, dass es im Internet viele Beschwerden von OpenAI-Nutzern gibt, dass das Unternehmen sie zensiert.
„Es gibt eine Menge Kritik an Zensur und dergleichen, und ein Großteil dieser Diskussion vermengt – ohne dass jemand daran schuld ist – die Richtlinien von OpenAI mit dem, was eigentlich nicht unsere Richtlinien sind“, sagte Jang. „Verhalten sich diese Modelle auf diese Weise, obwohl es gegen die Richtlinien verstößt?“
Wie Jang erläuterte, hat OpenAI die Spezifikation veröffentlicht, um das ideale Verhalten von Modellen festzulegen, wobei der Schwerpunkt auf der Einhaltung von Gesetzen und der Vermeidung von NSFW-Inhalten liegt, während gleichzeitig die Transparenz gefördert wird.
„Wir wollen mehr Nuancen in diese Diskussion bringen, denn bisher – vor der Modellspezifikation – hieß es: ‚Soll KI Pornos verpacken oder nicht?'“ sagte Jang. „Und ich hoffe, dass wir durch die Modellspezifikation diese Gespräche tatsächlich führen können.
„Deshalb hätte ich mir gewünscht, dass ich [einen Rahmen] festgelegt hätte, so dass wir diese Diskussion schon einen Tag früher hätten beginnen können“, fügte sie hinzu.
Für Experten für psychische Gesundheit ist die Aussicht, dass beliebte KI-Plattformen in den Bereich von Pornografie und Inhalten für Erwachsene vordringen, beunruhigend.
„Auf dem Gebiet der Sex- und Pornosucht sehen wir mit der KI-generierten Pornografie eine Zunahme des Suchtverhaltens“, sagte Brandon Simpson, ein Spezialist für Verhaltensmedizin bei der Men’s Health Foundation, gegenüber TCN. „Da KI-generierte Pornografie die einzigartige und ständig wachsende Intensität erzeugt, die nötig ist, um eine Dopaminreaktion auszulösen, tauchen die Menschen ein und ersetzen sie durch menschliche Interaktionen, was zu sozialen Ängsten, Leistungsangst und einer Vielzahl anderer sexualbezogener Störungen führt.“
Trotz der von OpenAI und anderen großen generativen KI-Plattformen von Google und Meta eingerichteten Leitplanken gibt es eine starke Nachfrage nach KI-generierten Pornos und unzählige Möglichkeiten, die Technologie zu nutzen, um ein ahnungsloses Opfer darzustellen – oder Material über sexuellen Kindesmissbrauch (CSAM) zu erzeugen.
„Die Spezifikation ist nur ein Teil unserer Geschichte, wie man KI verantwortungsvoll entwickelt und einsetzt“, sagte ein Vertreter von OpenAI später gegenüber TCN. „Sie wird ergänzt durch unsere Nutzungsrichtlinien, wie wir erwarten, dass die Leute die API und ChatGPT nutzen“ – letztlich mit dem Ziel, Transparenz zu demonstrieren und „eine öffentliche Diskussion darüber zu beginnen, wie sie verändert und verbessert werden könnte.“
OpenAI hat viel in die Verbesserung des Datenschutzes und der Sicherheit seiner KI-Tools investiert und unter anderem Cybersecurity-Red-Teams eingestellt, um Schwachstellen auf seinen Plattformen zu finden. Im Februar kündigten OpenAI und Microsoft eine gemeinsame Aktion an, um chinesische und nordkoreanische Hacker an der Nutzung von ChatGPT zu hindern, und im vergangenen Monat verpflichtete sich OpenAI gemeinsam mit Google und Meta, bei der Entwicklung seiner KI-Modelle der Sicherheit von Kindern Vorrang einzuräumen.