Home » KI-generiertes kinderpornografisches Material könnte das Internet “überschwemmen”, warnt eine britische Gruppe.

KI-generiertes kinderpornografisches Material könnte das Internet „überschwemmen“, warnt eine britische Gruppe.

by v

Die britische Gruppe Internet Watch Foundation (IWF) schlägt erneut Alarm wegen der schnellen Verbreitung von KI-generiertem kinderpornografischem Material. In einem neuen Bericht, der am Mittwoch veröffentlicht wurde, erklärte die Gruppe, dass in einem einzigen Darkweb-Forum innerhalb eines Monats mehr als 20.254 KI-generierte Bilder von Kindesmissbrauch gefunden wurden und dass eine Flut dieser abscheulichen Inhalte das Internet „überschwemmen“ könnte.

Mit der Perfektionierung der KI-Bildgeneratoren hat sich auch die Fähigkeit, realistische Nachbildungen von Menschen zu erstellen, in Riesenschritten verbessert. KI-Bildgeneratoren wie Midjourney, Runway, Stable Diffusion und Dall-E von OpenAI sind nur einige der Plattformen, die in der Lage sind, realistische Bilder zu erstellen.

Diese cloudbasierten Plattformen, die der Öffentlichkeit weitgehend zugänglich sind, haben wichtige Einschränkungen, Regeln und Kontrollen eingeführt, um zu verhindern, dass ihre Tools von böswilligen Akteuren zur Erstellung missbräuchlicher Inhalte genutzt werden. KI-Anhänger suchen jedoch regelmäßig nach Möglichkeiten, diese Schutzvorkehrungen zu umgehen.

„Es ist wichtig, dass wir die Realitäten der CSAM-KI einer breiten Öffentlichkeit vermitteln, denn wir müssen Diskussionen über die dunkle Seite dieser erstaunlichen Technologie führen“, sagte Susie Hargreaves, CEO der Stiftung, in dem Bericht.

Die IWF erklärte, dass ihr „schlimmster Albtraum“ wahr geworden sei und dass sie nun die von der KI generierten CSAM-Fälle von echten Opfern sexuellen Missbrauchs verfolge. Die britische Gruppe wies auch auf Bilder von Prominenten hin, die verwahrlost und manipuliert wurden, um als Missbrauchsopfer zu erscheinen, sowie auf manipulierte Fotos von prominenten Kindern.

„Als ob es für die Opfer nicht ausreichen würde zu wissen, dass ihr Missbrauch in einer dunklen Ecke des Internets geteilt werden kann, laufen sie nun Gefahr, mit neuen Bildern von sich selbst konfrontiert zu werden, wie sie auf eine neue und schreckliche Art und Weise missbraucht werden, die sie sich vorher nicht vorstellen konnten“, sagte Hargreaves.

Eines der Hauptprobleme bei der Verbreitung von KI-generierten CSAM ist, dass sie die Ressourcen der Strafverfolgungsbehörden von der Aufdeckung und Beseitigung des tatsächlichen Missbrauchs ablenken könnten, so die IWF.

Die 1996 gegründete IWF ist eine gemeinnützige Organisation, die sich der Überwachung des Internets auf sexuelle Inhalte, insbesondere auf Kinder, widmet.

Im September warnte die IWF, dass Pädophilennetzwerke mithilfe von quelloffenen Modellen künstlicher Intelligenz, die heruntergeladen und lokal auf PCs ausgeführt werden können, über die Erstellung illegaler Bilder von Kindern diskutieren und Ratschläge austauschen.

„Die Autoren können legal alles herunterladen, was sie brauchen, um diese Bilder zu erzeugen, und dann so viele Bilder produzieren, wie sie wollen, offline und ohne die Möglichkeit der Entdeckung“, erklärte die IWF.

Die britische Gruppe forderte eine internationale Zusammenarbeit zur Bekämpfung der Geißel CSAM und schlug einen mehrstufigen Ansatz vor, der die Änderung einschlägiger Gesetze, die Aktualisierung der Ausbildung von Strafverfolgungsbehörden und die Einführung einer behördlichen Aufsicht über KI-Modelle umfasst.

Für KI-Entwickler empfiehlt die IWF, die Verwendung ihrer KI zur Erstellung von kinderpornografischem Material zu verbieten, die entsprechenden Modelle zu de-indizieren und der Entfernung von kinderpornografischem Material aus ihren Modellen Priorität einzuräumen.
Dies ist ein globales Problem, das erfordert, dass die Länder zusammenarbeiten und dafür sorgen, dass die Gesetzgebung dem Zweck angemessen ist“, sagte Hargreaves in einer zuvor an TCN weitergeleiteten Erklärung und merkte an, dass die IWF in ihrem Heimatland erfolgreich kinderpornografisches Material eingeschränkt hat.

„Die Tatsache, dass weniger als 1% der kriminellen Inhalte im Vereinigten Königreich gehostet werden, zeugt von unseren hervorragenden Partnerschaften mit britischen Polizeikräften und Agenturen, und wir werden aktiv mit den Strafverfolgungsbehörden zusammenarbeiten, um diesen alarmierenden neuen Trend zu bekämpfen“, fügte Hargreaves hinzu. „Wir fordern den britischen Premierminister nachdrücklich auf, dieses Thema auf die Tagesordnung des Weltgipfels für KI-Sicherheit zu setzen, der im November in Großbritannien stattfinden wird.

Während die IWF behauptet, dass die Demontage von Darkweb-Foren, die illegale CSAM in Großbritannien hosten, im Gange ist, erklärte die Gruppe, dass die Demontage komplizierter sein könnte, wenn die Website in anderen Ländern gehostet wird.

Zahlreiche konzertierte Anstrengungen werden unternommen, um den Missbrauch von KI zu bekämpfen. Im September schlug der Präsident von Microsoft, Brad Smith, vor, KYC-Richtlinien nach dem Vorbild der von Finanzinstituten eingesetzten Richtlinien zu verwenden, um bei der Identifizierung von Kriminellen zu helfen, die KI-Modelle nutzen, um falsche Informationen zu verbreiten und Missbrauch zu begehen.

Im Juli verabschiedete der US-Bundesstaat Louisiana ein Gesetz, das die Strafen für den Verkauf und den Besitz von KI-generierter Kinderpornografie verschärft. Nach diesem Gesetz droht jedem, der der Erstellung, Verbreitung oder des Besitzes illegaler Deepfake-Bilder von Minderjährigen für schuldig befunden wird, eine obligatorische Haftstrafe von fünf bis zwanzig Jahren, eine Geldstrafe von bis zu 10.000 US-Dollar oder beides.

Im August aktualisierte das US-Justizministerium seine Seite „Citizen’s Guide To U.S. Federal Law On Child Pornography“ (Bürgerleitfaden zum US-Bundesgesetz über Kinderpornografie). Bei Unklarheiten wies das Justizministerium darauf hin, dass kinderpornografische Bilder nicht durch den ersten Verfassungszusatz geschützt und nach Bundesrecht illegal sind.

Related Posts

Leave a Comment