Home » KI-Fehlinformationen könnten die Wahlen 2024 beeinflussen – so will OpenAI dagegen vorgehen

KI-Fehlinformationen könnten die Wahlen 2024 beeinflussen – so will OpenAI dagegen vorgehen

by Thomas

Angesichts der Bedrohung der Demokratie durch künstliche Intelligenz, die Politikern und Wählern weltweit Sorgen bereitet, hat OpenAI am Montag einen Plan vorgestellt, der dazu beitragen soll, die Transparenz von KI-generierten Inhalten zu gewährleisten und zuverlässige Wahlinformationen im Vorfeld der Wahlen 2024 zu verbessern.

Nach dem Start von GPT-4 im März sind generative KI und ihr potenzieller Missbrauch, einschließlich KI-generierter Deepfakes, zu einem zentralen Bestandteil der Diskussion über den kometenhaften Aufstieg der KI im Jahr 2023 geworden. Im Jahr 2024 könnten solche KI-gesteuerten Fehlinformationen bei wichtigen Wahlen, einschließlich der Präsidentschaftswahlen in den USA, schwerwiegende Folgen haben.

„Während wir uns auf die Wahlen im Jahr 2024 in den größten Demokratien der Welt vorbereiten, besteht unser Ansatz darin, unsere Arbeit zur Sicherheit der Plattformen fortzusetzen, indem wir genaue Wahlinformationen verbreiten, angemessene Richtlinien durchsetzen und die Transparenz verbessern“, so OpenAI in einem Blogpost.

OpenAI fügte hinzu, dass es „das Fachwissen unserer Sicherheitssysteme, Bedrohungsanalysen, rechtlichen, technischen und politischen Teams zusammenbringt, um potenziellen Missbrauch schnell zu untersuchen und zu bekämpfen.“

Im August erklärte die US-Bundeswahlkommission, dass sie eine Petition zum Verbot von KI-generierter Wahlwerbung prüfen werde, wobei FEC-Kommissar Allen Dickerson sagte: „Im Hintergrund dieser Bemühungen lauern ernsthafte Bedenken hinsichtlich des ersten Verfassungszusatzes.“

Für US-Kunden von ChatGPT sagte OpenAI, dass es die Nutzer auf die überparteiliche Website CanIVote.org verweisen wird, wenn sie „bestimmte verfahrenstechnische Fragen zur Wahl“ stellen. Das Unternehmen sagt, dass die Umsetzung dieser Änderungen seinen Ansatz weltweit beeinflussen wird.

„Wir freuen uns darauf, weiterhin mit Partnern zusammenzuarbeiten und von ihnen zu lernen, um potenziellen Missbrauch unserer Tools im Vorfeld der diesjährigen globalen Wahlen zu verhindern“, heißt es weiter.
In ChatGPT sagt OpenAI, dass es Entwicklern nicht erlaubt ist, Chatbots zu erstellen, die vorgeben, echte Menschen oder Institutionen wie Regierungsbeamte oder Ämter zu sein. Ebenfalls nicht erlaubt sind laut OpenAI Anwendungen, die darauf abzielen, Menschen von der Stimmabgabe abzuhalten, z. B. indem sie von der Stimmabgabe abhalten oder falsch darstellen, wer wahlberechtigt ist.

KI-generierte Deepfakes, gefälschte Bilder, Videos und Audiodateien, die mit Hilfe von generativer KI erstellt wurden, gingen im letzten Jahr viral, wobei mehrere Bilder, die US-Präsident Joe Biden, den ehemaligen Präsidenten Donald Trump und sogar Papst Franziskus zeigten, in den Mittelpunkt der in den sozialen Medien geteilten Bilder gerieten.

Um zu verhindern, dass der Bildgenerator Dall-E 3 für Deepfake-Kampagnen verwendet wird, will OpenAI die Content Credentials der Coalition for Content Provenance and Authenticity implementieren, die einem KI-generierten Bild eine Markierung oder ein „Icon“ hinzufügen

„Wir experimentieren auch mit einem Provenance Classifier, einem neuen Tool zur Erkennung von Bildern, die von Dall-E generiert wurden“, so OpenAI. „Unsere internen Tests haben vielversprechende erste Ergebnisse gezeigt, selbst wenn die Bilder gängigen Arten von Veränderungen unterzogen wurden.

Letzten Monat forderte Papst Franziskus die Staats- und Regierungschefs der Welt auf, einen verbindlichen internationalen Vertrag zur Regulierung der KI zu verabschieden.

„Die jedem Menschen innewohnende Würde und die Brüderlichkeit, die uns als Mitglieder der einen Menschheitsfamilie verbindet, müssen die Grundlage für die Entwicklung neuer Technologien bilden und als unanfechtbare Kriterien für ihre Bewertung dienen, bevor sie zum Einsatz kommen, damit der digitale Fortschritt unter Wahrung der Gerechtigkeit stattfinden und zur Sache des Friedens beitragen kann“, sagte Franziskus.

Um Fehlinformationen einzudämmen, sagte OpenAI, dass ChatGPT damit beginnen wird, weltweit Echtzeit-Nachrichtenberichte, einschließlich Zitate und Links, bereitzustellen.

Transparenz in Bezug auf die Herkunft der Informationen und die Ausgewogenheit der Nachrichtenquellen kann den Wählern helfen, Informationen besser zu bewerten und selbst zu entscheiden, welchen Informationen sie vertrauen können“, so das Unternehmen.

Letzten Sommer spendete OpenAI 5 Millionen Dollar an das American Journalism Project. In der vergangenen Woche schloss OpenAI einen Vertrag mit der Associated Press ab, der dem KI-Entwickler Zugang zum Nachrichtenarchiv des globalen Nachrichtenunternehmens gewährt.

Die Äußerungen von OpenAI zur Namensnennung in der Nachrichtenberichterstattung kommen zu einem Zeitpunkt, da das Unternehmen mit mehreren Urheberrechtsklagen konfrontiert ist, unter anderem von der New York Times. Im Dezember verklagte die Times OpenAI und Microsoft, den größten Investor von OpenAI, mit der Behauptung, dass Millionen ihrer Artikel ohne Erlaubnis für das Training von ChatGPT verwendet wurden.

„OpenAI und Microsoft haben ein Geschäft im Wert von zig Milliarden Dollar aufgebaut, indem sie die kombinierten Werke der Menschheit ohne Erlaubnis genommen haben“, heißt es in der Klage. „Beim Training ihrer Modelle haben die Beklagten urheberrechtlich geschütztes Material reproduziert, um genau das auszunutzen, was das Urheberrechtsgesetz schützen soll: die Elemente des schützenswerten Ausdrucks darin, wie den Stil, die Wortwahl und die Anordnung und Darstellung von Fakten.“

OpenAI hat die Klage der New York Times als „unbegründet“ bezeichnet und behauptet, dass die Publikation ihre Eingabeaufforderungen manipuliert hat, damit der Chatbot Antworten wie die Artikel der Times generiert.

Related Posts

Leave a Comment