Home » Deutschland, Frankreich, Schweden und Kanada äußern Besorgnis über KI

Deutschland, Frankreich, Schweden und Kanada äußern Besorgnis über KI

by v

Mehrere Regierungen der Welt werden immer nervöser angesichts der Büchse der Pandora, die mit der Veröffentlichung von ChatGPT durch OpenAI weit geöffnet wurde. Selbst während sie über mögliche Regelungen nachdenken, ist es unklar, ob der Geist überhaupt wieder in die Flasche gezwungen werden kann.

Am Dienstag erklärte der kanadische Datenschutzbeauftragte, er untersuche ChatGPT und schloss sich damit den Kollegen in einer wachsenden Liste von Ländern an – darunter Deutschland, Frankreich und Schweden -, die ihre Besorgnis über den beliebten Chatbot zum Ausdruck gebracht haben, nachdem Italien ihn am Sonntag vollständig verboten hatte.

„K.I.-Technologie und ihre Auswirkungen auf die Privatsphäre sind eine Priorität für mein Amt“, sagte Philippe Dufresne, der kanadische Datenschutzbeauftragte, in einer Erklärung. „Wir müssen mit dem rasanten technologischen Fortschritt Schritt halten und ihm voraus sein, und das ist einer meiner Hauptschwerpunkte als Datenschutzbeauftragter.“

Das Verbot Italiens geht auf einen Vorfall vom 20. März zurück, bei dem OpenAI einen Fehler im System einräumte, der die Zahlungsinformationen und den Chatverlauf der Nutzer offenlegte. OpenAI nahm ChatGPT kurzzeitig offline, um den Fehler zu beheben

„Wir brauchen kein Verbot von KI-Anwendungen, sondern Wege, um Werte wie Demokratie und Transparenz zu sichern“, sagte eine Sprecherin des Bundesinnenministeriums am Montag dem Handelsblatt.

Aber ist ein Verbot von Software und künstlicher Intelligenz in einer Welt, in der es virtuelle private Netzwerke (VPNs) gibt, überhaupt möglich?

Ein VPN ist ein Dienst, der es Nutzern ermöglicht, sicher und privat auf das Internet zuzugreifen, indem eine verschlüsselte Verbindung zwischen ihrem Gerät und einem entfernten Server hergestellt wird. Bei dieser Verbindung wird die IP-Adresse des Benutzers verschleiert, so dass es so aussieht, als ob der Benutzer vom Standort des Fernservers aus auf das Internet zugreift und nicht von seinem tatsächlichen Standort aus.

Darüber hinaus ist ein Verbot der künstlichen Intelligenz möglicherweise nicht realistisch, da bereits viele KI-Modelle im Einsatz sind und weitere entwickelt werden“, erklärte Jake Maymar, Vizepräsident für Innovationen bei der KI-Beratungsfirma Glimpse Group, gegenüber TCN. „Die einzige Möglichkeit, ein KI-Verbot durchzusetzen, wäre, den Zugang zu Computern und Cloud-Technologie zu verbieten, was keine praktische Lösung ist.

Italiens Versuch, ChatGPT zu verbieten, kommt inmitten wachsender Besorgnis über die Auswirkungen von künstlicher Intelligenz auf die Privatsphäre und die Datensicherheit sowie deren möglichen Missbrauch.

Eine Denkfabrik für künstliche Intelligenz, das Center for A.I. and Digital Policy, reichte letzten Monat eine formelle Beschwerde bei der U.S. Federal Trade Commission ein und beschuldigte OpenAI betrügerischer und unlauterer Praktiken, nachdem ein offener Brief aufgetaucht war, der von mehreren hochrangigen Mitgliedern der Tech-Community unterzeichnet worden war und eine Verlangsamung der Entwicklung künstlicher Intelligenz forderte.

OpenAI versuchte, diesen Bedenken in einem Blogbeitrag vom 5. April über KI-Sicherheit zu begegnen, in dem das Unternehmen sein Engagement für langfristige Sicherheitsforschung und die Zusammenarbeit mit der KI-Community darlegte.

OpenAI sagte, es wolle die Faktengenauigkeit verbessern, die Wahrscheinlichkeit von „Halluzinationen“ verringern und gleichzeitig die Privatsphäre der Nutzer und Kinder schützen, einschließlich der Prüfung von Optionen zur Altersverifizierung. „Wir sind uns auch darüber im Klaren, dass diese Werkzeuge, wie jede Technologie, mit realen Risiken verbunden sind – deshalb arbeiten wir daran, die Sicherheit unseres Systems auf allen Ebenen zu gewährleisten“, schrieb das Unternehmen.

Die Botschaft von OpenAI kam bei einigen nicht gut an, die sie als PR-Schönfärberei bezeichneten, die das existenzielle Risiko, das von KI ausgeht, nicht anspricht.

Während einige bei ChatGPT Alarm schlagen, sagen andere, dass der Chatbot nicht das Problem ist, sondern eher eine breitere Frage der beabsichtigten Nutzung durch die Gesellschaft.

„Was dieser Moment bietet, ist eine Chance, darüber nachzudenken, welche Art von Gesellschaft wir sein wollen – welche Regeln wir für alle gleichermaßen anwenden wollen, ob mit oder ohne KI – und welche Art von wirtschaftlichen Regeln der Gesellschaft am besten dienen“, sagte Barath Raghavan, außerordentlicher Professor für Informatik an der USC Viterbi, gegenüber TCN. „Die besten politischen Antworten werden nicht diejenigen sein, die auf spezifische technologische Mechanismen der heutigen KI abzielen (die schnell veraltet sein werden), sondern auf Verhaltensweisen und Regeln, die wir gerne universell anwenden würden.“

Related Posts

Leave a Comment