Elon Musk, Steve Wozniak und mehr als 1.000 andere Unternehmer, Wissenschaftler und Professoren haben eine Petition des Future of Life Institute unterzeichnet, um die Entwicklung von KI wie dem Chatbot GPT-4 vorübergehend einzustellen. Was ist der Grund für solche Bedenken?
Will Elon Musk die Entwicklung künstlicher Intelligenzen (KI) stoppen?
Elon Musk, Steve Wozniak und andere Unternehmer, Wissenschaftler und andere Professoren haben eine vom Future of Life Institute vorgeschlagene Petition unterzeichnet, die dazu aufruft, die Entwicklung von KIs vorübergehend zu stoppen:
We’re calling on AI labs to temporarily pause training powerful models!
Join FLI’s call along with Yoshua Bengio, @stevewoz, @harari_yuval, @elonmusk, @GaryMarcus & over a 1000 others who have signed: https://t.co/3rJBjDXapc
A short on why we’re calling for this – (1/8)
– Future of Life Institute (@FLIxrisk) March 29, 2023
Insgesamt wurden 1.377 Unterschriften gesammelt, als diese Zeilen geschrieben wurden. Das Ziel dieses Briefes ist es, die Ausbildung von Systemen wie GPT-4, der neuen Version des berühmten Chatbots von OpenAI, einem Unternehmen, das immerhin von Elon Musk mitgegründet wurde, für mindestens sechs Monate zu pausieren.
Die größte Sorge ist die Stellung des Menschen angesichts seiner Entwicklungen. In diesem Sinne werden mehrere Fragen aufgeworfen, wie die nach Algorithmen, die entscheiden können, was man in den verschiedenen sozialen Netzwerken sieht, nach der Automatisierung verschiedener Vorgänge und nach der Entwicklung von Köpfen, die intelligenter sind als der Mensch:
“ Solche Entscheidungen sollten nicht an nicht gewählte Technologieführer delegiert werden. Leistungsstarke KI-Systeme sollten nur dann entwickelt werden, wenn wir davon überzeugt sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind. Dieses Vertrauen muss gut begründet sein und mit dem Ausmaß der potenziellen Auswirkungen eines Systems zunehmen. „
Auf der anderen Seite fordert die Petition, die Entwicklung von KI wieder auf Technologiebereiche zu fokussieren, die „sicher, interpretierbar, transparent, robust, ausgerichtet, vertrauenswürdig und loyal“ sind.
Stellt KI eine echte Gefahr dar?
Wie jede technologische Innovation wirft auch die KI Fragen auf. Bereits im Zeitalter der industriellen Revolution stellten sich die Menschen die Frage, ob sie durch Maschinen ersetzt werden könnten, und fiktionale Werke wie Terminator entfachten die Leidenschaft für ein mögliches Katastrophenszenario, aber stehen wir wirklich an der Schwelle zur Singularität? Die Frage spaltet die Gemüter.
Diese Fragen haben übrigens nicht auf den jüngsten Popularitätsschub der KI in den sozialen Netzwerken gewartet, um sich zu stellen.
Es gibt jedoch tatsächlich ethische Fragen, die hervorzuheben sind, insbesondere in Bezug auf die Art und Weise, wie das Lernen dieser Systeme durchgeführt wird. Wie bei all unseren Aktivitäten im Internet gibt jede Interaktion mit einer künstlichen Intelligenz dieser Informationen über uns, und wir füttern die Algorithmen privater Unternehmen kostenlos.
Daher ist es interessant, sich zu fragen, wie diese Daten von diesen Unternehmen genutzt werden und genutzt werden sollen, was eine rationalere Gefahr darstellen kann als die Fantasie einer völlig autonomen Super-KI zum jetzigen Zeitpunkt.
Was die Ersetzung von Menschen angeht, so wird die KI, wie in anderen Technologiebereichen auch, zwar tatsächlich einige Arbeitsplätze abschaffen, parallel dazu aber auch neue schaffen. Alles in allem ist sie ein moralisch neutrales Werkzeug, dessen Gefahren oder Vorteile davon abhängen, wie es eingesetzt wird.