Home » Ehemaliger OpenAI-Forscher: Es besteht eine 50%ige Chance, dass KI in einer “Katastrophe” endet

Ehemaliger OpenAI-Forscher: Es besteht eine 50%ige Chance, dass KI in einer „Katastrophe“ endet

by Tim

Ein ehemaliger Spitzenforscher von OpenAI glaubt, dass es eine gute Chance gibt, dass künstliche Intelligenz die Kontrolle über die Menschheit übernehmen und sie zerstören wird.

„Ich denke, dass es vielleicht eine 10-20%ige Chance gibt, dass die KI die Kontrolle übernimmt und viele oder die meisten Menschen sterben“, sagte Paul Christiano, der das Team für die Anpassung von Sprachmodellen bei OpenAI leitete, im Bankless-Podcast. „Ich nehme das sehr ernst.“

Christiano, der jetzt das Alignment Research Center leitet, eine gemeinnützige Organisation, die sich zum Ziel gesetzt hat, KI und maschinelle Lernsysteme mit „menschlichen Interessen“ in Einklang zu bringen, sagte, dass er besonders besorgt darüber ist, was passiert, wenn KI die logischen und kreativen Fähigkeiten eines Menschen erreicht. „Insgesamt sprechen wir vielleicht von einer 50/50-Chance auf eine Katastrophe, kurz nachdem wir Systeme auf menschlichem Niveau haben“, sagte er.

Christiano befindet sich in guter Gesellschaft. Kürzlich unterzeichneten zahlreiche Wissenschaftler aus aller Welt einen Online-Brief, in dem sie OpenAI und andere Unternehmen, die sich um die Entwicklung schnellerer und intelligenterer KI bemühen, aufforderten, die Entwicklung zu unterbrechen. Große Persönlichkeiten von Bill Gates bis Elon Musk haben ihre Besorgnis darüber zum Ausdruck gebracht, dass KI, wenn sie unkontrolliert bleibt, eine offensichtliche, existenzielle Gefahr für die Menschen darstellt.

Don’t be evil

Warum sollte KI böse werden? Im Grunde aus demselben Grund wie ein Mensch: Ausbildung und Lebenserfahrung.

Wie ein Baby wird die KI trainiert, indem sie Berge von Daten erhält, ohne wirklich zu wissen, was sie damit anfangen soll. Sie lernt, indem sie versucht, mit zufälligen Aktionen bestimmte Ziele zu erreichen, und sich auf die „richtigen“ Ergebnisse einstellt, die durch das Training definiert wurden.

Durch das Eintauchen in die im Internet gesammelten Daten hat das maschinelle Lernen die KI bisher in die Lage versetzt, gut strukturierte, kohärente Antworten auf menschliche Anfragen zusammenzustellen. Gleichzeitig wird die zugrunde liegende Computerverarbeitung, die das maschinelle Lernen antreibt, immer schneller, besser und spezialisierter. Einige Wissenschaftler glauben, dass diese Rechenleistung in Verbindung mit künstlicher Intelligenz innerhalb eines Jahrzehnts dazu führen wird, dass diese Maschinen wie Menschen empfindungsfähig werden und einen Sinn für sich selbst haben.

Und dann wird es brenzlig. Und deshalb argumentieren viele Forscher, dass wir uns lieber jetzt als später überlegen sollten, wie wir Leitplanken aufstellen können. Solange das Verhalten der KI überwacht wird, kann sie kontrolliert werden.

Aber wenn die Münze auf der anderen Seite landet, sagt sogar der Mitbegründer von OpenAI, dass die Dinge sehr, sehr schlimm werden könnten.

Foomsday?

Dieses Thema liegt seit Jahren auf dem Tisch. Eine der berühmtesten Debatten zu diesem Thema fand vor 11 Jahren zwischen dem KI-Forscher Eliezer Yudkowsky und dem Wirtschaftswissenschaftler Robin Hanson statt. Die beiden diskutierten die Möglichkeit des Erreichens von „Foom“ – was offenbar für „Fast Onset of Overwhelming Mastery“ steht – dem Punkt, an dem KI exponentiell schlauer wird als der Mensch und sich selbst verbessern kann. (Die Herleitung des Begriffs „foom“ ist umstritten.)

Eliezer und seine Gefolgsleute glauben, dass es unvermeidlich ist, dass KI ohne Vorwarnung „foom“ geht, was bedeutet, dass man eines Tages eine AGI [künstliche allgemeine Intelligenz] baut und Stunden oder Tage später hat sich das Ding rekursiv selbst zu gottähnlicher Intelligenz verbessert und frisst dann die Welt auf. Ist das realistisch?“ twitterte Perry Metzger, ein in der KI-Gemeinschaft aktiver Informatiker, kürzlich.

Metzger argumentierte, dass selbst wenn Computersysteme ein Niveau menschlicher Intelligenz erreichen, immer noch genügend Zeit bleibt, um schlechte Ergebnisse abzuwenden. „Ist ‚foom‘ logisch möglich? Vielleicht. Ich bin nicht überzeugt“, sagte er. „Ist es in der realen Welt möglich? Ich bin mir ziemlich sicher, nein. Wird es auf lange Sicht eine zutiefst übermenschliche KI geben? Ja, aber nicht ein ‚Foom'“.

Ein anderer Prominenter, Yann Le Cun, meldete sich ebenfalls zu Wort und behauptete, es sei „völlig unmöglich“, dass die Menschheit eine KI-Übernahme erlebe. Hoffen wir es.

Related Posts

Leave a Comment