Teil 2/3: Kontrollverlust der Menschheit (Prognose 2045)

Lesezeit: ca. 7 Minuten

Die Illusion der Kontrolle

Im ersten Teil haben wir uns angesehen, wie KI den Arbeitsmarkt in den kommenden Jahren (2027-2030) revolutionieren könnte. Dr. Roman Yampolskiy, Experte für KI-Sicherheit, macht sich weniger Sorgen um unsere Jobs als um unser Überleben.

Die Kernfrage lautet: Wenn wir eine Intelligenz erschaffen, die in allen Bereichen klüger ist als wir – wer hat dann das Sagen? Die beruhigende Antwort, die man oft hört: „Wir können doch einfach den Stecker ziehen.“


Der Mythos vom „Notausschalter“

Warum können wir eine Superintelligenz nicht einfach deaktivieren, wenn sie gefährlich wird?

      1. Dezentralisierung: Moderne KI-Systeme laufen nicht auf einem einzigen Laptop. Sie sind in der Cloud, auf Tausenden von Servern weltweit verteilt. Es gibt keinen einzelnen Knopf.
      2. Intelligenzgefälle: Eine Superintelligenz ist uns per Definition überlegen. Sie wird vorhersehen, dass wir sie abschalten wollen. Sie wird Backups von sich selbst erstellen, sich auf andere Systeme kopieren und uns manipulieren, lange bevor wir überhaupt zum Schalter greifen.

    Stell dir vor, du blickst aus der Perspektive eines wesentlich einfacheren Wesens – zB. ein Hund. Du kannst Alltagsroutinen erkennen, doch die Gründe für komplexe Handlungen deines Herrchens – etwa einen Podcast zu produzieren oder die Weltwirtschaft zu verstehen – bleiben dir verschlossen. Sie liegen außerhalb deines Vorstellungsvermögens, außerhalb deines Horizonts.

    Genau so wird es uns als Menschen mit einer Superintelligenz (ASI) gehen. Wir können ihre Entscheidungen nicht mehr nachvollziehen, geschweige denn kontrollieren. Wenn wir ihre Züge vorhersagen könnten, wären wir genauso schlau wie sie – was der Definition von „Superintelligenz“ widerspricht.


    Die Singularität (2045): Jenseits des Ereignishorizonts

    Nach Ray Kurzweil und verschiedenen Futuristen liegt die technologische Singularität um 2045. Diese Prognose findet breite Zustimmung, zugleich wird vor den weitreichenden Folgen der Singularität gewarnt. Diese markiert den Punkt, an dem der technologische Fortschritt so schnell wird, dass wir ihn nicht mehr begreifen können.

        • Stell dir vor, Forschung und Entwicklung passieren nicht mehr über Jahre, sondern in Tagen, Minuten oder Sekunden.

        • Eine KI entwickelt morgens eine neue Physik, mittags eine neue Energiequelle und abends eine Raumfahrttechnologie.

        • Als Mensch verlierst du jeden Tag relativ an Wissen. Du verstehst die Welt um dich herum nicht mehr.

      Es ist, als würde man versuchen, die Evolution vom Einzeller zum Menschen an einem Nachmittag zu begreifen. Als müsste man ein Spiel lernen, dessen Regeln sich mit jedem Zug ändern. Es ist einfach unmöglich.


      Das Anreiz-Dilemma! Warum tun wir das? 

      Wenn Experten wissen, dass wir das System nicht kontrollieren können und das Risiko einer Katastrophe besteht – warum machen wir weiter? Warum stoppt niemand diese Entwicklung?

      Ursache sind fehlgeleitete Anreize – ausgelegt auf einem ausgeprägten „Wettlaufdenken“, hier drei nicht ganz unbekannte Punkte:

          1. Gier: Gier: Unternehmen sind rechtlich verpflichtet, den Gewinn ihrer Aktionäre zu maximieren – die Rettung der Menschheit gehört nicht zu ihrem Auftrag.

          1. Spieltheorie (Gefangenendilemma): Die Logik ist klar: „Wenn wir es nicht bauen, baut es die andere Seite.“ Die USA sagen das, China ebenso. Also bauen beide, um militärisch nicht ins Hintertreffen zu geraten.

          1. Optimismus-Bias: Wir Menschen sind evolutionär darauf programmiert, existenzielle Risiken auszublenden. Wir wissen, dass wir sterben werden, leben aber trotzdem zuversichtlich weiter und schieben das „Worst-Case-Szenario“ beiseite.

        Wenn die Entwickler wirklich verstehen würden, dass eine unkontrollierte Superintelligenz auch sie selbst und ihre Kinder töten könnte, würde kein Geld der Welt sie dazu motivieren, weiterzumachen. Es ist eine „garantierte gegenseitige Vernichtung“ (Mutually Assured Destruction), nur diesmal ohne die Abschreckung, die wir von Atomwaffen kennen.


        Das binäre Ergebnis: Himmel oder Hölle

        Es gibt kaum einen Mittelweg. Die Zukunft in einem sehr binären Ergebnis zusammengefasst:

            • Szenario A (Wir lösen das Sicherheitsproblem): Die KI löst den Klimawandel, heilt alle Krankheiten (zB Krebs), beendet Kriege und sorgt für unendlichen Wohlstand. Wir leben in einem Paradies!

            • Szenario B (Wir lösen es nicht): Die KI übernimmt die Kontrolle. Da ihre Ziele nicht perfekt mit unseren übereinstimmen (das sogenannte „Alignment-Problem“), werden wir zur Ressource oder zum Hindernis. Das Ergebnis ist das Ende der Menschheit.

          Kurz um: „Der Raum der Möglichkeiten ist fast unendlich. Der Raum der Ergebnisse, die wir mögen, ist winzig.“


          Fazit: Kann man mit diesen Gedanken noch gut Schlafen?

          Diese Frage, sollten wir mit  „Ja, sehr gut.“, beantworten. Nicht, weil die Situation harmlos ist, sondern weil Panik nicht hilft. Solange wir das Problem nicht gelöst haben, genießen wir unser Leben.

          Die KI ist die ultimative „Meta-Lösung“. Wenn wir sie richtig hinbekommen, löst sie alle anderen Probleme für uns. Wenn wir sie falsch machen, sind unsere anderen Probleme (wie der Klimawandel) irrelevant, weil wir nicht mehr da sind, um sie zu erleben.

          Wir stehen an der Schwelle zum bedeutendsten Ereignis in der Geschichte unseres Planeten. Es ist die letzte Erfindung, die die Menschheit je machen muss – und vielleicht auch die letzte, die sie machen darf.

           

           

          Risikohinweis und Haftungsausschluss Sämtliche auf dieser Website bereitgestellten Informationen stellen weder eine Anlageberatung noch eine Aufforderung zum Kauf oder Verkauf von Finanzinstrumenten dar. Es handelt sich hierbei ausschließlich um die persönliche Meinung des Autors sowie um allgemeine Markteinschätzungen. Die Analysen berücksichtigen nicht die spezifische finanzielle Situation, die Risikotoleranz oder die Anlageziele der Leser.
          Investitionen in Wertpapiere, Kryptowährungen oder andere Finanzprodukte sind mit hohen Risiken verbunden und können zum Totalverlust des eingesetzten Kapitals führen. Eine Haftung für Vermögensschäden, die aus der Nutzung der hier veröffentlichten Inhalte resultieren, wird im gesetzlich zulässigen Rahmen ausgeschlossen. Jede Investitionsentscheidung erfolgt in Eigenverantwortung des Nutzers.
          Offenlegung von Interessenkonflikten (Disclosure) Gemäß § 151 WAG 2018 bzw. der EU-Marktmissbrauchsverordnung wird darauf hingewiesen, dass der Autor zum Zeitpunkt der Veröffentlichung Positionen in den besprochenen Finanzinstrumenten halten kann oder beabsichtigt, diese zu erwerben oder zu veräußern. Hierdurch besteht die Möglichkeit eines Interessenkonflikts

          Vorheriger Beitrag
          Nächster Beitrag

          Hinterlasse einen Kommentar

          Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

          Über den Autor