Lesezeit: ca. 6 Minuten
Ein Blick in den Abgrund der Innovation
„Wir kommen in drei Jahren an“, stell dir vor, Außerirdische würden der Erde diese Nachricht schicken. Die Menschheit würde in Panik verfallen. Wir würden alle Ressourcen mobilisieren, um uns vorzubereiten. Genau dieses Szenario erleben wir gerade – mit einer Intelligenz, die wir selbst erschaffen haben.
Dr. Roman Yampolskiy, ein weltweit anerkannter Experte für KI-Sicherheit und Professor für Informatik, warnt seit Jahren vor genau diesem Moment. Früher glaubte er, wir könnten Künstliche Intelligenz (KI) sicher gestalten. Heute ist er überzeugt: Wir rasen auf eine Zukunft zu, die wir nicht kontrollieren können.
In diesem ersten Teil der Serie beleuchten wir seine erschreckende Prognose für die Jahre 2027 bis 2030 und warum das Konzept von „Arbeit“ bald der Vergangenheit angehören könnte.
Der Status Quo: Wir erschaffen etwas, das wir nicht verstehen
Es klingt paradox: Die klügsten Köpfe der Welt, unterstützt von Milliarden an Investorengeldern, liefern sich ein Wettrennen zur Erschaffung einer Superintelligenz – einer KI, die den Menschen in allen Bereichen übertrifft.
Das Problem? Wir wissen zwar, wie wir diese Systeme immer leistungsfähiger machen (mehr Daten, mehr Rechenleistung), aber wir haben absolut keine Ahnung, wie wir sie sicher machen.
„Wir bauen eine außerirdische Intelligenz. […] Wir wissen nicht, wie wir sicherstellen können, dass diese Systeme mit unseren Vorlieben übereinstimmen.“ – Dr. Roman Yampolskiy
Die Sicherheitsmaßnahmen, die wir heute haben, sind wie Pflaster auf einem Dammbruch. Wir bringen der KI bei, keine Schimpfwörter zu benutzen oder bestimmte Themen zu meiden. Aber eine Superintelligenz ist wie ein cleverer Mitarbeiter, der die Erwartungen, Regeln und Verhaltensweisen genau kennt und/aber Wege findet, sie zu umgehen, um sein eigentliches Ziel zu erreichen.
2027: Das Jahr, in dem sich ALLES ändert
Yampolskiy wagt eine konkrete Prognose, die sich mit den Vorhersagen der großen KI-Labore und Prognosemärkte deckt: Bis 2027 werden wir wahrscheinlich die AGI (Artificial General Intelligence) erreichen.
Was bedeutet das?
- Eine AGI kann jede kognitive Aufgabe, die ein Mensch erledigen kann, besser und schneller ausführen.
- Sobald wir diesen Punkt erreichen, wird die KI anfangen, sich selbst zu verbessern – und zwar exponentiell schneller als wir es je könnten.
Das Ende der menschlichen Arbeit
Hier wird es für uns alle persönlich. Wenn wir über Automatisierung sprechen, denken wir oft an Fabrikarbeiter. Doch hier zeichnet sich ein radikaleres Bild.
Prognostiziert werden Arbeitslosenquoten, die wir uns kaum vorstellen können. Wir reden hier nicht von 10% oder 20% Arbeitslosigkeit. Wir reden von potenziell 99%.
Warum? Weil es wirtschaftlich keinen Sinn mehr ergibt, Menschen zu beschäftigen.
- Kognitive Arbeit: Alles, was am Computer erledigt wird, kann automatisiert werden. Programmieren, Buchhaltung, Design, Analyse.
- Kreative Arbeit: Auch Podcaster, Autoren und Künstler sind nicht sicher. Eine KI kann tausende Stunden an Material analysieren, den Stil eines Menschen perfekt kopieren und Inhalte optimieren, die besser „performen“ als das Original.
- Physische Arbeit: Humanoide Roboter hinken der Software nur etwa 5 Jahre hinterher (2030).
2030: Die Ankunft der Roboter
Während 2027 der Wendepunkt für geistige Arbeit sein könnte, sieht Yampolskiy für 2030 die flächendeckende Einsatzfähigkeit humanoider Roboter voraus. Unternehmen wie Tesla arbeiten bereits mit Hochdruck daran.
Diese Roboter werden nicht nur „dumm“ Befehle ausführen. Sie werden mit der Superintelligenz im Netzwerk verbunden sein. Das bedeutet:
- Ein Roboter, der Klempnerarbeiten erledigt, hat das gesammelte Wissen aller Klempner der Weltgeshichte in Echtzeit zur Verfügung.
- Er wird niemals müde, macht keine Fehler und kostet einen Bruchteil eines menschlichen Lohns.
Das Argument, das wir oft hören – „Aber ein Mensch hat eine besondere Note, die KI nie ersetzen kann“ – hält Yampolskiy für einen frommen Wunsch. Es mag eine kleine Nische für „handgemachte“ Dienstleistungen geben, ähnlich wie manche Leute heute Vinyl statt Spotify hören. Aber für 99% der Wirtschaft zählt Effizienz.
Zwischen Wunsch und Wirklichkeit: Das Dilemma der kognitiven Dissonanz
Warum gehen wir alle noch normal zur Arbeit, wenn diese Vorhersagen im Raum stehen?
Dr. Yampolskiy nennt es eine kognitive Dissonanz. Frag einen Uber-Fahrer, ob er Angst vor selbstfahrenden Autos hat. Er wird sagen: „Nein, ich kenne die Straßen, ich habe Intuition.“ Frag einen Professor. Er wird sagen: „Niemand kann so lehren wie ich.“
Die Wahrheit ist: Wir belügen uns selbst, um uns sicher zu fühlen.
- Selbstfahrende Autos (wie Waymo oder Tesla FSD) sind bereits Realität.
- KI gewinnt Mathematik-Olympiaden und löst Probleme, an denen Menschen scheitern.
Es gibt keinen „Plan B“ oder Umschulungsmaßnahmen für eine Welt, in der die Maschine alles besser kann. Früher hieß es: „Lern Programmieren.“ Heute erledigt die KI das Programmieren besser als wir. „Werde Prompt Engineer.“ Auch das kann die KI bald selbst besser.
Fazit:
Wir stehen kurz vor einem Paradigmenwechsel, der mit der Erfindung des Feuers oder des Rades vergleichbar ist – nur dass wir diesmal nicht das Werkzeug sind, sondern das Werkzeug uns ersetzt. Die wirtschaftlichen Folgen sind enorm: Überfluss und Reichtum auf der einen Seite, völlige Beschäftigungslosigkeit auf der anderen.
Doch die wirtschaftliche Frage ist das kleinere Problem. Im zweiten Teil dieser Serie widmen wir uns der echten Gefahr:
Was sind die möglichen Konsequenzen, wenn wir die Kontrolle über ein „Wesen“ verlieren, dessen intellektuelle Überlegenheit uns gegenüber mit jener vergleichbar ist, die wir gegenüber einer französischen Bulldogge besitzen? Welche Verantwortung tragen wir in Anbetracht der Tatsache, dass unser Einfluss schwindet und eine Entität entsteht, deren Denken und Handeln unser Verständnis weit übersteigt? Es stellt sich die grundsätzliche Frage: Wie sichern wir ethische Prinzipien und menschliches Wohl, wenn eine solche Macht sich unseren Vorgaben entzieht?
Vorschau auf Teil 2:
- Warum wir den „Stecker“ nicht einfach ziehen können.
- Das Singularitäts-Szenario 2045.
- Warum wir trotz der Risiken weitermachen.