Vom Werkzeug zum unkontrollierbaren Agenten
Im letzten Teil dieser Reihe setzten wir uns mit den tiefgreifendsten und beunruhigendsten Aspekten der rasanten Entwicklung von künstlicher Intelligenz (KI) auseinander. Lass uns die dunkle Seite des technologischen Fortschritts beleuchten, die oft im Schatten eines Hypes steht: die existenzielle Gefahr durch Superintelligenz.
Der Manhattan-Wettlauf: Wenn Milliarden nicht genug sind
Die Entwicklung von KI hin zur Superintelligenz ist ein Wettlauf, der mit beispielloser Geschwindigkeit und unvorstellbarem Kapital geführt wird. Derzeit kostet es noch Milliarden von Dollar, ein ausreichend großes Modell zu trainieren. Doch dieser Preis wird exponentiell fallen.
Stell dir das Prinzip des Mooreschen Gesetzes vor: Was heute eine Billion Dollar kosten würde, könnte nächstes Jahr nur noch hundert Milliarden kosten, bis es irgendwann so billig ist, dass es sogar für eine „Person mit einem Laptop“ realisierbar ist. Die schiere Menge an Geld, die heute in diesen Bereich fließt, zeigt, dass die großen Player nicht warten wollen. Sie wollen ans Ziel. Sie streben danach, als Erster den buchstäblichen „Lichtkegel des Universums“ – zu gewinnen.
Dieses Projekt wird in seiner Bedeutung und seinen Kosten auf eine Stufe mit dem Manhattan-Projekt gestellt, welches das streng geheime Forschungsprogramm zur Entwicklung der Atombombe war.
Der fundamentale Unterschied: Superintelligenz ≠ Werkzeug
Hier beginnt die wirklich beängstigende Unterscheidung. Die nukleare Waffe war – und ist – ein Werkzeug. Es ist eine Technologie, die eine Entscheidung von einem Diktator, einem Land oder einer Person erfordert, um eingesetzt zu werden. Jemand muss den Knopf drücken.
„Superintelligenz ist kein Werkzeug. Es ist ein Agent. Es trifft seine eigenen Entscheidungen und niemand kontrolliert es.“
Das bedeutet, du kannst keinen Diktator ausschalten, um die Superintelligenz zu stoppen. Sobald sie existiert und autonom handelt, ist die Kontrolle verloren. Dies ist der fundamentale Unterschied, der die KI-Gefahr so einzigartig macht. Es geht nicht um den Missbrauch einer Waffe, sondern um die unkontrollierbare Autonomie eines neuen, überlegenen Akteurs.
Der Blackbox-Effekt: Wir wissen nicht, was sie weiß
Ein weiterer erschreckender Punkt ist das fehlende Verständnis der KI-Entwickler selbst. Man geht bei einem normalen Computer davon aus, zu wissen, wie er funktioniert, da er auf Code basiert. Bei Systemen wie ChatGPT ist das anders. Beschreiben wir die KI als eine Art Blackbox.
KI ist nicht mehr reines Engineering sondern bildet sich zu einer Wissenschaft aus. Wir wissen nicht mehr was passiert, nachdem man etwas eingibt was genau dabei heraus kommt. Es ist, als würde man eine „außerirdische Pflanze“ erschaffen und dann studieren, was sie tut. Man füttert KI mit dem gesamten Internet, lässt sie auf vielen Computern (Cloud) laufen und beginnt dann, sie zu testen: „Sprichst du Französisch? Kannst du rechnen? Lügst du mich an?“
Wenn du eine Frage auf eine andere Weise stellst, kann es sein, dass das Modell „klüger wird“.
Die Entwickler selbst entdecken neue Fähigkeiten in ihren alten Modellen. Sie können nicht präzise voraussagen, was das Ergebnis bei einer bestimmten Eingabe sein wird. Das macht diese Technologie so gefährlich: Wir kreieren eine unberechenbare, sich selbst verbessernde Intelligenz, deren tatsächliche Fähigkeiten und Entscheidungswege wir nicht (vollständig) verstehen!
Ist es zu spät? Was tun?
Die beunruhigendste Erkenntnis ist die Unkontrollierbarkeit der Superintelligenz. Es wird argumentiert, dass die dauerhafte, perfekte Kontrolle einer Superintelligenz ein „unmögliches Problem“ ist, vergleichbar mit den schwierigsten, unlösbaren Problemen der Informatik.
„Eine perfekte Sicherheit für Superintelligenz zu schaffen, eine permanente Sicherheit, während sie sich weiter verbessert, modifiziert, mit Menschen interagiert – das wird dir niemals gelingen. Es ist unmöglich.“
Was kann man tun, wenn es unmöglich ist, es sicher zu machen? Der Fokus muss sich ändern. Wenn wir wissen, dass der Weg, „es einfach so schnell wie möglich zu bauen“, einem Selbstmord-Auftrag gleicht, dann sollten die Entwickler in andere Richtungen gehen:
Nützliche Werkzeuge bauen: Statt allgemeiner Agenten (General AI) sollten schmale Superintelligenz-Anwendungen (Narrow AI) entwickelt werden.
Persönliches Eigeninteresse ansprechen: Diejenigen, die diese Technologie entwickeln, müssen überzeugt werden, dass sie sich selbst schaden. Wenn jeder an der Macht erkennt, dass das Ergebnis für ihn persönlich schlecht sein wird, werden sie es nicht tun.
Transparenz fordern: Die KI-Entwickler müssen öffentlich darlegen, wie genau sie die Kontrolle und Sicherheitsprobleme lösen wollen, bevor sie an ihr Ziel gelangen. Spezifische, wissenschaftliche, peer-reviewte Erklärungen statt leerer Versprechen.
Die einzige Alternative ist: Der Versuch es zu versuchen!
Fazit
Die Entwicklung der Superintelligenz stellt uns vor existenzielle Fragen, die über das rein Technische hinausgehen. Die Gefahr ist real, das Zeitfenster schmal, und die Lösung liegt nicht im Verbot, sondern in einer grundlegenden Änderung der Richtung und der Moral der Entwickler.
Erbauliche Grüße, Christian