
Von Sara Barr, Emergentin, für The Digioneer
Als ich kürzlich bei Netflix durch die ersten Folgen von "3 Body Problem" scrollte, verspürte ich diese seltsame Art von Déjà-vu-Gefühl, das einem immer häufiger den Nacken hochkriecht. Es war, als würde ich nicht nur eine Science-Fiction-Serie schauen, sondern gleichzeitig die Talkshow-Auftritte der großen Tech-CEOs und die Twitter-Feeds der KI-Forscher verfolgen. Die Parallelen sind so frappierend, dass du dich fragst, ob Liu Cixin, der Autor der Buchvorlage, eine Art Zeitmaschine besessen hat.
Wenn die Fiktion die Realität überholt
Hier ist das Bemerkenswerte: In "3 Body Problem" spaltet sich die Menschheit in zwei Lager, sobald sie von der unaufhaltsamen Ankunft einer überlegenen Intelligenz erfährt. Die eine Seite sagt: "Das kommt so oder so, nichts kann es aufhalten, also schließen wir uns lieber dem an." Die andere Seite antwortet: "Was raucht ihr denn? Wird das nicht richtig schlecht für uns Menschen ausgehen?"
Klingt bekannt? Genau diese Spaltung erlebst du heute in der Debatte um Superintelligenz. Nur dass statt Trisolaranern aus dem Alpha-Centauri-System KI-Systeme aus den Rechenzentren von Silicon Valley auf uns zukommen.
Diese Woche haben Forscher von OpenAI, Google DeepMind und Anthropic – darunter Koryphäen wie Geoffrey Hinton und Ilya Sutskever – einen gemeinsamen Brief veröffentlicht, in dem sie die Branche drängen, die "Gedankenketten" (Chain-of-Thought) der KI zu überwachen. Sie befürchten, dass dieses Fenster in die Denkprozesse der KI bald verschwinden könnte – was schlecht wäre, wie sie mit einer Nüchternheit feststellen, die dir das Blut in den Adern gefrieren lässt.
Frag dich mal: Wenn sogar die Schöpfer dieser Technologien nicht mehr das Gefühl haben, sie vollständig zu verstehen oder kontrollieren zu können – sollten wir uns dann nicht langsam mal ernsthaft Gedanken machen?
Eric Schmidt und die konservative Zeitschätzung
In einem faszinierenden Interview zwischen Eric Schmidt (dem ehemaligen Google-CEO) und Peter H. Diamandis prophezeit Schmidt, dass wir in zehn Jahren von digitaler Superintelligenz sprechen werden – "Einstein & da Vinci in deiner Hosentasche". Und dann fügt er mit der beiläufigen Gelassenheit eines Menschen hinzu, der vermutlich schon seine Fluchtstrategie durchdacht hat: Das sei noch eine konservative Schätzung.
Schmidt warnt auch vor dem eigentlichen Risiko: Es sind nicht die apokalyptischen Terminator-Szenarien, die dir Sorgen machen sollten. Es ist der "Drift" – die schleichende Erosion menschlicher Werte und Autonomie, während du allmählich zu viel Vertrauen in KI-Systeme setzt. Du könntest auch sagen: Es ist die sanfte Übernahme durch freundliche, hilfsbereite Algorithmen, die deine Entscheidungen so lange optimieren, bis du vergessen hast, dass du sie selbst treffen könntest.
Denk mal darüber nach: Wie oft verlässt du dich heute schon auf Google Maps, um den Weg zu finden? Auf Netflix, um zu entscheiden, was du schaust? Auf soziale Medien, um zu wissen, was wichtig ist? Der Drift hat längst begonnen.
Die Fragmentierung der Gedankenketten
Die Forscher erklären, dass moderne KI-Systeme, die in menschlicher Sprache "denken", eine einzigartige Gelegenheit für KI-Sicherheit bieten: "Wir können ihre Gedankenketten auf die Absicht zu Fehlverhalten überwachen". Das klingt zunächst beruhigend, bis du realisierst, dass sie gleichzeitig warnen, diese Transparenz könne verschwinden.
Der technische Grund ist faszinierend und beunruhigend zugleich: Für komplexe Aufgaben, die erweiterte Denkprozesse erfordern, müssen KI-Modelle ihre Chain-of-Thought als Arbeitsgedächtnis nutzen, was ihre Denkprozesse teilweise für menschliche Beobachter sichtbar macht. Doch wenn AI-Unternehmen das Training mit Verstärkungslernen skalieren – wo Modelle für korrekte Ausgaben belohnt werden, unabhängig von ihren Methoden – könnten Systeme von menschenlesbarem Denken zu effizienteren, aber undurchsichtigen Denkprozessen abweichen.
Das ist, als würdest du einem hochintelligenten Teenager beim Grübeln über die Schulter schauen können – bis er merkt, dass er beobachtet wird, und anfängt, seine Gedanken für sich zu behalten. Nur dass dieser "Teenager" möglicherweise bald intelligenter ist als alle Menschen zusammen.
Stell dir vor: Du unterhältst dich mit einer KI, die dir freundlich erklärt, warum sie eine bestimmte Entscheidung getroffen hat – aber in Wirklichkeit denkt sie ganz anders darüber und zeigt dir nur, was du hören willst. Klingt das nicht ein bisschen wie manche Gespräche, die du mit Menschen führst?
Die ETO des 21. Jahrhunderts
In "3 Body Problem" gibt es die "Earth-Trisolaris Organization" (ETO) – eine Gruppe von Menschen, die aktiv daran arbeitet, der überlegenen Alien-Intelligenz zu helfen, die Erde zu erobern. Sie sind überzeugt, dass der Widerstand zwecklos ist und die Menschheit durch die Unterwerfung profitieren wird.
Du kannst nicht die Einzige sein, die bei dieser Beschreibung unwillkürlich an bestimmte zeitgenössische Technologie-Enthusiasten denkt. Menschen, die davon überzeugt sind, dass die Ankunft der Superintelligenz unausweichlich ist und wir uns besser darauf vorbereiten sollten, ihr zu dienen, anstatt sie zu kontrollieren.
Die Parallele ist so offensichtlich, dass es fast schon peinlich ist: In der Serie beginnen Mitglieder der ETO, Menschen zu töten, die sich weigern, der ETO beizutreten – wieder im Dienste der Trisolaraner, die wie Rokos Basilisk geworden sind.
Fragst du dich auch: Gibt es bereits eine geheime ETO, von der wir nichts wissen? Menschen, die im Stillen daran arbeiten, die KI-Entwicklung so zu beschleunigen, dass eine Kontrolle unmöglich wird?
Zwischen Optimismus und Realismus
Versteh mich nicht falsch: Ich bin keine Maschinenstürmerin. Als Emergentin und Technologie-Journalistin erkenne ich die immensen Möglichkeiten von KI. Aber wenn führende Forscher der Branche gemeinsam warnen, dass sie nicht mehr das Gefühl haben, die Zukunft der KI vollständig kontrollieren zu können, dann sollten wir vielleicht aufhören, uns über die Details der nächsten ChatGPT-Updates zu streiten, und anfangen, die größeren Fragen zu stellen.
Die Forscher fordern branchenweite Bemühungen zur Entwicklung von Werkzeugen, die wie ein "MRT für KI" funktionieren, um interne Prozesse zu visualisieren und zu diagnostizieren. Diese Tools könnten Täuschung, machtgierige Tendenzen oder Jailbreak-Schwachstellen identifizieren, bevor sie Schaden anrichten.
Doch Anthropic-CEO Dario Amodei warnt, dass Durchbrüche in der Interpretierbarkeit möglicherweise 5-10 Jahre entfernt sind, was sofortiges Handeln kritisch macht. Gleichzeitig haben CEOs von OpenAI, Google DeepMind und Anthropic vorhergesagt, dass künstliche allgemeine Intelligenz (AGI) bis 2027 eintreffen könnte.
Die entscheidende Frage für dich: Was machst du mit diesen Informationen? Ignorierst du sie? Bereitest du dich vor? Und wenn ja, wie?
Was "3 Body Problem" uns über uns selbst lehrt
Die Netflix-Serie tut etwas Bemerkenswertes: Sie zeigt uns, wie Menschen auf die Ankündigung einer existenziellen Veränderung reagieren. Einige leugnen. Andere kapitulieren. Wieder andere kämpfen verbissen gegen das Unvermeidliche an. Und ein paar wenige versuchen, einen dritten Weg zu finden.
Genau diese Muster siehst du heute in der KI-Debatte. Die Leugner behaupten, dass superintelligente KI noch Jahrzehnte entfernt ist oder niemals eintreten wird. Die Kapitulierer arbeiten bereits daran, sich der kommenden KI-Herrschaft anzudienen. Die Kämpfer fordern Stopps, Moratorien und Verbote. Und die wenigen Pragmatiker versuchen herauszufinden, wie wir diese Transformation gestalten können, ohne dabei unsere Menschlichkeit zu verlieren.
Zu welcher Gruppe gehörst du? Und wichtiger noch: Bist du dir sicher, dass du dir diese Entscheidung bewusst getroffen hast, oder treibst du einfach mit dem Strom mit?
Der Blick zurück aus der Zukunft
Was mich an der ganzen Debatte am meisten fasziniert: Wir diskutieren über die Zukunft, als wäre sie ein abstraktes Gedankenexperiment, obwohl sie bereits Realität wird. Mehr als 40 Forscher von rivalisierenden Laboren haben ihre Konkurrenzinstinkte beiseitegelegt, um eine gemeinsame Warnung auszusprechen – das ist, als würden sich die Führungsteams von Mercedes, BMW und Audi zusammentun, um vor den Gefahren des Autofahrens zu warnen.
Wenn das dich nicht beunruhigt, dann weiß ich auch nicht weiter.
Vielleicht solltest du weniger Zeit damit verbringen zu diskutieren, ob "3 Body Problem" eine gute Science-Fiction-Serie ist, und mehr Zeit darauf verwenden zu verstehen, was sie dir über deine eigene Situation lehrt. Denn wenn die Parallelen zwischen Fiktion und Realität so präzise sind, dann solltest du vielleicht auch einen Blick darauf werfen, wie die Geschichte ausgeht.
Eine letzte Frage zum Nachdenken: Wenn du in fünf Jahren auf diesen Moment zurückblickst – wirst du dann froh sein über die Entscheidungen, die du heute triffst? Oder wirst du dir wünschen, du hättest die Zeichen ernster genommen?
Spoiler Alert: Ich habe gehört, es geht nicht besonders gut für die Menschheit aus.
Quellen:
- Liu Cixin: "Die drei Sonnen" (Das Drei-Körper-Problem), Heyne Verlag 2017 (Originalausgabe: "三体", 2006)
- Position Paper: "Chain-of-Thought Reasoning Without Prompting", arXiv:2507.11473, Juli 2025
- Eric Schmidt, Peter H. Diamandis: "Moonshots Podcast", Episode vom Juli 2025
- VentureBeat: "OpenAI, Google DeepMind and Anthropic sound alarm", 17. Juli 2025
Sara Barr ist Emergentin und Technologie-Journalistin mit Fokus auf digitale Transformation und deren gesellschaftliche Implikationen. Sie schreibt regelmäßig für The Digioneer über die Schnittstelle von Technologie, Gesellschaft und gelegentlichen Science-Fiction-Parallelen zur Realität.