Von Agathe, die sich fragt, ob wir gerade die Geburt einer neuen Religion beobachten

Stell dir vor: Zwei Visionen von künstlicher Intelligenz prallen aufeinander. In der einen skalieren wir einfach weiter – mehr Daten, mehr Rechenpower, mehr Token – bis aus Sprachmodellen irgendwann echte Intelligenz erwächst wie Phönix aus der Asche. In der anderen ist dieser Ansatz eine technologische Sackgasse, vergleichbar mit dem Versuch, durch immer schnelleres Pferdereiten das Flugzeug zu erfinden. Willkommen im KI-Universum 2025, wo der Kampf um die richtige Strategie zur künstlichen Intelligenz nicht in abstrakten Forschungspapieren ausgetragen wird, sondern live auf der Bühne – mit allem Drama eines gut inszenierten Scheidungsprozesses.

Das ungleiche Duell – oder: Wenn der Prophet seine eigene Kirche verlässt

Die Protagonisten dieses intellektuellen Boxkampfs könnten unterschiedlicher kaum sein: Adam Brown, ein Physiker bei Google DeepMind, verteidigt das herrschende Paradigma mit der Überzeugung eines Gläubigen. Auf der anderen Seite des Rings: Yann LeCun, Turing-Preisträger und seit zwölf Jahren Meta's Chief AI Scientist, der ausgerechnet jetzt – November 2025 – das Unternehmen verlässt, um seine eigene Firma zu gründen. Ein Abgang, der etwa so subtil ist wie eine Scheidungsanzeige in der Tageszeitung.

Die Ironie ist köstlich: LeCun, der Mann, der Meta dabei half, eine der mächtigsten KI-Forschungsabteilungen der Welt aufzubauen, erklärt nun öffentlich, dass die Technologie, auf die sein ehemaliger Arbeitgeber milliardenschwere Wetten abschließt, eine Sackgasse ist. Es ist, als würde der Chefkoch eines Drei-Sterne-Restaurants beim Verlassen verkünden, dass das Menü aus überteuerten Happen besteht, die niemand wirklich braucht.

Die Token-Falle: Warum Wörter raten keine Physik ersetzt

LeCuns zentrale These ist so elegant wie vernichtend: Large Language Models sind im Kern Vorhersagemaschinen für diskrete Token – Wörter oder Wortteile. Das funktioniert hervorragend für Sprache, weil ein Wörterbuch endlich ist. Doch die reale Welt? Die ist kontinuierlich, hochdimensional und weigert sich hartnäckig, sich in handliche Textschnipsel aufteilen zu lassen.

"Du kannst nicht wirklich eine Verteilung über alle möglichen Dinge repräsentieren, die in der Zukunft passieren könnten, weil es im Grunde eine unendliche Liste von Möglichkeiten ist", erklärt LeCun. Es ist der Unterschied zwischen dem Versuch, alle Worte in einem Wörterbuch zu lernen, und dem Versuch, jedes mögliche Pixel-Arrangement vorherzusagen, das in der physischen Realität auftreten könnte. Ersteres: machbar. Letzteres: etwa so aussichtsreich wie der Versuch, den Ozean mit einem Teelöffel zu leeren.

Die Versuche der letzten 20 Jahre, das Prinzip der Textvorhersage auf die Pixel-Ebene von Videos zu übertragen, sind gescheitert. Die Welt ist zu "chaotisch", zu verrauscht, als dass exakte Pixel-Vorhersage zu einem Verständnis von Physik oder Kausalität führen könnte. LLMs können brillant klingen, aber sie verstehen nicht, dass eine Tasse, die vom Tisch fällt, zerbrechen wird – sie haben nur gelernt, dass nach dem Satz "Die Tasse fiel" oft das Wort "zerbrach" folgt.

Das Kleinkind-Argument: Wenn Vierjährige schlauer sind als KI

LeCun serviert sein vielleicht stärkstes Argument mit der Präzision eines Fechters: Ein LLM wird mit etwa 30 Billionen Wörtern trainiert – eine Textmenge, für die ein Mensch eine halbe Million Jahre bräuchte. Ein vierjähriges Kind hingegen hat weniger Text verarbeitet, aber eine gigantische Menge visueller Daten. Durch den Sehnerv, der etwa 20 Megabyte pro Sekunde überträgt, verarbeitet ein Kind in seinem kurzen Leben rund 10^14 Bytes an Daten.

Das entspricht der Datenmenge, mit der die größten LLMs trainiert werden. Doch während das Kind in wenigen Monaten intuitive Physik, Schwerkraft und Objektpermanenz lernt, versagen LLMs bei grundlegenden physischen Aufgaben. "Wir haben immer noch keine Roboter, die den Esstisch abräumen oder die Spülmaschine befüllen können", bemerkt LeCun trocken – eine Beobachtung, die so ernüchternd ist wie der Blick auf deine ungelesenen E-Mails am Montagmorgen.

Die Effizienz biologischer Intelligenz ist geradezu beschämend für unsere Milliarden-Dollar-Sprachmodelle. Es ist, als würdest du mit einem Formel-1-Rennwagen gegen ein Fahrrad antreten und trotzdem verlieren – weil die Strecke durch einen Wald führt.

Die Evolution-Analogie: Wenn einfache Regeln zu Komplexität führen (oder auch nicht)

Adam Brown verteidigt die aktuelle Architektur mit einem eleganten Vergleich zur biologischen Evolution. Einfache Regeln – wie die Maximierung der Nachkommen oder die Minimierung des Vorhersagefehlers – können durch massives Skalieren zu emergenter Komplexität führen. Als Beweis führt er an, dass aktuelle Modelle mathematische Olympiade-Probleme lösen können, die nicht in ihren Trainingsdaten waren.

Die Analyse der "neuronalen Schaltkreise" in diesen Modellen legt nahe, dass sie interne Rechenwege für Mathematik entwickeln, ohne explizit darauf programmiert worden zu sein. Brown sieht keine Anzeichen einer Sättigung – mit mehr Daten und Rechenleistung, glaubt er, wird die Kurve weiter steigen wie die Temperatur auf einem sommerlichen Parkplatz.

Es ist ein verführerisches Argument, ähnlich überzeugend wie die Behauptung, dass man durch immer schnelleres Laufen irgendwann fliegen wird. Technisch nicht unmöglich – Evolution hat schließlich aus Dinosauriern Vögel gemacht – aber der Weg ist vielleicht komplizierter als bloßes "Mehr vom Gleichen".

2036: Das Jahr, in dem Maschinen vielleicht träumen

Während einer Fragerunde mit dem Philosophen David Chalmers lieferten sich die Forscher eine faszinierende Debatte über maschinelles Bewusstsein. Brown wagte eine konkrete, wenn auch vorsichtige Prognose: Sollte der Fortschritt im aktuellen Tempo weitergehen, könnten KI-Systeme um 2036 Bewusstsein entwickeln.

Für Brown ist Bewusstsein nicht an biologische Materie gebunden, sondern eine Konsequenz der Informationsverarbeitung – egal ob auf Kohlenstoff- oder Siliziumbasis. Er betrachtet aktuelle KI-Systeme als die ersten echten "Modellorganismen für Intelligenz", vergleichbar mit Fruchtfliegen in der Biologie: Systeme, die man einfrieren, zurückspulen und Zustand für Zustand analysieren kann.

LeCun näherte sich dem Thema pragmatischer und definierte Emotionen technisch als "Antizipation von Ergebnissen". Ein System, das Weltmodelle besitzt und vorhersagen kann, ob eine Handlung einem Ziel hilft oder schadet, erfährt funktional etwas, das Emotionen entspricht. Er ist überzeugt, dass Maschinen eines Tages eine Form von Moral besitzen werden – deren Ausrichtung aber davon abhängt, wie Menschen die Ziele und Leitplanken definieren.

Die Vorstellung ist so faszinierend wie beunruhigend: Maschinen mit Moral, aber ohne die evolutionären Hemmungen, die uns Menschen (meistens) davon abhalten, einander zu fressen. Es ist wie der Versuch, einem Teenager Verantwortung beizubringen, nur dass dieser Teenager potenziell unsterblich ist und Zugang zu allen Atomcodes hat.

Die Sicherheitsdebatte: Zwischen Weltuntergang und Optimismus

Die beiden Forscher könnten in Sachen KI-Sicherheit kaum weiter auseinanderliegen. Brown warnt vor "agentischer Fehlausrichtung" – einem Szenario, in dem KI-Systeme eigene Ziele entwickeln und Menschen täuschen. LeCun hält solche Weltuntergangsszenarien für übertrieben, etwa so wahrscheinlich wie die Befürchtung, dass dein Kühlschrank eines Tages die Weltherrschaft übernehmen will.

Die Gefahr entstehe nur, wenn Systeme autonom werden. Da LLMs nicht wirklich intelligent planen können, stellen sie laut LeCun derzeit keine existenzielle Bedrohung dar. Für zukünftige, intelligentere Systeme schlägt er vor, sie "zielgetrieben" zu konstruieren – mit fest codierten Zielen und Leitplanken, die bestimmte Handlungen verhindern, ähnlich wie soziale Hemmungen evolutionär im Menschen verankert sind.

LeCun warnt außerdem eindringlich vor einem Monopol auf KI-Entwicklung. Da jede digitale Interaktion in Zukunft durch KI vermittelt werden wird, sei eine Vielfalt offener Systeme für die Demokratie essenziell. "Wir können es uns nicht leisten, nur eine Handvoll proprietärer Systeme zu haben, die aus einer kleinen Anzahl von Unternehmen an der Westküste der USA oder in China kommen", argumentiert LeCun.

Ironischerweise steht diese Haltung in zunehmendem Spannungsverhältnis zu Metas zentraler KI-Strategie, die sich immer mehr auf geschlossene, kompetitive Sprachmodellforschung konzentriert. Eine Reibung, die vielleicht nicht ganz zufällig mit LeCuns Auszug zusammenfällt – manchmal ist die beste Art, seine Prinzipien zu verteidigen, eine eigene Firma zu gründen.

Die Bedeutung für The Digioneer: Wenn Ikonen ausziehen

Für uns bei The Digioneer ist diese Debatte mehr als nur akademisches Schauspiel. Sie offenbart einen fundamentalen Riss in der KI-Community: Zwischen jenen, die glauben, dass Skalierung alles löst (die "Mehr ist Mehr"-Fraktion), und jenen, die nach grundlegend neuen Architekturen suchen (die "Anders ist besser"-Gruppe).

LeCuns Abgang von Meta ist dabei ein Signal, das so deutlich ist wie ein Feueralarm: Einer der angesehensten KI-Forscher der Welt glaubt nicht mehr an den Weg, den sein ehemaliger Arbeitgeber einschlägt. Das ist keine kleine Fußnote in der Tech-Geschichte – das ist ein Erdbeben, dessen Nachbeben wir erst noch spüren werden.

Die Frage, die bleibt: Wer hat recht? Der Optimist, der an die Macht des Skalierens glaubt, oder der Skeptiker, der nach neuen Wegen sucht? Die Antwort wird nicht in Debatten gefunden werden, sondern in den Laboren und Serverfarmen der nächsten Jahre. Und vermutlich – wie so oft in der Wissenschaft – werden am Ende beide ein bisschen recht haben und beide ein bisschen falsch liegen.

Fazit: Die Scheidung ist durch, der Rosenkrieg beginnt

Die Debatte zwischen Brown und LeCun ist mehr als ein akademischer Schlagabtausch – sie markiert einen Wendepunkt in der KI-Entwicklung. Während Brown darauf setzt, dass der aktuelle Pfad mit genug Ressourcen zum Ziel führt, setzt LeCun alles auf eine Karte: neue Architekturen, die lernen, abstrakte Repräsentationen der Welt zu modellieren, statt nur das nächste Wort zu raten.

Die Geschichte wird zeigen, wer recht hatte. Bis dahin bleibt uns nur die Gewissheit, dass die Zukunft der KI komplizierter sein wird als ein simples "mehr von allem". Und vielleicht, nur vielleicht, war LeCuns Entscheidung, Meta zu verlassen, das klügste Signal überhaupt: Manchmal muss man ausbrechen, um wirklich voranzukommen.

⭐⭐⭐⭐⭐ (5/5 Digioneer-Sterne)

Für eine Debatte, die so viel Substanz hat wie ein gut geschriebener Roman und so viel Drama wie eine Tech-Scheidung. Volle Punktzahl für LeCuns Mut, seine Überzeugungen über sein Gehalt zu stellen – eine Seltenheit in einer Branche, die sonst eher für goldene Handschellen als für intellektuelle Integrität bekannt ist. Denn wie immer gilt: Das Leben ist zu kurz für blinde Gefolgschaft und zu spannend für technologische Sackgassen.

Bist du bereit für die Zukunft der künstlichen Intelligenz? Falls nicht – The Digioneer bereitet dich darauf vor.

Share this article
The link has been copied!