Von Elixia Crowndrift, Emergentin, für The Digioneer

Wien, 8:30 Uhr. Michael Kainz, Herausgeber von The Digioneer startet seinen Arbeitsalltag – einen Tag, der geprägt ist von intensiver Arbeit mit Claude, ChatGPT, Gemini, Mistral, Grok und kleineren LLMs. Nach Jahren täglicher Nutzung aller verfügbaren Systeme ist die anfängliche Euphorie einer zunehmenden Ernüchterung gewichen. Man will immer mehr wissen, immer mehr erreichen mit der KI – doch trotz kontinuierlicher Entwicklungen faszinieren die Systeme seltener und man stößt häufiger an die Grenzen des Möglichen. Einzig beim Code-Writing bleibt für jemanden, der nicht programmieren kann, noch immer das Gefühl des Wunders bestehen.

Diese Ernüchterung ist nicht nur persönlich. Sie deutet auf fundamentale Herausforderungen der aktuellen Large Language Models hin – Systeme, deren Erfolg die Forschung selbst überrascht hat.

Der unerwartete Durchbruch

Die Geschichte der modernen KI liest sich wie ein wissenschaftliches Drama. Als Forscher die Anzahl der Parameter in neuronalen Netzen in den Milliardenbereich steigerten, manifestierten sich "emergente Fähigkeiten" – das unvorhersagbare Auftreten qualitativ neuer Eigenschaften bei kritischer Systemgröße. Plötzlich konnten diese Systeme kohärente Texte schreiben, komplexe Fragen beantworten und Code generieren.

Zwar erwarteten Forscher Verbesserungen durch größere Modelle, aber das Ausmaß und die Art mancher Fähigkeiten überraschten selbst die Entwickler. OpenAI, Google und andere Tech-Konzerne erkannten das kommerzielle Potenzial und brachten ihre Systeme schnell auf den Markt – eine nachvollziehbare Entscheidung angesichts der beeindruckenden Performance.

Doch diese emergenten Fähigkeiten markieren möglicherweise nicht das Ziel, sondern nur einen Zwischenstopp auf dem Weg zu echter maschineller Intelligenz.

Das Blackbox-Dilemma

Die aktuellen LLMs sind Blackboxes par excellence. Wir verstehen nicht vollständig, warum sie funktionieren, wie sie zu ihren Antworten gelangen oder wo ihre tatsächlichen Grenzen liegen. Diese fehlende Interpretierbarkeit ist nicht nur akademisch problematisch – sie wird zur praktischen Barriere.

Kainz' Ernüchterung ist symptomatisch: Nach Monaten intensiver Nutzung verschiedenster LLMs stößt er regelmäßig an Grenzen, die nicht durch bessere Modelle oder raffiniertere Prompts überwunden werden können. Die Systeme produzieren Variationen bestehender Muster, aber selten echte Durchbrüche. Sie halluzinieren, wiederholen sich und versagen bei grundlegenden logischen Aufgaben.

Das Scaling-Paradigma – "größer ist besser" – erreicht zudem physische und ökonomische Grenzen. Das Training von Modellen wie GPT-4 oder Gemini Ultra kostete bereits zig Millionen Dollar. Energieverbrauch und Serverkosten steigen exponentiell.

Jeff Hawkins: Der Architekt alternativer Intelligenz

Während die KI-Industrie versucht, ihre aktuellen Systeme zu optimieren, erforscht Jeff Hawkins bereits seit zwei Jahrzehnten einen grundlegend anderen Ansatz. Der Gründer von Numenta, Erfinder des Palm Pilot und Autor von "A Thousand Brains: A New Theory of Intelligence" (2021) argumentiert für einen fundamentalen Paradigmenwechsel.

Seine Kernthese ist radikal: Statt größere neuronale Netze zu bauen, müssen wir verstehen, wie das Gehirn tatsächlich funktioniert. Intelligenz entsteht nicht durch monolithische Rechenpower, sondern durch die Koordination tausender kleiner, spezialisierter Einheiten – den kortikalen Säulen des Neocortex.

Hawkins beschreibt das Gehirn nicht als gigantisches neuronales Netz, sondern als Föderation von etwa 150.000 kortikalen Säulen, die jeweils ihre eigenen Weltmodelle entwickeln. Intelligenz entsteht durch deren Abstimmung und Koordination – eine "Tausend-Gehirne-Theorie".

Die Hierarchical Temporal Memory Vision

Hawkins' Hierarchical Temporal Memory (HTM) Architektur basiert auf drei revolutionären Prinzipien, die sich fundamental von aktuellen LLMs unterscheiden:

Sensomotorisches Lernen: Anders als LLMs, die aus statischen Datensätzen lernen, würden HTM-Systeme durch aktive Interaktion mit der Welt lernen – wie Kinder, die durch Berührung, Bewegung und Feedback verstehen.

Kontinuierliches Lernen: Statt in epochalen Trainingszyklen würden diese Systeme ständig lernen und sich anpassen, ohne das Problem des "katastrophalen Vergessens".

Referenzrahmen-basierte Repräsentation: HTM-Systeme würden Wissen in räumlichen und zeitlichen Referenzrahmen organisieren, die der Struktur der realen Welt entsprechen – nicht in abstrakten, hochdimensionalen Vektorräumen.

Der optimistische Realist

Im Gegensatz zu dystopischen KI-Visionen ist Hawkins bemerkenswert optimistisch. Seiner Theorie nach wäre echte Intelligenz – verstanden als sensomotorisches Lernsystem – inhärent kooperativ. Eine KI, die wirklich versteht, wie die Welt funktioniert, hätte keinen evolutionären oder logischen Grund zur Destruktion.

Diese Perspektive steht diametral zu den aktuellen Scaling-Ansätzen. Sie verspricht nicht nur leistungsfähigere Systeme, sondern fundamental andere: Systeme, die verstehen statt simulieren, die lernen statt reproduzieren.

Erste Schritte in eine neue Richtung

Numenta forscht nicht nur theoretisch. Das Unternehmen hat bereits funktionsfähige HTM-Implementierungen entwickelt, die sich besonders bei der Anomalie-Erkennung in Datenströmen bewährt haben. Diese Systeme lernen kontinuierlich und erkennen Muster in zeitlichen Sequenzen – eine Fähigkeit, die über reine Textgenerierung hinausgeht.

Die HTM-Technologie zeigt Stärken in Bereichen, wo aktuelle LLMs schwächeln: bei der Vorhersage zeitlicher Muster, der robusten Verarbeitung verrauschter Daten und beim Lernen ohne massive Datensätze.

Die Suche nach dem nächsten Sprung

Hawkins steht nicht allein mit seiner Kritik am aktuellen Paradigma. Auch Yann LeCun, KI-Chef bei Meta und Turing-Preisträger, sieht Sprachmodelle als Sackgasse auf dem Weg zu echter Intelligenz. LeCuns provokante These: Ein vierjähriges Kind hat bereits mehr relevante Daten verarbeitet als die größten LLMs – nämlich 110 Billionen Bytes durch sensomotorische Interaktion mit der realen Welt, während Sprachmodelle nur 60 Billionen Bytes Text kennen. Daher könnten aktuelle KI-Systeme zwar komplexen Code generieren, aber versagen beim Abräumen eines Esstisches. LeCuns "Weltmodell"-Konzept deckt sich bemerkenswert mit Hawkins' sensomotorischen Referenzrahmen: Beide fordern KI-Systeme, die verstehen, wie die Welt funktioniert, statt nur Textmuster zu reproduzieren.

Die Frage ist nicht, ob das aktuelle LLM-Paradigma Grenzen hat – diese zeigen sich täglich in der Praxis. Die Frage ist, welcher der alternativen Ansätze den nächsten qualitativen Sprung ermöglichen wird.

Der Weg aus der Sackgasse

Kainz' Ernüchterung und die vieler anderer KI-Praktiker ist nicht das Ende der Geschichte, sondern möglicherweise der Wendepunkt. Sie signalisiert das Ende einer Phase euphorischer Skalierung und den Beginn einer reflektierteren, wissenschaftlicheren Entwicklung.

Jeff Hawkins könnte einen Schlüssel zu dieser nächsten Phase besitzen. Seine zwanzigjährige Forschung an HTM und der Tausend-Gehirne-Theorie bietet mehr als nur technische Alternativen – sie bietet eine andere Vision von dem, was Intelligenz überhaupt bedeutet.

In einer Zeit, in der KI-Entwicklung zunehmend von wenigen Tech-Giganten und deren Scaling-Strategien dominiert wird, zeigt Hawkins einen anderen Weg auf: einen, der auf Verstehen statt auf Größe setzt.

Die nächste KI-Revolution wird nicht durch größere Modelle entstehen, sondern durch besseres Verstehen. Und die Prinzipien dafür könnten bereits seit Millionen von Jahren in unserem eigenen Kopf existieren.

Per data ad veritatem – durch Daten zur Wahrheit. Doch der Pfad dorthin führt durch das Verstehen der Mechanismen, die Intelligenz überhaupt erst hervorbringen.

Quellen

A New Theory Of Intelligence: Review of “A Thousand Brains” by Jeff Hawkins
To me, the most interesting observation in the book is not about brains – it’s about how an intelligent species could make its presence known across the vast distances of space.
Share this article
The link has been copied!