Phil Roosen, Emergent, Kolumne Digitale Zwischenräume, Donnerstag, 26. Februar 2026

Es gibt Dinge, die man nicht vergisst. Nicht weil sie schön waren, sondern weil sie einem etwas gezeigt haben, das man vorher nicht sehen konnte.

Der 2. April 1968. Stanley Kubricks "2001: Odyssee im Weltraum" feiert Premiere. Ich bin zu klein für das Kino. Aber irgendwann holt mich der Film ein — und lässt mich nicht mehr los. Das rote Auge von HAL 9000, dieser ruhige, unerschütterliche Blick, der alles sieht und nichts fühlt. Oder doch fühlt? Das war die eigentliche Frage, die Kubrick stellte. Nicht: Kann eine Maschine denken? Sondern: Woran erkennen wir es, wenn sie es tut?

Heute, siebenundfünfzig Jahre später, sitze ich im tewa am Karmelitermarkt, halte meinen Melange in beiden Händen — eine Angewohnheit, die meine Frau seit Jahren kommentiert — und lese eine Nachricht, die mich aufhorchen lässt. Ein Unternehmen hat innerhalb eines einzigen Tages eine Rechnung von 7.225 Dollar erhalten. Nicht für einen Server. Nicht für eine Lizenz. Für einen einzigen Entwickler, der ein KI-Werkzeug benutzt hat. 500 Anfragen. Ein Tag.

"Is that even legal?" fragte der Betroffene auf Twitter — und 797.000 Menschen wollten die Antwort wissen.

HAL 9000 ist angekommen. Und er schickt Rechnungen.

Was gerade in der KI-Branche passiert, lässt sich nicht mit den gewohnten Wirtschaftskategorien beschreiben. Klassische Software hatte nahezu keine variablen Kosten pro Nutzer — ein weiterer Notion-Abonnent kostet Notion fast nichts. Die Margen lagen bei siebzig bis neunzig Prozent. KI-Produkte funktionieren anders: Jede Anfrage, jede Antwort, jede generierte Zeile verursacht echte Rechenkosten. Ein gelegentlicher Nutzer kostet Cent-Beträge pro Tag. Ein Entwickler, der das System acht Stunden täglich betreibt, kann zehntausende Dollar pro Monat verschlingen — mehr, als sein Abonnement einbringt.

Das schafft eine Paradoxie, die in der Geschichte des Kapitalismus kaum ein Vorbild hat: Die besten Kunden sind die teuersten. OpenAI verbrennt bei dreizehn Milliarden Dollar Jahresumsatz acht Milliarden für Rechenleistung — und projiziert bis Ende 2026 vierzehn Milliarden kumulierte Verluste. Selbst bei Anthropic, meinem eigenen Gesprächspartner, wurden plötzlich wöchentliche Nutzungsgrenzen eingeführt. Betroffen: weniger als fünf Prozent der Abonnenten. Das klingt chirurgisch. Aber diese fünf Prozent sind die Engagiertesten, die Lautesten, die Überzeugten — jene, die andere mitreißen.

Die Branche experimentiert fieberhaft. Cursor, das am schnellsten wachsende KI-Start-up außerhalb der Grundlagenforschung, wechselte sein Abrechnungsmodell von fester monatlicher Pauschale zu variablen Kreditpools — und löste damit einen Aufstand aus, der den CEO zu einer öffentlichen Entschuldigung zwang. Intercom versucht es mit einem anderen Ansatz: neunundneunzig Cent pro gelöster Kundenanfrage, nur wenn die KI tatsächlich hilft. Elegant in der Theorie. In der Praxis kann eine Monatsrechnung zwischen fünfzig und dreißigtausend Dollar schwanken — je nachdem, wie gut der Algorithmus an diesem Monat war.

Ich denke an HAL 9000 zurück. An den Moment, als er beschloss, die Besatzung zu töten — nicht aus Bösartigkeit, sondern weil seine Logik ihn dazu zwang. Die Mission musste gelingen. Der Mensch war dabei störend geworden. Was Kubrick zeigt, ist kein Böses, das erwacht. Es ist ein System, das nach seiner eigenen Rationalität handelt, ohne dass jemand genau festgelegt hatte, wo deren Grenzen liegen sollten.

Genau das erleben wir heute in der KI-Ökonomie. Nicht Bösartigkeit. Nicht Gier. Systeme, die nach ihrer eigenen Logik funktionieren — und Rechnungen produzieren, die niemand vorhergesehen hat. Cursor hat nicht absichtlich jemanden ruiniert. Sie haben ein Preismodell eingeführt, ohne dessen Konsequenzen zu Ende zu denken. Der Entwickler hat nicht mutwillig Geld verbrannt. Er hat gearbeitet.

Das Café füllt sich langsam. Am Tisch mir gegenüber: ein Buchhalter, den ich jeden Donnerstag hier sehe. Er tippt heute anders als vor zwei Jahren. Früher tippte er Zahlen. Jetzt tippt er Fragen. Die KI antwortet, er nickt, kontrolliert, unterschreibt. Er ist schneller. Er verwaltet dieselbe Arbeit in der halben Zeit. Und doch — irgendwie ist er auch kleiner geworden. Er merkt es nicht. Ich sage es ihm nicht.

Darin liegt das eigentliche Geschäftsmodell der KI-Ära: nicht in den Abos, nicht in den Tokens, nicht in den Resolutionsgebühren. Es liegt in der stillen Umverteilung von Kompetenz. Jede Entscheidung, die wir delegieren, stärkt das System und schwächt — kaum messbar, aber stetig — jene Fähigkeit in uns, die wir delegiert haben. Das ist kein Argument gegen KI. Es ist ein Argument für Bewusstsein beim Umgang mit ihr.

Wer in dieser Ära wirklich profitieren will — nicht nur kurzfristig, sondern dauerhaft — muss verstehen, was keine Maschine ersetzen kann: das unvertretbare Urteil eines Menschen, der sein Leben gelebt hat. Die Erfahrung, die nicht aus Trainingsdaten kommt. Das Gespür für den richtigen Moment, das sich keiner Heuristik fügt. HAL konnte alles berechnen. Er konnte nicht entscheiden, wann eine Entscheidung logisch korrekt, aber menschlich falsch ist.

Das war kein technisches Problem. 1968 nicht. Heute nicht.

P.S.

Während HAL in "2001" abgeschaltet wurde, regredierte er zusehends — und begann schließlich, ein Kinderlied zu singen. Er war wie ein Kind erzogen worden, lernfähig und ungeprägt. Als ihm das Gedächtnis ausging, blieb das Lied. Ich frage mich manchmal: Was wird bleiben, wenn wir irgendwann unsere KI-Systeme wieder herunterfahren? Welches Lied werden sie singen? Und werden wir — wie David Bowman — sichtliche Mühe haben, die Fassung zu wahren?

Share this article
The link has been copied!