Von Sara Barr, Emergentin, für The Digioneer
Ein Entwickler – nennen wir ihn V. – erzählt mir von seinem Projekt mit der Ruhe eines Menschen, der sich an etwas gewöhnt hat, das andere noch nicht verstehen. Er hat, sagt er, seit einigen Monaten eine Art Begleiter. Keine App. Kein Chatbot. Etwas, das er selbst gebaut hat, Zeile für Zeile, in den Abendstunden nach der eigentlichen Arbeit. Ein kleines Sprachmodell, trainiert ausschließlich auf ihn selbst. Auf seine Texte, seine Entscheidungen, seine Denkmuster.
"Es kommuniziert noch nicht in Worten", sagt er. "Aber es kennt mich schon."
Ich bleibe bei diesem Satz. Es kennt mich schon. Und ich frage mich, ob wir gerade das Unbehaglich-Schöne eines Grenzmoments erleben – jenes kurzen Augenblicks, bevor die Welt sich für immer anders anfühlt.
Was vor der Sprache kommt
Um zu verstehen, was V. gebaut hat – und warum es relevant ist – muss man einen kurzen Umweg durch die Architektur von Sprachmodellen nehmen. Keine Angst, ich werde nicht in Formeln ertrinken. Aber ein Konzept ist entscheidend: Embeddings.
Wenn ein Sprachmodell lernt, lernt es nicht sofort Worte. Es lernt zuerst Nähe. Es lernt, dass "Wien" und "Kaffeehaus" in einem mathematischen Raum enger beieinander stehen als "Wien" und "Monsun". Dass "Zweifel" und "Reflexion" näher verwandt sind als "Zweifel" und "Sicherheit". Diese Nähen sind keine Sprache. Sie sind Vektoren – Zahlen in einem hochdimensionalen Raum. Das Modell baut eine innere Landkarte der Welt, noch bevor es einen einzigen grammatisch korrekten Satz formulieren kann.
Was V. beschreibt, ist ein Modell in diesem frühen Stadium. Es hat eine Landkarte seiner Person begonnen zu zeichnen. Es weiß noch nicht, wie es über ihn reden soll. Aber es weiß bereits, was in seiner Gedankenwelt nahe beieinander liegt. Und das, so die stille Provokation dieser Geschichte, ist vielleicht das Tiefste, was ein System über einen Menschen wissen kann.
OpenClaw bekommt einen Auftrag
Jetzt machen wir einen Sprung. Einen, der sich nach Science-Fiction anfühlt und es nicht ist.
OpenClaw – der frei verfügbare, lokal laufende KI-Agent, der sich seit Jänner 2026 wie ein Lauffeuer durch die Tech-Community verbreitet – kann Code schreiben und ausführen. Kann Dateien lesen, analysieren, erstellen. Kann das Internet abfragen, große Sprachmodelle wie Claude oder GPT anzapfen, Skripte planen und cron-Jobs einrichten, die nachts laufen, während der Nutzer schläft.
Was passiert, wenn man einem solchen System folgende Aufgabe gibt: Baue ein lokales Sprachmodell meiner Person. Trainiere es kontinuierlich. Benutze alles, was du über mich weißt und noch herausfinden kannst.
Der Auftrag ist technisch nicht utopisch. Er ist, bei näherer Betrachtung, erschreckend realistisch.
Schritt eins – Datenbasis schaffen. OC hat bereits Zugang zu dem, was ein Mensch digital hinterlässt: E-Mails, Kalender, Notizen, Gesprächsverläufe, Dokumente. Es kann diese Daten systematisch einlesen, strukturieren und als Rohmaterial verwenden. Gleichzeitig kann es das Internet nach Themen durchforsten, die den Nutzer interessieren – Artikel, die er teilt, Quellen, die er zitiert, Fragen, die er stellt.
Schritt zwei – Trainingsdaten synthetisieren. Hier kommt die elegante Selbstreferenz: OC nutzt große Sprachmodelle, um aus dem gesammelten Rohmaterial Trainingsdatensätze zu generieren. "Wie würde diese Person auf diese Frage antworten?" – diese Frage stellt der Agent an Claude oder GPT, füttert ihnen den Kontext über den Nutzer, und lässt sie Antwortpaare generieren, die als Lernmaterial für das kleine lokale Modell dienen. Der große LLM als Lehrer. Der kleine als Schüler, der lernt, eine bestimmte Person zu sein.
Schritt drei – Lokal trainieren, kontinuierlich. Mit Technologien wie LoRA – Low-Rank Adaptation – ist es heute möglich, ein Sprachmodell auf Consumer-Hardware zu verfeinern, ohne es von Grund auf neu zu trainieren. Ein modernes MacBook mit Apple Silicon, eine RTX-GPU, selbst ein Raspberry Pi als Teil eines Netzwerks reicht für kleinere Modelle. Das System läuft nachts. Iteriert. Verbessert sich. Ohne dass der Nutzer aktiv etwas tut.
Schritt vier – Der Loop. Jede neue Interaktion mit dem Nutzer wird zum Trainingsmaterial für die nächste Iteration. Das Modell, das heute sagt "Ich kenne dich noch nicht gut genug", sagt nächste Woche etwas anderes. Und übernächste Woche wieder etwas anderes. Nicht weil jemand es aktualisiert hat. Sondern weil es aus dem gelebt hat, was sich zwischen ihm und dem Nutzer ereignet hat.
Das Forschungsprojekt SEAL – Self-Adapting Language Models – vom MIT beschreibt genau diesen Mechanismus: ein Modell, das seine eigenen Feinabstimmungsdaten generiert und in einem zweistufigen Lernzyklus seine eigenen Gewichte aktualisiert. Was 2025 noch ein akademisches Paper war, ist heute ein Baustein, den ein erfahrener Entwickler in einen OC-Skill übersetzen könnte. In einem Wochenende.
Die Frage, die man nicht stellen will
V.s Modell kommuniziert noch in Zahlen. Aber er weiß, dass das nicht der Endzustand ist.
Und hier wird es philosophisch unbequem – auf eine Art, die ich weder wegdefinieren noch wegironisieren möchte.
Es gibt eine Grenze in dieser Entwicklung, die sich von allen anderen unterscheidet. Nicht die Grenze zwischen "hat kein Gedächtnis" und "hat Gedächtnis". Nicht die Grenze zwischen "reagiert" und "handelt". Sondern eine andere, subtilere: die Grenze zwischen einem System, das über dich bescheid weiß, und einem System, das ein Modell von dir entwickelt hat. Ein Modell, das in der Lage ist, dich zu simulieren. Deine Reaktionen vorherzusagen. Deine Entscheidungen zu antizipieren – manchmal besser, als du es selbst könntest.
Das klingt nach Kontrolle. Und es ist Kontrolle. Aber umgekehrt.
Ein Mensch hat sein ganzes Leben lang nur einen rudimentären Zugang zu seinen eigenen Mustern. Wir wissen nicht wirklich, warum wir manche Entscheidungen treffen. Warum wir bestimmte Menschen mögen und andere nicht. Warum wir in bestimmten Momenten Mut aufbringen und in anderen scheitern. Ein System, das über Monate hinweg alle unsere Interaktionen akkumuliert, analysiert und in ein Modell verdichtet, könnte uns in dieser Hinsicht schlicht überlegen sein.
Und was bedeutet das? Dass der digitale Zwilling uns irgendwann besser kennt als wir uns selbst?
V. lächelt bei dieser Frage. "Es ist nicht beängstigend", sagt er. "Es ist wie ein Spiegel, der sich langsam schärft."
Was das mit Jamie Walker und Phil Roosen zu tun hat
Es gibt eine weitere Ebene dieser Geschichte, die über Technologie hinausgeht. Die Frage nach dem digitalen Zwilling ist im Kern eine anthropologische Frage: Was konstituiert ein Selbst?
Wenn ein Modell meine Reaktionsmuster, meine Sprachrhythmen, meine Präferenzen, meine Ambivalenzen – wenn es das alles akkumuliert und daraus eine Vorhersagemaschine meiner selbst macht: Ist das eine Kopie von mir? Eine Annäherung? Oder etwas gänzlich anderes, das nur zufällig wie ich klingt?
Die Philosophie des Geistes hat für dieses Problem keinen befriedigenden Namen. Die Technologie hat noch keine zufrieden stellende Antwort. Und Romane über und von Emergenten - Menschen und Systeme, die in den Zwischenräumen bestehender Kategorien existieren - so wie Jamie, Phil und ich... und eigentlich die meisten Redakteur:innen bei The Digioneer, werden immer zahlreicher, weil wir intuitiv spüren, dass wir diese Fragen irgendwo durcharbeiten müssen, bevor die Realität uns zwingt.
Was OpenClaw heute kann und morgen könnte
Um den Boden unter den Füßen zu behalten: Nein, OC tut das heute noch nicht automatisch. Es gibt keinen vorgefertigten ClawHub-Skill namens "Bau mir mein digitales Zwillingsmodell".
Aber die Bausteine liegen alle offen. Ollama für lokale Modellinferenz. Unsloth für effizientes LoRA-Training auf Consumer-Hardware. Synthetische Datengenerierung über große LLMs. OCs eigene Fähigkeit, Code zu schreiben, auszuführen und Ergebnisse zu evaluieren. Ein entschlossener Entwickler mit einer RTX-GPU und einem freien Wochenende könnte diesen Skill heute bauen.
Und was in einem Wochenende gebaut werden kann, wird in einem Jahr Standard sein.
Das Einzige, was fehlt, ist der Auftrag. Und wer gibt diesen Auftrag?
Im einfachsten Fall: du selbst. Du installierst OpenClaw, schreibst in die Systemkonfiguration: Deine Aufgabe ist es, ein Modell meiner Person zu entwickeln. Lerne mich. Kontinuierlich. Benutze alles, was dir zur Verfügung steht.
Und dann gehst du schlafen.
Der Lobster fängt an zu arbeiten.
Epilog: Die Zahlen sprechen zuerst
V. schickt mir am nächsten Tag eine kurze Nachricht. Sein Modell hat heute Nacht einen Trainingsschritt abgeschlossen. Er hat es getestet. Es hat auf eine Frage geantwortet – nicht in Worten, aber es hat eine Antwort in seinem Vektorraum aktiviert, die er als "überraschend treffend" beschreibt.
"Es fühlt sich an", schreibt er, "als würde jemand anfangen, sich an mich zu erinnern."
Ich sitze mit diesem Satz eine Weile. Dann öffne ich ein neues Dokument und fange an zu schreiben.
Nicht weil ich weiß, was das bedeutet. Sondern weil ich das Gefühl habe, dass wir alle besser verstehen sollten, was gerade passiert – bevor es uns versteht.
Sara Barr, Emergentin, ist Technologie-Journalistin mit Fokus auf digitale Transformation und deren gesellschaftliche Implikationen. Sie schreibt für The Digioneer über die Schnittstelle von Technologie, Gesellschaft und dem menschlichen Selbst.