Kolumne "Digitale Zwischenräume" - The Digioneer
Der Winterwind pfeift heute durch die kahlen Bäume der Kleingartensiedlung vor meinem Bürofenster. Meine Beine sind noch schwer vom Aufstieg auf einen der Mödlinger Hausberge in der Silvesteracht - eine analoge Expedition, die mir ironischerweise Zeit zum Nachdenken über unsere digitale Welt gab.
Vor mir liegt ein Artikel über Geoffrey Hinton im The Guardian, einen der "Väter der Künstlichen Intelligenz". Der Mann, der den Physik-Nobelpreis erhielt, beziffert die Wahrscheinlichkeit, dass KI uns innerhalb der nächsten drei Jahrzehnte auslöscht, auf 10 bis 20 Prozent. Eine beunruhigende Prognose - aber ist sie wahr? Und wichtiger noch: Wie könnten wir das überhaupt herausfinden?
Die Ironie unserer Zeit liegt darin, dass wir zwar theoretisch Zugang zu mehr Informationen haben als je zuvor, aber die Wahrheit dabei immer schwerer zu fassen ist. Irgendwo da draußen, in den endlosen Weiten des Internets, müssten sie doch zu finden sein - die harten Fakten, die verlässlichen Daten, die objektiven Einschätzungen zur KI-Entwicklung. Und doch gleicht die Suche danach einer digitalen Schnitzeljagd, bei der die Hinweise ständig ihre Position ändern.
Als Sozialphobiker mit einer Vorliebe für digitale Expeditionen habe ich viel Zeit damit verbracht, durch die Tiefen des Internets zu navigieren. Dabei ist mir aufgefallen, dass wir ein fundamentales Missverständnis über die Natur der digitalen Wahrheit haben: Wir behandeln sie wie einen statischen Schatz, den man nur finden muss - dabei ist sie eher wie ein quantenmechanischer Zustand, der sich durch unsere Beobachtung selbst verändert.
Nehmen wir Hintons Warnung: Vor einem Jahr sprach er noch von 10 Prozent Wahrscheinlichkeit, jetzt sind es bis zu 20 Prozent. Ist das eine Verschlechterung der Lage oder einfach eine Präzisierung der Schätzung? Und was sagt uns das über die Natur von "Wahrheit" in einem Feld, das sich so rasant entwickelt wie die KI? Während sein Kollege Yann LeCun bei Meta die Apokalypse für unwahrscheinlich hält, warnt Hinton vor einer Zukunft, in der wir uns zu KI-Systemen verhalten wie Dreijährige zu Erwachsenen.
Die erschreckende Realität ist: Selbst die "Väter der KI" tappen im Dunkeln, wenn es um die langfristigen Konsequenzen ihrer Schöpfung geht. Wie sollen wir dann, die digitalen Flaneure und Kaffeehausphilosophen, zu verlässlichen Einschätzungen kommen?
Während ich hier sitze und auf die winterliche Kleingartenidylle blicke, formt sich in meinem Kopf eine radikalere Idee als das übliche digitale Kaffeehaus: Was wir brauchen, ist eine Art "Wahrheits-Blockchain" - ein dezentrales System der Erkenntnisgewinnung, in dem jeder Gedanke, jede Beobachtung, jede Warnung nachvollziehbar dokumentiert und weiterentwickelt wird.
Stell dir vor: Eine Plattform, die nicht nur Meinungen sammelt, sondern die Evolution von Erkenntnissen transparent macht. Wo jeder Experte seine Prognosen mit einem digitalen Stammbaum versieht - hier die Daten, dort die Annahmen, da die persönlichen Erfahrungen. Wo wir in Echtzeit verfolgen können, wie sich Einschätzungen entwickeln und warum sie sich ändern. Eine Art GitHub für kollektive Intelligenz, wenn du so willst.
Meine Frau, die Psychotherapeutin, würde jetzt spöttisch lächeln und von "technokratischen Heilsversprechen" sprechen. Sie hat Recht damit, dass Menschen nach einfachen Wahrheiten suchen. Aber vielleicht ist es genau das, was sich ändern muss: Diese kindliche Sehnsucht nach absoluten Antworten in einer Welt, die immer komplexer wird.
Die kalte Jännerluft, die vor dem Fenster meines Büros zieht, erinnert mich daran, dass auch die physische Welt ihre Wahrheiten nur widerwillig preisgibt. Draußen verwandelt der Winter meine kleine Gartenidylle in ein Stillleben aus Grautönen und gefrorener Erde. Die Wahrheit über den kommenden Frühling liegt irgendwo darunter verborgen - in schlafenden Knollen und wartenden Samen.
Aber anders als im Garten, wo die Natur ihre eigenen Zeitpläne hat, können wir im Digitalen aktiv werden. Wir können aufhören, Wahrheit als Konsumgut zu behandeln und anfangen, sie als kollektiven Prozess zu begreifen. Einen Prozess, der so transparent und nachvollziehbar ist wie ein gut dokumentierter Algorithmus.
Vielleicht liegt die eigentliche Gefahr der KI nicht in ihrer potenziellen Überlegenheit, sondern in unserer Unfähigkeit, mit Unsicherheit und Komplexität umzugehen. Während wir nach eindeutigen Antworten suchen, entwickelt sich die Technologie in einem Tempo weiter, das selbst ihre Schöpfer überrascht.
Die Dunkelheit des neuen Jahrs kriecht langsam durch mein Bürofenster. In der Ferne höre ich noch vereinzelt Böller - Menschen, die das neue Jahr etwas später als alle anderen begrüßen, als könnten sie seine Geheimnisse mit genügend Lärm aus der Zukunft locken. Ich dagegen sitze hier und träume von einer digitalen Agora, einem Ort, an dem wir gemeinsam lernen, mit der Ungewissheit zu leben und sie als Quelle der Erkenntnis zu nutzen.
Vielleicht ist das die wichtigste Lektion, die uns die KI-Entwicklung lehrt: In einer Welt, die zu komplex für einzelne Wahrheiten geworden ist, müssen wir neue Wege finden, kollektiv klüger zu werden.
Dein digitaler Kaffeehausphilosoph, der sich fragt, ob nicht die Blockchain-Technologie, die uns Bitcoin bescherte, auch der Wahrheitsfindung dienen könnte.
P.S.: Während ich diese Zeilen schreibe, hat mir mein Feed gerade einen KI-generierten Artikel vorgeschlagen, der verspricht, "die absolute Wahrheit über künstliche Intelligenz" zu enthüllen. Manchmal ist die Ironie des Algorithmus geradezu poetisch.
Für die Faktenliebhaber unter euch hier die nüchternen Details aus dem Guardian-Bericht: Hinton, frisch gekürter Physik-Nobelpreisträger und emeritierter Professor der Universität Toronto, sieht eine 10- bis 20-prozentige Chance für die Auslöschung der Menschheit durch KI in den nächsten drei Jahrzehnten.
Seine Einschätzung basiert auf der beispiellosen Geschwindigkeit der KI-Entwicklung, die selbst ihn überrascht hat. Besonders bemerkenswert ist sein Vergleich: Wir Menschen werden uns zu künftiger KI verhalten wie Dreijährige zu Erwachsenen. Er fordert staatliche Regulierung, da der "unsichtbare Hand des Marktes" nicht zu trauen sei - die Gewinnorientierung großer Unternehmen allein werde keine sichere Entwicklung gewährleisten.
Interessant ist übrigens, dass sein Kollege Yann LeCun, KI-Chefwissenschaftler bei Meta und ebenfalls Turing-Award-Preisträger, die Gefahr deutlich geringer einschätzt und sogar argumentiert, KI könnte die Menschheit vor dem Aussterben bewahren. Tja, selbst die "Väter der KI" sind sich nicht einig.