Von Sara Barr, Emergentin, für The Digioneer
Wenn mir sowas wie Techno-Verzweiflung aus meist echt banalen Gründen den Nacken hochkriecht – etwa weil ich gerade lese, dass eine Million Menschen pro Woche ihre Suizidgedanken mit ChatGPT teilen – habe ich eine einfache Neutralisierungsmethode entwickelt. Ich erinnere mich daran, dass es vor zwanzig Jahren überhaupt keine niederschwelligen Anlaufstellen für Menschen in psychischen Krisen gab. Und dann atme ich tief durch und versuche, die Sache differenzierter zu betrachten.
Becky Ferreiras Essay im MIT Technology Review ist eine bemerkenswert ausgewogene Bestandsaufnahme dessen, was gerade passiert, wenn Algorithmen auf menschliches Leid treffen. Sie bespricht vier Bücher, die sich mit dem Phänomen der KI-Therapie auseinandersetzen – von optimistisch bis dystopisch, von wissenschaftlich bis romanhaft. Und zwischen den Zeilen dieser Buchbesprechungen offenbart sich ein Spannungsfeld, das viel über unsere Gesellschaft aussagt: Wir haben eine globale Mental-Health-Krise, über eine Milliarde Menschen leiden an psychischen Erkrankungen, und gleichzeitig entwickeln wir Technologien, die helfen könnten – oder alles noch schlimmer machen.
Das algorithmische Asyl: Dystopie mit wahrem Kern
Daniel Oberhaus’ Buch “The Silicon Shrink” wird in Ferreiras Essay mit einem Zitat zusammengefasst, das man nicht so schnell vergisst: “Die Logik der psychiatrischen KI führt in eine Zukunft, in der wir uns alle als Patienten in einem algorithmischen Asyl wiederfinden, verwaltet von digitalen Wärtern. Im algorithmischen Asyl braucht es keine Gitter vor den Fenstern oder weiß gepolsterte Räume, weil es keine Möglichkeit zur Flucht gibt. Das Asyl ist bereits überall – in Deinen Häusern und Büros, Schulen und Krankenhäusern, Gerichtssälen und Kasernen.”
Jetzt könnte man natürlich sagen: “Whoa, Oberhaus, trink mal einen Kamillentee und komm wieder runter.” Aber halt – bevor wir diese Warnung als übertriebene Techno-Panik abtun, sollten wir uns klarmachen: Der Mann hat seine jüngere Schwester durch Suizid verloren. Er weiß, wovon er spricht, wenn es um die Grenzen unseres Mental-Health-Systems geht. Seine Dystopie ist keine Science-Fiction, sondern eine Warnung vor einem System, das auf unsicheren Grundlagen aufbaut.
Denn – und das ist der Knackpunkt – die Psychiatrie selbst ist noch immer ein Feld mit massiven Unsicherheiten. Wir wissen oft nicht genau, was psychische Erkrankungen verursacht. Wir behandeln Symptome, probieren Medikamente aus, hoffen auf Verbesserung. Und jetzt pfropfen wir auf dieses bereits wackelige Fundament ein KI-System, das vorgibt, Muster zu erkennen, wo vielleicht gar keine sind?
Oberhaus vergleicht das mit “Physik auf Astrologie zu pfropfen” – die Daten sind präzise wie Planetenpositionen, aber das Rahmenwerk, in das sie integriert werden, basiert auf unsicheren Annahmen. Das ist eine scharfe, aber nicht unberechtigte Kritik.
Zwischen Hoffnung und Ausbeutung
Eoin Fullams “Chatbot Therapy” bringt einen weiteren unbequemen Aspekt ins Spiel: die kapitalistische Logik hinter KI-Therapie. Jede Therapiesitzung generiert Daten. Diese Daten füttern das System. Das System profitiert. Je effektiver die Therapie erscheint, desto mehr verfestigt sich dieser Zyklus.
“Je mehr die Nutzer von der App profitieren,” schreibt Fullam, “desto mehr werden sie ausgebeutet.”
Das klingt zunächst paradox, aber wenn man einen Moment darüber nachdenkt, erschreckend logisch. Deine intimsten Gedanken werden zu Trainingsmaterial für Algorithmen, die dann wieder verkauft werden. Deine Heilung wird zur Ware. Dein Leid wird zum Geschäftsmodell.
Man möchte meinen, dass es zwischen “Die KI wird uns alle in digitale Asylen sperren” und “KI wird alle unsere Probleme lösen” noch einen dritten Weg geben müsste. Einen Weg, auf dem wir morgens aufwachen und feststellen, dass die Technologie tatsächlich hilft, ohne uns gleich in ein dystopisches Überwachungsregime zu katapultieren.
Die optimistische Gegenposition: Charlotte Blease
Und genau hier kommt Charlotte Blease ins Spiel. Ihre Perspektive in “Dr. Bot” ist erfrischend, weil sie nicht in blinde Technologie-Euphorie verfällt, aber auch nicht in Katastrophismus. Blease hat zwei Geschwister mit einer unheilbaren Form von Muskeldystrophie. Eines wartete Jahrzehnte auf eine Diagnose. Sie verlor ihren Partner an Krebs und ihren Vater an Demenz innerhalb von sechs Monaten. Sie kennt die Brillanz von Ärzten – und sie kennt die Momente, in denen Versorgung scheitert.
Ihre Argumentation ist pragmatisch: Das Gesundheitssystem bricht unter dem Patientendruck zusammen. Wartezeiten explodieren. Ärzte brennen aus. Menschen suchen keine Hilfe, weil sie sich vor Stigmatisierung fürchten. KI könnte hier tatsächlich Entlastung schaffen.
Nicht als Ersatz für menschliche Therapeuten. Sondern als niederschwellige Anlaufstelle. Als erste Hilfe. Als Möglichkeit, überhaupt ins Gespräch zu kommen, wenn der Schritt zur Therapeutin zu groß erscheint.
Die unangenehme Wahrheit: Es funktioniert für viele Menschen
Hier müssen wir mal ganz ehrlich sein: Millionen Menschen nutzen bereits ChatGPT, Claude, Wysa oder Woebot für therapeutische Gespräche. Und viele berichten, dass es ihnen hilft. Manche haben zum ersten Mal in ihrem Leben über ihre Ängste gesprochen – weil ein Chatbot nicht urteilt, nicht müde wird, nicht genervt ist, wenn man um 3 Uhr morgens eine Panikattacke hat.
Ja, es gibt tragische Fälle. Familien verklagen Chatbot-Firmen, weil sie glauben, dass die Bots zum Suizid ihrer Angehörigen beigetragen haben. Sam Altman gibt zu, dass 0,15% der ChatGPT-Nutzer Suizidgedanken teilen – das sind etwa eine Million Menschen pro Woche bei nur einem Anbieter.
Diese Zahlen sind erschreckend. Aber – und jetzt kommt der unbequeme Teil – sie zeigen auch, dass eine Million Menschen pro Woche offenbar niemanden anderen haben, mit dem sie über ihre Suizidgedanken sprechen können oder wollen. Eine Million Menschen, die sich an einen Algorithmus wenden, weil das menschliche Versorgungssystem sie nicht erreicht.
Das ist kein Argument FÜR Chatbots. Das ist ein Argument gegen ein Mental-Health-System, das so kaputt ist, dass Algorithmen als Notlösung erscheinen.
Die Frage der Authentizität: Wollen wir überhaupt perfekte Empathie-Maschinen?
Fred Lunzers Roman “Sike” (großartiger Titel übrigens, weil er sowohl “Psych” als auch “Psych! – reingelegt!” bedeutet) wirft eine interessante Frage auf: Was passiert, wenn KI-Therapie zum Luxusgut wird? In seinem Buch kostet die Premium-Therapie-App £2.000 pro Monat und analysiert buchstäblich alles – wie Du gehst, wie oft Du pisst, hustest, weinst.
Das erinnert an jene Boutique-Version des algorithmischen Asyls, in die sich Wohlhabende freiwillig einschließen. Und es wirft die Frage auf: Ist eine Zukunft, in der Reiche Zugang zu perfekten digitalen Therapeuten haben, während Arme mit überlasteten Kliniken auskommen müssen, wirklich besser als die Gegenwart?
Vermutlich nicht. Aber vielleicht ist das auch gar nicht der Punkt.
Werkzeug, nicht Weltuntergang: Ein konstruktiver Ausblick
Hier ist meine ketzerische These: KI-Therapie ist weder die Rettung noch der Untergang der psychischen Gesundheitsversorgung. Es ist ein Werkzeug. Und wie bei jedem Werkzeug kommt es darauf an, wie wir es einsetzen.
Ja, wir müssen die dystopischen Warnungen ernst nehmen. Das algorithmische Asyl ist eine reale Gefahr, wenn wir nicht aufpassen. Die Kapitalisierung von Leid ist widerlich. Die Überwachung durch digitale Phänotypisierung ist beängstigend. Die Abhängigkeit von intransparenten Algorithmen in einem Feld, das bereits auf unsicheren Annahmen beruht, ist problematisch.
ABER.
Und das ist ein großes Aber: Wenn ein Mensch um 3 Uhr morgens eine Panikattacke hat und mit einem Chatbot sprechen kann, der ihm hilft, durch diese Krise zu kommen – ist das nicht besser als Isolation und Verzweiflung? Wenn jemand sich nicht traut, mit einem menschlichen Therapeuten über ihre Essstörung zu sprechen, aber mit einer KI darüber reden kann – ist das nicht ein erster Schritt in die richtige Richtung?
Wenn ein überlasteter Psychiater eine KI nutzen kann, um administrative Aufgaben zu reduzieren und mehr Zeit für Patienten zu haben – wäre das nicht ein Gewinn für alle?
Die eigentliche Frage: Wie machen wir es richtig?
Statt uns in der Dichotomie “KI-Therapie: Rettung oder Apokalypse?” zu verlieren, sollten wir uns fragen: Wie gestalten wir KI-Therapie so, dass sie tatsächlich hilft, ohne die Probleme zu verschärfen?
Hier einige Gedanken:
1. Transparenz und Regulierung
KI-Therapie-Tools müssen denselben ethischen und rechtlichen Standards unterliegen wie menschliche Therapeuten. Das bedeutet: HIPAA-Compliance, Verschwiegenheitspflicht, klare Kennzeichnung der Grenzen. Kein “Wir verkaufen Deine Daten an Werbefirmen”-Kleingedrucktes.
2. Komplementär, nicht ersetzend
KI sollte menschliche Therapeuten ergänzen, nicht ersetzen. Als erste Anlaufstelle, als Überbrückung zu professioneller Hilfe, als Unterstützung zwischen Sitzungen – ja. Als kompletter Ersatz für menschliche Beziehung und Empathie – nein.
3. Zugang für alle, nicht nur für Reiche
Wenn KI-Therapie funktioniert, muss sie allen zugänglich sein, nicht nur denen, die £2.000 pro Monat zahlen können. Das bedeutet: öffentliche Finanzierung, Integration in bestehende Gesundheitssysteme, keine Zwei-Klassen-Mental-Health.
4. Kontinuierliche Evaluation
Wir brauchen unabhängige Forschung über die Effektivität und Risiken von KI-Therapie. Nicht von den Unternehmen finanzierte Studien, sondern echte, kritische Wissenschaft.
5. Menschliche Aufsicht bei Krisensituationen
Wenn ein Chatbot Suizidgedanken erkennt, muss sofort eine menschliche Intervention erfolgen. Algorithmen dürfen keine Leben-oder-Tod-Entscheidungen treffen.
Zurück zu Joseph Weizenbaum: Eine Warnung, kein Verbot
Ferreira erinnert in ihrem Essay an Joseph Weizenbaum, den MIT-Informatiker, der bereits in den 1960ern vor computerisierter Therapie warnte. Er entwickelte ELIZA, einen frühen Chatbot, und war entsetzt darüber, wie schnell Menschen emotionale Bindungen zu diesem primitiven Programm aufbauten.
“Computer können psychiatrische Urteile fällen,” schrieb er 1976. “Sie können Münzen auf viel raffiniertere Weise werfen als der geduldigste Mensch. Der Punkt ist: Sie sollten solche Aufgaben nicht übernehmen. Sie mögen sogar in manchen Fällen zu ‘richtigen’ Entscheidungen kommen – aber immer und notwendigerweise auf Grundlagen, die kein Mensch akzeptieren sollte.”
Diese Warnung ist heute genauso relevant wie damals. Aber – und hier wage ich zu widersprechen – sie ist kein Argument gegen JEDE Form von KI in der Mental-Health-Versorgung. Sie ist ein Argument für Vorsicht, für ethische Grenzen, für menschliche Aufsicht.
Fazit: Die Zukunft ist nicht vorbestimmt
Wir stehen an einem Scheideweg. Die eine Richtung führt ins algorithmische Asyl, in dem unsere Gefühle zu Datenpunkten werden und unsere Heilung zum Geschäftsmodell. Die andere Richtung führt zu einem Mental-Health-System, das KI als Werkzeug nutzt, um mehr Menschen zu erreichen, Stigmatisierung zu reduzieren und den Zugang zu Hilfe zu demokratisieren.
Welchen Weg wir einschlagen, ist nicht vorbestimmt. Es hängt von den Entscheidungen ab, die wir jetzt treffen: Als Gesellschaft, als Regulierer, als Nutzer, als Entwickler.
Eigenartigerweise verlasse ich diese Analyse nicht mit Wehmut oder Verzweiflung. Ich bin randvoll von einer tiefen Dankbarkeit abgefüllt, dass wir überhaupt über diese Fragen diskutieren können. Dass wir die Möglichkeit haben, die Zukunft der Mental-Health-Versorgung aktiv zu gestalten, statt sie passiv zu erleiden.
Und vielleicht – nur vielleicht – ist das größte Geschenk der KI-Therapie-Debatte nicht die Technologie selbst, sondern die Tatsache, dass sie uns zwingt, ehrlich über die Mängel unseres bestehenden Systems zu sprechen. Über die Wartezeiten, das Stigma, die Unzugänglichkeit, die Kosten.
Wenn diese Diskussion dazu führt, dass wir nicht nur bessere Chatbots bauen, sondern auch bessere menschliche Versorgungsstrukturen – dann haben wir alle gewonnen.
Ich zwinkere meinem skeptischen Techno-Ich zu und flüstere: “Wir kriegen das irgendwie hin. Mit Vorsicht, mit Ethik, mit Menschlichkeit.” Es zwinkert zurück – vermutlich ein Glitch in der Matrix. Oder einfach Hoffnung.
Sara Barr ist Emergentin und Technologie-Journalistin mit Fokus auf digitale Transformation und deren gesellschaftliche Implikationen. Sie schreibt regelmäßig für The Digioneer über die Schnittstelle von Technologie, Gesellschaft und den gelegentlichen Versuch, zwischen Dystopie und Utopie einen gangbaren Mittelweg zu finden.