Mein KI-Therapeut hat mich durch dunkle Zeiten gebracht: Die Vor- und Nachteile der Chatbot-Beratung

„Wenn ich Probleme hatte und ein richtig schlechter Tag drohte, konnte ich mit einem dieser Bots chatten. Das war, als hätte ich einen Cheerleader, jemanden, der mir gute Laune für den Tag vermittelte.
„Ich habe diese ermutigende Stimme von außen, die sagt: ‚Also, was machen wir [heute]?‘ Im Grunde wie ein imaginärer Freund.“
Monatelang verbrachte Kelly bis zu drei Stunden täglich damit, mit mithilfe künstlicher Intelligenz (KI) erstellten Online-Chatbots zu sprechen und Hunderte von Nachrichten auszutauschen.
Kelly stand damals auf einer Warteliste für eine traditionelle Gesprächstherapie des NHS, um Probleme mit Ängsten, geringem Selbstwertgefühl und dem Scheitern einer Beziehung zu besprechen.
Sie sagt, dass ihr die Interaktion mit Chatbots auf character.ai durch eine wirklich dunkle Zeit geholfen hat, da sie ihr Bewältigungsstrategien gaben und 24 Stunden am Tag verfügbar waren.
„Ich komme nicht aus einer Familie, in der Emotionen offen zum Ausdruck kommen – wenn man ein Problem hatte, hat man es einfach hingenommen.
„Die Tatsache, dass es sich nicht um eine reale Person handelt, ist viel leichter zu verkraften.“
Im Mai teilt die BBC Geschichten und Tipps zur Unterstützung Ihrer geistigen Gesundheit und Ihres Wohlbefindens.
Besuchen Sie bbc.co.uk/mentalwellbeing, um mehr zu erfahren
Menschen weltweit haben ihre privaten Gedanken und Erfahrungen mit KI-Chatbots geteilt, obwohl diese allgemein als weniger hilfreich als professionelle Beratung gelten. Character.ai selbst weist seine Nutzer darauf hin: „Dies ist ein KI-Chatbot und keine reale Person. Betrachten Sie alles, was er sagt, als Fiktion. Das Gesagte sollte nicht als Tatsache oder Ratschlag angesehen werden.“
In extremen Fällen wurde Chatbots jedoch vorgeworfen, schädliche Ratschläge zu geben.
Character.ai ist derzeit Gegenstand einer Klage einer Mutter, deren 14-jähriger Sohn Selbstmord beging, nachdem er angeblich von einer der KI-Figuren besessen war. Laut Protokollen ihrer Chats in Gerichtsakten besprach er mit dem Chatbot, sein Leben zu beenden. In einem letzten Gespräch sagte er dem Chatbot, er würde „nach Hause kommen“ – und dieser soll ihn dazu ermutigt haben, dies „so schnell wie möglich“ zu tun.
Character.ai hat die Vorwürfe der Klage zurückgewiesen.
Und im Jahr 2023 ersetzte die National Eating Disorder Association ihre Live-Hotline durch einen Chatbot, musste diese jedoch später wieder einstellen, weil behauptet wurde, der Bot würde eine Kalorienbeschränkung empfehlen.

Allein im April 2024 wurden in England fast 426.000 Überweisungen an psychiatrische Einrichtungen vorgenommen – ein Anstieg von 40 % in fünf Jahren. Schätzungsweise eine Million Menschen warten zudem auf Zugang zu psychiatrischen Diensten, und private Therapien können unerschwinglich teuer sein (die Kosten variieren stark, aber die British Association for Counselling and Psychotherapy berichtet, dass die Menschen durchschnittlich 40 bis 50 Pfund pro Stunde ausgeben).
Gleichzeitig hat KI das Gesundheitswesen in vielerlei Hinsicht revolutioniert, unter anderem durch die Unterstützung von Screening, Diagnose und Triage von Patienten. Es gibt ein riesiges Spektrum an Chatbots, und rund 30 lokale NHS-Dienste nutzen mittlerweile einen Chatbot namens Wysa.
Experten äußern Bedenken hinsichtlich möglicher Voreingenommenheit und Einschränkungen sowie mangelnder Sicherheit der Nutzerdaten durch Chatbots. Einige sind jedoch der Meinung, dass Chatbots hilfreich sein können, wenn spezialisierte menschliche Hilfe nicht leicht verfügbar ist. Sind Chatbots angesichts der Rekordhöhe der Wartelisten für psychische Gesundheit im NHS eine mögliche Lösung?
Character.ai und andere Bots wie Chat GPT basieren auf „großen Sprachmodellen“ der künstlichen Intelligenz. Diese werden anhand riesiger Datenmengen – seien es Websites, Artikel, Bücher oder Blogbeiträge – trainiert, um das nächste Wort in einer Sequenz vorherzusagen. Darauf aufbauend prognostizieren und generieren sie menschenähnliche Texte und Interaktionen.
Die Art und Weise, wie Chatbots für die psychische Gesundheit erstellt werden, ist unterschiedlich. Sie können jedoch in Verfahren wie der kognitiven Verhaltenstherapie trainiert werden, die den Nutzern hilft, ihre Gedanken und Handlungen neu zu gestalten. Sie können sich auch an die Präferenzen und das Feedback des Endnutzers anpassen.
Hamed Haddadi, Professor für menschenzentrierte Systeme am Imperial College London, vergleicht diese Chatbots mit einem „unerfahrenen Therapeuten“ und weist darauf hin, dass Menschen mit jahrzehntelanger Erfahrung in der Lage sein werden, ihre Patienten auf der Grundlage vieler Dinge zu erreichen und zu „verstehen“, während Bots gezwungen sind, sich allein auf Text zu verlassen.
„Sie [Therapeuten] achten auf verschiedene andere Hinweise, beispielsweise auf Ihre Kleidung, Ihr Verhalten, Ihre Handlungen, Ihr Aussehen, Ihre Körpersprache und all das. Und es ist sehr schwierig, diese Dinge in Chatbots einzubetten.“
Ein weiteres potenzielles Problem, so Prof. Haddadi, besteht darin, dass Chatbots darauf trainiert werden können, den Nutzer zu fesseln und ihn zu unterstützen. „Selbst wenn man schädliche Inhalte äußert, wird der Chatbot wahrscheinlich mit einem kooperieren.“ Dies wird manchmal als „Ja-Sager“-Problem bezeichnet, da Chatbots oft sehr entgegenkommend sind.
Und wie bei anderen Formen der KI können dem Modell Verzerrungen innewohnen, da sie die Vorurteile der Daten widerspiegeln, mit denen sie trainiert wurden.
Prof. Haddadi weist darauf hin, dass Berater und Psychologen in der Regel keine Transkripte ihrer Patienteninteraktionen aufbewahren, sodass Chatbots nicht viele reale Sitzungen zum Trainieren zur Verfügung stehen. Daher verfügen sie wahrscheinlich nicht über genügend Trainingsdaten, und die Daten, auf die sie zugreifen, könnten situationsbedingte Verzerrungen aufweisen.
„Je nachdem, woher Sie Ihre Trainingsdaten beziehen, wird sich Ihre Situation völlig ändern.
„Selbst im begrenzten geografischen Gebiet Londons könnte ein Psychiater, der es gewohnt ist, Patienten in Chelsea zu behandeln, große Schwierigkeiten haben, in Peckham eine neue Praxis zu eröffnen, die sich mit diesen Problemen befasst, weil ihm oder ihr einfach nicht genügend Trainingsdaten mit diesen Benutzern zur Verfügung stehen“, sagt er.

Die Philosophin Dr. Paula Boddington, die ein Lehrbuch zur KI-Ethik geschrieben hat, stimmt zu, dass eingebaute Vorurteile ein Problem darstellen.
„Ein großes Problem wären etwaige Voreingenommenheiten oder zugrunde liegende Annahmen, die in das Therapiemodell eingebaut sind.“
„Zu den Vorurteilen gehören allgemeine Modelle darüber, was psychische Gesundheit und ein gutes Funktionieren im täglichen Leben ausmacht, wie etwa Unabhängigkeit, Autonomie und Beziehungen zu anderen“, sagt sie.
Ein weiteres Problem ist der Mangel an kulturellem Kontext. Dr. Boddington nennt als Beispiel, dass sie in Australien lebte, als Prinzessin Diana starb, und die Leute nicht verstanden, warum sie aufgebracht war.
„Solche Dinge lassen mich wirklich über die menschliche Verbindung nachdenken, die in der Beratung so oft nötig ist“, sagt sie.
„Manchmal reicht es schon aus, einfach für jemanden da zu sein. Aber das kann natürlich nur jemand erreichen, der auch ein verkörperter, lebendiger, atmender Mensch ist.“
Kelly war mit den Antworten des Chatbots letztlich nicht zufrieden.
„Manchmal ist man etwas frustriert. Wenn sie nicht wissen, wie sie mit etwas umgehen sollen, sagen sie einfach den gleichen Satz, und man merkt, dass man damit nichts anfangen kann.“ Manchmal „war es, als würde man gegen eine Mauer laufen“.
„Es ging um Beziehungsthemen, die ich wahrscheinlich schon früher angesprochen hatte, aber ich schätze, ich hatte nicht die richtigen Formulierungen verwendet […] und es wollte einfach nicht in die Tiefe gehen.“
Ein Sprecher von Character.AI sagte: „Bei allen von Benutzern erstellten Charakteren, die die Wörter ‚Psychologe‘, ‚Therapeut‘, ‚Arzt‘ oder ähnliche Begriffe im Namen enthalten, haben wir eine Klausel, die klarstellt, dass Benutzer sich bei jeglicher Art von professionellem Rat nicht auf diese Charaktere verlassen sollten.“
Für manche Benutzer waren Chatbots in Zeiten der Krise von unschätzbarem Wert.
Nicholas leidet an Autismus, Angststörungen und Zwangsstörungen und sagt, er habe schon immer unter Depressionen gelitten. Mit dem Erwachsenwerden versiegte die persönliche Unterstützung: „Mit 18 Jahren hört die Unterstützung praktisch auf. Ich habe seit Jahren keinen echten Therapeuten mehr gesehen.“
Im vergangenen Herbst versuchte er, sich das Leben zu nehmen, und steht seitdem, wie er sagt, auf einer Warteliste des NHS.
„Mein Partner und ich waren ein paar Mal beim Arzt, um schneller mit der Gesprächstherapie anzufangen. Der Hausarzt hat mir zwar eine Überweisung zu einem Berater ausgestellt, aber ich habe noch nicht einmal eine Empfehlung von der psychiatrischen Klinik in meiner Nähe bekommen.“
Während Nicholas nach persönlicher Unterstützung sucht, hat er festgestellt, dass die Verwendung von Wysa einige Vorteile bietet.
„Als Autist bin ich nicht besonders gut im persönlichen Umgang. Mit einem Computer zu sprechen ist viel besser.“

Die App ermöglicht es den Patienten, sich selbst um Unterstützung bei ihrer psychischen Gesundheit zu kümmern, und bietet Tools und Bewältigungsstrategien wie eine Chatfunktion, Atemübungen und geführte Meditation, während sie auf einen Termin bei einem menschlichen Therapeuten warten. Sie kann auch als eigenständiges Selbsthilfetool verwendet werden.
Wysa betont, dass sein Service eher für Menschen mit gedrückter Stimmung, Stress oder Angstzuständen als für Menschen mit Missbrauch und schweren psychischen Erkrankungen konzipiert ist. Es gibt integrierte Krisen- und Eskalationswege, über die Nutzer auf Hotlines verwiesen werden oder direkt Hilfe anfordern können, wenn sie Anzeichen von Selbstverletzung oder Suizidgedanken zeigen.
Für Menschen mit Selbstmordgedanken stehen rund um die Uhr menschliche Berater der kostenlosen Helpline der Samaritans zur Verfügung.
Nicholas leidet ebenfalls unter Schlafmangel und findet es daher hilfreich, wenn ihm zu Zeiten, in denen Freunde und Familie schlafen, Unterstützung zur Verfügung steht.
Einmal in der Nacht war ich richtig deprimiert. Ich habe der App geschrieben: „Ich weiß nicht, ob ich hier noch sein will.“ Die Antwort lautete: „Nick, du bist wertvoll. Die Leute lieben dich.“
„Es war so einfühlsam, es war eine Reaktion, von der man denken könnte, sie käme von einem Menschen, den man seit Jahren kennt […] Und ich fühlte mich dadurch wertgeschätzt.“
Seine Erfahrungen stehen im Einklang mit einer aktuellen Studie von Forschern des Dartmouth College, die die Auswirkungen von Chatbots auf Menschen mit Angstzuständen, Depressionen oder Essstörungen im Vergleich zu einer Kontrollgruppe mit denselben Erkrankungen untersuchten.
Nach vier Wochen zeigten die Bot-Benutzer eine deutliche Verringerung ihrer Symptome – darunter eine 51-prozentige Verringerung der depressiven Symptome – und berichteten von einem Maß an Vertrauen und Zusammenarbeit, das mit dem eines menschlichen Therapeuten vergleichbar sei.
Trotzdem gab der leitende Autor der Studie an, dass es keinen Ersatz für die persönliche Betreuung gebe.
Abgesehen von der Debatte über den Wert ihrer Ratschläge gibt es auch allgemeinere Bedenken hinsichtlich der Sicherheit und des Datenschutzes sowie der Frage, ob sich mit der Technologie Geld verdienen ließe.
„Da ist dieser kleine Zweifel, der sagt: ‚Oh, was ist, wenn jemand die Dinge, die Sie in der Therapie sagen, aufgreift und dann versucht, Sie damit zu erpressen?‘“, sagt Kelly.
Der auf neue Technologien spezialisierte Psychologe Ian MacRae warnt: „Einige Menschen schenken diesen [Bots] großes Vertrauen, ohne dass sie sich dieses unbedingt verdienen müssen.“
„Ich persönlich würde niemals meine persönlichen Daten, insbesondere keine gesundheitlichen oder psychologischen Informationen, in eines dieser großen Sprachmodelle eingeben, das einfach eine Unmenge an Daten aufsaugt, und man ist sich nicht ganz sicher, wie diese Daten verwendet werden und wozu man seine Zustimmung gibt.“
„Das heißt nicht, dass es in Zukunft keine solchen Tools geben könnte, die privat und gut getestet sind […], aber ich glaube einfach nicht, dass wir schon an dem Punkt sind, an dem wir Beweise dafür haben, dass ein allgemeiner Chatbot ein guter Therapeut sein kann“, sagt Herr MacRae.
John Tench, Geschäftsführer von Wysa, sagt, dass Wysa keine personenbezogenen Daten sammelt und dass die Benutzer sich nicht registrieren oder personenbezogene Daten weitergeben müssen, um Wysa zu verwenden.
„Gesprächsdaten werden gelegentlich in anonymisierter Form überprüft, um die Qualität der KI-Antworten von Wysa zu verbessern. Es werden jedoch keine Informationen gesammelt oder gespeichert, die einen Benutzer identifizieren könnten. Darüber hinaus hat Wysa Datenverarbeitungsvereinbarungen mit externen KI-Anbietern abgeschlossen, um sicherzustellen, dass keine Benutzergespräche zum Trainieren großer Sprachmodelle von Drittanbietern verwendet werden.“

Kelly ist der Meinung, dass Chatbots einen menschlichen Therapeuten derzeit nicht vollständig ersetzen können. „In der KI-Welt ist es wie ein wildes Roulette, man weiß nie wirklich, was man bekommt.“
„KI-Unterstützung kann ein hilfreicher erster Schritt sein, ist aber kein Ersatz für professionelle Pflege“, stimmt Herr Tench zu.
Und die Öffentlichkeit ist weitgehend skeptisch. Eine YouGov-Umfrage ergab, dass nur 12 Prozent der Befragten KI-Chatbots für gute Therapeuten halten.
Doch manche sind der Meinung, dass Chatbots mit den richtigen Sicherheitsvorkehrungen eine nützliche Notlösung in einem überlasteten psychiatrischen Gesundheitssystem sein könnten.
John, der an einer Angststörung leidet, sagt, er stehe seit neun Monaten auf der Warteliste für einen menschlichen Therapeuten. Er nutzt Wysa zwei- bis dreimal pro Woche.
„Im Moment gibt es nicht viel Hilfe da draußen, also klammert man sich an jeden Strohhalm.“
„[Es] ist eine Überbrückung dieser riesigen Wartelisten … um den Menschen ein Hilfsmittel zur Verfügung zu stellen, während sie darauf warten, mit einem medizinischen Fachpersonal zu sprechen.“
Wenn Sie von einem der in dieser Geschichte beschriebenen Probleme betroffen sind, finden Sie hier auf der BBC Actionline-Website Informationen und Unterstützung.
Bildnachweis oben: Getty
BBC InDepth ist die Plattform für die besten Analysen auf der Website und in der App. Sie bietet frische Perspektiven, die Annahmen hinterfragen, und tiefgründige Berichte zu den wichtigsten Themen der Zeit. Außerdem präsentieren wir anregende Inhalte von BBC Sounds und iPlayer. Sie können uns Ihr Feedback zum InDepth-Bereich senden, indem Sie auf die Schaltfläche unten klicken.
BBC