<b>Von Christoph Höllrigl</b><BR /><BR />Die Gedanken drehen sich im Kreis. Hoffnungslosigkeit, Verzweiflung, Resignation ... Wie bloß rauskommen aus diesem Hamsterrad? Und es ist mitten in der Nacht.<BR /><BR />Künstliche Intelligenz verspricht in solchen Situationen Abhilfe: Schnell ist das Smartphone mit einem Chatbot wie „ChatGPT“ oder mit „Therapiebots“, die von KI-Start-ups in der Basisversion oft kostenlos angeboten werden, zur Hand. Wer diese nach psychologischer Hilfe fragt, bekommt sofort Antworten – zum Erstaunen der Wissenschaft sogar recht gute, die für betroffene Personen hilfreich sein können (siehe unten).<BR /><BR />Können aber derartige „künstliche“ Psychologen wirklich helfen? Können sie ihre realen „Kollegen“ sogar ersetzen? Wo sind die Chancen, wo die Risiken?<h3> Die Attraktivität therapeutischer Bots</h3>Fragen, welche die psychologische Fachwelt derzeit durchaus umtreiben. Denn die Nutzung von „KI-Therapeuten“ wird künftig aller Voraussicht nach steigen, gibt es doch aus Sicht der Nutzer offensichtliche Vorteile. Das bestätigt auch Francesca Schir, Präsidentin der Psychologenkammer der Provinz Bozen: „Therapiebots sind sofort verfügbar, rund um die Uhr zugänglich und oft kostenlos oder zumindest sehr günstig. Das macht sie besonders nützlich für Menschen, die aus wirtschaftlichen oder geografischen Gründen Schwierigkeiten haben, Hilfe in Anspruch zu nehmen.“ Ein Argument, das nicht zuletzt wegen der oft monatelangen Wartezeiten auf eine psychologische Behandlung oder einen Therapieplatz nachvollziehbar ist. „Außerdem“, so Schir, „bieten sie ein gewisses Maß an Anonymität, was helfen kann, Scham oder Angst vor Verurteilung zu überwinden.“<BR /><BR /><div class="img-embed"><embed id="1186527_image" /></div> <BR />Aber: Wer garantiert, dass ein solcher KI-Chatbot nicht halluziniert, veraltete Therapiemethoden anwendet oder – im schlimmsten Fall – gar eine Anleitung zum Suizid liefert? „Diese Systeme haben nicht die Komplexität, Tiefe und empathische Fähigkeit eines menschlichen Therapeuten“, betont dazu die Präsidentin der Psychologenkammer: „Sie können bei vielen psychischen Erkrankungen sogar gefährlich sein, weil sie nicht in der Lage sind, Krisen- oder Lebensgefahrensituationen zu erkennen und entsprechend zu reagieren. Menschen mit suizidalen Gedanken zum Beispiel brauchen unbedingt menschliche Hilfe in einem echten therapeutischen Rahmen.“<BR /><BR />Als weiteres Risiko bezeichnet Francesca Schir die Gefahr von Abhängigkeit und sozialer Isolation. <h3> „Chatbot auf Verschreibung“, aber vom realen Therapeuten</h3>Der Direktor des Therapiezentrums Bad Bachgart, Martin Fronthaler, rät in dieser Diskussion zu einer nüchternen Betrachtung, „weil es wirklich einige Vorteile durch KI gibt und die Entwicklung sicher weiter voranschreitet.“<BR /><BR /><div class="img-embed"><embed id="1186530_image" /></div> <BR /><BR />Es gehe also weniger darum, ob ein Chatbot einen realen Psychotherapeuten ersetzen könne, sondern wie künstliche Intelligenz in die therapeutische Arbeit mit eingebaut werden und diese sogar bereichern könne. Fronthaler denkt da etwa an Psychoedukation, also daran, „dass etwa Patienten zwischen zwei Therapiegesprächen mittels Chatbot versuchen, das Erarbeitete auszuprobieren.“ <BR /><BR />Fronthaler betont dazu: „Die Entscheidung über eine Verwendung von Bots sollte in der Hand der Psychotherapeuten liegen, die das mit den Patienten besprechen, sie entsprechend einweisen und sich über Erfahrungen austauschen.“ Also eine Art „Chatbot auf Verschreibung“. Den Begriff der „Psychotherapie“ bindet Fronthaler strikt an einen zwischenmenschlichen Austausch. Bots könnten vielleicht trainieren, beraten, coachen, aber nicht therapieren.<BR /><BR />Der Direktor des Therapiezentrums Bad Bachgart sieht aber nicht nur Chancen in der Unterstützung der Patienten, sondern auch der Psychologen und Psychotherapeuten: „Es gibt sogenannte Therapiemanuale, die empfehlen, welche Intervention bei welchem Störungsbild sinnvoll ist. Hier könnte KI helfen, Therapeuten an diese Manuale zu erinnern bzw. sie bei der Umsetzung zu unterstützen.“<BR /><BR />Ähnlich sieht es Francesca Schir: „Ich glaube, dass KI eine Ressource sein kann, wenn sie als unterstützendes Werkzeug genutzt wird. Aber das Herzstück der psychologischen Arbeit bleibt die menschliche Beziehung.“<h3> Wer eine „Abkürzung“ erwartet, wird enttäuscht</h3>Sowohl Martin Fronthaler als auch Francesca Schir warnen jedoch vor der Hoffnung auf eine schnelle Lösung psychologischer Probleme durch Chatbots. „Wer das erwartet, für den sind sie nicht zu empfehlen“, so Fronthaler. Die psychotherapeutische Auseinandersetzung mit einem Problem sei mitunter ein langer Prozess, erklärt Schir. „Die Abkürzung, die solche Tools bieten – sofortige Antworten und schnelle Beruhigung – kann zu einer Flucht vor dem eigentlichen Prozess der Selbstreflexion und Auseinandersetzung werden.“<h3> KI nicht als Notlösung für strukturelle Defizite</h3>Die Präsidentin der Psychologenkammer verweist schließlich noch auf einen gesundheits- und gesellschaftspolitischen Aspekt: „Wenn die öffentlichen Mittel für psychische Gesundheit nicht ausreichend gestärkt werden, riskieren wir eine Zwei-Klassen-Versorgung: Wer es sich leisten kann, wird weiterhin persönliche Therapieangebote nutzen können, wer nicht, bleibt auf automatisierte Angebote beschränkt. Das ist eine Ungleichheit, die wir dringend angehen müssen. Psychotherapie ist ein Recht, kein Luxusgut. KI kann eine Ergänzung sein, aber sie darf keine Notlösung für strukturelle Defizite sein.“ <BR /><BR /><h3> Das sagt eine Studie zu diesem Thema</h3>Eine erste Forschungsarbeit zur Nutzung von KI-Therapeuten lässt aufhorchen, wie jüngst u.a. die „Neue Zürcher Zeitung am Sonntag“ berichtete. Demnach fanden Forscher der Universität Dartmouth (USA) heraus, dass KI bei der Behandlung von psychischen Erkrankungen durchaus helfen kann. <BR /><BR />In der betreffenden Studie mit Personen mit Depressionen, Angststörungen oder einem Risiko für Essstörungen konnten die Wissenschaftler feststellen, dass es jener Gruppe, die auf den eigens entwickelten „Therabot“ zugreifen konnte, nach mehreren Wochen besser ging als jenen in der Kontrollgruppe ohne Chatbot. Die Antworten des Chatbots wurden freilich vom Forscherteam überwacht. Diese Kontrolle dürfte jedoch bei so manchem Psychotherapie-Chatbot auf dem freien Markt fehlen.