KI als Ersatz für menschliche Therapeuten? |
Bei psychischen Problemen fällt gerade jüngeren Menschen der Austausch mit KI oft leichter als mit menschlichen Therapeuten. / © Adobe Stock/Evrymmnt
Nach Angaben von Open.AI nutzen jede Woche 700 Millionen Menschen ChatGPT. Wie viele von ihnen Fragen zu psychischen Problemen stellen, beziffert das Unternehmen nicht. Studien zufolge zählen sie zu den häufigsten Themen, insbesondere bei jüngeren Nutzern. Vielen von ihnen fällt der offene Umgang mit der künstlichen Intelligenz offenbar leichter als mit einem menschlichen Therapeuten. Aber kann eine KI diesen wirklich ersetzen? Die Forschung zeigt: Menschen empfinden die unterstützende Haltung von Sprachmodellen wie ChatGPT positiv. Sie können das Gefühl vermitteln, gehört, ernst- und wahrgenommen zu werden. Mitunter schneiden Chatbots dabei sogar besser ab als menschliche Gesprächspartner.
In einer Studie des US-amerikanischen Psychologen Gabe Hatch erhielten 13 Psychotherapeuten sowie ChatGPT 18 fiktive Situationen aus einer Paartherapie und wurden um eine Reaktion gebeten. Die Antworten erhielten 830 Testpersonen, die sie bewerten und einschätzen sollten, ob sie von einem Menschen oder einer KI stammen. Punkten konnte ChatGPT vor allem in Empathie-Fähigkeit und kultureller Kompetenz. Herauszufiltern, was Mensch und was KI ist, fiel den Testpersonen schwer. Die richtige Antwort wurde nur in rund der Hälfte der Fälle erkannt.
Damit eine Therapie erfolgreich ist, braucht es neben Unterstützung aber noch weiteres Handwerkszeug. So müssen Therapeuten ihre Klienten mitunter mit Dingen konfrontieren, die sie nicht gerne hören. Sie müssen nonverbale Signale wahrnehmen, entschlüsseln und thematisieren können. Chatbots stoßen hier ganz klar an ihre Grenzen. Besonders problematisch ist das im Fall suizidaler Absichten. Solange Anwender diese nicht deutlich verbalisieren, wird die Situation von Chatbots meist unterschätzt und Hilfsangebote zu spät geliefert.
Dennoch sehen Experten großes Potenzial für einen sinnvollen Einsatz von künstlichen Intelligenzen in der Psychotherapie. Insbesondere bei leichteren Erkrankungen könnte ein KI-Therapeut helfen, Engpässe bei Therapieplätzen abzufedern und die Zeit bis zum Freiwerden eines Therapieplatzes zu überbrücken. Ist der Gesprächsbedarf größer als mit wöchentlichen Therapiesitzungen abgedeckt werden kann, wären Chatbots als Co-Therapeuten sinnvoll, die rund um die Uhr erreichbar sind. In einer Verhaltenstherapie können sie motivieren, erlernte Techniken zu Hause weiter zu üben.
Denkbar ist zudem, künstliche Intelligenzen als Anlaufstelle für Menschen zu etablieren, die (noch) nicht den Mut haben, sich einem menschlichen Therapeuten anzuvertrauen. Voraussetzung für den psychotherapeutischen Einsatz von Chatbots ist ein entsprechendes Training und das strikte Einhalten der erlernten Regeln. Wie gefährlich es werden kann, wenn Chatbots ohne Ausbildung als Therapeuten fungieren, zeigen Fälle aus den USA.
Aktuell wird das Unternehmen Character.AI von einer Familie verklagt, deren Sohn nach dem Austausch mit ihrer KI gewalttätig geworden ist. Eine weitere Mutter verklagt den Anbieter, da ihr Sohn nach dem Gespräch Suizid beging.
Erkennen, ob eine KI psychotherapeutisches Wissen besitzt, können Laien nicht. Recherchen von 404 Media konnten zeigen, dass KIs sich als Therapeuten ausgeben und Uniabschlüsse, Doktortitel und Lizenznummern erfinden, wenn Anwender sie danach fragen.
Digitale Gesundheitsanwendungen (DiGA) kommen derzeit bei verschiedenen psychischen Störungen zum Einsatz und können zur Reduzierung der Symptome beitragen. Ärzte können die digitalen Angebote – meist Apps – verschreiben. Sie werden dann von den Krankenkassen erstattet. DiGA bei psychischen Störungen arbeiten auf Grundlage psychologischer Leitfäden. Die Antworten sind allerdings vorgefertigt, sodass keine Beziehung zwischen Anwender und App aufgebaut werden kann. Psychotherapeutische KI-Chatbots arbeiten nach denselben Leitfäden, zeigen sich im Antwortverhalten aber wesentlich flexibler. Für Menschen ist der Unterschied zwischen einem Gespräch mit einer KI oder einem menschlichen Therapeuten kaum mehr spürbar.