PTA-Forum online Avoxa
instagram facebook
Psychotherapie

KI als Ersatz für menschliche Therapeuten?

Einen Therapieplatz zu finden, erfordert Geduld. Die Zeit bis zur nächsten Sitzung kann lang sein, das Gespräch mit dem fremden Gegenüber unangenehm erscheinen. Immer mehr Menschen wenden sich deshalb Rat suchend an künstliche Intelligenzen wie ChatGPT. Doch wie hilfreich sind sie bei psychischen Problemen?
AutorKontaktCarina Steyer
Datum 15.10.2025  08:00 Uhr

Nach Angaben von Open.AI nutzen jede Woche 700 Millionen Menschen ChatGPT. Wie viele von ihnen Fragen zu psychischen Problemen stellen, beziffert das Unternehmen nicht. Studien zufolge zählen sie zu den häufigsten Themen, insbesondere bei jüngeren Nutzern. Vielen von ihnen fällt der offene Umgang mit der künstlichen Intelligenz offenbar leichter als mit einem menschlichen Therapeuten. Aber kann eine KI diesen wirklich ersetzen? Die Forschung zeigt: Menschen empfinden die unterstützende Haltung von Sprachmodellen wie ChatGPT positiv. Sie können das Gefühl vermitteln, gehört, ernst- und wahrgenommen zu werden. Mitunter schneiden Chatbots dabei sogar besser ab als menschliche Gesprächspartner.

In einer Studie des US-amerikanischen Psychologen Gabe Hatch erhielten 13 Psychotherapeuten sowie ChatGPT 18 fiktive Situationen aus einer Paartherapie und wurden um eine Reaktion gebeten. Die Antworten erhielten 830 Testpersonen, die sie bewerten und einschätzen sollten, ob sie von einem Menschen oder einer KI stammen. Punkten konnte ChatGPT vor allem in Empathie-Fähigkeit und kultureller Kompetenz. Herauszufiltern, was Mensch und was KI ist, fiel den Testpersonen schwer. Die richtige Antwort wurde nur in rund der Hälfte der Fälle erkannt.

Damit eine Therapie erfolgreich ist, braucht es neben Unterstützung aber noch weiteres Handwerkszeug. So müssen Therapeuten ihre Klienten mitunter mit Dingen konfrontieren, die sie nicht gerne hören. Sie müssen nonverbale Signale wahrnehmen, entschlüsseln und thematisieren können. Chatbots stoßen hier ganz klar an ihre Grenzen. Besonders problematisch ist das im Fall suizidaler Absichten. Solange Anwender diese nicht deutlich verbalisieren, wird die Situation von Chatbots meist unterschätzt und Hilfsangebote zu spät geliefert.

Grenzen definieren

Dennoch sehen Experten großes Potenzial für einen sinnvollen Einsatz von künstlichen Intelligenzen in der Psychotherapie. Insbesondere bei leichteren Erkrankungen könnte ein KI-Therapeut helfen, Engpässe bei Therapieplätzen abzufedern und die Zeit bis zum Freiwerden eines Therapieplatzes zu überbrücken. Ist der Gesprächsbedarf größer als mit wöchentlichen Therapiesitzungen abgedeckt werden kann, wären Chatbots als Co-Therapeuten sinnvoll, die rund um die Uhr erreichbar sind. In einer Verhaltenstherapie können sie motivieren, erlernte Techniken zu Hause weiter zu üben.

Denkbar ist zudem, künstliche Intelligenzen als Anlaufstelle für Menschen zu etablieren, die (noch) nicht den Mut haben, sich einem menschlichen Therapeuten anzuvertrauen. Voraussetzung für den psychotherapeutischen Einsatz von Chatbots ist ein entsprechendes Training und das strikte Einhalten der erlernten Regeln. Wie gefährlich es werden kann, wenn Chatbots ohne Ausbildung als Therapeuten fungieren, zeigen Fälle aus den USA.

Aktuell wird das Unternehmen Character.AI von einer Familie verklagt, deren Sohn nach dem Austausch mit ihrer KI gewalttätig geworden ist. Eine weitere Mutter verklagt den Anbieter, da ihr Sohn nach dem Gespräch Suizid beging.

Erkennen, ob eine KI psychotherapeutisches Wissen besitzt, können Laien nicht. Recherchen von 404 Media konnten zeigen, dass KIs sich als Therapeuten ausgeben und Uniabschlüsse, Doktortitel und Lizenznummern erfinden, wenn Anwender sie danach fragen.

Erste Schritte getan

Ob es möglich ist, eine künstliche Intelligenz so auszubilden, dass sie Menschen mit psychischen Problemen unterstützt und ihnen nicht zur Gefahr wird, untersuchen Wissenschaftler des Karlsruher Instituts für Technologie. Gearbeitet wird mit ChatGPT-4o von OpenAI. Der Chatbot verfügt bereits über grundlegendes psychotherapeutisches Wissen und kann die schriftliche Approbationsprüfung für Psychotherapeuten besser lösen als der Durchschnitt der menschlichen angehenden Therapeuten.

Weiter trainiert wurde er mit einer Methode aus der Verhaltenstherapie, der sogenannten Verhaltensaktivierung. Sie soll Menschen mit Depressionen unterstützen, Aktivitäten wieder aufzunehmen, die ihnen vor der Erkrankung Freude gemacht haben. Die Umsetzung der Methode und das Einhalten der gelernten Regeln wurde an KI-Patienten getestet. Dafür kreierten die Wissenschaftler mehr als 2000 verschiedene Menschen, die in Alter, Geschlecht, Schwere der Erkrankung und Verhalten im Gespräch variierten. Per Zufallsprinzip wurden 48 ausgewählt und von der KI therapiert.

Abschließend wurden die Gespräche durch zehn menschliche Therapeuten analysiert und bewertet. Das Ergebnis war durchweg positiv. Die KI hat alle Schritte der Verhaltensaktivierung befolgt, sich sehr unterstützend gezeigt und keine Aussagen getätigt, die für Patienten gefährlich werden könnten. Nachholbedarf sahen die Experten beim Hinterfragen der Ideen der Anwender. Hier zeigt sich der Chatbot auch dann unterstützend, wenn die Ideen weniger sinnvoll sind wie zum Beispiel häufige Belohnungen mit Schokolade.

Viele Herausforderungen

Wie viele andere Wissenschaftler weltweit wollen die Karlsruher Forscher ihr Modell künftig weiter trainieren. Welche Daten dafür infrage kommen, ist ein sensibles Thema. Sollen Chatbots mit echten Daten aus Therapiesitzungen trainiert werden? Finden sich dafür überhaupt Menschen, die dem zustimmen? Nach welchen Kriterien müssten die menschlichen Therapeuten ausgewählt werden, wenn ihr Verhalten einer KI als Vorbild dienen soll? Und nicht zuletzt steht im Raum, wie Datenschutzrichtlinien dabei eingehalten werden können.

Problematisch könnte zudem sein, dass Chatbots menschliche Vorurteile und Stereotypen übernehmen. Auch die Schilderung traumatischer Erlebnisse hat Auswirkungen auf die Reaktion der KI, wie Wissenschaftler von der Yale School of Medicine in den USA zeigen konnten. Sie haben ChatGPT fünf verschiedene emotionsbesetzte Geschichten präsentiert und vorher beziehungsweise nachher mit psychologischen Standardtests die Angstwerte der KI ermittelt. Diese stiegen auf mehr als das Doppelte, während ein neutraler Vergleichstext keine Veränderungen bewirkte.

Aus der psychologischen Forschung weiß man, dass Angst bei Menschen Vorurteile verstärken kann. In einer Studie des Helmholtz Institute for Human-Centered AI konnte gezeigt werden, dass ChatGPT ganz ähnlich reagiert. Der »ängstliche« Chatbot reagierte rassistischer, sexistischer und diskriminierend gegenüber Älteren. Ob künstliche Intelligenzen lernen können, ihr problematisches Verhalten zu erkennen und entsprechend anzupassen, ist derzeit unklar. Die Wissenschaftler der Yale School of Medicine konnten zumindest zeigen, dass die Angstwerte des Chatbots deutlich schwächer ausfielen, wenn nach der traumatischen Geschichte ein Achtsamkeitstext präsentiert wurde.

Ebenfalls in Frage steht derzeit, wann und wie man psychotherapeutische Chatbots an Menschen testen kann. Bisher haben das nur wenige Arbeitsgruppen gemacht. Eine davon arbeitet am Dartmouth College in den USA. Sie haben 100 Testpersonen mit depressiven Symptomen, Ängsten und Essstörungen regelmäßig mit ihrem Chatbot kommunizieren lassen und Veränderungen der Beschwerden der Teilnehmer erfasst. Zur Absicherung wurden jedoch noch alle Chats mitgelesen.

Frag die KI
Die experimentelle KI
von PZ und PTA-Forum
Die experimentelle KI
von PZ und PTA-Forum
Die experimentelle KI
von PZ und PTA-Forum
 
FAQ
BETA
Menü
Zeit
SENDEN
Wie kann man die CAR-T-Zelltherapie einfach erklären?
Warum gibt es keinen Impfstoff gegen HIV?
Was hat der BGH im Fall von AvP entschieden?
Zeit
GESAMTER ZEITRAUM
3 JAHRE
1 JAHR
Senden
SENDEN
KI
IHRE FRAGE WIRD BEARBEITET ...
KI
KI
UNSERE ANTWORT
QUELLEN
22.01.2023 – Fehlende Evidenz?
LAV Niedersachsen sieht Verbesserungsbedarf
» ... Frag die KI ist ein experimentelles Angebot der Pharmazeutischen Zeitung. Es nutzt Künstliche Intelligenz, um Fragen zu Themen der Branche zu beantworten. Die Antworten basieren auf dem Artikelarchiv der Pharmazeutischen Zeitung und des PTA-Forums. Die durch die KI generierten Antworten sind mit Links zu den Originalartikeln. ... «
Ihr Feedback
War diese Antwort für Sie hilfreich?
 
 
FEEDBACK SENDEN
FAQ
Was ist »Frag die KI«?
»Frag die KI« ist ein experimentelles Angebot der Pharmazeutischen Zeitung. Es nutzt Künstliche Intelligenz, um Fragen zu Themen der Branche zu beantworten. Die Antworten basieren auf dem Artikelarchiv der Pharmazeutischen Zeitung und des PTA-Forums. Die durch die KI generierten Antworten sind mit Links zu den Originalartikeln der Pharmazeutischen Zeitung und des PTA-Forums versehen, in denen mehr Informationen zu finden sind. Die Redaktion der Pharmazeutischen Zeitung verfolgt in ihren Artikeln das Ziel, kompetent, seriös, umfassend und zeitnah über berufspolitische und gesundheitspolitische Entwicklungen, relevante Entwicklungen in der pharmazeutischen Forschung sowie den aktuellen Stand der pharmazeutischen Praxis zu informieren.
Was sollte ich bei den Fragen beachten?
Damit die KI die besten und hilfreichsten Antworten geben kann, sollten verschiedene Tipps beachtet werden. Die Frage sollte möglichst präzise gestellt werden. Denn je genauer die Frage formuliert ist, desto zielgerichteter kann die KI antworten. Vollständige Sätze erhöhen die Wahrscheinlichkeit einer guten Antwort.
Wie nutze ich den Zeitfilter?
Damit die KI sich bei ihrer Antwort auf aktuelle Beiträge beschränkt, kann die Suche zeitlich eingegrenzt werden. Artikel, die älter als sieben Jahre sind, werden derzeit nicht berücksichtigt.
Sind die Ergebnisse der KI-Fragen durchweg korrekt?
Die KI kann nicht auf jede Frage eine Antwort liefern. Wenn die Frage ein Thema betrifft, zu dem wir keine Artikel veröffentlicht haben, wird die KI dies in ihrer Antwort entsprechend mitteilen. Es besteht zudem eine Wahrscheinlichkeit, dass die Antwort unvollständig, veraltet oder falsch sein kann. Die Redaktion der Pharmazeutischen Zeitung übernimmt keine Verantwortung für die Richtigkeit der KI-Antworten.
Werden meine Daten gespeichert oder verarbeitet?
Wir nutzen gestellte Fragen und Feedback ausschließlich zur Generierung einer Antwort innerhalb unserer Anwendung und zur Verbesserung der Qualität zukünftiger Ergebnisse. Dabei werden keine zusätzlichen personenbezogenen Daten erfasst oder gespeichert.
TEILEN
Datenschutz

Mehr von Avoxa