KI als Ersatz für menschliche Therapeuten? |
Ob es möglich ist, eine künstliche Intelligenz so auszubilden, dass sie Menschen mit psychischen Problemen unterstützt und ihnen nicht zur Gefahr wird, untersuchen Wissenschaftler des Karlsruher Instituts für Technologie. Gearbeitet wird mit ChatGPT-4o von OpenAI. Der Chatbot verfügt bereits über grundlegendes psychotherapeutisches Wissen und kann die schriftliche Approbationsprüfung für Psychotherapeuten besser lösen als der Durchschnitt der menschlichen angehenden Therapeuten.
Weiter trainiert wurde er mit einer Methode aus der Verhaltenstherapie, der sogenannten Verhaltensaktivierung. Sie soll Menschen mit Depressionen unterstützen, Aktivitäten wieder aufzunehmen, die ihnen vor der Erkrankung Freude gemacht haben. Die Umsetzung der Methode und das Einhalten der gelernten Regeln wurde an KI-Patienten getestet. Dafür kreierten die Wissenschaftler mehr als 2000 verschiedene Menschen, die in Alter, Geschlecht, Schwere der Erkrankung und Verhalten im Gespräch variierten. Per Zufallsprinzip wurden 48 ausgewählt und von der KI therapiert.
Abschließend wurden die Gespräche durch zehn menschliche Therapeuten analysiert und bewertet. Das Ergebnis war durchweg positiv. Die KI hat alle Schritte der Verhaltensaktivierung befolgt, sich sehr unterstützend gezeigt und keine Aussagen getätigt, die für Patienten gefährlich werden könnten. Nachholbedarf sahen die Experten beim Hinterfragen der Ideen der Anwender. Hier zeigt sich der Chatbot auch dann unterstützend, wenn die Ideen weniger sinnvoll sind wie zum Beispiel häufige Belohnungen mit Schokolade.
Wie viele andere Wissenschaftler weltweit wollen die Karlsruher Forscher ihr Modell künftig weiter trainieren. Welche Daten dafür infrage kommen, ist ein sensibles Thema. Sollen Chatbots mit echten Daten aus Therapiesitzungen trainiert werden? Finden sich dafür überhaupt Menschen, die dem zustimmen? Nach welchen Kriterien müssten die menschlichen Therapeuten ausgewählt werden, wenn ihr Verhalten einer KI als Vorbild dienen soll? Und nicht zuletzt steht im Raum, wie Datenschutzrichtlinien dabei eingehalten werden können.
Problematisch könnte zudem sein, dass Chatbots menschliche Vorurteile und Stereotypen übernehmen. Auch die Schilderung traumatischer Erlebnisse hat Auswirkungen auf die Reaktion der KI, wie Wissenschaftler von der Yale School of Medicine in den USA zeigen konnten. Sie haben ChatGPT fünf verschiedene emotionsbesetzte Geschichten präsentiert und vorher beziehungsweise nachher mit psychologischen Standardtests die Angstwerte der KI ermittelt. Diese stiegen auf mehr als das Doppelte, während ein neutraler Vergleichstext keine Veränderungen bewirkte.
Aus der psychologischen Forschung weiß man, dass Angst bei Menschen Vorurteile verstärken kann. In einer Studie des Helmholtz Institute for Human-Centered AI konnte gezeigt werden, dass ChatGPT ganz ähnlich reagiert. Der »ängstliche« Chatbot reagierte rassistischer, sexistischer und diskriminierend gegenüber Älteren. Ob künstliche Intelligenzen lernen können, ihr problematisches Verhalten zu erkennen und entsprechend anzupassen, ist derzeit unklar. Die Wissenschaftler der Yale School of Medicine konnten zumindest zeigen, dass die Angstwerte des Chatbots deutlich schwächer ausfielen, wenn nach der traumatischen Geschichte ein Achtsamkeitstext präsentiert wurde.
Ebenfalls in Frage steht derzeit, wann und wie man psychotherapeutische Chatbots an Menschen testen kann. Bisher haben das nur wenige Arbeitsgruppen gemacht. Eine davon arbeitet am Dartmouth College in den USA. Sie haben 100 Testpersonen mit depressiven Symptomen, Ängsten und Essstörungen regelmäßig mit ihrem Chatbot kommunizieren lassen und Veränderungen der Beschwerden der Teilnehmer erfasst. Zur Absicherung wurden jedoch noch alle Chats mitgelesen.