PTA-Forum online Avoxa
instagram facebook

KI als Problemlöser?
-
Frag den Chatbot – immer öfter auch bei Depressionen und Stress

Immer mehr junge Menschen wenden sich an KI, um über ihre Probleme zu sprechen. Die Angebote sind leicht zugänglich – doch Fachleute sehen auch Risiken.
AutorKontaktdpa
Datum 02.05.2026  11:00 Uhr

Chancen und Risiken von KI bei Depression und Stress

Fachleute sehen in der Entwicklung sowohl Chancen als auch Risiken. »Die Art, über psychische Probleme zu kommunizieren, hat sich bei jungen Menschen in den vergangenen Jahren deutlich in die digitalen Räume verlagert«, sagt der Psychiater Malek Bajbouj von der Berliner Charité.

Solche Systeme könnten helfen, Versorgungslücken zu überbrücken. »KI-basierte Systeme – evidenz-basiert, menschlich geleitet und gezielt eingesetzt – haben das große Potenzial, Barrieren abzubauen, Wartezeiten zu verkürzen und mehr Prävention zu ermöglichen«, so Bajbouj.

Gleichzeitig warnt er vor Fehlentwicklungen: »Umgekehrt bergen KI-Systeme die Gefahr der Scheinbehandlungen: anstatt professionelle Hilfe zu suchen, bleiben Menschen in Systemen gefangen, die entweder wirkungslos sind oder sogar schädlich sind.«

Warum KI keine Behandlung ersetzen kann

Besonders kritisch sehen Experten, dass manche Nutzer KI als Alternative zu einer Behandlung wahrnehmen. »KI kann keine Therapie ersetzen«, sagt Bajbouj. Algorithmen seien auf Empathie programmiert, kritisches Nachfragen und therapeutische Führung kämen dabei meist zu kurz – also genau das, was in einer echten Therapie entscheidend ist.

Auch die Befragung liefert Hinweise darauf: Ein Teil der Betroffenen sieht Gespräche mit KI-Chatbots als Alternative zum Arzt oder zur Psychotherapie. So geben 62 Prozent der Nutzer mit Depression an, die Gespräche mit KI hätten bei ihnen den Gang zum Arzt oder Psychotherapeuten überflüssig gemacht.

Risiken bei KI und psychischer Gesundheit: Krisen, Suizidgedanken und Forschungslücken

Problematisch kann das bei schweren Verläufen sein. »Nebenwirkungen KI-gestützter Behandlung sind kaum systematisch untersucht. Stand heute sind KI-Systeme häufig nicht krisenkompetent«, sagt Bajbouj. Im ungünstigsten Fall verstärkten KI-Systeme belastende oder suizidale Gedanken.

Tatsächlich berichten 53 Prozent der betroffenen Nutzer von verstärkten Gedanken an Selbstverletzung oder Suizid nach der Nutzung. Hinzu kommt: Viele Angebote sind nicht für therapeutische Zwecke entwickelt, gleichzeitig fehlt es an klaren Regeln, Qualitätsstandards und unabhängiger Kontrolle. Ob KI Betroffenen insgesamt eher hilft oder schadet, ist bislang wissenschaftlich nicht ausreichend geklärt.

TEILEN
Datenschutz
Mehr von Avoxa