PTA-Forum online
Medizin

Zweifel an Diagnosen von ChatGPT

KI-Chatbots wie ChatGPT sind beliebt – ihren medizinischen Ratschlägen wird aber mit Skepsis begegnet, so eine Würzburger Studie. Das könnte die Zukunft der digitalen Medizin beeinflussen.
dpa
06.08.2024  14:00 Uhr

Ein unerklärliches Ziehen im Bauch, ein hartnäckiger Husten oder ein merkwürdiger Fleck auf dem Zehennagel: Dass Menschen bei unterschiedlichsten Symptomen Google befragen, ist kein neues Phänomen – und mit der zunehmenden Beliebtheit von KI-basierten Chatbots wie ChatGPT scheinen die Möglichkeiten zur digitalen Selbstdiagnose weiter gewachsen zu sein. Tatsächlich aber wird der medizinischen Kompetenz einer solchen Künstlichen Intelligenz noch mit großen Vorbehalten begegnet, zeigt eine Würzburger Studie, über die im Fachblatt »Nature Medicine« berichtet wird.

Die Würzburger Wissenschaftler untersuchten die Reaktion von Menschen auf KI-generierte medizinische Ratschläge. »Uns interessierte nicht die technische Kompetenz der KI, sondern allein die Frage, wie der KI-Output wahrgenommen wird«, sagt Moritz Reis von der Julius-Maximilians-Universität. Dafür teilte das Forschungsteam mehr als 2000 Probanden in drei Gruppen ein, die identische medizinische Ratschläge erhielten. Die erste Gruppe bekam gesagt, dass die Empfehlungen von einem Arzt oder einer Ärztin stammten. Bei der zweiten wurde ein KI-basierter Chatbot als Urheber genannt und die dritte Gruppe ging davon aus, dass die Ratschläge zwar von einem Chatbot stammten, aber nochmal ärztlich überprüft wurden.

Die Probanden bewerteten die Empfehlungen auf Verlässlichkeit, Verständlichkeit und Empathie. Sobald sie vermuteten, dass eine KI beteiligt war, nahmen sie die Ratschläge als weniger empathisch und verlässlich wahr. Dies galt auch für die Gruppe, die glaubte, dass ein Arzt die KI-Empfehlungen überprüft hatte. Entsprechend waren sie weniger bereit, diesen Empfehlungen zu folgen. »Der Effekt der Voreingenommenheit gegen KI ist zwar nicht riesig, aber statistisch signifikant«, kommentiert Reis.

Erklärungsansätze für KI-Skepsis

Die KI-Skepsis erklärt sich der Kognitionspsychologe teilweise mit Stereotypen: »Viele glauben, eine Maschine könne nicht empathisch sein.« Bei der Verständlichkeit bewerteten alle drei Gruppen die Ratschläge jedoch gleich. Für die Forschungsgruppe ist die festgestellte KI-Skepsis wichtig, da KI in der Medizin eine immer wichtigere Rolle spiele. So werden derzeit zahlreiche Studien zu neuen KI-Anwendungsmöglichkeiten veröffentlicht.

Umso bedeutsamer sei die öffentliche Akzeptanz, sagt Reis: »Bei der Frage nach dem künftigen Einsatz von KI in der Medizin geht es nicht nur um das technisch Mögliche, sondern auch darum, wie weit Patientinnen und Patienten mitgehen.« Aufklärung über entsprechende Anwendungen und KI generell sei nötig. »Darüber hinaus haben andere Studien gezeigt, wie wichtig es für das Patientenvertrauen ist, dass am Ende immer der menschliche Arzt oder Ärztin gemeinsam mit den Patienten die finale Entscheidungsgewalt hat«, betont Reis.

Die experimentelle KI
von PZ und PTA-Forum
Die experimentelle KI
von PZ und PTA-Forum
Die experimentelle KI
von PZ und PTA-Forum
 
FAQ
SENDEN
Wie kann man die CAR-T-Zelltherapie einfach erklären?
Warum gibt es keinen Impfstoff gegen HIV?
Was hat der BGH im Fall von AvP entschieden?
GESAMTER ZEITRAUM
3 JAHRE
1 JAHR
SENDEN
IHRE FRAGE WIRD BEARBEITET ...
UNSERE ANTWORT
QUELLEN
22.01.2023 – Fehlende Evidenz?
LAV Niedersachsen sieht Verbesserungsbedarf
» ... Frag die KI ist ein experimentelles Angebot der Pharmazeutischen Zeitung. Es nutzt Künstliche Intelligenz, um Fragen zu Themen der Branche zu beantworten. Die Antworten basieren auf dem Artikelarchiv der Pharmazeutischen Zeitung und des PTA-Forums. Die durch die KI generierten Antworten sind mit Links zu den Originalartikeln. ... «
Ihr Feedback
War diese Antwort für Sie hilfreich?
 
 
FEEDBACK SENDEN
FAQ
Was ist »Frag die KI«?
»Frag die KI« ist ein experimentelles Angebot der Pharmazeutischen Zeitung. Es nutzt Künstliche Intelligenz, um Fragen zu Themen der Branche zu beantworten. Die Antworten basieren auf dem Artikelarchiv der Pharmazeutischen Zeitung und des PTA-Forums. Die durch die KI generierten Antworten sind mit Links zu den Originalartikeln der Pharmazeutischen Zeitung und des PTA-Forums versehen, in denen mehr Informationen zu finden sind. Die Redaktion der Pharmazeutischen Zeitung verfolgt in ihren Artikeln das Ziel, kompetent, seriös, umfassend und zeitnah über berufspolitische und gesundheitspolitische Entwicklungen, relevante Entwicklungen in der pharmazeutischen Forschung sowie den aktuellen Stand der pharmazeutischen Praxis zu informieren.
Was sollte ich bei den Fragen beachten?
Damit die KI die besten und hilfreichsten Antworten geben kann, sollten verschiedene Tipps beachtet werden. Die Frage sollte möglichst präzise gestellt werden. Denn je genauer die Frage formuliert ist, desto zielgerichteter kann die KI antworten. Vollständige Sätze erhöhen die Wahrscheinlichkeit einer guten Antwort.
Wie nutze ich den Zeitfilter?
Damit die KI sich bei ihrer Antwort auf aktuelle Beiträge beschränkt, kann die Suche zeitlich eingegrenzt werden. Artikel, die älter als sieben Jahre sind, werden derzeit nicht berücksichtigt.
Sind die Ergebnisse der KI-Fragen durchweg korrekt?
Die KI kann nicht auf jede Frage eine Antwort liefern. Wenn die Frage ein Thema betrifft, zu dem wir keine Artikel veröffentlicht haben, wird die KI dies in ihrer Antwort entsprechend mitteilen. Es besteht zudem eine Wahrscheinlichkeit, dass die Antwort unvollständig, veraltet oder falsch sein kann. Die Redaktion der Pharmazeutischen Zeitung übernimmt keine Verantwortung für die Richtigkeit der KI-Antworten.
Werden meine Daten gespeichert oder verarbeitet?
Wir nutzen gestellte Fragen und Feedback ausschließlich zur Generierung einer Antwort innerhalb unserer Anwendung und zur Verbesserung der Qualität zukünftiger Ergebnisse. Dabei werden keine zusätzlichen personenbezogenen Daten erfasst oder gespeichert.
TEILEN
Datenschutz

Mehr von Avoxa