PTA-Forum online Avoxa
instagram facebook

ChatGPT & Co.
-
KI in der Medizin – sinnvoll oder gefährlich?

ChatGPT hält gerade Einzug in fast alle Lebensbereiche und macht auch vor der Medizin nicht halt. An der Frage, ob der Einsatz von künstlicher Intelligenz (KI) im klinischen Alltag nun ein Gewinn oder eher eine Gefahr ist, scheiden sich die Geister. Auch die Deutsche Gesellschaft für Neurologie (DGN) hat sich mit dem Thema beschäftigt und zwei aktuelle Studien dazu beleuchtet.
AutorKontaktKatja Egermeier
Datum 20.04.2023  10:00 Uhr

Ihr Fazit in Kurzform: Werden die von ChatGPT angebotenen Ergebnisse unreflektiert und ungeprüft übernommen, kann der Einsatz gefährlich sein. Verantwortungsvoll genutzt kann ein solcher Chatbot jedoch in der Medizin ein hilfreiches Werkzeug sein.

Dabei bezieht sich die DGN zum einen auf einen Review-Artikel, der vor Kurzem im »The New England Journal of Medicine« erschienen ist. In diesem wird der nahezu unendlichen Wissensressource im Internet, auf welche Programme wie ChatGPT zugreifen, das Potenzial zugeschrieben, eine Erleichterung im klinischen Alltag sein zu können – zum Beispiel als Recherchetool, als wichtige Hilfe bei der Erhebung von Differentialdiagnosen oder zur Unterstützung bei der Dokumentation.

Das Hauptproblem sei jedoch, dass noch nicht gesichert ist, dass Chatbots nur seriöse Quellen nutzen. Die Auskünfte bedürften daher stets der Prüfung durch einen Experten, vor allem bei Diagnosen oder Therapieempfehlungen. Eine Anwendung durch Laien sieht das Autorenteam sehr kritisch. Insgesamt gehen sie jedoch davon aus, dass sich Chatbots langfristig zu einem wichtigen Hilfswerkzeug in der Medizin entwickeln werden, sofern sie intelligent benutzt werden.

Ärzte unabhängig von der Informationsquelle für ihr Handeln verantwortlich

Auch in einer weiteren, Ende März im Fachjournal »Jama« veröffentlichten Studie, wird der Einsatz von ChatGPT überwiegend als Chance begriffen: »In der medizinischen Ausbildung kann GPT als interaktive Enzyklopädie dienen. Es könnte Patienteninteraktionen simulieren, um Lernenden zu helfen, ihre Anamnesefähigkeiten zu verbessern. GPT kann sogar erste Entwürfe von Fortschrittsnotizen, Patientenversorgungsplänen und anderen Dokumenten erstellen […].« Sogar die Vermeidung von Burnouts bei Medizinern wird diskutiert, beispielweise, wenn die Software sich wiederholende Aufgaben übernimmt. Allerdings wird davor gewarnt, geschützte Gesundheitsinformationen einzugeben, solange keine Versionen mit angemessenen Sicherheitsvorkehrungen verfügbar sind.

Für die DGN von besonderem Interesse sind die in dieser Studie ebenfalls berücksichtigten Haftungsfragen sowie die juristische Seite von Chatbots in der Medizin: Demnach sind Ärzte unabhängig von der von ihnen genutzten Quelle stets für ihr Handeln verantwortlich. Ein Chatbot dürfe eine ärztliche Entscheidung grundsätzlich nicht ersetzen, die Ergebnisse müssten immer sorgfältig geprüft und niemals unreflektiert übernommen werden. So heißt es in der Studie: »Ärzte sollten GPT nicht mehr als anderen medizinischen Instrumenten vertrauen, bis sie gründlich validiert wurden.« Zudem sollte es die Pflicht der Mediziner sein, ihre Patienten und deren Angehörige über die Risiken aufzuklären, die diese Software bei einer Verwendung außerhalb der Arzt-Patienten-Beziehung mit sich bringt.

TEILEN
Datenschutz

Mehr von Avoxa