KI in der Medizin – sinnvoll oder gefährlich? |
Katja Egermeier |
20.04.2023 10:00 Uhr |
Auch in einer weiteren, Ende März im Fachjournal »Jama« veröffentlichten Studie, wird der Einsatz von ChatGPT überwiegend als Chance begriffen: »In der medizinischen Ausbildung kann GPT als interaktive Enzyklopädie dienen. Es könnte Patienteninteraktionen simulieren, um Lernenden zu helfen, ihre Anamnesefähigkeiten zu verbessern. GPT kann sogar erste Entwürfe von Fortschrittsnotizen, Patientenversorgungsplänen und anderen Dokumenten erstellen […].« Sogar die Vermeidung von Burnouts bei Medizinern wird diskutiert, beispielweise, wenn die Software sich wiederholende Aufgaben übernimmt. Allerdings wird davor gewarnt, geschützte Gesundheitsinformationen einzugeben, solange keine Versionen mit angemessenen Sicherheitsvorkehrungen verfügbar sind.
Für die DGN von besonderem Interesse sind die in dieser Studie ebenfalls berücksichtigten Haftungsfragen sowie die juristische Seite von Chatbots in der Medizin: Demnach sind Ärzte unabhängig von der von ihnen genutzten Quelle stets für ihr Handeln verantwortlich. Ein Chatbot dürfe eine ärztliche Entscheidung grundsätzlich nicht ersetzen, die Ergebnisse müssten immer sorgfältig geprüft und niemals unreflektiert übernommen werden. So heißt es in der Studie: »Ärzte sollten GPT nicht mehr als anderen medizinischen Instrumenten vertrauen, bis sie gründlich validiert wurden.« Zudem sollte es die Pflicht der Mediziner sein, ihre Patienten und deren Angehörige über die Risiken aufzuklären, die diese Software bei einer Verwendung außerhalb der Arzt-Patienten-Beziehung mit sich bringt.