KI in der Medizin – sinnvoll oder gefährlich? |
Katja Egermeier |
20.04.2023 10:00 Uhr |
Eines der größten Probleme ist es, dass noch nicht gesichert ist, dass Chatbots ausschließlich seriöse Quellen nutzen. Informationen sollten daher stets gut reflektiert und überprüft werden. / Foto: Getty Images/
RunPhoto
Ihr Fazit in Kurzform: Werden die von ChatGPT angebotenen Ergebnisse unreflektiert und ungeprüft übernommen, kann der Einsatz gefährlich sein. Verantwortungsvoll genutzt kann ein solcher Chatbot jedoch in der Medizin ein hilfreiches Werkzeug sein.
Dabei bezieht sich die DGN zum einen auf einen Review-Artikel, der vor Kurzem im »The New England Journal of Medicine« erschienen ist. In diesem wird der nahezu unendlichen Wissensressource im Internet, auf welche Programme wie ChatGPT zugreifen, das Potenzial zugeschrieben, eine Erleichterung im klinischen Alltag sein zu können – zum Beispiel als Recherchetool, als wichtige Hilfe bei der Erhebung von Differentialdiagnosen oder zur Unterstützung bei der Dokumentation.
Das Hauptproblem sei jedoch, dass noch nicht gesichert ist, dass Chatbots nur seriöse Quellen nutzen. Die Auskünfte bedürften daher stets der Prüfung durch einen Experten, vor allem bei Diagnosen oder Therapieempfehlungen. Eine Anwendung durch Laien sieht das Autorenteam sehr kritisch. Insgesamt gehen sie jedoch davon aus, dass sich Chatbots langfristig zu einem wichtigen Hilfswerkzeug in der Medizin entwickeln werden, sofern sie intelligent benutzt werden.
Die Software ChatGPT wurde von einem kalifornischen Forschungslabor für künstliche Intelligenz namens OpenAI entwickelt und Ende November 2022 veröffentlicht. Es handelt sich um einen Chatbot, also eine Anwendung, über die sich Menschen in natürlicher Sprache mit KI unterhalten können. Bei dieser neuen Generation eines Chatbots lassen sich gefühlt »normale« Unterhaltungen in schriftlichen Dialogen führen, wobei sich die Software frühere Fragen merkt und auf diese Weise eine sehr individuelle »Unterhaltung« mit dem Nutzer ermöglicht. Aus diesem Grund und weil sie in Sekundenbruchteilen interagiert, entsteht der Eindruck, als würde man mit einer anderen Person kommunizieren. Nutzen lässt sich ChatGPT, indem Textanweisungen in Form von Fragen oder Befehlen eingegeben werden.
ChatGPT ist das derzeit prominenteste KI-Tool; GPT steht dabei für »Generative Pre-trained Transformer« und beschreibt, um was es bei dieser Anwendung geht: Das Erstellen von Texten aus einer maschinell erlernten Datenbasis – dem gesamten Internet. Auch wenn ChatGPT darauf angelegt sein soll, schädliche und irreführende Antworten zu vermeiden, wird auf deren Website darauf hingewiesen, dass es sich bei der aktuellen Version um eine öffentlich zugängliche Forschungsvorschau handelt und auch inkorrekte Informationen generiert werden können.
Auch in einer weiteren, Ende März im Fachjournal »Jama« veröffentlichten Studie, wird der Einsatz von ChatGPT überwiegend als Chance begriffen: »In der medizinischen Ausbildung kann GPT als interaktive Enzyklopädie dienen. Es könnte Patienteninteraktionen simulieren, um Lernenden zu helfen, ihre Anamnesefähigkeiten zu verbessern. GPT kann sogar erste Entwürfe von Fortschrittsnotizen, Patientenversorgungsplänen und anderen Dokumenten erstellen […].« Sogar die Vermeidung von Burnouts bei Medizinern wird diskutiert, beispielweise, wenn die Software sich wiederholende Aufgaben übernimmt. Allerdings wird davor gewarnt, geschützte Gesundheitsinformationen einzugeben, solange keine Versionen mit angemessenen Sicherheitsvorkehrungen verfügbar sind.
Für die DGN von besonderem Interesse sind die in dieser Studie ebenfalls berücksichtigten Haftungsfragen sowie die juristische Seite von Chatbots in der Medizin: Demnach sind Ärzte unabhängig von der von ihnen genutzten Quelle stets für ihr Handeln verantwortlich. Ein Chatbot dürfe eine ärztliche Entscheidung grundsätzlich nicht ersetzen, die Ergebnisse müssten immer sorgfältig geprüft und niemals unreflektiert übernommen werden. So heißt es in der Studie: »Ärzte sollten GPT nicht mehr als anderen medizinischen Instrumenten vertrauen, bis sie gründlich validiert wurden.« Zudem sollte es die Pflicht der Mediziner sein, ihre Patienten und deren Angehörige über die Risiken aufzuklären, die diese Software bei einer Verwendung außerhalb der Arzt-Patienten-Beziehung mit sich bringt.