Debatte: Erfahrung von Ärzten als Back-up
Künstliche Intelligenz darf Diagnose und Therapie nicht allein beherrschen, betont Joachim Maurice Mielert vom Aktionsbündnis Patientensicherheit. Menschliche Expertise sorgt für Vertrauen.
Bei den Risiken der Einbindung Künstlicher Intelligenz (KI) in medizinische Diagnosen steht menschliches Versagen durch Fehlinterpretation inzwischen gewiss an erster Stelle. Jedes technisch generierte Untersuchungsergebnis muss von Menschen mit entsprechender Expertise geprüft und Inhalte abgewogen werden, bevor Resultate formuliert und medizinische Behandlungen abgeleitet werden. Und es muss am Ende auch so übersetzt werden, dass der Patient die Inhalte versteht und mit entscheiden kann.
Die aktuellen KI-Formate beinhalten ein gewaltiges und sich täglich erweiterndes Potpourri an Trainingsdaten. Der KI-Markt in Fernost und in den USA hat so gewaltige Datenmengen in die Deep-Learning-Systeme gespeist, dass die Frage von Diagnose-Unsicherheiten durch mangelnde Trainingsdaten annähernd obsolet geworden ist.
„Jedes technisch generierte Untersuchungsergebnis muss von Menschen geprüft werden.“
Generalsekretär des Aktionsbündnis Patientensicherheit
Im Hinblick auf die Patientensicherheit ist die Frage von Rechtssicherheit im Haftungssinne essenziell. Hier stehen sowohl die Leistungsgruppen in der medizinischen Versorgung als auch die Patienten im weitgehend unbearbeiteten Raum, weil es noch an regulierenden Grundsatzurteilen mangelt. Indessen kommt zulasten der Patientensicherheit auch die Frage auf, ob und inwieweit technische Prozesse in den Deep-Learning-Oberflächen durch ungesetzliche Einflussnahmen manipulierbar sind und damit Fehlbewertungen möglich werden. Das dürfte ein Themenfeld sein, welches die Experten für Patientensicherheit mit den politisch Verantwortlichen zu besprechen haben. Last but not least eröffnet KI existenzielle technische Abhängigkeit. Deshalb muss es eine Grundbedingung sein, dass Ärztinnen und Ärzte die Anamnese protokollieren und mit den Patientinnen und Patienten interagieren. Es darf nicht zu einem Diagnose- und Behandlungsprozess kommen, der von KI-Komponenten beherrschend durchdrungen wäre.
Bei aller Begeisterung für die technischen Möglichkeiten unserer Zeit müssen Ärzte und Apotheker die Adressaten für Vertrauen und Prozessplanung sein. Die kontrollierte und regulierte, rechtssichere Zuhilfenahme von Deep-Learning-Modellen wird sich als Segen erweisen.
Mitwirkende des Beitrags
Autor
Datenschutzhinweis
Ihr Beitrag wird vor der Veröffentlichung von der Redaktion auf anstößige Inhalte überprüft. Wir verarbeiten und nutzen Ihren Namen und Ihren Kommentar ausschließlich für die Anzeige Ihres Beitrags. Ihre E-Mail-Adresse wird nicht veröffentlicht, sondern lediglich für eventuelle Rückfragen an Sie im Rahmen der Freischaltung Ihres Kommentars verwendet. Die E-Mail-Adresse wird nach 60 Tagen gelöscht und maximal vier Wochen später aus dem Backup entfernt.
Allgemeine Informationen zur Datenverarbeitung und zu Ihren Betroffenenrechten und Beschwerdemöglichkeiten finden Sie unter https://www.aok.de/pp/datenschutzrechte. Bei Fragen wenden Sie sich an den AOK-Bundesverband, Rosenthaler Str. 31, 10178 Berlin oder an unseren Datenschutzbeauftragten über das Kontaktformular.