Update

Charité-Expertin: Generative KI hat enormes Potenzial

31.07.2024 2 Min. Lesedauer

Die Charité-Medizinerin Mirja Mittermeier warnt vor Risiken und Hürden bei der Einführung generativer künstlicher Intelligenz (KI). Diese KI habe ein enormes Potenzial für das Gesundheitswesen, doch die IT-Infrastruktur sei ungeeignet, betont die Ärztin und KI-Expertin in der neuen G+G Wissenschaft. Auch fehlten klinische Studien, die die Genauigkeit und Zuverlässigkeit der erzeugten Ergebnisse validierten. Zudem gebe es offene Fragen zu Datenschutz, Haftung und Regulierung.

Generative KI könne bei der medizinischen Dokumentation, in der Wissenschaft oder bei der Ausbildung des ärztlichen Nachwuchses unterstützen, erläutert Mittermaier. So ließe sich diese Technik für die Zusammenfassung von Patientengesprächen, Abrechnungen und Terminvereinbarungen nutzen. In der Medikamentenforschung könne sie chemische Strukturen und deren Variationen simulieren und durch die Analyse großer Datenmenge mögliche Probleme in Bezug auf Wirksamkeit, Sicherheit und Nebenwirkungen identifizieren.

„Auch für die medizinische Ausbildung gibt es vielfältige potenzielle Anwendungen“, so Mittermaier. Beispielsweise ließen sich durch KI realistische Simulationsszenarien, personalisiertes Lernmaterial und die Zusammenfassung von wissenschaftlichen Artikeln generieren. Patienten könnten auch direkt profitieren, etwa von Chatbots. Bislang sei deren Ergebnisqualität allerdings noch nicht von europäischen oder us-amerikanischen Behörden überprüft.

Probleme für die Einführung generativer KI in den medizinischen Alltag sieht die Wissenschaftlerin zum Teil in der generativen KI selbst begründet. Die Systeme lieferten bisweilen als Halluzinationen bezeichnete falsche Antworten, die schwer erkennbar seien. „Halluzinationen können nicht nur bei Texten, sondern auch bei generiertem Audio-, Bild- oder Videomaterial vorkommen“, so Mittermaier. Des Weiteren entstünden bisweilen systematische Verzerrungen, sogenannte Bias. Außerdem seien die Entscheidungen von KI-Modellen zum Teil nicht nachvollziehbar. Dieses Phänomen ist auch als Blackbox-Effekt bekannt.

„Eine große Herausforderung stellt derzeit noch die Evaluierung dar“, schreibt die KI-Expertin. Bislang gebe es weder einheitliche noch für alle Fälle geeignete Evaluationsmetriken. Daten seien oft in Qualität und Menge nicht ausreichend, um Systeme angemessen zu trainieren. Es existierten zudem rechtliche Hürden. So könnten KI-Modelle nur als Medizinprodukte zertifiziert werden, wenn sie „fertig trainiert“ seien.

Als generative KI werden Modelle der künstlichen Intelligenz bezeichnet, die dafür programmiert sind, neue Inhalte in Form von Texten, Audio, Bildern oder Videos zu erzeugen. (ink)

 

Beitrag kommentieren

Alle Felder sind Pflichtfelder.

Datenschutzhinweis

Ihr Beitrag wird vor der Veröffentlichung von der Redaktion auf anstößige Inhalte überprüft. Wir verarbeiten und nutzen Ihren Namen und Ihren Kommentar ausschließlich für die Anzeige Ihres Beitrags. Ihre E-Mail-Adresse wird nicht veröffentlicht, sondern lediglich für eventuelle Rückfragen an Sie im Rahmen der Freischaltung Ihres Kommentars verwendet. Die E-Mail-Adresse wird nach 60 Tagen gelöscht und maximal vier Wochen später aus dem Backup entfernt.

Allgemeine Informationen zur Datenverarbeitung und zu Ihren Betroffenenrechten und Beschwerdemöglichkeiten finden Sie unter https://www.aok.de/pp/datenschutzrechte. Bei Fragen wenden Sie sich an den AOK-Bundesverband, Rosenthaler Str. 31, 10178 Berlin oder an unseren Datenschutzbeauftragten über das Kontaktformular.