Generative Künstliche Intelligenz steht erst am Anfang
Die generative Künstliche Intelligenz (KI) hat das Potenzial, unsere Welt grundlegend zu verändern. Ob am Arbeitsplatz, in der Freizeit oder im Urlaub – die Einsatzmöglichkeiten scheinen grenzenlos. Auch im Gesundheitswesen bietet die Technologie vielversprechende Perspektiven, steht jedoch noch am Anfang ihrer Entwicklung und bringt zahlreiche Herausforderungen mit sich.
Generative KI erzeugt, wie der Name schon sagt, neue Inhalte – Texte, Bilder oder Videos, die zuvor nicht existierten. Bei großen Sprachmodellen, den Large Language Models (LLM), wie ChatGPT handelt es sich um KI-Systeme, die basierend auf Anweisungen, sogenannten Prompts, neue Texte generieren. Diese Systeme nutzen erlernte sprachliche Muster und statistische Wahrscheinlichkeiten, um Inhalte zu erstellen. Die Qualität der Ergebnisse hängt maßgeblich von den Trainingsdaten ab. Je besser die Datenbasis, desto präziser und hilfreicher die generierten Inhalte.
Potenziale in der Medizin
Im Gesundheitswesen könnte generative KI Ärztinnen und Ärzte künftig bei Diagnosen und Therapieentscheidungen unterstützen. Bereits heute kommt die Technologie in einigen Kliniken zum Einsatz, wie am Universitätsklinikum Essen, wo KI unter anderem in der Radiologie, Herzmedizin und Onkologie eingesetzt wird, um Zusammenhänge und Muster in großen Datenmengen zu bestimmen, die Menschen nur schwer erkennen können.
Auch in der Arzneimittelforschung bietet KI enormes Potenzial. Sie kann dazu beitragen, die Entwicklungszeit neuer Medikamente zu verkürzen und die Erfolgswahrscheinlichkeit zu erhöhen, indem sie Zielstrukturen aufzeigt und Eigenschaften von Molekülen vorhersagt. Besonders in der personalisierten Medizin, etwa bei der Behandlung von Krebs, könnten generative KI-Modelle in Zukunft eine entscheidende Rolle spielen.
Generative KI kann Ärztinnen und Ärzte auch bei der Dokumentation unterstützen, etwa Arztbriefe schreiben oder medizinische Daten wie Anamnese, Medikamente, Diagnosen, Behandlungen oder Laborergebnisse prägnant zusammenfassen. Diese Tätigkeiten kosten die Ärzteschaft viel Zeit, die sie für Patientengespräche besser nutzen könnte. Damit lassen sich zudem Patientenakten analysieren und Diskrepanzen oder Lücken identifizieren, die eine bessere Behandlung ermöglichen.
Aktuelle Herausforderungen und Risiken
Trotz ihrer vielversprechenden Anwendungsmöglichkeiten sind die heutigen KI-Modelle in der Regel noch nicht bereit für den breiten klinischen Einsatz. Studien zeigen, dass LLMs wie ChatGPT zwar in medizinischen Prüfungen gut abschneiden, im klinischen Alltag jedoch oft überfordert sind. Besonders bei der Bildinterpretation und der Diagnostik bestehen noch erhebliche Mängel. Auch das Vertrauen der Patientinnen und Patienten in die medizinische Kompetenz von KI ist bislang gering, wie eine Studie der Universität Würzburg zeigt.
Zukunftsweisende Entwicklungen wie das MedPaLM 2-Modell von Google, das speziell für den medizinischen Bereich entwickelt wurde, könnten diese Situation ändern. Es handelt sich dabei um eine Diagnosemaschine auf Basis eines Chatbots. Bei der Entwicklung ihres Sprachmodells arbeitet Google mit medizinischen Forschungseinrichtungen zusammen. In die Trainingsdaten fließen wissenschaftliche Arbeiten ein, die bislang publiziert worden sind. Die KI soll all diese Informationen kombinieren und den Nutzerinnen und Nutzern ein vollständiges und aktuelles Bild der Datenlage präsentieren. Doch trotz ermutigender Ergebnisse bleibt das Modell der menschlichen Expertise unterlegen. Weitere Forschung und Validierung sind notwendig, bevor solche Systeme bei sicherheitskritischen medizinischen Aufgaben eingesetzt werden können.
Die Entwicklung und Implementierung von KI im Gesundheitswesen wirft viele Fragen auf. Je nachdem, in welchem Bereich ein KI-Modell zum Einsatz kommt, unterscheidet sich das Sicherheits- und Risikoprofil. Während ein KI-gestützter Terminservice ein geringeres Risiko birgt, kann ein Sprachmodell, das bei medizinischen Entscheidungen unterstützt, bei Fehlern verheerende Folgen haben. Nicht ohne Grund müssen nach gültiger Rechtslage zwingend Ärztinnen und Ärzte – und damit Menschen – Heilbehandlungen verantworten.
Blick nach vorn
Daher ist es essenziell, dass interdisziplinäre Forschungsgruppen ethische, rechtliche und technische Aspekte der KI gründlich untersuchen und klare Regeln aufstellen. Mit ihrem Leitfaden hat die Weltgesundheitsorganisation (WHO) dazu aufgerufen, die Zusammenarbeit zwischen Entwicklern, Wissenschaftlern, Anwendern und Regulierungsbehörden beim Thema KI im Gesundheitswesen zu intensivieren. Sie betont die Notwendigkeit einer verantwortungsvollen und transparenten Nutzung der Technologie. Die WHO erkennt das Potenzial generativer KI für Diagnosen, Forschung, Ausbildung und Patienteninformation, hebt jedoch hervor, dass die Qualität der zugrundeliegenden Daten entscheidend für die Zuverlässigkeit der Ergebnisse sei. Ohne sorgfältige Kontrolle könnten Fehler und Missbrauch zunehmen, was schwerwiegende gesundheitliche Schäden zur Folge haben könnte. Die WHO fordert daher einen verantwortungsbewussten und transparenten Umgang mit der Technologie. Es müsse klare Regeln geben, und sowohl medizinisches Personal als auch Patientinnen und Patienten sollten in die Entwicklung von KI-Programmen einbezogen werden, um deren Vorteile sicher nutzen zu können. Der Artificial Intelligence Act des EU-Parlaments ist ein erster wichtiger Schritt, um offene Fragen zu Datenschutz, Haftung und Regulierung zu klären
Mitwirkende des Beitrags
Autorin
Datenschutzhinweis
Ihr Beitrag wird vor der Veröffentlichung von der Redaktion auf anstößige Inhalte überprüft. Wir verarbeiten und nutzen Ihren Namen und Ihren Kommentar ausschließlich für die Anzeige Ihres Beitrags. Ihre E-Mail-Adresse wird nicht veröffentlicht, sondern lediglich für eventuelle Rückfragen an Sie im Rahmen der Freischaltung Ihres Kommentars verwendet. Die E-Mail-Adresse wird nach 60 Tagen gelöscht und maximal vier Wochen später aus dem Backup entfernt.
Allgemeine Informationen zur Datenverarbeitung und zu Ihren Betroffenenrechten und Beschwerdemöglichkeiten finden Sie unter https://www.aok.de/pp/datenschutzrechte. Bei Fragen wenden Sie sich an den AOK-Bundesverband, Rosenthaler Str. 31, 10178 Berlin oder an unseren Datenschutzbeauftragten über das Kontaktformular.