Die Grenzen der KI in der Gendermedizin
Große Hoffnungen ruhen auch im Gesundheitsbereich auf künstlicher Intelligenz (KI). Medizinerinnen und Mediziner warnen allerdings vor einem Gender-Data-Bias. Denn die KI kann nur so gut und vollständig sein, wie es die Daten sind, mit denen sie gefüttert wird. Im Interview erklärt Brigitte Strahwald von der Ludwig-Maximilians-Universität München, warum es ein systemisches Problem gibt und wie sich das auf die Frauengesundheit auswirkt.
Frau Strahwald, was hat Frauengesundheit mit KI zu tun?
Brigitte Strahwald: Künstliche Intelligenz wird das Gesundheitswesen stark beeinflussen, auch wenn die Ankündigungen der Erfolge von KI mit der Realität noch nicht ganz Schritt halten. Aber es erfolgen derzeit wichtige Weichenstellungen in diesem Bereich. Hier kommen Probleme wie der Gender-Data-Bias ins Spiel. KI wird heute entwickelt und morgen angewandt – mit Daten von gestern.
Aber es geht nicht nur darum, dass ein paar Daten fehlen. Es gibt enorme Lücken und Defizite. Genauer gesagt, es fehlen Daten von Frauen. Trotz der bestehenden Datenlücke werden bereits heute medizinische Diagnosen anhand der künstlichen Intelligenz gestellt. Diese Algorithmen basieren auf statistischen Schlussfolgerungen, welche aus den erhobenen Daten berechnet werden. Sind die zugrundeliegenden Daten nicht geschlechtersensitiv, ist auch der Algorithmus lückenhaft und verzerrt. Die KI kann dadurch die Defizite im Bereich der Frauengesundheit sogar verstärken. Deshalb ist es wichtig, jetzt gegenzusteuern.
Wie können Gesundheitsentscheidungen aufgrund von Entscheidungen getroffen werden?
Strahwald: Bei Gesundheitsentscheidungen sollten idealerweise drei Aspekte berücksichtigt werden: die wissenschaftliche Evidenz, die Werte und Einstellungen der Patientin und das ärztliche Erfahrungswissen. Für die Evidenz braucht es Daten, zum Beispiel Zahlen zur Wirksamkeit eines Medikaments, aber auch zu den Nebenwirkungen. Diese Daten werden oft in Studien erhoben und ausgewertet. Ein Ergebnis könnte sein, dass das Medikament bei jüngeren Frauen deutlich mehr Nebenwirkungen verursacht als bei älteren. Diese Information hilft dann bei der eigenen Entscheidung für oder gegen die Einnahme.
Wie und wovon können Daten oder ihre Aufbereitung beeinflusst werden?
Strahwald: Daten können bei der Planung, Erhebung, Speicherung, Bearbeitung und Analyse beeinflusst werden – kurz gefasst zu jedem Zeitpunkt. Das fängt schon früh an: wenn in einer Studie die Daten nicht geschlechtergetrennt erfasst werden, können sie später auch nicht unter diesem Aspekt ausgewertet werden.
Gender-Data-Bias:
Unter Gender-Data-Gap oder Gender-Bias versteht man eine geschlechtsspezifische Datenlücke, die entsteht, wenn bei wissenschaftlichen Erhebungen oder Statistiken Frauen unterrepräsentiert sind oder gar nicht erst einbezogen werden. Durch fehlende Daten über Frauen entsteht eine unbeabsichtigte Verzerrung wissenschaftlicher Studien.
Warum setzt sich das grundlegende Problem des Gender-Data-Bias in der KI im Gesundheitsbereich fort?
Strahwald: Es ist eher umgekehrt, dass sich die Probleme des Gender-Bias im Gesundheitsbereich in der KI wiederfinden. Die KI bildet die Realität ab, sie erfindet nichts dazu. Und in dieser Realität wurden über Jahrzehnte zu wenig Daten von Frauen erhoben und analysiert. Die Auswirkungen dieser Verzerrungen in den Datensätzen können durch KI allerdings verstärkt werden.
Warum ist der Gender-Bias ein Risiko für die Gesundheitsversorgung?
Strahwald: Das lässt sich gut an einem Beispiel erklären. Angenommen, bei einer Patientin auf der Intensivstation soll das Risiko für ein Nierenversagen berechnet werden, um rechtzeitig eingreifen zu können. Wenn die Erstellung dieses KI-gestützten Risikorechners vorwiegend auf Daten von männlichen Patienten beruht, kann das ein völlig falsches Ergebnis ergeben. Die Konsequenzen für diese Frau könnten schwerwiegend sein.
Ist eine gendergerechte KI im Gesundheitsbereich möglich?
Strahwald: Ja, sie setzt aber letztlich ein gendergerechtes Gesundheitssystem voraus. Es braucht dafür die notwendigen Daten, die aber zum Teil gar nicht vorliegen, weil es zu vielen Bereichen der Frauengesundheit keine nennenswerte Forschung gibt. Daher müssen die Veränderungen auf vielen Ebenen stattfinden.
Birgt die KI auch Chancen für Frauengesundheit?
Strahwald: Unbedingt. Zum einen in konkreten Anwendungen, die eine individuellere Diagnostik oder Therapie ermöglichen – und individueller bedeutet dann auch geschlechtergerechter. Aber darüber hinaus ermöglicht der Blick auf den Gender-Bias in der KI endlich eine breite Diskussion über die zugrundeliegenden Defizite und Ungerechtigkeiten im Gesundheitssystem. Das ist eine Chance für die Frauengesundheit, die weit über die KI hinausgeht.
Wo sehen Sie gute Lösungsmöglichkeiten in der Praxis?
Strahwald: Ein Problem vieler Digitalisierungsprojekte bislang ist, dass erst Lösungen entwickelt und dann die dazu passenden Probleme gesucht wurden. Wir haben Defizite in der Langzeitbetreuung und echten Begleitung chronisch Kranker, wir haben enorme Lücken im Bereich der mentalen Gesundheit, die Liste ist endlos. Die Aufmerksamkeit liegt dann doch eher bei OP-Robotern und ähnlich öffentlichkeitswirksamen Entwicklungen, die aber für die Breite der Versorgung viel weniger relevant sind.
Wie könnte die Digitalisierung beschleunigt werden?
Strahlwald: Das Netzwerk SheHealth – Women in Digital Health hat bereits 2019 ein Memorandum mit Forderungen erstellt, die heute noch Gültigkeit haben. Kurz gefasst wird mehr Forschung und Ausbildung zu Genderaspekten in der KI benötigt, es braucht Kriterien für gendergerechte KI ebenso wie Parität in allen beteiligten Gremien, Fachgesellschaften und Organen der Selbstverwaltung im Gesundheitswesen im Bereich KI. Ein wichtiger Punkt muss sein, die Zulassungskriterien für KI-Anwendungen so zu verändern, dass ein Gender Bias vermieden wird oder, falls er nicht ausgeschlossen werden kann, transparent deklariert wird.
Mitwirkende des Beitrags
Autorin
Datenschutzhinweis
Ihr Beitrag wird vor der Veröffentlichung von der Redaktion auf anstößige Inhalte überprüft. Wir verarbeiten und nutzen Ihren Namen und Ihren Kommentar ausschließlich für die Anzeige Ihres Beitrags. Ihre E-Mail-Adresse wird nicht veröffentlicht, sondern lediglich für eventuelle Rückfragen an Sie im Rahmen der Freischaltung Ihres Kommentars verwendet. Die E-Mail-Adresse wird nach 60 Tagen gelöscht und maximal vier Wochen später aus dem Backup entfernt.
Allgemeine Informationen zur Datenverarbeitung und zu Ihren Betroffenenrechten und Beschwerdemöglichkeiten finden Sie unter https://www.aok.de/pp/datenschutzrechte. Bei Fragen wenden Sie sich an den AOK-Bundesverband, Rosenthaler Str. 31, 10178 Berlin oder an unseren Datenschutzbeauftragten über das Kontaktformular.