„Beim Datenschutz ist der Dialog sehr wichtig“
Louisa Specht-Riemenschneider ist seit Herbst vergangenen Jahres Bundesbeauftragte für den Datenschutz und die Informationsfreiheit (BfDI). Die Rechtswissenschaftlerin setzt auf Dialog. Zugleich zeigt sie sich als streitbare Kämpferin für den Datenschutz im Gesundheitswesen.

Frau Professorin Specht-Riemenschneider, derzeit hat der Datenschutz-Gedanke keinen guten Lauf. Auch im Gesundheitswesen wird er vor allem als Hemmschuh betrachtet. Ärgert Sie diese Wahrnehmung?
Prof. Dr. Louisa Specht-Riemenschneider: Na klar. Das ärgert mich, weil das den Blick darauf verstellt, was Datenschutz eigentlich sein soll: ein Schutz für das informationelle Selbstbestimmungsrecht. Dieses Recht ist hart erkämpft worden. Deutschland hat zwei Diktaturen erlebt. Eine wichtige Lehre daraus ist, dass Überwachung oder das Gefühl der Überwachtheit die freiheitliche Gesellschaft gefährden. Das informationelle Selbstbestimmungsrecht erlaubt mir, selbst darüber zu entscheiden, wer wann welche Daten von mir nutzen darf oder eben nicht nutzen soll. Und dass ich mich damit auch in einen Bereich zurückziehen kann, der von niemandem überwacht wird. Das ist doch etwas Großartiges. Gegen die Volkszählung haben Hunderttausende demonstriert. Leider ist von der öffentlichen Wahrnehmung des informationellen Selbstbestimmungsrechts inzwischen nicht viel mehr übriggeblieben als Cookie-Banner und Datenschutzerklärungen. Das ist ein total verstellter Blick. Ich möchte diesen Blick gerne wieder für das öffnen, was Datenschutzrecht wirklich ist.
Was sagen Sie zu dem Vorwurf, dass Datenschutz die Digitalisierung behindert?
Specht-Riemenschneider: Sicherlich ist nicht alles super gelaufen im Datenschutzrecht. Als die Datenschutzgrundverordnung (DSGVO) entstand, hat niemand hundert Seiten lange Datenschutzerklärungen und sieben Millionen Cookie-Banner im Sinn gehabt. Aber dass wir mit der Digitalisierung so schleppend vorankommen, hat aus meiner Perspektive ganz viele andere Ursachen. Mir fehlt die Diskussion darüber, welche Datennutzung diese Gesellschaft eigentlich will und welche sie nicht will. Mir fehlen eine übergeordnete Strategie und klare politische Entscheidungen. Es laufen viele Aktivitäten. Aber wenn sich keiner den Hut aufsetzt und die Richtung vorgibt, dann erreichen wir am Ende nicht koordiniert das Ziel. Deshalb ist es unfair, Probleme einseitig auf den Datenschutz zu schieben. Das stimmt einfach nicht.
„Bei der ePA geht es um sensible Daten. Deswegen müssen die technisch-organisatorischen Maßnahmen das Schutzniveau „hoch“ erreichen. “
Bundesbeauftragte für den Datenschutz und die Informationsfreiheit (BfDI)
Ihr streitbarer Amtsvorgänger Ulrich Kelber ist manches Mal mit Akteuren im Gesundheitswesen aneinandergeraten. Sie haben bei Ihrem Amtsantritt angekündigt, stärker auf Dialog zu setzen. Was haben Sie konkret vor?
Specht-Riemenschneider: Manchmal ist es ganz gut, wenn man nicht Teil dessen war, was in der Vergangenheit passiert ist. Als ich ins Amt gekommen bin, wurde vor allem im Gesundheitsbereich eine emotional sehr aufgeladene Diskussion geführt – bis hin zu dem Vorwurf „Datenschutz tötet“. Mir liegt sehr an einem Neuanfang. Deshalb habe ich das Angebot zum offenen Dialog unterbreitet und es wird sehr gut angenommen. Wir bekommen aus dem Gesundheitsbereich ganz viele Gesprächsanfragen. Mir ist wichtig, im Sinne einer „strategischen Frühaufklärung“,künftige Datenschutzprobleme möglichst früh und gemeinsam zu identifizieren und proaktiv anzugehen. Für den Gesundheitsbereich findet die erste Veranstaltung dieses Formats im Sommer statt. Wenn wir frühzeitig Leitplanken definieren, können wir gemeinsam eine datenschutzkonforme digitale Lösung gestalten und vermeiden, am Ende in eine konfrontative Situation zu geraten. Aber um auch dies klar zu sagen: Wenn am Ende der Datenschutz nicht eingehalten wird, bin ich einer der konfrontativsten Menschen, den man sich vorstellen kann. Aber unterhalb der roten Linien beim Datenschutz gibt es vielfältige Lösungsmöglichkeiten.
Angekündigt haben Sie auch Reallabore zur Analyse datenschutzrechtlicher Anforderungen für Anwendungen Künstlicher Intelligenz (KI). Betrifft das auch das Gesundheitswesen?
Specht-Riemenschneider: Mit den KI-Reallaboren werden wir voraussichtlich im Herbst starten. Wobei das entsprechend der BfDI-Zuständigkeit in erster Linie KI-Einsatz in Bundesbehörden betrifft. Möglicherweise lassen sich die Erkenntnisse aus dem Reallabor auf den Gesundheitsbereich übertragen. Daran ist mir gelegen. Aber ich kann und möchte natürlich nicht in die Zuständigkeiten der Länder eingreifen.
An diesen getrennten Zuständigkeiten entzündet sich immer wieder Kritik. Mit dem Gesundheitsdatennutzungsgesetz (GDNG) hat die Ampel-Koalition deshalb geregelt, dass bei Zuständigkeiten übergreifender Projekte eine Datenschutzbehörde den Hut aufhaben soll. Wäre eine Bund-Länder-Zusammenarbeit nicht auch bei den KI-Reallaboren sinnvoll?
Specht-Riemenschneider: Ich befürworte den Schulterschluss durchaus. Wir tun aber in diesem Fall gut daran, mit unserer Idee erst einmal vorauszugehen und für die behördliche Nutzung zu erproben, was sinnvoll ist. Danach sollte es einen Transfer in die Länder geben. Ich biete meinen Länderkolleginnen und -kollegen natürlich gerne an aufzuspringen.
Ebenfalls mit dem GDNG hat die Ampel die Befugnisse der BfDI deutlich gestutzt. Sie können Vorhaben nicht mehr stoppen, sondern sind nur noch „ins Benehmen“ zu setzen.Wie macht sich das bemerkbar?
Specht-Riemenschneider: Vor allem bei der Ausarbeitung der Spezifikation für die elektronische Patientenakte für alle durch die Gematik. Da geht es darum, wie die ePA am Ende ausgestaltet sein muss, wie zum Beispiel das Rechtemanagement umgesetzt wird. Da macht es natürlich einen Riesenunterschied, ob wir Stopp sagen können, weil etwas aus unserer Sicht nicht datenschutzkonform ist. Oder ob man uns lediglich anhört, aber nicht berücksichtigen muss, was wir sagen.
„Dialog war noch nie so wichtig.“
Bundesbeauftragte für den Datenschutz und die Informationsfreiheit (BfDI)
Haben Sie Hoffnung, dass die neue Bundesregierung die Regelung wieder rückgängig macht?
Specht-Riemenschneider: Ich fürchte, nein. Wir befinden uns gerade in einer Lage, in der die Marschroute der Politik ganz klar eine andere ist. Aber es liegt im ureigenen Sinn digitaler Infrastrukturen, Datenschutz und IT-Sicherheit als Vertrauensfaktor von Anfang an mitdenken zu müssen. Wenn ich die Menschen mitnehmen will, dann gelingt das besser, wenn die Standards bei Datenschutz und IT-Sicherheit erfüllt sind.
Derzeit wird die ePA-Testphase ausgewertet. Ist das Projekt reif für den bundesweiten Roll-out?
Specht-Riemenschneider: Sie spielen sicherlich vor allem auf die vom Chaos Computer Club im Dezember 2024 aufgedeckte Sicherheitslücke an. In diesem Punkt sind wir uns mit dem Bundesamt für Sicherheit in der Informationstechnologie (BSI) einig: Die Lücke muss geschlossen werden, bevor der vollständige ePA-Roll-out kommt. Für den laufenden Einsatz in den Testgebieten hatten wir als Maßnahme zur Risikominimierung zum Beispiel das Whitelisting empfohlen. Für einen bundesweiten Roll-out eignet sich das nicht. Der BSI-Lösungsvorschlag, dem wir uns angeschlossen hatten, ist von der Gematik nicht aufgegriffen worden. Aber es gibt die Aussage von der Gematik und auch von Karl Lauterbach, dass der bundesweite Roll-out erst stattfindet, wenn die ePA sicher ist.
Ein Restrisiko gibt es aber immer, oder?
Specht-Riemenschneider: Egal, wie sehr man uns einbindet, es gibt nie eine hundertprozentige Sicherheit der technischen Infrastruktur. Es ist ein revolvierender Mechanismus: Eine technische Lücke wird aufgedeckt, sie wird geschlossen. Es wird wieder eine Lücke aufgedeckt, sie wird geschlossen. Das ist der technischen Entwicklung immanent. Entscheidend ist, dass wir das nach dem Stand von Wissenschaft und Technik Mögliche tun, um Sicherheitsrisiken zu identifizieren und auszuschließen. Auch dann bleibt ein Restrisiko. Aber es macht einen Unterschied, ob man Risiken kennt oder erwartet und sie bewusst in Kauf nimmt, oder ob man Risiken kennt oder antizipiert, aber alles dafür tut, damit sie nicht eintreten. Die Risikoanalyse ist ein ständiger Prozess.
Wie Ihrem Amtsvorgänger bereiten auch Ihnen biometrische Verfahren zur Nutzer-Authentifizierung bei der ePA datenschutzrechtliche Bauchschmerzen. Warum?
Specht-Riemenschneider: Das Authentifizierungsverfahren ist tatsächlich eine harte rechtliche Frage. Das BSI stuft Schutzvorkehrungen in drei Level ein: niedrig, substanziell und hoch. Von den bisherigen Authentifizierungsverfahren erreicht nur die PIN in Verbindung mit der Gesundheits-ID die BSI-Stufe „hoch“. Biometrische Verfahren wie Face-ID und Fingerprint erreichen allenfalls den Schutzstandard „substanziell“. Die DSGVO hat einen risikobasierten Ansatz: Je risikobehafteter die Daten oder die Verarbeitung sind, desto höher muss auch der Schutzstandard sein. Bei der ePA geht es um sensible Daten, die nicht nur mich betreffen, sondern vielleicht auch mein Kind oder ein Elternteil – wenn es beispielsweise um Erbkrankheiten geht. Diesem Risiko entsprechend müssen aus unserer Sicht die technisch-organisatorischen Maßnahmen das Schutzniveau „hoch“ erreichen.
„Es geht um eine Digitalisierung, die Grundrechte nicht mit Füßen tritt.“
Bundesbeauftragte für den Datenschutz und die Informationsfreiheit (BfDI)

Aber laut Gesetz darf ich als Nutzer selbst einem niedrigeren Schutzlevel zustimmen.
Specht-Riemenschneider: Eine Login-Möglichkeit zu wählen, die nur das Schutzniveau „substanziell“ erzielt, ist eigentlich nicht adäquat für das Risiko, das für die Daten in der ePA besteht. Rechtlich stellt sich deshalb die Frage, ob das eine Entscheidung der persönlichen Disponibilität oder eine zwingende Norm der DSGVO ist. Diesen Grundkonflikt muss man irgendwann beantworten oder durch ein Gericht beantworten lassen. Mir wäre es schon sehr lieb, wenn Krankenkassen dieses Risikopotenzial auch erkennen würden und bei aller Nutzerfreundlichkeit alternative Wege für den Zugang mitdenken, die nicht ausschließlich Biometrie beinhalten. Wir sind im Gespräch darüber auch mit politischen Akteuren und mit Vertretern technischer Lösungen.
Sie sind jetzt knapp sieben Monate im Amt. Wie funktioniert die Zusammenarbeit mit der Gematik?
Specht-Riemenschneider: Ich nehme die Atmosphäre als sehr interessiert wahr, auch als sehr konstruktiv. Ich bin aber noch nicht lange genug da, um beurteilen zu können, ob das, was wir sagen, tatsächlich verfängt. Wir bieten in den Gesprächen unsere Beratung an. Wir wollen, dass Datenschutzrecht verstanden wird und erklären, wie es eingehalten werden kann. Ob das am Ende eine fruchtbare Zusammenarbeit ist und das, was wir sagen, auch berücksichtigt und ernst genommen wird, das können Sie mich in einem halben Jahr noch mal fragen.
Ein wesentlicher Inhalt des GDNG ist der Aufbau eines umfassenden Pools von Gesundheitsdaten für die Forschung. Neben den Routinedaten sollen darin auch die von den Versicherten für Forschungszwecke freigegebenen ePA-Daten landen – verwaltet vom Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) unter Aufsicht des Bundesgesundheitsministeriums. Birgt eine solche Konzentration von Daten in staatlicher Hand nicht eine Gefahr?
Specht-Riemenschneider: Da muss ich kurz korrigieren: Das Forschungsdatenzentrum (FDZ) beim BfArM ist im Prinzip nur der Flaschenhals, über den Daten angefragt werden. Die Daten selbst liegen weiterhin verteilt an den unterschiedlichen Stellen, zum Beispiel bei den verschiedenen Krebsregistern. Über den Antrag auf Datenzugriff zu bestimmten Zwecken für ein Forschungsanliegen entscheidet neben einer Prüfungsstelle auch eine Ethikkommission. Da geht es vor allem um die Frage, ob das Forschungsvorhaben dem Gemeinwohl dient. Bei einem positiven Bescheid werden die Daten aus den verschiedenen Quellen im FDZ zusammengetragen und können dann in einer sicheren Verarbeitungsumgebung genutzt werden. Sie verlassen also auch das BfArM nicht. Aus meiner Sicht handelt es sich um ein wohldurchdachtes Verfahren mit Schutz- und Kontrollmaßnahmen auf verschiedenen Ebenen. Gleichwohl ist auch hier das Risiko eines Missbrauchs nie zu 100 Prozent auszuschließen. Gesetze lassen sich ja ändern.
Prüfen Sie als BfDI denn auch die Forschungsanträge in datenschutzrechtlicher Hinsicht? Ich denke da vor allem an Projekte der Pharmaindustrie, die ja ausdrücklich auch auf den Datenpool zugreifen darf.
Specht-Riemenschneider: Wir prüfen nicht die Anträge. Aber wir haben die datenschutzrechtliche Aufsicht über das FDZ beim BfArM. Deshalb haben wir am Ende einen Einblick in die Anträge. Es geht auch aus Grundrechtsperspektive um eine Risikoanalyse: Wie und von welchem Personenkreis werden die Daten am Ende verwendet?
Wechseln wir auf die Europaebene. Anfang Februar ist die erste Stufe der KI-Verordnung der EU (AI-Act) in Kraft getreten. Verboten sind jetzt KI-Systeme, die „unannehmbare Risiken“ für die Menschen bergen und die Grundrechte verletzen. Aus der Digitalwirtschaft kommt prompt der Vorwurf, die EU hemme die KI-Entwicklung. Wiederholt sich die DSGVO-Debatte?
Specht-Riemenschneider: Der AI-Act ist sicherlich eine Vorgabe, die für einzelne Unternehmen hohe Transaktionskosten verursachen kann. Das will ich überhaupt nicht in Abrede stellen. Aber ich mache mal eine andere Perspektive auf: Wir wollen in Europa eine vertrauenswürdige KI haben. Es geht um eine Digitalisierung, die Grundrechte nicht mit Füßen tritt. Wir können das in einen Wettbewerbsvorteil verwandeln und neben dem Überwachungssystem chinesischer Machart und der Kommerzialisierung US-amerikanischer Prägung einen dritten Weg eröffnen: eine soziale digitale Marktwirtschaft, die Vertrauen schafft und die Grundrechte im digitalen Raum sichert.
Wie wollen Sie diesen Perspektivwechsel hinbekommen?
Specht-Riemenschneider: Indem alle von Anfang an miteinander sprechen. Gesetzgeber und Aufsichtsbehörden dürfen nicht erst am Ende eines Entwicklungsprozesses hinzukommen, um dann gegebenenfalls regulatorisch nachzusteuern oder Aufsichtsmaßnahmen einzuleiten. Deshalb war Dialog noch nie so wichtig. Damit bekommen wir sicher nicht diejenigen, die Datenschutz und KI-Regelungen mit Füßen treten wollen. Aber diejenigen, die verstehen, dass das Vertrauensfaktoren sind. Wir wissen, dass bei gleicher Nutzerfreundlichkeit KI-Dienste vorgezogen werden, die Datenschutz und IT-Sicherheit einhalten. Uns bietet sich eine Riesenchance, eine Digitalisierung hinzubekommen, die gesellschaftliche Aspekte mitdenkt und dadurch auch gesellschaftsweit akzeptiert wird und unseren europäischen Werten entspricht.
„Mir fehlt die Diskussion darüber, welche Datennutzung diese Gesellschaft eigentlich will.“
Bundesbeauftragte für den Datenschutz und die Informationsfreiheit (BfDI)
Der Europäische Rat hat im Januar dem Aufbau eines europäischen Gesundheitsdatenraumes (EHDS) abschließend zugestimmt. Inwiefern berührt das die deutschen Vorgaben zum Schutz von Gesundheitsdaten, etwa bei der ePA?
Specht-Riemenschneider: Der EU-Level darf nicht unterschritten werden, aber weitergehende Regelungen wie in Deutschland werden mitgedacht. So wie die Einzelstaaten bei der DSGVO spezifische nationale Vorschriften ergänzen konnten, gibt es auch bei der Umsetzung des EHDS an bestimmten Stellen Öffnungsklauseln. Das betrifft zum Beispiel Widerspruchsregelungen für die ePA. Da, wo der Gesundheitsdatenraum sich für andere Regelungen öffnet, können die Mitgliedstaaten über das EU-Schutzniveau hinausgehen. Ob am Ende nicht doch eine Regelung des EHDS mit dem deutschen GDNG in Konflikt tritt, wird sich erst in der praktischen Anwendung zeigen. Das ist tatsächlich ein hochkomplexes Thema. Für den Aufbau des EHDS fehlen noch viele Detailregelungen und die technische Umsetzung wird ohnehin noch dauern.
Auch beim Thema Datenschutz kommen wir um US-Präsident Donald Trump nicht herum. Er stellt gerade die Unabhängigkeit des „Privacy and Civil Liberties Oversight Board“ (PCLOB) infrage, das auch für den Datenaustausch zwischen den USA und der EU zuständig ist.
Specht-Riemenschneider: Tatsächlich beobachte ich mit einer gewissen Sorge, was da gerade passiert. Die Unabhängigkeit des PCLOB ist ein ganz wesentlicher Bestandteil der Rechtsgrundlage für den Datentransfer aus der EU in die USA. Die DSGVO unterscheidet zwischen Datentransfer innerhalb der EU und Datentransfer mit Drittstaaten. Für Letzteren gibt es unterschiedliche vertragliche Grundlagen, darunter einen sogenannten Angemessenheitsbeschluss, der im Prinzip sagt, dass ein Drittland über ein dem EU-Recht vergleichbares Datenschutzniveau verfügen muss. Auf dieser Basis funktioniert derzeit der Datentransfer zwischen Unternehmen in den USA und in der EU. Wenn Trump diese Regelung aufhebt oder sie durch Eingriffe in die Unabhängigkeit des PCLOB unterläuft, brächte das erhebliche Rechtsunsicherheit mit sich. Im Zusammenhang mit den USA gibt es ohnehin immer ein großes Problem, wenn US-amerikanische Unternehmen Daten in Europa verarbeiten. Der sogenannte Cloud Act ermöglicht es der US-Regierung, aufgrund von Sicherheitsaspekten auch in der EU auf Daten zuzugreifen, die bei amerikanischen Unternehmen gespeichert werden.
Ist zu befürchten, dass Trump ganz im Sinne der großen Tech-Konzerne die EU-Standards beim Datenschutz torpediert?
Specht-Riemenschneider: Sie bewegen sich stets am Rande des rechtlich Zulässigen oder gehen knapp darüber hinaus. Die Datenschützer haben aufgrund begrenzter Kapazitäten große Mühe, bei den schnellen Strategieänderungen hinterherzukommen. Mehr noch aber geht es um Verstöße gegen den „Digital Service Act“ der EU – um systemische Risiken, die von den Plattformen ausgehen: für die Bevölkerung, für die Nutzer, für Kinder und Jugendliche. Hier ist im Wesentlichen die Bundesnetzagentur zuständig.
Zum Abschluss noch eine ganz einfache Frage: Wie lange müssen wir noch mit Cookie-Bannern leben?
Specht-Riemenschneider: Da sprechen Sie ein Thema an, das mir schlechte Laune bereitet. Grundsätzlich bräuchten wir ja keine Cookie-Banner, wenn keine Cookies verwendet würden. Das ist also ein selbst geschaffenes Thema der Website-Betreiber. Aber natürlich ist es Usus, diese Cookies zu verwenden. Wenn ich das mache, muss ich auch darüber aufklären, dass ich die Einwilligung der Nutzer für die Datenerfassung brauche. Es gibt Lösungsansätze, die Cookie-Banner über ein im Hintergrund laufendes System dauerhafter persönlicher Freigaben für bestimmte Zwecke abzulösen. Wenn eine Website ein solches „personal Information-Management-System“ aber nicht akzeptiert und trotzdem die Einwilligung abfragt, wäre leider nicht viel gewonnen. Wir müssen Lösungen finden, die den Menschen wirklich helfen und das Wahrnehmen von Datenschutz in Verbindung mit Cookie-Bannern, die keiner leiden kann, beenden. Der Gesetzgeber und auch wir als Aufsicht haben das Problem auf dem Schirm. Von einer funktionierenden Lösung sind wir ein bisschen entfernt, aber wir arbeiten daran.
Zur Person
Professorin Dr. Louisa Specht-Riemenschneider ist seit September 2024 Bundesbeauftragte für den Datenschutz und die Informationsfreiheit (BfDI). Die 40-jährige Rechtswissenschaftlerin war zuvor Inhaberin des Lehrstuhls für Bürgerliches Recht, Recht der Datenwirtschaft, des Datenschutzes, der Digitalisierung und der KI an der Universität Bonn. Zuvor hatte sie Professuren in Köln und Passau inne. Zudem leitete sie unter anderem das Zentrum für Medizinische Datennutzbarkeit und Translation (ZMDT) in Bonn.
Mitwirkende des Beitrags

Autor
Datenschutzhinweis
Ihr Beitrag wird vor der Veröffentlichung von der Redaktion auf anstößige Inhalte überprüft. Wir verarbeiten und nutzen Ihren Namen und Ihren Kommentar ausschließlich für die Anzeige Ihres Beitrags. Ihre E-Mail-Adresse wird nicht veröffentlicht, sondern lediglich für eventuelle Rückfragen an Sie im Rahmen der Freischaltung Ihres Kommentars verwendet. Die E-Mail-Adresse wird nach 60 Tagen gelöscht und maximal vier Wochen später aus dem Backup entfernt.
Allgemeine Informationen zur Datenverarbeitung und zu Ihren Betroffenenrechten und Beschwerdemöglichkeiten finden Sie unter https://www.aok.de/pp/datenschutzrechte. Bei Fragen wenden Sie sich an den AOK-Bundesverband, Rosenthaler Str. 31, 10178 Berlin oder an unseren Datenschutzbeauftragten über das Kontaktformular.