Machine Learning im Gesundheitswesen
Recht & Verwaltung09 Dezember, 2022

Machine Learning im Gesundheitswesen – datenschutzrechtliche Herausforderungen

Kirsten Ammon*
Das innovative Potential des Machine Learnings (ML) im Gesundheitswesen wird in Deutschland oft noch durch mangelnde Verfügbarkeit von Daten und datenschutzrechtliche Verunsicherung ausgebremst. Dieser Beitrag zeigt auf, welche datenschutzrechtlichen Pflichten tatsächlich bestehen und inwieweit auf Anwenderseite Gestaltungsspielraum besteht. Außerdem gibt er einen Überblick über Anforderungen, die an medizinische Software gestellt werden.

I. Anwendungsfelder und Arten von ML im Gesundheitsbereich 

Die Zahl der Veröffentlichungen im Bereich des ML ist seit 2017 exponentiell angestiegen.1 Algorithmen sind schon jetzt in der Lage, einige Krankheiten besser zu erkennen als erfahrene Ärzte.2 In den USA erhielt Amazon bereits 2018 ein Patent auf die Erkennung körperlicher und seelischer Charakteristika einer Person anhand von Stimmenanalyse, das zielgerichtete Audio-Werbung mit direkter Bestellmöglichkeit über »Alexa« ermöglicht, sobald ein Nutzer Krankheitsanzeichen oder eine starke Emotion zeigt.3 Arzneimittelforschung, klinische Studien, Robotik, Augmented und Virtual Reality sowie Organisation und Dokumentation im Krankenhaus sind weitere Anwendungsfelder. 

Neben den hier aufgezeigten datenschutzrechtlichen und medizinproduktrechtlichen Anforderungen ergeben sich weitere Pflichten insbesondere aus dem Geschäftsgeheimnisgesetz oder dem Urheber- und Leistungsschutzrecht,4 die jedoch nicht Gegenstand dieses Beitrags sind. 

Es lassen sich grob fünf ML-Kategorien unterteilen.5 

1. Beim Supervised ML (überwachtes Lernen), wozu insbesondere Klassifikation und Regression gehören, steht das zu findende Ergebnis (»Label«) bereits fest. Es wird z.B. anhand von Beispielen (Bilder von einem Lungenkarzinom) eine Kategorie (Lungenkarzinom) vorhergesagt. 

2.
Beim Unsupervised ML (unüberwachtes Lernen) sind das zu findende Ergebnis oder dessen Kategorien dagegen unbekannt; ohne Anleitung erkennt der Algorithmus selbstständig Muster in Daten. Ein Beispiel ist das Clustering. Spracherkennung von Krankheiten oder auch der Vergleich genetischer Befunde gesunder und kranker Populationen im Rahmen der Genanalyse6 sind typische Einsatzfelder. 

3.
Daneben gibt es das Semi-supervised ML (teil-überwachtes Lernen), welches Supervised und Unsupervised ML kombiniert. Nur ein Teil der Trainingsdaten verfügt über Labels und ein größerer Teil der Trainingsdaten muss diese selbst bilden. Ein Beispiel ist die Kombination aus Clustering und anschließender Klassifikation. 

4.
Der Algorithmus (»Agent«) des Reinforcement Learning (verstärkendes Lernen) lernt selbstständig und zunächst ohne Datengrundlage, eine bereits erhaltene Anzahl Belohnungen im Wege des »trial and error« zu maximieren. Der Agent testet seine Entscheidung in Bezug auf die Umgebung. 

5. Beim Deep Learning werden künstliche neuronale Netze zur Analyse großer Datenmengen genutzt, z.B. zur Objekt- und Spracherkennung oder Krankheitsdiagnose. Die Methode orientiert sich in vielerlei Hinsicht an der Funktionsweise des menschlichen Gehirns. 

II. Personenbezogene Daten 

Der sachliche Anwendungsbereich der DSGVO ist nur eröffnet, wenn personenbezogene Daten verarbeitet werden, Art. 2 I DSGVO. Anonyme Daten sind dagegen ausgenommen, Erwägungsgrund (EG) 26 S. 5. Soweit das Anwendungsszenario dies zulässt, ist es daher ideal, lediglich Daten ohne Personenbezug zu verarbeiten. Im Jahr 2020 benötigten jedoch zwei Drittel der Unternehmen, die sich mit Künstlicher Intelligenz (KI) auseinandersetzten, personenbezogene Daten, um verwertbare Analyseergebnisse liefern zu können.7 

Personenbezogene Daten sind gem. Art. 4 Nr. 1 DSGVO alle Informationen, die sich – direkt oder indirekt – auf eine identifizierte oder identifizierbare natürliche Person beziehen. EG 26 S. 3 führt dazu aus, dass für diese Feststellung alle Mittel berücksichtigt werden sollten, die nach allgemeinem Ermessen von dem Verantwortlichen oder einer anderen Person wahrscheinlich genutzt werden, wie z.B. das Aussondern. Bei dieser Feststellung sollten alle objektiven Faktoren, wie die Kosten der Identifizierung und der dafür erforderliche Zeitaufwand nach dem Stand der Technik, herangezogen werden. 

1. Anonymisierung und Pseudonymisierung 

Für eine Anonymisierung ist es regelmäßig ausreichend, dass der Personenbezug derart aufgehoben wird, dass eine Re-Identifizierung praktisch nicht durchführbar ist, weil der Personenbezug nur mit einem unverhältnismäßigen Aufwand an Zeit, Kosten und Arbeitskraft wiederhergestellt werden kann.8 Die Anonymisierung als solche ist dabei nach h.M. ein datenschutzrechtlich relevanter Verarbeitungsvorgang, der einer gesetzlichen Grundlage bedarf.9 Noch nicht vollständig geklärt ist z.B. die Frage, ob es dem Verantwortlichen möglich sein muss, eine Re-Identifizierung durchzuführen (sog. relativer Personenbezug) oder ob es ausreicht, wenn dies irgendein beliebiger Dritter kann (sog. absoluter Personenbezug).10 Der EuGH hat bisher lediglich für dynamische IP-Adressen klargestellt, dass Zusatzwissen Dritter dem Verantwortlichen zurechenbar ist, wenn das Zusatzwissen »ein Mittel darstellt, das vernünftigerweise zur Bestimmung der betreffenden Person eingesetzt werden kann«.11 Diesen durch EG 26 S. 3 gestützten vermittelnden Ansatz kann man als relativen Personenbezug mit absoluten Elementen bezeichnen.12 

Demgegenüber liegt eine bloße Pseudonymisierung vor, wenn personenbezogene Daten nur unter Hinzuziehung zusätzlicher Informationen einer spezifischen betroffenen Person zugeordnet werden können, Art. 4 Nr. 5 DSGVO (z.B. Identifikationsnummer anstelle des Namens). Bei der Pseudonymisierung bleiben die Daten personenbezogen. 

Die Überprüfung der Anonymisierung auf ihre Validität ist eine fortwährende Aufgabe des Verantwortlichen.13 Somit ist eine Einzelfallprüfung zu empfehlen, welche die Gründe für die getroffene Einschätzung nachvollziehbar darlegt und auch für etwaige spätere Streitfälle dokumentiert. Rechtsrat ist schon aus haftungsrechtlichen Gründen sinnvoll.

2. Synthetische Daten 

Zukünftig bedeutsamer werden synthetische Daten, mit denen ein Algorithmus eine künstliche Repräsentation eines Originaldatensatzes erstellt. Der neue Datensatz basiert auf dem trainierten Verständnis eines Originaldatensatzes und erhält lediglich dessen statistische Eigenschaften, aber keine identifizierenden Merkmale (z.B. im Wege eines nicht re-identifizierbaren »digital twin« von Patienten).14 Bei diesen unterfällt nur das Erzeugen, nicht aber die Verwendung der Daten der DSGVO. Die synthetischen Daten können dann klinik- und grenzüberschreitend zwischen Krankenhäusern und Unternehmen geteilt werden. Auf Grund der noch hohen Kosten ist die Initiative einiger Bundesministerien, die Potenziale synthetischer Daten zu fördern, begrüßenswert.15 


3. Privacy Enhancing Technologies (PETs) und Federated Learning 

Weitere Methoden, um die Wahrscheinlichkeit der Re-Identifikation von natürlichen Personen zu verringern, sind sog. Privacy Enhancing Technologies (PETs) und Federated Learning. Diese Methoden wirken sich jedenfalls in der Abwägung zugunsten des Verantwortlichen aus. 

Zu PETs gehören: 

Differential Privacy: Den Daten werden statistische Stö¬rungen oder ein »Rauschen« hinzugefügt, so dass eine Re-Identifizierbarkeit ausgeschlossen ist, der Datensatz aber noch für das ML-Training nützlich bleibt.16 

Secure-Multiparty-Computation: Es können nur die Ergebnisse der Berechnungen von allen Beteiligten gesehen werden, nicht aber die jeweiligen Daten der anderen Parteien.17 

Homomorphic Encryption:
Ermöglicht Berechnungen auf verschlüsselten Daten.18 Letztere erfordern bislang aber noch eine hohe Rechenkapazität, die den Masseneinsatz erschwert. 
Beim Federated Learning wird ein lokales Modell lediglich auf einem eigenen Gerät mit Trainingsdaten gefüttert und nur dort gespeichert. Die Basis dafür bildet ein globales Modell, das kontinuierlich angepasst wird. Es findet aber kein zentraler Austausch der (personenbezogenen) Trainingsdaten statt. Vielmehr wird das globale Modell nur auf Grundlage aggregierter Daten fortlaufend weiterentwickelt.19 Dies hat vor allem für kleinere Praxen den Vorteil, an größeren Datenmengen von anderen zu partizipieren. 

III. Rechtsgrundlage 

Regelmäßig handelt es sich im Gesundheitsbereich um besonders geschützte sensitive Daten i.S.v. Art. 9 I DSGVO, die strengen Regeln unterliegen. Es ist eine zweistufige Prüfung erforderlich.20 Schritt 1: Liegt ein Ausnahmetatbestand nach Art. 9 II–IV DSGVO vor? Falls ja, schließt sich Schritt 2 an: Ist eine Rechtsgrundlage für die Datenverarbeitung nach Art. 6 DSGVO vorhanden? Nur wenn beide Fragen bejaht werden können, ist die Datenverarbeitung rechtmäßig. Lediglich im Fall der Einwilligung ist diese Ausnahmetatbestand und Rechtsgrundlage zugleich.


1. Besondere Kategorien personenbezogener Daten 

Sensitive Daten im Gesundheitswesen sind gem. Art. 9 I DSGVO vor allem genetische Daten (Art. 4 Nr. 13 DSGVO), biometrische Daten (Art. 4 Nr. 14 DSGVO) zur eindeutigen Identifizierung einer natürlichen Person, Gesundheitsdaten (Art. 4 Nr. 15 DSGVO) oder Daten zum Sexualleben/der sexuellen Orientierung. Der weite Begriff der Gesundheitsdaten erfasst etwa Gewicht, Größe, Befunddaten (Röntgenbilder, Blutgruppe, Untersuchungsergebnisse etc.), Ereignisse (Operationen, Unfälle, Impfungen etc.), Krankheiten, den Aufenthalt in gesundheitsrelevanten Einrichtungen und sogar Bestands-, Verkehrs-/Inhaltsdaten des Telekommunikationsverkehrs zwischen Betroffenen und Gesundheitseinrichtungen.21 


2. Gesundheits- und Sozialbereich 

Art. 9 II Buchst. h), III DSGVO erlaubt die Verarbeitung sensitiver Daten, sofern sie insbesondere für Zwecke der Gesundheitsvorsorge, die medizinische Diagnostik oder die Versorgung oder Behandlung im Gesundheits- oder Sozialbereich erforderlich ist. Eine (etwas ungenaue) Umsetzung dieser Öffnungsklausel findet sich in § 22 I Nr. 1 Buchst. b) BDSG: Entscheidend ist, dass die Datenverarbeitung durch ärztliches Personal oder sonstige Personen, die einer entsprechenden Geheimhaltungspflicht unterliegen, erfolgt. 


3. Wissenschaftliche Forschungszwecke 

Gem. Art. 9 II Buchst. j) DSGVO ist eine Datenverarbeitung zulässig, wenn dies zu wissenschaftlichen oder statistischen Zwecken gem. Art. 89 I DSGVO erforderlich ist. Der deutsche Gesetzgeber hat auf Grundlage der Öffnungsklausel eine entsprechende Norm geschaffen, § 27 I BDSG. Hiernach müssen die Interessen des Verantwortlichen an der Verarbeitung die Interessen der betroffenen Person »erheblich« überwiegen. Die Interessenabwägung fällt also strenger als in Art. 6 I Buchst. f) DSGVO aus. 

Der Begriff der »wissenschaftlichen Forschungszwecke« ist weit auszulegen und umfasst die technologische Entwicklung und Demonstration, die Grundlagenforschung, die angewandte Forschung und die privat finanzierte Forschung, EG 159 S. 2. Dies befindet sich im Einklang mit dem weiten Begriff der Wissenschaft nach Art. 13 EU GR-Ch sowie Art. 5 III GG, worunter jede Tätigkeit fällt, die nach Inhalt und Form einen ernsthaften und planmäßigen Versuch zur Ermittlung der Wahrheit darstellt.22 Forschung ist auf das Ziel gerichtet, in methodischer, systematischer und nachprüfbarer Weise neue Erkenntnisse zu gewinnen.23 

EG 157 S. 1, 2 und 5 führt weiterhin aus, dass Forscher durch die Verknüpfung von Informationen aus Registern neue Erkenntnisse von großem Wert erhalten und zudem bessere Forschungsergebnisse erzielt werden können, weshalb die Verarbeitung zu Forschungszwecken privilegiert wird. Hierunter ist grundsätzlich auch die Nutzung von Big Data zu verstehen.24 

Sofern es sich bei der Datenverarbeitung um Anonymisierung25 oder die Herstellung synthetischer Daten handelt, wird die Abwägung i.d.R. zugunsten des Verantwortlichen ausfallen, da diese Verarbeitung im Interesse des Betroffenen erfolgt. Andere Verarbeitungen erfordern i.d.R. einen hochrangigen gemeinschaftlichen Zweck und zusätzlich ein hohes Maß technisch-organisatorischer Maßnahmen wie Pseudonymisierung oder Verschlüsselung. Eine Vielzahl von Big Data-Anwendungen, bei denen die Erforschung und Verhinderung von Krankheiten im Vordergrund steht, fallen somit unter diesen Ausnahmetatbestand. Dagegen sollen solche Datenverarbeitungen ausgenommen werden, die nicht jedenfalls auch gesamtgesellschaftlichen Zwecken dienen, sondern ausschließlich individuell-profitorientierte Ziele verfolgen.26 Hierunter sind z.B. die Vermarktung oder Verbesserung der eigenen Soft- oder Hardware zu verstehen.

Ihnen gefällt dieser Artikel?
ZdiW - Zeitschrift für das Recht der digitalen Wirtschaft
Lesen Sie jetzt 2 Ausgaben der ZdiW und erhalten Sie weitere spannende Beiträge!

4. Statistische Zwecke 

Bei Verarbeitungen, die für die Durchführung statistischer Untersuchungen und die Erstellung statistischer Ergebnisse erforderlich sind, wird vorausgesetzt, dass die Verarbeitungsergebnisse aggregierte Daten sind und diese Ergebnisse oder personenbezogenen Daten nicht für Maßnahmen oder Entscheidungen gegenüber einzelnen natürlichen Personen verwendet werden, EG 162 S. 5. Da der Begriff der statistischen Zwecke keine Einschränkung auf wissenschaftliche Zwecke enthält, erfasst er potentiell auch rein wirtschaftliche Zwecke.27 


5. Weitere datenschutzrechtliche Rechtsgrundlagen 

Darüber hinaus gibt es eine Vielzahl weiterer Rechtsgrundlagen auf Bundes- und Landesebene, die im Einzelfall zur Anwendung kommen können. Hierzu gehören auf Bundesebene vor allem Regelungen in den Sozialgesetzbüchern (z.B. §§ 67a ff. SGB X, §§ 284 ff. SGB V oder §§ 93 ff. SGB XI), im Transplantationsgesetz (z.B. §§ 13 ff. TPG), Transfusionsgesetz (z.B. § 14 IV TFG) oder Versicherungsvertragsgesetz (z.B. § 213 VVG). Weitere Rechtsgrundlagen finden sich in Landesgesetzen. Hierzu gehören vornehmlich Regelungen in den Landeskrankenhausgesetzen (wie bspw. § 24 Abs. 4 LKG Berlin, §§ 7 ff. LKG HH, §§ 36 ff. LKHG SH, §§ 45 ff. LKHG BW), die in Anwendungsbereich und Voraussetzungen teils erheblich variieren.28 Die Abgrenzung der Rechtsgrundlagen bei Krankenhäusern erfolgt i.d.R. nach der Trägerschaft. Bei kirchlicher Trägerschaft ist zudem das Kirchenrecht zu beachten. Zudem gibt es ebenfalls Spezialvorschriften wie Psychisch- Kranken-Gesetze (z.B. §§ 84 ff. PsychKG Berlin, §§ 27 ff. PsychKG Hamburg), Maßregelvollzugsgesetze (z.B. Art. 34 BayMRVG) oder Krebsregistergesetze. 


6. Voraussetzungen an die Einwilligung 

Die Einwilligung gem. Art. 9 II Buchst. a) DSGVO ist für sensible Datenkategorien die in der Praxis bedeutsamste Rechtsgrundlage und muss insbesondere zweckgebunden, freiwillig und informiert erfolgen, Art. 4 Nr. 11, 6 I Buchst. a), 7, 8 DSGVO. Im Forschungsbereich ist der Grundsatz der Zweckbindung gelockert, und es besteht die Möglichkeit eines sogenannten »broad consent«29 für bestimmte Bereiche oder Teile von Forschungsprojekten, wenn dies unter Einhaltung der anerkannten ethischen Standards der wissenschaftlichen Forschung geschieht, EG 33. Die Forschungszwecke sollten allgemein beschrieben und nach speziellen Phasen gegliedert sein.30 Unzulässig ist es, wenn dem Betroffenen eine Leistung nur unter der Bedingung angeboten wird, dass er in eine Nutzung von Daten einwilligt, die für die Erbringung des Dienstes gar nicht erforderlich ist (sog. Kopplungsverbot).31 Dies wäre z.B. der Fall, wenn eine App GPS-Ortung und verhaltensorientierte Werbung als Bedingung für die Einwilligung verlangt, ohne dass dies für die Kernleistung der (Gesundheits-)App nötig ist.32 Art. 7 III DSGVO verpflichtet außerdem dazu, die Einwilligung jederzeit auf demselben Kommunikationsweg widerrufen zu können. Davon unberührt bleibt die Rechtmäßigkeit der bis zum Widerruf erfolgten Verarbeitung. Die Einwilligungserklärung kann auch Bestandteil von AGB sein und auch mit anderen Erklärungen verbunden werden, sofern sie besonders hervorgehoben wird, z.B. durch Fettdruck, Rahmen oder eine Schattierung.33 Gerade bei sensitiven Daten ist wegen der erhöhten Anforderungen an die Transparenz jedoch oft eine gesonderte Einwilligungserklärung vorzugswürdig. 


7. Zweckänderung 

Art. 6 IV DSGVO gewährt für nicht einwilligungsbasierte Verarbeitungen grundsätzlich die Möglichkeit, eine Zweckänderung vorzunehmen, wenn der neue Zweck mit dem alten vereinbar ist, sog. Kompatibilitätstest. In den dort genannten Fällen ist keine gesonderte Rechtsgrundlage als diejenige für die ursprüngliche Datenerhebung erforderlich, EG 50 S. 2. Da diese Frage umstritten ist,34 ist vor allem bei sensiblen Datenkategorien eine genaue Analyse anzuraten. 

IV. Datenschutz-Folgenabschätzung 

Für ML-Anwendungen im Gesundheitsbereich ist regelmäßig eine Datenschutz-Folgenabschätzung erforderlich, Art. 35 III Buchst. b) 1. Alt. DSGVO. Eine in Deutschland veröffentlichte Muss-Liste der Datenschutzkonferenz (DSK) enthält darüber hinaus zahlreiche Beispiele, wie den Vorgang der Anonymisierung von besonders geschützten Datenkategorien gem. Art. 9 DSGVO in umfangreichem Maße, den Einsatz von Telemedizin-Lösungen zur detaillierten Bearbeitung von Krankheitsdaten oder die zentrale Speicherung der Messdaten von Sensoren, die in Fitnessarmbändern oder Smartphones verbaut sind.35 

V. Betroffenenrechte 

1. Transparenz 

Soweit personenbezogene Daten verarbeitet werden, gelten die Transparenzpflichten der DSGVO, insb. Art. 12–14 DSGVO. Der Verantwortliche muss bei Erhebung über die Verarbeitungszwecke informieren, Art. 13 I Buchst. c), 1. Alt., wenn die Daten beim Betroffenen selbst erhoben werden, bzw. spätestens nach einem Monat gem. Art. 14 I Buchst. c), 1. Alt., III DSGVO (Erhebung bei Dritten). 

Schwierigkeiten ergeben sich im Bereich des ML vor allem dann, wenn die Zwecke der Verarbeitung bei Datenerhebung noch nicht feststehen, da in diesem Fall auch nicht über sie informiert werden kann. Oftmals wird sich bei Forschungszwecken oder anderweitigem unverhältnismäßigen Aufwand durch die Information eine Ausnahme von der Informationspflicht gem. Art. 14 V Buchst. b) 2. Alt. DSGVO begründen lassen, sofern die personenbezogenen Daten nicht beim Betroffenen erhoben worden sind.

2. Rechte gem. Art. 15–20 DSGVO 

Zusätzlich müssen insbesondere das Recht auf Auskunft, Art. 15 DSGVO, das Recht auf Löschung, Art. 17 DSGVO, sowie das Recht auf Einschränkung, Art. 18 DSGVO, gewährleistet werden. Für wissenschaftliche Forschung und statistische Zwecke können die Betroffenenrechte ausgeschlossen werden, wenn die Verwirklichung dieser Zwecke unmöglich gemacht oder ernsthaft beeinträchtigt würde und die Beschränkung für die Erfüllung der Zwecke notwendig ist, Art. 89 II DSGVO i.V.m. § 27 II BDSG. Das Recht auf Auskunft ist ausgeschlossen, wenn die Daten für Zwecke der wissenschaftlichen Forschung erforderlich sind und die Auskunftserteilung einen unverhältnismäßigen Aufwand erfordern würde. Nicht genannt ist das Recht auf Löschung. 

Da es praktisch kaum möglich ist, diese Rechte nachträglich aus den für das ML verwendeten Datenmengen zu separieren, wird in der Literatur auf verschiedenste Weise versucht, Einschränkungen und Ausschlussgründe vorzunehmen.36 Bemerkenswerterweise scheint dies aber auch der DSK bewusst zu sein, die ihrem Positionspapier zur KI lediglich auf Betroffenenrechte im Rahmen des Verarbeitungsergebnisses (sog. Output) eingeht.37 Systematisch im Einklang mit dem Unionsrecht und daher überzeugend ist ein ungeschriebener Unzumutbarkeitseinwand aus Art. 16 GR-Ch (unternehmerische Freiheit), Art. 52 I GR-Ch (Verhältnismäßigkeit).38 Es besteht hier allerdings noch große Rechtsunsicherheit, so dass eine Einzelfallanalyse anzuraten ist. 

Ein weiterer wichtiger Ausschlussgrund für die Betroffenenrechte besteht gem. Art. 11 DSGVO. Dies ist der Fall, wenn für die Verarbeitungszwecke die Identifizierung der betroffenen Person durch den Verantwortlichen nicht oder nicht mehr erforderlich ist. Dann ist dieser auch nicht verpflichtet, zusätzliche Informationen aufzubewahren, einzuholen oder zu verarbeiten, um die betroffene Person zu identifizieren. Grundsätzlich muss hierüber informiert werden. 

3. Widerspruchsrecht, automatisierte Entscheidungen und Profiling 

Ein Widerspruchsrecht gem. Art. 21 DSGVO kann insbesondere bestehen, soweit die Rechtsgrundlage für die Verarbeitung der (Gesundheits-)Daten eine Interessenabwägung ist, die Datenverarbeitung zum Zweck der Direktwerbung, zu Forschungszwecken oder zu statistischen Zwecken erfolgt. 

Für ausschließlich automatisierte Entscheidungen und Profiling39 gelten besondere Anforderungen, Art. 22 DSGVO; für sensible Daten sind i.d.R. eine Einwilligung oder Rechtsvorschrift notwendig. Hierunter fallen ML-Systeme, die Arztentscheidungen vollständig ersetzen sollen, und keine Überprüfung durch einen Menschen stattfindet. Ausgenommen sind dagegen lediglich vorgelagerte, ergänzende Systeme, bei denen die Letztentscheidungskompetenz beim Arzt verbleibt. Zudem muss über die involvierte Logik, Tragweite und die angestrebten Auswirkungen einer derartigen Verarbeitung für die betroffene Person informiert werden, Art. 13 II Buchst. f ) bzw. Art. 14 II Buchst. g) DSGVO; auch hier kann im Einzelfall ungeschriebene Unverhältnismäßigkeit vorliegen. 

VI. (Gemeinsame) Verantwortlichkeit und Auftragsverarbeitung 

Probleme bereitet oft die Einordnung der unterschiedlichen Rollen der Beteiligten. Verantwortlich ist, wer allein oder gemeinsam mit anderen über Zweck und Mittel der Datenverarbeitung entscheidet, Art. 4 Nr. 7 DSGVO. Eine Auftragsverarbeitung kennzeichnet dagegen die Weisungsabhängigkeit vom Verantwortlichen, Art. 28 III Buchst. a) DSGVO. Hierunter fallen i.d.R. IT-Dienstleister oder reine Hosting Cloud-Leistungen. In diesem Fall ist ein entsprechender Auftragsverarbeitungsvertrag abzuschließen. 

Sobald weitere Beteiligte zum verantwortlichen KI-Anwender (Krankenhaus) hinzutreten, wie z.B. externe Dateninhaber (freiberuflich tätige Ärzte/Pharmaunternehmen) oder Cloud-Anbieter, die neben Speicherkapazität oft auch ML-basierte Algorithmen und Anwendungen anbieten, wird die Abgrenzung komplizierter. Nach den Empfehlungen des Europäischen Datenschutzausschusses (EDSA) spricht für die Annahme einer (gemeinsamen) Verantwortlichkeit insbesondere, dass eine Entscheidungsbefugnis über Art und Zweck der zu verarbeitenden Daten, die Kategorien der betroffenen Personen, die Empfänger der Daten und deren Zugriffsmöglichkeit sowie die Speicherdauer besteht.40 Eine gemeinsame Verantwortlichkeit gem. Art. 26 DSGVO liegt vor, wenn Zwecke und Mittel der Datenverarbeitung gemeinsam festgelegt werden.41 Dies ist für jeden Datenverarbeitungsvorgang (erheben, übermitteln etc.) gesondert zu bestimmen; vor- und nachgelagerte Vorgänge bleiben – unbeschadet einer etwaigen zivilrechtlichen Haftung – außer Betracht.42 Keine Voraus¬setzung ist, dass die handelnde Partei selbst Zugang zu den verarbeiteten personenbezogenen Daten hat.43 

Sofern ein Beteiligter (z.B. Cloud-Anbieter) also zusätzlich eigene Zwecke (wie die Verbesserung der eigenen Software) verfolgt, ist er meist ebenfalls als Verantwortlicher anzusehen. Der Verarbeitungsvorgang kann im Einzelfall gem. Art. 6 IV DSGVO gerechtfertigt sein, z.B. wenn nur noch anonymisierte Daten verwendet werden.44 Dies ist vertraglich abzubilden. In der Praxis verbleibt kleineren und mittelständischen Unternehmen jedoch faktisch oft nur die Möglichkeit, einseitig vordiktierte Verträge mit der getroffenen Einordnung durch den marktmächtigen Anbieter – auch entgegen der Ansicht von Datenschutzbehörden – abzuschließen. 

Bei Daten, die zusätzlich einem Berufsgeheimnis wie der ärztlichen Schweigepflicht unterliegen, ist außerdem die Strafrechtsnorm des § 203 StGB zu beachten. Seit 2017 dürfen Berufsgeheimnisträger fremde Geheimnisse auch gegenüber sonstigen Personen offenbaren, die an ihrer beruflichen oder dienstlichen Tätigkeit mitwirken, soweit dies für die Inanspruchnahme der Tätigkeit der sonstigen mitwirkenden Personen erforderlich ist; das Gleiche gilt für Unterauftragsverhältnisse, § 203 III 2 StGB. Beispiele sind IT- und Cloud- Dienstleister. Eine Geheimhaltungsverpflichtung ist nötig, § 203 IV S. 2 Nr. 1 StGB.

Ihnen gefällt dieser Artikel?
ZdiW - Zeitschrift für das Recht der digitalen Wirtschaft
Lesen Sie jetzt 2 Ausgaben der ZdiW und erhalten Sie weitere spannende Beiträge!

VII. Internationaler Datentransfer 

Die Schrems-II-Entscheidung des EuGH,45 mit der das »Privacy Shield« zwischen der EU und den USA für unwirksam erklärt worden ist, hat weitreichende Konsequenzen für den internationalen Datentransfer. Sie wurde zusätzlich durch die (nicht bindenden) Ansichten der Datenschutzbehörden46 konkretisiert. Der Verantwortliche muss sicherzustellen, dass in einem Zielland, für das kein Angemessenheitsbeschluss gem. Art. 45 DSGVO47 besteht, ein mit der EU vergleichbares Datenschutzniveau existiert. Ist dies nicht der Fall, hat er zusätzliche Maßnahmen zu ergreifen. 

Als Reaktion auf die Schrems II-Entscheidung hat die Europäische Kommission im Sommer 2021 neue Standardvertragsklauseln erlassen.48 Seit dem 27.09.2021 sind ausschließlich diese für neue Datenübermittlungen abzuschließen. Für Bestandsübermittlungen in Drittländer gilt eine erweiterte Übergangsfrist bis zum 27.12.2022. Mit Spannung erwartet wird außerdem das im März 2022 zwischen den USA und der EU angekündigte Trans-Atlantic Data Privacy Framework.49 

VIII. Weitere medizinspezifische Anforderungen an Software 

Das Unionsrecht stellt zusätzliche Anforderungen an KI-basierte Software im Medizinbereich. 

1. Medizinprodukteverordnung 

Die Medizinprodukteverordnung (»Medical Device Regulation«, MDR)50 ist seit 2017 in der EU in Kraft und coronabedingt erst seit dem 26.05.2021 vollständig gültig. Sie ersetzt seit dem 26.05.2022 vollständig das ehemalige deutsche Medizinproduktegesetz. Daneben gilt in Deutschland das Medizinprodukterecht-Durchführungsgesetz (MPDG). Noch vier weitere Jahre gelten bestimmte Übergangsregelungen. 

Bei KI-basierter Software handelt es sich um ein Medizinprodukt i.S.v. Art. 2 Nr. 1 MDR, wenn sie einen der dort genannten spezifischen medizinischen Zwecke erfüllt, insbesondere wenn sie der Diagnose oder Behandlung von Krankheiten dient. Die Zweckbestimmung ergibt sich aus den Angaben des Herstellers für die Verwendung auf der Kennzeichnung, in der Gebrauchsanweisung oder dem Werbe- oder Verkaufsmaterial, Art. 2 Nr. 12 MDR. Somit ist bspw. eine App, die lediglich den Puls misst und auf der Smartwatch anzeigt, nicht als Medizinprodukt anzusehen, wohingegen eine solche App, die vom Hersteller dazu bestimmt ist, diese Daten für eine Diagnose oder Behandlungsempfehlung zu nutzen, als Medizinprodukt zu klassifizieren wäre. 

Das Inverkehrbringen und die Inbetriebnahme von Medizinprodukten bedarf einer CE-Kennzeichnung, Art. 5, 10 VI, 20 MDR, welche wiederum an in Anhang I der MDR niedergelegte grundlegende Sicherheits- und Leistungsanforderungen und das Durchlaufen eines Konformitätsbewertungsverfahrens geknüpft ist. Für letzteres ist die Risikoklasse entscheidend, die sich für Software nach Anhang VIII Nr. 6.3 Regel 11 richtet (I, IIa oder III). Im Bereich des ML zu Problemen führen dürften insbesondere die Sicherheits- und Leistungsanforderungen, die für Software gem. Anhang I Nr. 17.1 die Gewährleistung von »Wiederholbarkeit, Zuverlässigkeit und Leistung entsprechend ihrer bestimmungsgemäßen Verwendung« verlangen. Vor allem für den Bereich des Unsupervised Learnings dürfte es schwierig sein, eine Wiederholbarkeit des selbstlernenden Systems zu schaffen. Dies gilt ebenfalls für kaum bis schwer nachprüfbare Entscheidungen eines mindestens teilautonom entscheidenden Systems (sog. Black Box-Problematik).51 Darüber hinaus kann eine erneute Konformitätsbewertung erforderlich werden, wenn sich die selbstlernende Software zu stark verändert hat. 

2. Artificial Intelligence Act-Entwurf 

Im April 2021 hat die Europäische Kommission einen Entwurf für eine Verordnung zur Künstlichen Intelligenz (Artificial Intelligence Act) veröffentlicht.52 Für Anbieter von Medizinprodukten wie Software ist vor allem problematisch, dass diese als »Hochrisiko-Systeme« i.S.d. Entwurfs eingestuft werden, sobald sie ein Konformitätsbewertungsverfahren durchlaufen müssen, Art. 6 i.V.m. Annex II Nr. 11 AIA-Entwurf. Wie oben dargestellt, ist dies bei Software, die als Medizinprodukt eingestuft wird, in der Regel der Fall (jedenfalls für diejenige, die Risikoklasse IIa oder III i.S.d. MDR eingestuft wird).53 Für solche Hersteller gilt ein weiteres Bündel von Pflichten, wie die Pflicht zur Einführung eines Risikomanagementsystems, Art. 9 AIA, Daten- und Daten- Governance-Pflichten, sofern Modelle mit Daten trainiert werden, Art. 10 AIA, verschärfte Pflichten zur technischen Dokumentation, Art. 11 AIA, und Aufzeichnungen, Art. 12 AIA, die menschliche Aufsicht über das Produkt, Art. 14 AIA und die Cybersicherheit, Art. 15 AIA. Es bleibt zu hoffen, dass der europäische Gesetzgeber hier noch Anpassungen vornehmen wird. 

IX. Fazit 

ML-Anwender im Gesundheitsbereich werden datenschutzrechtlich vor eine Vielzahl von Herausforderungen gestellt, die aber in vielen Fällen rechtlich vertretbar im Sinne der Innovation zu lösen sind. In vielen Bereichen herrscht bislang jedoch noch große Rechtsunsicherheit. Hierzu gehören insbesondere Details im Hinblick auf die Anonymisierung (II.1.), wissenschaftlichen Forschungszwecke (IV.3.), Zweckänderung (IV.7.), Betroffenenrechte (VI.), Verantwortlichkeit und Auftragsverarbeitung (VII.), den internationalen Datentransfer (VII.) sowie Anforderungen an medizinische Software (X.). Für diejenigen, die ein gewisses Maß an Risikobereitschaft mitbringen, birgt diese aber auch einigen Spielraum hinsichtlich der rechtlichen Argumentation. In jedem Fall ist die konkrete ML-Anwendung datenschutz- und ggf. auch medizinproduktrechtlich umfassend zu überprüfen.

PROBEABO ABSCHLIESSEN
ZdiW - Zeitschrift für das Recht der digitalen Wirtschaft
2 Ausgaben kostenlos testen
* Die Autorin ist Rechtsanwältin im Bereich IT/Datenschutz bei Fieldfisher in Hamburg. Sie ist zertifizierte Datenschutzbeauftrage (TÜV®), zertifizierte Datenschutzauditorin (TÜV®) sowie CIPP/E und CIPM (beides IAPP) zertifiziert. 
1 Ahsan/Luna/Siddique Healthcare 10 (2022), 541.
2 Z.B. bei der Diagnose von Hautkrebs, vgl. https: / / www. thelancet.com/journals/lanonc/article/ PIIS1 470- 2045(19)30333- X/ fulltext [27.04.2022]. 
3 https://www. heise.de/newsticker/meldung/Alexa-hoert-dich-husten-Amazon-erhaelt-Pat ent-auf-Werbeangebote-fuer-Kranke-4190512.html [27.04.2022]. 
4 Hierzu vertiefend Siems/Repka DSRITB 2021, 517, 519–526. 
5 Vgl. Ibrahim/Abdulazeez JASTT, Vol. 02, No. 01 (2021), 10, 11. 
6 Zhou/Zhao/Zhou et al. Sci Rep 9 (2019), 6012. 
7 Pressemitteilung des Bitkom e.V. v. 13.08.2020, https: / / www. bitkom.org/Presse/Presse information/Kuenstliche-Intelligenz-benoetigt-Daten [27.04.2022]. 
8 BeckOK DatenschutzR/Schild, 39. Ed. 01.11.2021, DSGVO Art. 4 Rn. 15a. 
9 S. z.B. Art. 29-Datenschutzgruppe, Stellungnahme 5/2014 v. 10.04.2014, WP 216, S. 8; Roßnagel ZD 2021, 188, 189; a.A. Thüsing/Rombey ZD 2021, 548. 
10 S. zum Streitstand vor und nach Inkrafttreten der DSGVO Simitis/Hornung/Spiecker gen. Döhmann/Karg, Datenschutzrecht, 2019, Art. 4 Nr. 1 Rn. 58 ff. 
11 EuGH 19.10.2016, C-582/14 – Breyer, Rn. 45. 
12 Simitis/Hornung/Spiecker gen. Döhmann/Karg, Datenschutzrecht, 2019, Art. 4 Nr. 1 Rn. 60. 
13 Positionspapier zur Anonymisierung unter der DSGVO unter besonderer Berücksichtigung der TK-Branche des Bundesbeauftragten für den Datenschutz und die Informationsfreiheit (Stand: 29.06.2020), S. 4 sowie Art. 29-Datenschutzgruppe, Stellungnahme 5/2014 v. 10.04.2014, WP 216, S. 4.
14 BMBF, BMG, BMWi, Daten helfen heilen – Innovationsinitiative »Daten für Gesundheit«, S. 16, Stand: September 2020, https: / / www. gesundheitsforschung-bmbf.de/files/Roadmap_ Innovationsinitiative_Daten_fuer_Gesundheit_barrierefrei.pdf [27.04.2022]. 
15 BMBF, BMG, BMWi, Daten helfen heilen – Innovationsinitiative »Daten für Gesundheit«, S. 16, Stand: September 2020, https: / / www.gesundheitsforschung-bmbf. de/files/ Roadmap_ Innovationsinitiative_Daten_fuer_Gesundheit_barrierefrei.pdf [27.04.2022]. 
16 Weichert ZD 2013, 251, 259. 
17 Spindler/Schmechel JIPITEC 2016, 163 Rn. 73. 
18 Gentry, 53 Com.of the ACM Volume 2010, S. 97. 
19 Vgl. Puschky ZD-Aktuell 2022, 19. 
20 Bundesministerium für Wirtschaft und Energie (BMWi), Orientierungshilfe zum Gesundheitsdatenschutz, November 2018, S. 20, https: / / www. bmwk.de/ Redaktion/ DE/ Downloads/ M- O/ orientierungshilfe-gesundheitsdatenschutz.pdf? b lob= publicationFile& v= 14 [29.05.2022]. 
21 Kühling/Buchner/Weichert, 3. Aufl. 2020, DSGVO Art. 9 Rn. 39. 
22 BVerfGE 47, 327, 367.
23 Jarass/Jarass, Charta der Grundrechte der EU, 4. Aufl. 2021, Art. 13 GR-Ch Rn. 8. 
24 Niemann/Kekevordes CR 2020, 179, 180. 
25 So auch Niemann/Kekevordes CR 2020, 179, 180. 
26 Niemann/Kekevordes CR 2020, 179, 180; vgl. auch Werkmeister/Schwab CR 2019, 85, 87. 
27 So auch Niemann/Kekevordes CR 2020, 179, 181. 
28 Es können z.B. Anzeigepflichten bei anderen Behörden bestehen, wie bei der Einrichtung von Proben- und Datensammlungen zu Forschungszwecken gegenüber der für die Datenschutzkontrolle zuständigen Behörde, § 15 V LKG HH. 
29 BMWi, Orientierungshilfe zum Gesundheitsdatenschutz, November 2018, S. 13, https: //www. bmwk.de/Redaktion/DE/Downloads/M-O/orientierungshilfe-gesundheitsdatenschutz.pdf? b lob=publicationFile& v=14 [29.05.2022]. 
30 EDPB, Leitlinien 05/2020 zur Einwilligung, Version 1.1, 04.05.2020, S. 37 f., https://edpb.eur opa.eu/sites/default/files/files/file1/edpb_guidelines_20 2005consent.de.pdf [27.04.2022]. 
31 BMWi, Orientierungshilfe zum Gesundheitsdatenschutz, November 2018, S. 13, https://www.bmwk.de/Redaktion/DE/Downloads/M-O/orientierungshilfe-gesundheitsdatenschutz.pdf? b lob=publicationFile& v=1 [27.04.2022]. 
32 EDPB, Leitlinien 05/2020 zur Einwilligung, Version 1.1, 04.05.2020, S. 8, https://edpb.europa. eu/sites/default/files/files/file1/edpb_guidelines_202005consent de.pdf [27.04.2022]. 
33 BMWi, Orientierungshilfe zum Gesundheitsdatenschutz, November 2018, S. 13, https://www. bmwk.de/Redaktion/DE/Downloads/ M- O/ orientierungshilfe-gesundheitsdatenschutz.pdf? b lob=publicationFile& v=1 [27.04.2022].
Bildnachweis: Sikov/adobe.stock.com
PROBEABO ABSCHLIESSEN
ZdiW - Zeitschrift für das Recht der digitalen Wirtschaft
2 Ausgaben kostenlos testen
Back To Top