Glossar: KI im Gesundheitswesen
Die wichtigsten Begriffe rund um KI-Compliance, EU AI Act, DSGVO und Medizinprodukte-Regulierung — verständlich erklärt.
#
§ 203 StGB
Strafrechtliche Norm zur ärztlichen Schweigepflicht, die das unbefugte Offenbaren von Patientengeheimnissen unter Strafe stellt.
§ 203 StGB schützt das Vertrauensverhältnis zwischen Arzt und Patient. Das Offenbaren von Patientendaten an Dritte — auch an Cloud-KI-Anbieter — kann strafbar sein. Anders als die DSGVO handelt es sich um eine strafrechtliche Norm: Die Einwilligung des Patienten muss ausdrücklich und informiert erfolgen. Bei Cloud-KI ist besonders problematisch, dass Daten technisch an Server übermittelt werden, die nicht unter der Kontrolle des Arztes stehen. Auch die Inanspruchnahme sog. Auftragsverarbeiter (Art. 28 DSGVO) schützt nicht automatisch vor § 203 StGB.
A
AI Literacy
Pflicht nach Art. 4 EU AI Act, sicherzustellen, dass Personal über ausreichende KI-Kompetenz verfügt.
Art. 4 EU AI Act verpflichtet Anbieter und Betreiber von KI-Systemen, Maßnahmen zu ergreifen, damit ihr Personal über ein ausreichendes Maß an KI-Kompetenz verfügt. Dies umfasst technisches Grundverständnis, Kenntnis der Grenzen des jeweiligen KI-Systems und die Fähigkeit, KI-Ergebnisse kritisch zu bewerten. Im Gesundheitswesen bedeutet das: Ärzte und Pflegekräfte müssen geschult werden, bevor sie mit KI-Systemen arbeiten. Die Pflicht gilt seit August 2025.
Anbieter (Provider)
Im EU AI Act die natürliche oder juristische Person, die ein KI-System entwickelt oder entwickeln lässt und unter eigenem Namen in Verkehr bringt.
Der Anbieter (Art. 3 Nr. 3 EU AI Act) trägt die Hauptverantwortung für die Konformität eines KI-Systems. Seine Pflichten umfassen: Risikomanagement, technische Dokumentation, Konformitätsbewertung, CE-Kennzeichnung, Post-Market Surveillance und Zusammenarbeit mit Aufsichtsbehörden. Im Gesundheitswesen ist die Abgrenzung zum Betreiber besonders wichtig: Wer ein KI-System wesentlich modifiziert oder unter eigenem Namen einsetzt, kann selbst zum Anbieter werden.
Art. 22 DSGVO
Recht des Betroffenen, nicht einer ausschließlich auf automatisierter Verarbeitung beruhenden Entscheidung unterworfen zu werden.
Art. 22 DSGVO gibt Patienten das Recht, nicht einer Entscheidung unterworfen zu werden, die ausschließlich auf automatisierter Verarbeitung — einschließlich Profiling — beruht und rechtliche Wirkung entfaltet. Im Gesundheitswesen ist das relevant, wenn KI-Systeme Diagnosen, Therapieempfehlungen oder Priorisierungen vornehmen. Human Oversight (menschliche Aufsicht) ist daher nicht nur eine EU-AI-Act-Pflicht, sondern auch eine DSGVO-Anforderung.
Art. 9 DSGVO
Verbot der Verarbeitung besonderer Kategorien personenbezogener Daten, einschließlich Gesundheitsdaten und biometrischer Daten.
Art. 9 DSGVO verbietet grundsätzlich die Verarbeitung von Gesundheitsdaten, genetischen Daten und biometrischen Daten. Ausnahmen bestehen u.a. bei ausdrücklicher Einwilligung, zum Schutz lebenswichtiger Interessen oder für die Gesundheitsversorgung. Für KI im Gesundheitswesen ist Art. 9 zentral: Nahezu jede KI-Anwendung, die Patientendaten verarbeitet, fällt unter diese Norm. Die Anforderungen an die Rechtsgrundlage sind deutlich strenger als bei ‚normalen' personenbezogenen Daten.
Auftragsverarbeitungsvertrag (AVV)
Vertrag nach Art. 28 DSGVO zwischen Verantwortlichem und Auftragsverarbeiter, der die Datenverarbeitung regelt.
Ein AVV ist Pflicht, wenn ein externer Dienstleister — z.B. ein KI-Anbieter — im Auftrag des Betreibers personenbezogene Daten verarbeitet. Der Vertrag muss Gegenstand, Dauer, Art und Zweck der Verarbeitung, die Art der Daten und die Rechte und Pflichten des Verantwortlichen festlegen. Bei KI-Anwendungen im Gesundheitswesen ist besonders wichtig: Serverstandort, Unterauftragnehmer, technische und organisatorische Maßnahmen (TOMs) und die Rückgabe/Löschung von Daten nach Vertragsende.
B
Betreiber (Deployer)
Im EU AI Act die natürliche oder juristische Person, die ein KI-System unter eigener Verantwortung einsetzt — im Gesundheitswesen typischerweise Arztpraxis, MVZ oder Krankenhaus.
Der Betreiber (Art. 3 Nr. 4 EU AI Act) ist die Person, die ein KI-System in eigener Verantwortung nutzt. Im Gesundheitswesen sind das Arztpraxen, MVZs und Krankenhäuser. Betreiberpflichten nach Art. 26 umfassen: Einsatz gemäß Gebrauchsanweisung, Human Oversight, Überwachung, Protokollierung, Information der betroffenen Personen und Grundrechte-Folgenabschätzung (für bestimmte Einrichtungen). Wichtig: Der Betreiber haftet für den konkreten Einsatz, nicht für Produktmängel.
C
CE-Kennzeichnung
Konformitätskennzeichnung, die bestätigt, dass ein Produkt die Anforderungen der relevanten EU-Verordnungen erfüllt.
Die CE-Kennzeichnung ist für Medizinprodukte (MDR) und Hochrisiko-KI-Systeme (EU AI Act) erforderlich. Sie bestätigt, dass der Hersteller/Anbieter eine Konformitätsbewertung durchgeführt hat und das Produkt alle anwendbaren Anforderungen erfüllt. Für Software als Medizinprodukt (SaMD) mit KI-Funktionalität bedeutet das: Doppelte Konformitätsbewertung nach MDR und EU AI Act, wobei Synergien genutzt werden können.
D
DiGA
Digitale Gesundheitsanwendung — Medizinprodukt-App, die vom BfArM geprüft und als ‚App auf Rezept' verordnet werden kann.
DiGA sind digitale Medizinprodukte niedriger Risikoklasse (I oder IIa), die vom Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) in das DiGA-Verzeichnis aufgenommen werden. Sie können von Ärzten verordnet und von Krankenkassen erstattet werden. KI-basierte DiGA stehen vor besonderen Herausforderungen: Neben MDR und DiGAV müssen sie auch den EU AI Act erfüllen, BSI TR-03161 Sicherheitsanforderungen einhalten und Transparenz über den KI-Einsatz gewährleisten.
DSFA
Datenschutz-Folgenabschätzung nach Art. 35 DSGVO — Pflicht bei Verarbeitungen mit hohem Risiko für Betroffene.
Eine DSFA ist bei der Verarbeitung von Gesundheitsdaten mittels neuer Technologien (wie KI) in der Regel verpflichtend. Sie beschreibt die Verarbeitung, bewertet Notwendigkeit und Verhältnismäßigkeit, identifiziert Risiken für Betroffene und definiert Gegenmaßnahmen. Wichtig: Eine DSFA ist kein einmaliges Dokument. Bei wesentlichen Änderungen — z.B. durch Software-Updates mit neuen KI-Features — muss sie aktualisiert werden. Die DSFA liegt in der Verantwortung des Betreibers, nicht des Anbieters.
E
Edge AI
KI-Verarbeitung direkt am Ort der Datenentstehung (lokal) statt in einer entfernten Cloud.
Edge AI bezeichnet die Ausführung von KI-Modellen auf lokaler Hardware — etwa einem Server in der Arztpraxis oder im Rechenzentrum des Krankenhauses. Vorteile: Keine Datenübertragung an Dritte, minimale Latenz, Unabhängigkeit von Internetverbindung, kein Cloud-Act-Risiko. Moderne KI-Modelle lassen sich containerisieren und auf lokalen GPUs ausführen. Für die Radiologie, wo große Datenmengen anfallen, ist Edge AI oft die einzig praktikable Lösung für DSGVO-konformen KI-Einsatz.
EU AI Act
Verordnung (EU) 2024/1689 — das weltweit erste umfassende KI-Gesetz, das KI-Systeme nach Risiko reguliert.
Der EU AI Act trat am 1. August 2024 in Kraft und wird stufenweise anwendbar: Verbotene Praktiken ab Februar 2025, AI-Literacy-Pflicht ab August 2025, Hochrisiko-Pflichten ab August 2026. KI-Systeme im Gesundheitswesen fallen typischerweise in die Hochrisiko-Kategorie (Anhang III). Der AI Act unterscheidet zwischen Anbietern (Entwicklern) und Betreibern (Nutzern) mit jeweils eigenen Pflichten. Sanktionen reichen bis zu 35 Mio. € oder 7 % des weltweiten Jahresumsatzes.
G
Grundrechte-Folgenabschätzung
Pflicht nach Art. 27 EU AI Act für bestimmte Betreiber von Hochrisiko-KI, die Auswirkungen auf Grundrechte zu bewerten.
Art. 27 EU AI Act verpflichtet Einrichtungen des öffentlichen Rechts und bestimmte private Betreiber, vor dem Einsatz von Hochrisiko-KI eine Folgenabschätzung für Grundrechte durchzuführen. Im Gesundheitswesen betrifft das insbesondere öffentliche Krankenhäuser und Universitätskliniken. Die Bewertung muss dokumentieren, welche Grundrechte potenziell betroffen sind (z.B. Gleichbehandlung, Datenschutz, körperliche Unversehrtheit) und welche Maßnahmen ergriffen werden.
H
Hochrisiko-KI
KI-Systeme, die nach Anhang III EU AI Act besonders streng reguliert werden — im Gesundheitswesen fast alle diagnostischen und therapeutischen KI-Anwendungen.
Hochrisiko-KI-Systeme unterliegen den strengsten Anforderungen des EU AI Act: Risikomanagement, Datenqualität, technische Dokumentation, Transparenz, Human Oversight, Genauigkeit, Robustheit und Cybersicherheit. Im Gesundheitswesen sind insbesondere KI-Systeme betroffen, die als Medizinprodukt oder als Sicherheitskomponente eines Medizinprodukts gelten (Anhang III Nr. 5). Entscheidend ist die Zweckbestimmung: Reine Terminvergabe ist typischerweise kein Hochrisiko, Diagnoseunterstützung schon.
Human Oversight
Menschliche Aufsicht über KI-Systeme — Pflicht für Betreiber von Hochrisiko-KI nach Art. 14 und Art. 26 EU AI Act.
Human Oversight bedeutet, dass natürliche Personen in der Lage sein müssen, die Funktionsweise eines KI-Systems zu überwachen, seine Ergebnisse zu verstehen und bei Bedarf einzugreifen oder das System abzuschalten. Im ärztlichen Kontext: Der Arzt muss jeden KI-Output prüfen und eine eigenständige Entscheidung treffen. ‚Automatisches Absenden' von KI-generierten Arztbriefen widerspricht der Human-Oversight-Pflicht. Das LG Kiel 2024 hat klargestellt: Die Plausibilitätsprüfung ist nicht delegierbar.
K
KI-Kompetenz
Synonym für AI Literacy — die Fähigkeit von Personal, KI-Systeme sachgerecht und kritisch einzusetzen.
KI-Kompetenz umfasst: Grundverständnis der Funktionsweise von KI-Systemen, Kenntnis der Grenzen und Fehlerquellen (z.B. Halluzinationen), Fähigkeit zur kritischen Bewertung von KI-Ergebnissen und Wissen über rechtliche Rahmenbedingungen. Im Gesundheitswesen ist KI-Kompetenz besonders wichtig, weil fehlerhafte KI-Ergebnisse direkte Auswirkungen auf die Patientenversorgung haben können. Art. 4 EU AI Act macht Schulungen zur Pflicht.
Konformitätsbewertung
Verfahren, mit dem ein Anbieter nachweist, dass sein KI-System die Anforderungen des EU AI Act erfüllt.
Die Konformitätsbewertung ist die zentrale Voraussetzung für das Inverkehrbringen eines Hochrisiko-KI-Systems. Der Anbieter muss nachweisen, dass alle Anforderungen (Risikomanagement, Datenqualität, Transparenz etc.) erfüllt sind. Bei Medizinprodukten mit KI-Funktion kann die Konformitätsbewertung nach MDR und EU AI Act teilweise zusammengelegt werden — eine wesentliche Effizienzchance für Hersteller.
L
Legal Engineering
Systematische Verbindung von Rechtsexpertise und technischer Implementierung — Compliance nicht als Gutachten, sondern als Architektur.
Legal Engineering verbindet juristisches Fachwissen mit technischem Verständnis, um regulatorische Anforderungen direkt in Produkte, Prozesse und Architekturen einzubauen. Im Unterschied zur klassischen Rechtsberatung (Gutachten und Empfehlungen) und zur IT-Beratung (Technologie ohne Rechtsrahmen) liefert Legal Engineering beides gleichzeitig: Rechtssichere technische Lösungen. Im Gesundheitswesen besonders relevant für KI-Compliance, Privacy by Design und regulatorische Produktentwicklung.
M
MDR
Medical Device Regulation (EU) 2017/745 — EU-Verordnung für Medizinprodukte, unter die auch Software als Medizinprodukt (SaMD) fallen kann.
Die MDR regelt das Inverkehrbringen und den Betrieb von Medizinprodukten in der EU. Software fällt unter die MDR, wenn sie nach ihrer Zweckbestimmung Informationen liefert, die für diagnostische oder therapeutische Entscheidungen genutzt werden (Regel 11). Für KI-Software im Gesundheitswesen ist die MDR besonders relevant: Die Klassifizierung als Medizinprodukt löst umfangreiche Anforderungen an Dokumentation, Qualitätsmanagement, klinische Bewertung und Post-Market Surveillance aus.
Menschliche Aufsicht
Deutsche Bezeichnung für Human Oversight — die Pflicht, KI-Entscheidungen durch Menschen zu überwachen und zu kontrollieren.
Menschliche Aufsicht ist ein zentrales Prinzip des EU AI Act und der ärztlichen Sorgfaltspflicht. Im Gesundheitswesen bedeutet das: Kein KI-System darf eigenständig klinische Entscheidungen treffen oder Dokumente versenden. Ein Arzt oder qualifiziertes Fachpersonal muss jeden KI-Output prüfen, verstehen und eigenverantwortlich freigeben. Dies gilt besonders für Arztbriefe, Diagnosevorschläge und Therapieempfehlungen.
P
Post-Market Surveillance
Systematische Überwachung eines Produkts nach dem Inverkehrbringen — Pflicht für Medizinprodukte (MDR) und Hochrisiko-KI (EU AI Act).
Post-Market Surveillance (PMS) verpflichtet Anbieter, ihr Produkt auch nach dem Markteintritt systematisch zu überwachen. Im KI-Kontext umfasst das: Monitoring der Modell-Performance, Erkennung von Drift, Sammlung von Nutzer-Feedback und Meldung schwerwiegender Vorfälle. MDR und EU AI Act stellen ähnliche Anforderungen an PMS — eine Chance für integriertes Monitoring.
Privacy by Design
Grundsatz nach Art. 25 DSGVO und Art. 9 EU AI Act: Datenschutz muss bereits in der Architektur eines Systems verankert sein.
Privacy by Design bedeutet, dass Datenschutz nicht nachträglich implementiert, sondern von Anfang an in die System-Architektur eingebaut wird. Konkrete Maßnahmen: Datenminimierung, Pseudonymisierung, Privacy-Proxy-Pattern, Zugriffskontrollen und automatisches Audit-Logging. Für Healthcare-KI-Anbieter ist Privacy by Design keine Option, sondern gesetzliche Pflicht. Die Umsetzung reduziert nicht nur Compliance-Risiken, sondern schafft auch Vertrauen bei Betreibern.
Protokollierungspflichten
Pflicht nach Art. 19 EU AI Act, automatisch erzeugte Logs von Hochrisiko-KI-Systemen aufzubewahren.
Betreiber von Hochrisiko-KI-Systemen müssen die vom System automatisch erzeugten Logs aufbewahren, soweit diese unter ihrer Kontrolle stehen. Die Logs müssen mindestens sechs Monate aufbewahrt werden (sofern nationale Regelungen nichts anderes vorsehen). Im Gesundheitswesen sind die Protokollierungspflichten besonders relevant für die Nachvollziehbarkeit ärztlicher Entscheidungen, die auf KI-Unterstützung basieren.
Q
Qualitätsmanagementsystem
Systematisches Rahmenwerk zur Sicherstellung der Qualität — für KI-Anbieter relevant nach ISO 13485 (Medizinprodukte) und ISO 42001 (KI).
Ein QMS ist sowohl nach MDR als auch nach EU AI Act eine zentrale Anforderung an Anbieter. ISO 13485 definiert Anforderungen an QMS für Medizinprodukte, ISO 42001 an QMS für KI-Systeme. Für Healthcare-KI-Anbieter empfiehlt sich ein integriertes QMS, das beide Standards abdeckt und so den Compliance-Aufwand um bis zu 40 % reduziert. Das QMS muss Risikomanagement, Dokumentenlenkung, Änderungsmanagement und kontinuierliche Verbesserung umfassen.
R
Risikoklasse
Einstufung von KI-Systemen nach ihrem Gefahrenpotenzial: Minimal, Begrenzt, Hoch oder Verboten.
Der EU AI Act unterscheidet vier Risikoklassen: Verbotene Praktiken (z.B. Social Scoring), Hochrisiko (z.B. KI in der medizinischen Diagnostik), Begrenztes Risiko (Transparenzpflichten, z.B. Chatbots) und Minimales Risiko (keine besonderen Anforderungen). Im Gesundheitswesen fallen die meisten klinisch eingesetzten KI-Systeme in die Hochrisiko-Kategorie. Die Einstufung hängt nicht von der Technologie ab, sondern von der Zweckbestimmung.
S
SaMD
Software as Medical Device — eigenständige Software, die als Medizinprodukt qualifiziert wird, ohne Teil eines physischen Geräts zu sein.
SaMD bezeichnet Software, die unabhängig von Hardware eine medizinische Zweckbestimmung verfolgt. Typische Beispiele: KI-basierte Diagnoseunterstützung, Bildanalyse-Software, Therapieplanungs-Tools. Die Klassifizierung nach MDR Regel 11 hängt von der klinischen Relevanz der gelieferten Informationen ab. SaMD muss ein vollständiges Qualitätsmanagementsystem, klinische Bewertung, technische Dokumentation und Post-Market Surveillance vorweisen. Mit dem EU AI Act kommt eine zusätzliche Compliance-Schicht hinzu.
Sovereign AI
KI-Architektur, bei der Daten und Modelle vollständig unter eigener Kontrolle bleiben — ohne Abhängigkeit von externen Cloud-Anbietern.
Sovereign AI setzt auf lokale Datenverarbeitung, eigene Infrastruktur und volle Kontrolle über KI-Modelle. Im Gesundheitswesen löst Sovereign AI mehrere Probleme gleichzeitig: Keine Datenübermittlung in Drittländer (DSGVO), kein Cloud-Act-Risiko (§ 203 StGB), minimale Latenz (besonders wichtig in der Bildgebung) und Unabhängigkeit von Internetverbindungen. Umsetzung: Containerisierte Modelle auf lokalen GPU-Servern, Edge Computing, Privacy-Proxy-Pattern.
T
Technische Dokumentation
Umfassende Dokumentation eines KI-Systems, die dessen Funktionsweise, Risiken und Compliance-Maßnahmen beschreibt.
Die technische Dokumentation ist eine Kernpflicht für Anbieter von Hochrisiko-KI nach Art. 11 und Anhang IV EU AI Act. Sie muss u.a. enthalten: Allgemeine Beschreibung, Zweckbestimmung, Risikomanagement-Ergebnisse, Beschreibung der Trainingsdaten, Leistungskennzahlen, Human-Oversight-Maßnahmen und Cybersicherheits-Maßnahmen. Für Betreiber ist die technische Dokumentation des Anbieters die Grundlage für die eigene Risikobewertung und DSFA.
V
Vigilanz
Systematische Überwachung und Meldung von Vorkommnissen mit Medizinprodukten und KI-Systemen an die zuständigen Behörden.
Vigilanz umfasst die Erkennung, Bewertung, Dokumentation und Meldung von schwerwiegenden Vorkommnissen und Sicherheitskorrekturmaßnahmen. Sowohl die MDR als auch der EU AI Act verpflichten Anbieter zur Vigilanz. Im KI-Kontext bedeutet das: Systematisches Monitoring von Fehlfunktionen, unerwarteten Ergebnissen und potenziellen Patientengefährdungen. Betreiber sind verpflichtet, erkannte Probleme an den Anbieter und ggf. an die Aufsichtsbehörde zu melden.
Z
Zweckbestimmung
Der vom Hersteller/Anbieter beabsichtigte Verwendungszweck eines Produkts — entscheidend für die regulatorische Klassifizierung.
Die Zweckbestimmung ist der Dreh- und Angelpunkt der regulatorischen Einordnung. Sie entscheidet, ob Software als Medizinprodukt gilt (MDR), ob ein KI-System Hochrisiko ist (EU AI Act) und welche Pflichten daraus folgen. Entscheidend ist nicht, was die Software technisch kann, sondern wofür sie bestimmungsgemäß eingesetzt wird. Beispiel: Ein Diktiersystem (Dokumentation) hat eine andere Zweckbestimmung als ein Symptom-Checker (Diagnoseunterstützung) — mit völlig unterschiedlichen regulatorischen Konsequenzen.