Zurück
Use Case · Radiologie-KI

KI-Befundung in der Radiologie —Hilfe oder Haftungsfalle?

Kurzantwort

Die meisten radiologischen KI-Systeme sind über MDR Rule 11 Medizinprodukt und damit Hochrisiko-KI nach Anhang III AI Act. Die Befundverantwortung bleibt nach § 630a BGB beim Radiologen — vollständig und unteilbar.

Reife Tools existieren in validierten Indikationen und sparen nachweislich Zeit. Die volle Betreiberpflicht nach Art. 26 AI Act greift für die MDR-Route ab 2. August 2027 — inklusive Art.-27-Grundrechts-FIA, Human-Oversight-Dokumentation und Art.-4-Schulung aller KI-Nutzer:innen.

Die Frage ist nicht, ob KI in der Radiologie besser liest als der Mensch — in vielen Einzelindikationen tut sie das. Die Frage ist, wo Befundhilfe endet und Delegation beginnt, welche Zweckbestimmung das CE-Zertifikat abdeckt, und wie Sie Human Oversight so dokumentieren, dass sie im Prüffall steht.

Was heute funktioniert

Drei Dinge, die Radiologie-KIheute verlässlich leistet.

In klar definierten Indikationen — Mammographie, Lungen-CT, akute Hirnblutung — ist die Reife 2026 beeindruckend. Der richtige Einsatz sitzt zwischen Befundhelfer und Triage-Layer, nicht im autonomen Modus.

Detektionsunterstützung (CAD)

Mikrokalzifikationen in der Mammographie, Lungenrundherde im CT, Hirnblutungen im Notfall-CT: Moderne CAD-Systeme erreichen in validierten Indikationen Sensitivitäten über 90 %. Als zweite Leseinstanz oder Pre-Read-Layer sparen sie Zeit und senken Oversight-Raten — ohne den menschlichen Befund zu ersetzen.

Priorisierung und Triage im Worklist

KI-Systeme wie Aidoc oder Viz.ai klassifizieren eingehende Untersuchungen nach Kritikalität. Ein Schlaganfall-CT wandert nach oben, eine Routinekontrolle nach unten. Das verkürzt Door-to-Needle-Zeiten messbar — in publizierten Studien um 30 bis 70 Minuten.

Quantifizierung und Verlaufskontrolle

Volumetrie von Läsionen, automatische Vergleiche über mehrere Untersuchungszeitpunkte, RECIST-nahe Auswertung in der Onkologie. Hier ist die KI mess-präziser als das menschliche Auge — und erlaubt eine strukturierte, reproduzierbare Dokumentation.

Die Grenzen

Drei Dinge, die in der Radiologienicht delegierbar sind.

Kein CE-zertifiziertes System nimmt Ihnen die Befundverantwortung ab. Das ist keine Einschränkung — das ist der Grund, warum Ihr Befund einen Wert hat, den kein Algorithmus ersetzen kann.

Autonome Diagnose ohne ärztlichen Befund

Kein CE-zertifiziertes System ist in Deutschland für die autonome Diagnose zugelassen. Das CAD-Ergebnis ist Befundhilfe, nicht Befund. Wer Outputs blind unterschreibt, erhöht sein Haftungsrisiko — weil ein Gericht genau an dieser Stelle nach der eigenverantwortlichen Prüfung fragt.

Delegation der Befundverantwortung

Auch wenn das PACS den KI-Befund schon als Textbaustein anlegt: Der unterschreibende Radiologe trägt die zivil- und berufsrechtliche Verantwortung vollständig. § 630a BGB und das ärztliche Berufsrecht kennen keine 'KI-Delegation'.

Einsatz außerhalb der validierten Indikation

Ein Tool, das für Screening-Mammographie zertifiziert ist, darf nicht für die diagnostische Abklärung genutzt werden. Off-Label-Einsatz kann die Haftung sprengen und entzieht dem Radiologen den Schutz des CE-zertifizierten Rahmens. Prüfen Sie vor jedem neuen Einsatzfeld die Zweckbestimmung.

Regulatorischer Rahmen

Sechs Pflichten, die Sievor dem Rollout aufsetzen.

Die Hochrisiko-Einstufung bringt Dokumentationstiefe mit sich — aber jede einzelne Pflicht lässt sich sauber erfüllen. Wer vorher dokumentiert, muss später nicht erklären.

Art. 26 AI Act — Menschliche Aufsicht

Ab 2. August 2027 gilt für Hochrisiko-KI mit CE-Zertifizierung über die MDR-Route die Pflicht zur wirksamen menschlichen Aufsicht. Das ist mehr als ein Sign-off-Knopf: Der Radiologe muss die Grenzen des Systems kennen, den Output reproduzierbar prüfen und jederzeit überstimmen können. Das Review-Interface ist das regulatorische Produkt.

Art. 4 AI Act — KI-Literacy

Alle KI-nutzenden Personen — Radiologen, MTRA, MFA — müssen seit Februar 2025 nachweislich geschult sein. In der Radiologie besonders relevant: Halluzinationsmuster der jeweiligen Modelle, Bias in Trainingsdaten, Verhalten bei Randfällen. Die Schulung muss modell- und indikationsspezifisch sein, nicht generisch.

Art. 27 AI Act — Grundrechts-FIA

Für öffentlich getragene Einrichtungen oder bei bestimmten Anwendungen ist vor dem Rollout eine Grundrechts-Folgenabschätzung durchzuführen. Sie prüft, ob der KI-Einsatz Patientengruppen benachteiligen kann — etwa durch Bias in Trainingsdaten — und welche Abhilfemaßnahmen greifen.

MDR Rule 11 — CE-Kette

Software, die der Diagnose oder Therapie dient, fällt nach MDR Rule 11 in der Regel in die Klasse IIa oder höher. Der Radiologie-Betreiber ist verpflichtet, nur CE-zertifizierte Systeme einzusetzen und die Zertifikate regelmäßig zu überprüfen — inklusive Meldepflicht nach Art. 87 MDR bei Vorfällen.

§ 630a BGB — Arzthaftung

Die Befundverantwortung bleibt zivilrechtlich beim Radiologen. Ein KI-Befund ist kein Delegationsmittel, sondern eine Diagnoseunterstützung. § 630h BGB (Beweislastumkehr) kann sich verschärfen, wenn der Review-Schritt nicht dokumentiert ist oder das System außerhalb seiner Zweckbestimmung eingesetzt wurde.

DSGVO — DSFA und Transparenz

Patient:innen sind über den KI-Einsatz zu informieren (Art. 13/14 DSGVO); vor Einführung ist eine DSFA nach Art. 35 zu erstellen. Besonders heikel: Die Übermittlung von DICOM-Daten in außereuropäische Clouds — das geht nur mit belastbaren Garantien und oft nur mit Pseudonymisierung vor Upload.

Compliance-Rahmen für Ihre Radiologie.

Anbietervergleich, Zweckbestimmungs-Prüfung, Human-Oversight-Design, DSFA, FIA und Schulungsunterlagen — die gesamte Kette in einem Arbeitspaket. Konkret, nicht als Gutachten.