Zurück
Use Case · Arztbrief mit KI

Kann KI Arztbriefeschreiben?

Kurzantwort

Ja — aber der Arzt bleibt nach § 630a BGB vollständig verantwortlich. KI darf entwerfen, der Arzt muss prüfen und freigeben. Ungeprüft übernommene KI-Briefe sind haftungsrechtlich kein Entlastungsargument, sondern ein Verschärfer.

Der EU AI Act (Art. 26) verlangt ab August 2026 wirksame menschliche Aufsicht, § 203 StGB schließt private ChatGPT-Nutzung für Patientendaten aus. Geeignete Tools existieren — aber nur mit AV-Vertrag, DSFA, Review-Interface und geschultem Team.

Die praktische Frage lautet nicht mehr, ob KI Arztbriefe schreiben kann — sie kann es, teilweise beeindruckend gut. Die Frage ist, was heute verlässlich funktioniert, wo die Halluzinationen sitzen und wie Sie das Tool so aufsetzen, dass es Sie entlastet statt haftbar macht.

Was heute funktioniert

Drei Dinge, die KI beim Arztbriefverlässlich leistet.

Die Reife der Tools ist 2026 an vielen Stellen überraschend hoch. Dort, wo die Eingabe strukturiert ist und der Brief einer wiederkehrenden Logik folgt, sparen Sie real Zeit — nicht nur im Pilotprojekt, sondern im Alltag.

Strukturierte Entwürfe aus Dokumentation

Aus vorhandenen Notizen, Laborwerten und Befunden entstehen in Sekunden gut strukturierte Briefentwürfe. Vor allem Routine-Entlassbriefe und Standardkorrespondenz profitieren: Formalien, Reihenfolge, medizinisches Vokabular sitzen.

Ambient Scribing im Gespräch

Tools wie DeepScribe, Nuance DAX, Corti oder noteey hören das Anamnese- oder Entlassungsgespräch mit, segmentieren es in Anamnese / Befund / Plan und liefern einen durchsuchbaren Entwurf. Bei reifen Systemen spart das 30–60 Minuten pro Tag.

Sprachliche Glättung und Vereinheitlichung

KI gleicht Ihren persönlichen Schreibstil mit Fachstandards ab, übersetzt zwischen Facharzt- und Hausarztduktus und sorgt für einheitliche Terminologie über mehrere Briefe hinweg.

Die Grenzen

Drei Dinge, die KI nicht leistet —und die Sie nicht delegieren können.

Genau hier unterscheidet sich ein KI-Arztbrief, der entlastet, von einem, der haften lässt. Das Review-Interface ist kein nettes Extra — es ist das eigentliche regulatorische Produkt.

Die finale inhaltliche Verantwortung

KI kann nicht wissen, ob der Befund zum klinischen Gesamtbild passt, ob eine Differenzialdiagnose übersehen wurde oder ob ein Laborwert zu einer anderen Medikation führen müsste. Der ärztliche Review bleibt nicht optional, sondern ist das eigentliche Produkt.

Halluzinationen bei dünner Datenlage

Wenn die zugrunde liegende Dokumentation lückenhaft ist, füllt die KI die Lücken bevorzugt mit plausibel klingenden, aber erfundenen Details — Dosierungen, Werte, Befunde, die nie erhoben wurden. Diese Fehler sind besonders gefährlich, weil sie sprachlich perfekt eingebettet sind.

Compliance mitdenken

Kein reines KI-Tool liefert Ihnen die Betreiberdokumentation nach Art. 26 AI Act, das DSFA-Template nach Art. 35 DSGVO oder die Art.-4-Literacy-Schulung für Ihr Team. Das bleibt Ihre Pflicht — und muss vor dem Rollout stehen, nicht danach.

Regulatorischer Rahmen

Vier Pflichten, die beim KI-Arztbriefgleichzeitig greifen.

Kein einzelnes Gesetz regelt den KI-Arztbrief vollständig. Was zählt, ist die Kombination — und die Fähigkeit, zwischen Zivilrecht, Strafrecht, Datenschutz und AI Act in einer einzigen Tool-Entscheidung zu navigieren.

Art. 26 AI Act — Menschliche Aufsicht

Wenn das Tool als Hochrisiko-KI einzustufen ist (z.B. bei ICD-Vorschlag oder Therapieempfehlung), greift ab 2. August 2026 die Pflicht zur wirksamen menschlichen Aufsicht. Das bedeutet mehr als ein Knopfdruck: Der Arzt muss den Output verstehen, prüfen und bei Bedarf überstimmen können. Das Review-Interface ist das Herzstück der Compliance.

Art. 4 AI Act — KI-Literacy

Seit Februar 2025 müssen alle Personen, die KI einsetzen — Ärzte, MFA, MVZ-Management — nachweislich geschult sein. Nicht nur im Bedienen des Tools, sondern im Verstehen seiner Grenzen. Für KI-Arztbrief-Tools sollte die Schulung die häufigsten Halluzinationsmuster und das Review-Vorgehen explizit behandeln.

§ 630a BGB — Arzthaftung

Die zivilrechtliche Haftung bleibt vollständig beim behandelnden Arzt. KI als Delegationsform existiert nicht; ein KI-Arztbrief ist haftungsrechtlich Ihr Arztbrief. § 630h BGB Beweislastumkehr kann sich verschärfen, wenn der Behandlungsprozess nicht dokumentiert wurde — inklusive der Frage, ob der KI-Entwurf fachlich geprüft wurde.

§ 203 StGB — Schweigepflicht

Sobald identifizierbare Patientendaten in ein KI-System fließen, ist die Schweigepflicht berührt. Der Grad der Auslagerung (Cloud, Drittland, Trainingsdaten) entscheidet über Zulässigkeit. Private ChatGPT-Konten sind ausgeschlossen. Auch Business-Versionen brauchen AV, DSFA und meist Pseudonymisierung vor dem Upload.

Häufige Fragen

Was Praxen zum KI-Arztbrief fragen.

Darf ich als Arzt KI nutzen, um Arztbriefe zu schreiben?

+

Ja, grundsätzlich — aber unter Auflagen. Sie bleiben nach § 630a BGB für Inhalt und Richtigkeit verantwortlich und müssen jeden KI-Entwurf fachlich prüfen. Datenschutzrechtlich darf die genutzte KI keine Patientendaten in Drittlandverarbeitung ohne angemessenes Schutzniveau geben. Zulässig sind Lösungen mit AV-Vertrag, Zero Data Retention, EU-Hosting oder lokale Installation.

Wer haftet, wenn ein KI-generierter Arztbrief einen Fehler enthält?

+

Immer der Arzt. § 630a BGB kennt keine Entlastung durch KI-Nutzung. Der EU AI Act verschärft die Pflicht: Art. 26 verlangt wirksame menschliche Aufsicht. Ein ungeprüft übernommener KI-Arztbrief entlastet nicht — er verschärft das Verschulden, weil die Prüfpflicht nachweislich verletzt wurde.

Welche Tools sind für KI-Arztbriefe in Deutschland praxistauglich?

+

Ambient-Scribing-Tools (DeepScribe, Nuance DAX, Corti, noteey, medflux) dokumentieren das Gespräch. LLM-basierte Entwurfstools formulieren aus vorhandener Dokumentation. Entscheidend sind AV-Vertrag, Serverstandort, PVS-Integration, deutschsprachiges medizinisches Vokabular und Auditierbarkeit des Outputs.

Ist ChatGPT für Arztbriefe zulässig?

+

Die Standard-Version ist nicht zulässig, sobald Patientendaten einfließen — keine AV-Vereinbarung, Datenübermittlung in die USA, Training auf Eingaben. Auch Team und Enterprise taugen nur bei belastbarem AV-Vertrag, DSFA, Zero Data Retention und EU-Datenresidenz. § 203 StGB bleibt der zusätzliche Prüfstein.

Welche Pflichten löst ein KI-Arztbrief-Tool im AI Act aus?

+

Das hängt von Zweckbestimmung und Funktion ab. Reine Formulierungs-Assistenz ist meist Niedrig- oder Minimalrisiko. Tools mit inhaltlichen Vorschlägen (ICD, Therapie) rutschen über Anhang III und MDR Rule 11 schnell ins Hochrisiko — mit Pflichten nach Art. 26: KI-Kompetenz-Nachweis, menschliche Aufsicht, Protokollierung, GRFA, DSFA.

Wie setze ich KI-Arztbriefe rechtssicher in meiner Praxis auf?

+

In vier Schritten: (1) Zweckbestimmung und AI-Act-Einstufung des Tools dokumentieren. (2) AV-Vertrag, DSFA und Ihr Review-Prozess festlegen. (3) Team nach Art. 4 AI Act schulen — speziell auf Halluzinationen und Review-Verhalten. (4) Stichprobenartige Qualitätskontrolle institutionalisieren, damit die Prüfpflicht dokumentiert ist. Wer das strukturiert aufsetzt, reduziert Haftungsrisiko und Zeitaufwand gleichzeitig.

Sie wollen KI-Arztbriefe
rechtssicher einführen?

Im kostenlosen Erstgespräch sortieren wir in 20 Minuten, welches Tool zu Ihrer Praxis passt, welche Pflichten dadurch entstehen und wie Sie den Review-Prozess aufsetzen, der Sie rechtlich absichert statt zusätzlich bindet.