PRAXIS-KIFEB 2026

ChatGPT schreibt Ihren Arztbrief. Wer trägt die Verantwortung? (Nicht ChatGPT.)

Daniel Kleiboldt — Legal Engineer

Auf einen Blick

  • 01ChatGPT kann je nach Einsatzzweck als Hochrisiko-KI unter den EU AI Act fallen
  • 02Datenübermittlung an OpenAI: DSGVO-Transfer Impact Assessment und § 203 StGB beachten
  • 03Der Arzt bleibt verantwortlich (LG Kiel 2024) — rechtssichere Alternativen: lokale Modelle, Pseudonymisierung

"Schreib mir einen Arztbrief für einen 67-jährigen Patienten mit Erstdiagnose Diabetes mellitus Typ 2, HbA1c 8,3 %, Metformin 1000 mg..."

Das ist der häufigste Prompt in deutschen Arztpraxen. Nicht offiziell. Nicht dokumentiert. Nicht erlaubt. Aber Realität.

Laut einer informellen Umfrage der Ärztezeitung aus 2025 haben über 40 % der niedergelassenen Ärzte mindestens einmal ChatGPT oder ein vergleichbares Tool für klinische Dokumentation verwendet. Die meisten wissen, dass es "irgendwie problematisch" ist. Die wenigsten wissen, warum genau — und wie groß das Risiko tatsächlich ist.

Dieser Beitrag erklärt die Rechtslage. Ohne Panikmache, aber ohne Beschönigung.

Was passiert technisch, wenn Sie Patientendaten in ChatGPT eingeben?

Transparenz zuerst. Wenn Sie einen Prompt an ChatGPT senden, passiert Folgendes:

  • Übermittlung: Ihr Text wird verschlüsselt (TLS) an Server von OpenAI gesendet. Diese stehen primär in den USA, teilweise auf Azure-Infrastruktur in Europa.
  • Verarbeitung: Das Sprachmodell verarbeitet Ihren Text. Es "liest" ihn — tokenisiert, kontextualisiert, generiert eine Antwort. Dazu muss der gesamte Prompt im Arbeitsspeicher des Servers liegen.
  • Speicherung: Bei der kostenlosen Version und ChatGPT Plus werden Konversationen standardmäßig gespeichert — für 30 Tage durch OpenAI, potenziell länger für Missbrauchserkennung. Bei der Enterprise-Version verspricht OpenAI, Daten nicht für Training zu verwenden.
  • Zugriff: OpenAI-Mitarbeiter können Konversationen einsehen — etwa bei Beschwerden, Sicherheitsvorfällen oder zur Qualitätskontrolle. Das ist in den Terms of Service dokumentiert.

Zusammengefasst: Ihre Patientendaten liegen auf einem fremden Server, in einem fremden Land, und fremde Menschen können sie lesen.

Warum das strafrechtlich relevant ist, haben wir ausführlich in unserem Beitrag zu § 203 StGB und Cloud-KI analysiert.

EU AI Act: Ist ChatGPT ein Hochrisiko-KI-System?

Die Antwort ist typisch juristisch: Es kommt darauf an.

ChatGPT selbst ist ein General Purpose AI Model (GPAI) im Sinne des EU AI Act. Für GPAI-Modelle gelten eigene Regeln (Art. 51-56), die primär den Anbieter — also OpenAI — betreffen: Transparenzpflichten, technische Dokumentation, Copyright-Compliance.

Aber: Sobald Sie ChatGPT für einen bestimmten Zweck einsetzen, kann sich die Risikokategorie ändern. Und hier wird es für Ärzte relevant:

  • Arztbrief als Dokumentation: Wenn Sie ChatGPT ausschließlich als Formulierungshilfe nutzen — also den medizinischen Inhalt selbst bestimmen und nur die sprachliche Aufbereitung delegieren — ist das eher eine Niedrigrisiko-Anwendung.
  • Arztbrief mit klinischer Empfehlung: Wenn Sie ChatGPT bitten, aus Befunden Diagnosen abzuleiten, Therapieempfehlungen auszusprechen oder Differentialdiagnosen zu erstellen, bewegen Sie sich im Hochrisikobereich (Annex III, Nr. 5 lit. a).

Die Grenze ist in der Praxis fließend. Ein Prompt wie "Schreib den Arztbrief und empfiehl die Weiterbehandlung" ist bereits ein Hochrisiko-Einsatz.

Für MVZs mit mehreren Standorten vervielfacht sich dieses Problem — wie wir in unserem MVZ-Leitfaden zum EU AI Act detailliert darstellen.

DSGVO: Datenübermittlung in die USA

Seit dem EU-US Data Privacy Framework (DPF) aus 2023 gibt es wieder einen Angemessenheitsbeschluss für die USA. OpenAI ist DPF-zertifiziert. Damit ist die Datenübermittlung grundsätzlich möglich.

Aber "grundsätzlich möglich" heißt nicht "automatisch erlaubt". Für Gesundheitsdaten nach Art. 9 DSGVO brauchen Sie:

  • Eine Rechtsgrundlage für die Verarbeitung (Einwilligung nach Art. 9 Abs. 2 lit. a oder Behandlungsvertrag nach Art. 9 Abs. 2 lit. h — wobei letzterer die Übermittlung an einen US-KI-Anbieter kaum abdeckt)
  • Einen Auftragsverarbeitungsvertrag nach Art. 28 DSGVO
  • Ein Transfer Impact Assessment (TIA), das bewertet, ob das DPF ausreichenden Schutz bietet

Das TIA ist keine Formsache. Sie müssen bewerten: Können US-Behörden (NSA, FBI) auf die Daten zugreifen? Der CLOUD Act erlaubt das — selbst wenn die Server in der EU stehen. Das DPF bietet zwar neue Rechtsschutzmechanismen, aber ob diese für Gesundheitsdaten ausreichen, ist unter Datenschützern umstritten.

Einige Landesdatenschutzbehörden haben bereits signalisiert, dass sie die Nutzung von ChatGPT für Gesundheitsdaten kritisch sehen. Ein formelles Verbot gibt es (noch) nicht — aber die Bußgelder nach Art. 83 DSGVO reichen bis zu 20 Millionen Euro.

Haftung: Der Arzt bleibt verantwortlich

Eine zentrale Erkenntnis aus der sich entwickelnden Rechtsprechung: KI verändert die Haftung nicht. Sie verschärft sie.

Das LG Kiel hat 2024 in einem vielbeachteten Urteil klargestellt: Der Arzt trägt die volle Verantwortung für den Inhalt seiner ärztlichen Dokumente — unabhängig davon, mit welchem Werkzeug sie erstellt wurden. Wenn ChatGPT eine falsche Dosierung vorschlägt und der Arzt diese ungeprüft übernimmt, haftet der Arzt. Nicht OpenAI.

Mehr noch: Die Nutzung von nicht validierten KI-Tools kann als Organisationsverschulden gewertet werden. Wenn der Arzt ein System einsetzt, das nicht für medizinische Zwecke zugelassen ist, und daraus ein Schaden entsteht, ist das kein unvermeidbarer Fehler — es ist ein vermeidbares Risiko, das der Arzt bewusst eingegangen ist.

Die ausführliche Analyse zur Haftung bei KI im Gesundheitswesen finden Sie in unserem separaten Beitrag.

Praxistipp: So nutzen Sie KI für Arztbriefe rechtssicher

KI für Arztbriefe ist nicht per se verboten. Sie müssen nur die richtige Architektur wählen:

Option 1: Lokale Modelle

Open-Source-Modelle wie Llama 3, Mistral oder spezialisierte medizinische Modelle laufen auf lokaler Hardware. Die Daten verlassen nie Ihr Netzwerk. Kein § 203-Problem, kein DSGVO-Transfer-Problem, kein Cloud-Risiko. Die Qualität ist für strukturierte Arztbriefe mittlerweile überzeugend. Wie wir in unserem Beitrag zur KI in der Radiologie beschreiben, ist Edge AI die Zukunft für sensible medizinische Daten.

Option 2: Pseudonymisierung

Wenn Sie Cloud-KI nutzen wollen oder müssen: Entfernen Sie vorher alle identifizierenden Daten. Ersetzen Sie den Patientennamen durch "Patient A", das Geburtsdatum durch "XX.XX.XXXX", die Adresse durch einen Platzhalter. Fügen Sie die echten Daten erst nach der KI-Antwort wieder ein. Das ist umständlich, aber es reduziert das strafrechtliche Risiko erheblich.

Option 3: Zertifizierte Medizin-KI

Es gibt zunehmend KI-Lösungen, die speziell für den medizinischen Bereich entwickelt und als Medizinprodukt zugelassen sind. Diese Systeme haben die regulatorischen Hürden bereits genommen: CE-Kennzeichnung, Datenschutzkonzept, Serverstandort in der EU. Sie sind teurer als ChatGPT. Aber sie sind legal.

Checkliste: ChatGPT in der Praxis — Go/No-Go

Die Entscheidungshilfe für den Praxisalltag:

  • Patientendaten im Prompt? → No-Go. Sobald Name, Geburtsdatum, Diagnose oder andere identifizierende Merkmale enthalten sind, ist die Nutzung von Cloud-KI ohne wirksame Pseudonymisierung rechtswidrig (§ 203 StGB, Art. 9 DSGVO).
  • Rein generische Anfrage? → Go. "Formuliere einen Arztbrief-Absatz zur Therapie bei Diabetes Typ 2 mit Metformin" — ohne Patientenbezug — ist unproblematisch.
  • Klinische Entscheidungsunterstützung? → No-Go. ChatGPT ist kein zugelassenes Medizinprodukt. Diagnosevorschläge oder Therapieempfehlungen aus ChatGPT in die Patientenversorgung einfließen zu lassen, ist ein Haftungsrisiko.
  • Lokales Modell verfügbar? → Go. Wenn die KI lokal läuft und die Daten Ihr Netzwerk nicht verlassen, fallen die meisten Risiken weg. Prüfung der AI-Act-Konformität bleibt erforderlich.
  • Pseudonymisierung möglich? → Bedingtes Go. Wenn alle identifizierenden Merkmale zuverlässig entfernt werden können, ist Cloud-KI nutzbar. Dokumentieren Sie den Pseudonymisierungsprozess.
  • Enterprise-Version mit EU-Servern? → Prüfen. Reduziert das Risiko, eliminiert es aber nicht. AV-Vertrag, TIA und § 203-Analyse bleiben erforderlich.
  • Ergebnis ungeprüft übernommen? → No-Go. Jeder KI-generierte Arztbrief muss vom Arzt inhaltlich geprüft und freigegeben werden. Immer.

Die Versuchung ist groß. ChatGPT schreibt in 30 Sekunden einen Arztbrief, für den Sie sonst 15 Minuten brauchen. Aber die 14,5 Minuten Zeitersparnis sind nichts wert, wenn sie in ein Strafverfahren, ein Bußgeld oder einen Haftungsfall münden.

Die Zukunft des KI-gestützten Arztbriefs ist lokal, pseudonymisiert und zertifiziert. Nicht kostenlos, bequem und illegal.

Häufig gestellte Fragen (FAQ)

Darf ich als Arzt ChatGPT für Arztbriefe verwenden?

Nicht mit Patientendaten. Sobald Name, Geburtsdatum oder Diagnose im Prompt stehen, verstößt die Nutzung von Cloud-KI gegen § 203 StGB und Art. 9 DSGVO. Rein generische Anfragen ohne Patientenbezug sind hingegen unproblematisch.

Ist ChatGPT ein Hochrisiko-KI-System nach dem EU AI Act?

Es kommt auf den Einsatzzweck an. Als reine Formulierungshilfe ist ChatGPT eher Niedrigrisiko. Sobald Sie ChatGPT bitten, Diagnosen abzuleiten oder Therapieempfehlungen auszusprechen, bewegen Sie sich im Hochrisikobereich nach Anhang III des AI Act.

Welche rechtssicheren Alternativen gibt es zu ChatGPT für Arztbriefe?

Drei Optionen: Lokale Open-Source-Modelle wie Llama 3, die auf eigener Hardware laufen; Pseudonymisierung aller Patientendaten vor dem Cloud-Prompt; oder zertifizierte Medizin-KI-Lösungen mit CE-Kennzeichnung und EU-Serverstandort.

Wer haftet, wenn ChatGPT eine falsche Dosierung in einem Arztbrief vorschlägt?

Der Arzt haftet vollständig. Das LG Kiel hat 2024 klargestellt, dass der Arzt die volle Verantwortung für den Inhalt seiner Dokumente trägt — unabhängig vom verwendeten Werkzeug. Die Nutzung nicht validierter KI-Tools kann sogar als Organisationsverschulden gewertet werden.

Reicht die Enterprise-Version von ChatGPT mit EU-Servern für die Arztpraxis?

Sie reduziert das Risiko, eliminiert es aber nicht. Auch bei EU-Servern bleiben ein AV-Vertrag, ein Transfer Impact Assessment und eine § 203-Analyse erforderlich. Der CLOUD Act erlaubt US-Behörden den Zugriff auch auf Daten in EU-Rechenzentren.

Systematisch vorbereitet. In 90 Minuten.

Der KI-Compliance-Kurs für Ärzte und Praxisteams

Betreiberpflichten, KI-Literacy-Nachweis und 3 CME-Punkte — mit Fallbeispielen, Checklisten und konkretem Fahrplan für die Praxis.