DATENSCHUTZFEB 2026

§ 203 StGB trifft Cloud-KI: Wenn der Arztbrief in ChatGPT zum Straftatbestand wird

Daniel Kleiboldt — Legal Engineer

Auf einen Blick

  • 01Das Senden von Patientendaten an Cloud-KI-Dienste kann als Offenbaren i.S.d. § 203 StGB strafbar sein
  • 02DSGVO und StGB sind zwei verschiedene Rechtsrahmen — Compliance mit einem schützt nicht vor dem anderen
  • 03Lösung: On-Premise-LLMs, lokale Inferenz oder Pseudonymisierung vor dem Prompt

Freitagabend. 19:47 Uhr. Die Sprechstunde ist vorbei, die Praxis leer. Nur Dr. M. sitzt noch an seinem Schreibtisch.

Er muss noch drei Arztbriefe diktieren. Der Diktierservice ist seit Monaten unterbesetzt. Also macht er, was inzwischen Tausende Kolleginnen und Kollegen machen: Er öffnet ChatGPT, kopiert die Befunde aus dem PVS und tippt: "Schreib mir einen Arztbrief für folgenden Patienten..."

Name. Geburtsdatum. Diagnose. Medikation. Alles drin.

Drei Minuten später hat er einen perfekt formulierten Brief. Er lehnt sich zurück. Erleichtert. Effizient.

Montagmorgen. Post vom Staatsanwalt.

Das ist kein Gedankenexperiment. Das ist die logische Konsequenz eines Paragraphen, den die meisten Ärzte zwar kennen, aber im Kontext von Cloud-KI völlig unterschätzen: § 203 StGB.

§ 203 StGB: Die Schweigepflicht, die mehr schützt als die DSGVO

Paragraph 203 des Strafgesetzbuches schützt das Vertrauensverhältnis zwischen Arzt und Patient. Nicht als Ordnungswidrigkeit. Nicht als Datenschutzverstoß. Als Straftat.

Der Tatbestand ist klar: Wer ein fremdes Geheimnis offenbart, das ihm als Arzt, Zahnarzt, Apotheker, Psychotherapeut oder Angehöriger eines anderen Heilberufs anvertraut worden ist, wird mit Freiheitsstrafe bis zu einem Jahr oder mit Geldstrafe bestraft.

Die entscheidenden Begriffe sind "Geheimnis" und "Offenbaren".

Was ist ein Geheimnis?

Alles, was der Patient dem Arzt im Rahmen der Behandlung mitteilt oder was der Arzt über den Patienten erfährt. Name, Diagnose, Befund, Medikation, sogar die bloße Tatsache, dass jemand Patient ist. Es gibt keine Bagatellgrenze.

Was bedeutet "Offenbaren"?

Offenbaren heißt: Das Geheimnis einer anderen Person zugänglich machen, die nicht zum Kreis der Mitwisser gehört. Dabei ist völlig unerheblich, ob diese Person das Geheimnis tatsächlich zur Kenntnis nimmt. Die bloße Möglichkeit der Kenntnisnahme genügt.

Und genau hier wird Cloud-KI zum strafrechtlichen Problem.

Cloud-KI als Offenbarung: Warum der Prompt an OpenAI unter § 203 fällt

Wenn Dr. M. Patientendaten in ChatGPT eingibt, passiert technisch Folgendes: Die Daten werden verschlüsselt an einen Server von OpenAI übermittelt. Dort werden sie verarbeitet — das heißt, ein Algorithmus liest den Text, zerlegt ihn in Tokens und generiert eine Antwort. Die Server stehen in den USA. Mitarbeiter von OpenAI haben grundsätzlich Zugang zu den Eingabedaten, etwa für Qualitätssicherung, Training oder Missbrauchserkennung.

Aus Sicht des § 203 StGB ist das ein klarer Fall von Offenbarung. Dr. M. macht Patientengeheimnisse einem US-amerikanischen Technologieunternehmen zugänglich. Es spielt keine Rolle, ob ein OpenAI-Mitarbeiter den konkreten Prompt jemals liest. Die Möglichkeit reicht.

Dasselbe gilt für Google Gemini, Anthropic Claude, Microsoft Copilot oder jede andere Cloud-basierte KI, bei der Daten den Kontrollbereich des Arztes verlassen.

Manche Anbieter werben mit "Enterprise-Versionen", bei denen die Daten angeblich nicht für Training verwendet werden. Das ist datenschutzrechtlich relevant, ändert aber nichts am Strafrecht. Denn § 203 fragt nicht: "Werden die Daten weiterverarbeitet?" Sondern: "Hat ein Unbefugter Zugang?"

Solange ein Dritter — und sei es der Betreiber der KI-Infrastruktur — technisch auf die Daten zugreifen kann, liegt eine Offenbarung vor.

DSGVO vs. StGB: Zwei Rechtsrahmen, doppelte Gefahr

Viele Ärzte und Praxismanager denken: "Wir haben einen AV-Vertrag mit dem Anbieter und eine Datenschutzerklärung. Das müsste reichen."

Das ist ein fundamentaler Denkfehler. DSGVO und StGB sind zwei völlig unterschiedliche Rechtsrahmen mit unterschiedlichen Voraussetzungen, unterschiedlichen Rechtsfolgen und unterschiedlichen Behörden.

  • DSGVO: Regelt die Verarbeitung personenbezogener Daten. Rechtsgrundlage kann ein Vertrag, eine Einwilligung oder ein berechtigtes Interesse sein. Verstöße führen zu Bußgeldern. Zuständig: Datenschutzbehörden.
  • § 203 StGB: Schützt das Vertrauensverhältnis. Keine Rechtsgrundlage durch AV-Vertrag möglich. Verstöße führen zu Strafverfahren. Zuständig: Staatsanwaltschaft.

Ein AV-Vertrag mit OpenAI löst Ihr DSGVO-Problem (vielleicht). Er löst nicht Ihr § 203-Problem. Denn die strafrechtliche Schweigepflicht lässt sich nicht durch einen Vertrag zwischen Arzt und IT-Dienstleister aushebeln.

Es gibt zwar seit 2017 den § 203 Abs. 3 StGB, der "sonstige Mitwirkende" einschließt — also IT-Dienstleister, die im Auftrag des Arztes tätig werden. Diese Personen unterliegen dann selbst der Schweigepflicht. Aber: Das setzt voraus, dass der Dienstleister in einem konkreten Auftragsverhältnis steht und die Daten nur im Rahmen dieses Auftrags verarbeitet. Bei einem US-amerikanischen Cloud-KI-Anbieter mit eigener Datenverarbeitungslogik ist das mehr als zweifelhaft.

Einwilligung als Ausweg? Die Grenzen der Patienteneinwilligung

Der nächste Reflex: "Dann lasse ich mir eben vom Patienten die Einwilligung geben."

Grundsätzlich kann der Patient den Arzt von der Schweigepflicht entbinden. Das ist anerkannt. Aber bei Cloud-KI stoßen Einwilligungslösungen an ihre Grenzen:

  • Informiertheit: Der Patient müsste verstehen, was genau mit seinen Daten passiert. Dass sie an Server in den USA übermittelt werden. Dass dort Mitarbeiter Zugang haben. Dass die Daten möglicherweise für Modelltraining verwendet werden. Welcher Patient versteht das?
  • Freiwilligkeit: In einem Behandlungsverhältnis besteht ein strukturelles Machtgefälle. Wenn der Arzt sagt "Unterschreiben Sie das bitte, damit ich Ihren Brief effizienter schreiben kann", ist die Freiwilligkeit fragwürdig.
  • Bestimmtheit: Die Einwilligung muss sich auf einen konkreten Empfänger beziehen. "Irgendein KI-Anbieter" reicht nicht. Und wenn der Anbieter wechselt, brauchen Sie eine neue Einwilligung.
  • Widerruflichkeit: Der Patient kann jederzeit widerrufen. Aber die Daten sind dann bereits bei OpenAI. Eine Rückholung ist technisch unmöglich.

Fazit: Einwilligung ist theoretisch möglich, praktisch kaum umsetzbar und juristisch angreifbar.

Technische Lösungen: KI nutzen, ohne § 203 zu verletzen

Die gute Nachricht: Sie müssen nicht auf KI verzichten. Sie müssen nur die Architektur ändern. Wie wir auch in unserem Beitrag zur KI in der Radiologie ausführen, lautet die Devise: Bringen Sie die KI zu den Daten, nicht die Daten zur KI.

On-Premise-LLMs

Open-Source-Modelle wie Llama, Mistral oder Phi lassen sich auf eigener Hardware betreiben. Die Daten verlassen nie Ihr Netzwerk. Kein Offenbaren, kein § 203-Problem. Die Qualität dieser Modelle hat sich 2025 dramatisch verbessert — für Arztbriefe, Befundzusammenfassungen und Dokumentation sind sie längst praxistauglich.

Lokale Inferenz

Moderne Hardware — selbst ein gut ausgestatteter Desktop-PC mit dedizierter GPU — kann kleinere Sprachmodelle lokal ausführen. Für eine Einzelpraxis kann das die pragmatischste Lösung sein: Ein lokales Modell, das Arztbriefe formuliert, ohne dass ein einziges Byte das Haus verlässt.

Pseudonymisierung als Zwischenschritt

Wenn Cloud-KI unvermeidbar ist: Entfernen Sie alle identifizierenden Merkmale, bevor Sie den Prompt abschicken. Name, Geburtsdatum, Adresse, Versichertennummer — alles raus. Ersetzen Sie es durch Platzhalter. Nach der Antwort fügen Sie die Daten wieder ein. Das ist umständlich, aber es reduziert das strafrechtliche Risiko erheblich. Achtung: Echte Anonymisierung ist bei medizinischen Daten schwer zu erreichen — Diagnose plus Alter plus Wohnort kann bereits reidentifizierbar sein.

Checkliste: 5 Fragen vor dem ersten Prompt

Bevor Sie als Ärztin oder Arzt Patientendaten in ein KI-System eingeben, stellen Sie sich diese fünf Fragen:

  • 1. Wo läuft das Modell? Lokal auf meinem Rechner oder in der Cloud? Wenn Cloud: In welchem Land stehen die Server? Wer ist der Betreiber?
  • 2. Wer hat Zugang zu meinen Eingaben? Können Mitarbeiter des Anbieters meine Prompts einsehen? Werden Daten für Training verwendet? Gibt es ein Opt-out?
  • 3. Sind Patientendaten im Prompt? Enthält mein Prompt Namen, Geburtsdaten, Diagnosen oder andere identifizierende Merkmale? Kann ich pseudonymisieren?
  • 4. Habe ich eine Rechtsgrundlage — für beide Rechtsrahmen? DSGVO-Basis (AV-Vertrag, Einwilligung)? UND: § 203-Konformität (kein Offenbaren, oder wirksame Einwilligung)?
  • 5. Was passiert im Worst Case? Wenn morgen der Datenschutzbeauftragte oder der Staatsanwalt fragt: Kann ich dokumentieren, warum meine Nutzung rechtskonform ist?

Wer diese fünf Fragen ehrlich beantwortet, wird feststellen: Für die meisten Cloud-KI-Anwendungen im ärztlichen Bereich gibt es heute keine rechtssichere Lösung — es sei denn, die Daten bleiben im eigenen Haus.

Die Technologie ist da. Die Modelle sind gut genug. Was fehlt, ist die richtige Architektur. Und das Bewusstsein, dass § 203 StGB kein Relikt aus der analogen Welt ist, sondern die schärfste Waffe im Patientenschutz.

Nutzen Sie KI. Aber bauen Sie sie so ein, dass der Staatsanwalt keinen Grund hat, Ihnen zu schreiben.

Häufig gestellte Fragen (FAQ)

Ist die Nutzung von ChatGPT mit Patientendaten strafbar?

Ja, die Eingabe von Patientendaten in Cloud-KI wie ChatGPT kann eine Straftat nach § 203 StGB darstellen. Die bloße Möglichkeit, dass OpenAI-Mitarbeiter auf die Daten zugreifen können, genügt bereits als "Offenbaren" im Sinne des Gesetzes.

Schützt ein Auftragsverarbeitungsvertrag (AV-Vertrag) vor § 203-Verstößen bei Cloud-KI?

Nein. Ein AV-Vertrag löst möglicherweise Ihr DSGVO-Problem, nicht aber Ihr strafrechtliches Problem nach § 203 StGB. Die ärztliche Schweigepflicht lässt sich nicht durch einen Vertrag zwischen Arzt und IT-Dienstleister aushebeln.

Kann eine Patienteneinwilligung die Nutzung von Cloud-KI legitimieren?

Theoretisch ja, praktisch kaum umsetzbar. Der Patient müsste verstehen, dass seine Daten an US-Server gehen und für Training verwendet werden könnten. Zudem ist die Freiwilligkeit im Behandlungsverhältnis fragwürdig und ein Widerruf technisch nicht durchsetzbar.

Wie kann ich KI nutzen, ohne gegen § 203 StGB zu verstoßen?

Nutzen Sie On-Premise-LLMs wie Llama oder Mistral auf eigener Hardware, lokale Inferenz auf einem Desktop-PC mit GPU, oder pseudonymisieren Sie alle identifizierenden Merkmale vor dem Cloud-Prompt. Die Devise lautet: Bringen Sie die KI zu den Daten, nicht die Daten zur KI.

Was ist der Unterschied zwischen DSGVO und § 203 StGB bei KI-Nutzung?

Die DSGVO regelt die Verarbeitung personenbezogener Daten und führt zu Bußgeldern; § 203 StGB schützt das ärztliche Vertrauensverhältnis und führt zu Strafverfahren. Beide Rechtsrahmen gelten gleichzeitig, haben aber unterschiedliche Voraussetzungen und Konsequenzen.

Systematisch vorbereitet. In 90 Minuten.

Der KI-Compliance-Kurs für Ärzte und Praxisteams

Betreiberpflichten, KI-Literacy-Nachweis und 3 CME-Punkte — mit Fallbeispielen, Checklisten und konkretem Fahrplan für die Praxis.