HAFTUNGFEB 2026

KI-Haftung in der Klinik: Arzthaftung, Krankenhaushaftung, Produkthaftung — wer zahlt?

Daniel Kleiboldt — Legal Engineer

Auf einen Blick

  • 01Drei Haftungsebenen: Arzthaftung (§ 630a BGB), Krankenhaushaftung (Organisations-/Übernahmeverschulden), Produkthaftung (Hersteller)
  • 02Dokumentation der Human-Oversight-Prozesse ist die beste Haftungsprävention
  • 03Versicherungsfrage: Klären Sie mit Ihrem Haftpflichtversicherer, ob KI-gestützte Entscheidungen gedeckt sind

Wenn eine KI in der Einzelpraxis einen Fehler macht, ist die Haftungsfrage vergleichsweise überschaubar: Der behandelnde Arzt haftet, möglicherweise der Hersteller. In der Klinik wird es deutlich komplexer. Hier kommen Organisationsstrukturen, Hierarchien, Ausbildungsunterschiede und institutionelle Verantwortung ins Spiel. Die grundlegenden Haftungsfragen bei KI im Gesundheitswesen haben wir bereits beleuchtet. Dieser Beitrag geht einen Schritt weiter und betrachtet die spezifischen Haftungsrisiken, die sich für Krankenhäuser und ihre Träger ergeben.

Denn eines ist klar: Die Einführung von KI-Systemen in der Klinik verändert nicht nur Arbeitsabläufe, sondern auch die juristische Verantwortungsarchitektur. Wer das ignoriert, riskiert nicht nur Patientenschäden, sondern auch existenzbedrohende Haftungsansprüche.

Drei Haftungsebenen: Wer haftet wofür?

Im klinischen Kontext lassen sich drei Haftungsebenen unterscheiden, die bei KI-gestützten Behandlungsfehlern relevant werden:

Ebene 1: Arzthaftung nach § 630a BGB

Der behandelnde Arzt schuldet dem Patienten eine Behandlung nach dem aktuellen Stand der medizinischen Wissenschaft. Wenn er eine KI-gestützte Empfehlung unkritisch übernimmt und dabei einen Fehler begeht, haftet er persönlich. Die KI entlastet ihn nicht – sie ist ein Werkzeug, kein Verantwortungsträger. Der Arzt muss die Ausgabe der KI fachlich bewerten können und darf sich nicht blind auf sie verlassen. Das gilt für den Chefarzt ebenso wie für den Assistenzarzt – wobei sich bei Letzterem die Frage des Übernahmeverschuldens stellt.

Ebene 2: Krankenhaushaftung – § 831 BGB und Organisationsverschulden

Das Krankenhaus haftet nicht nur für das Verschulden seiner angestellten Ärzte (§ 831 BGB, Haftung für Verrichtungsgehilfen), sondern auch für eigene Organisationsfehler. Das Organisationsverschulden ist im Kontext von KI besonders brisant. Es umfasst die Pflicht, den Klinikbetrieb so zu organisieren, dass Patienten keinen vermeidbaren Schaden erleiden. Dazu gehört: die Auswahl geeigneter Systeme, die Schulung des Personals, die Festlegung von Prozessen für den Umgang mit KI-Empfehlungen und die laufende Überwachung der Systemleistung.

Ebene 3: Produkthaftung des Herstellers

Der Hersteller des KI-Systems haftet nach dem Produkthaftungsgesetz, wenn das System fehlerhaft ist und dadurch ein Schaden entsteht. Die neue EU-Produkthaftungsrichtlinie erfasst ausdrücklich auch Software und KI-Systeme. Für Kliniken ist wichtig: Die Produkthaftung des Herstellers entlastet das Krankenhaus nicht automatisch von eigenen Pflichten. Wenn die Klinik ein bekanntermaßen fehlerhaftes System weiter einsetzt oder Warnhinweise des Herstellers ignoriert, haftet sie neben dem Hersteller.

Organisationsverschulden: Die unterschätzte Gefahr

Das Organisationsverschulden ist das zentrale Haftungsrisiko für Kliniken im KI-Zeitalter. Die Rechtsprechung hat über Jahrzehnte klare Anforderungen an die Krankenhausorganisation entwickelt. Diese lassen sich direkt auf den Einsatz von KI übertragen:

  • Auswahl und Beschaffung: Die Klinik muss sicherstellen, dass das eingesetzte KI-System für den vorgesehenen Zweck geeignet, zertifiziert und validiert ist. Ein System ohne CE-Kennzeichnung als Medizinprodukt in der Diagnostik einzusetzen, wäre ein klarer Organisationsfehler.
  • Implementierung: Das System muss korrekt in bestehende Workflows integriert werden. Dazu gehören klare Regeln, wann die KI-Empfehlung eingeholt wird, wie sie dokumentiert wird und unter welchen Umständen von ihr abgewichen werden darf oder muss.
  • Schulung: Alle Mitarbeitenden, die mit dem System arbeiten, müssen geschult sein – nicht nur in der technischen Bedienung, sondern auch in der kritischen Bewertung der KI-Ausgaben und im Umgang mit Fehlern oder Ausfällen des Systems.
  • Überwachung: Die Klinik muss die Leistungsfähigkeit des Systems laufend überwachen. Wenn die Erkennungsrate sinkt, Fehlalarme zunehmen oder das System bei bestimmten Patientengruppen systematisch falsch liegt, muss die Klinik handeln.
  • Fallback-Prozesse: Was passiert, wenn das System ausfällt? Ohne definierte Fallback-Prozesse riskiert die Klinik ein Organisationsverschulden – besonders wenn Mitarbeitende sich an die KI-Unterstützung gewöhnt haben und ohne sie unsicher agieren.

Diese Anforderungen sind nicht neu – sie sind die logische Fortschreibung der bestehenden Organisationspflichten auf neue Technologien. Die rechtlichen Rahmenbedingungen auf Krankenhausebene beschreiben wir auch im Detail in unserem Beitrag zum EU AI Act im Krankenhaus.

Übernahmeverschulden: Wenn Personal KI jenseits seiner Kompetenz nutzt

Ein Szenario, das in der Praxis zunehmend relevant wird: Ein Assistenzarzt im ersten Weiterbildungsjahr nutzt ein KI-System für die Befundung radiologischer Bilder. Das System markiert einen Befund als unauffällig. Der Assistenzarzt übernimmt diese Einschätzung, obwohl er selbst noch nicht über die Erfahrung verfügt, die KI-Ausgabe kritisch zu hinterfragen. Der Befund erweist sich als falsch-negativ. Ein Tumor wird übersehen.

Hier stellen sich zwei Haftungsfragen gleichzeitig: Erstens das individuelle Übernahmeverschulden des Arztes – er hat eine Aufgabe übernommen, der er fachlich (noch) nicht gewachsen war. Zweitens das Organisationsverschulden der Klinik – sie hat nicht sichergestellt, dass die KI nur von ausreichend qualifiziertem Personal eigenverantwortlich genutzt wird. Die Klinik muss klare Regeln definieren: Wer darf KI-Empfehlungen eigenständig in klinische Entscheidungen umsetzen? Welche Ergebnisse müssen durch einen Facharzt validiert werden?

Versicherungsaspekte: Deckt Ihre Haftpflicht KI-gestützte Entscheidungen?

Eine Frage, die erstaunlich wenige Kliniken gestellt haben: Deckt die bestehende Berufshaftpflichtversicherung Schäden ab, die aus der Nutzung von KI-Systemen resultieren? Die Antwort ist häufig: unklar.

Viele Policen wurden zu einer Zeit formuliert, als KI-gestützte Diagnostik noch Science-Fiction war. Es empfiehlt sich dringend, folgende Punkte mit dem Versicherer zu klären:

  • Sind Schäden durch fehlerhafte KI-Empfehlungen von der Betriebshaftpflicht erfasst?
  • Gibt es Ausschlussklauseln für "experimentelle Technologien" oder "nicht zugelassene Medizinprodukte"?
  • Wie ist die Deckung bei einem Zusammenspiel von menschlichem Fehler und KI-Fehler (contributory negligence)?
  • Besteht Deckung für regulatorische Bußgelder, etwa nach dem AI Act?
  • Ist eine gesonderte Cyber-Versicherung erforderlich, die auch KI-spezifische Risiken abdeckt?

Unser Rat: Warten Sie nicht auf den ersten Schadensfall, um diese Fragen zu klären. Die Versicherungslandschaft entwickelt sich gerade erst, und Kliniken, die proaktiv das Gespräch suchen, haben bessere Verhandlungspositionen.

Prävention: Dokumentation, Schulung, Governance

Haftungsprävention im Kontext von Klinik-KI ruht auf drei Säulen:

  • Dokumentation: Jede KI-gestützte Entscheidung muss nachvollziehbar dokumentiert werden. Dazu gehört: Welches System wurde genutzt? Was war die Eingabe? Was war die Ausgabe? Hat der Arzt die Empfehlung übernommen oder ist er davon abgewichen – und wenn ja, warum? Diese Dokumentation ist im Haftungsfall der wichtigste Beweismittel.
  • Schulung: Regelmäßige, nachweisbare Schulungen für alle Mitarbeitenden, die mit KI-Systemen arbeiten. Nicht nur bei der Einführung, sondern fortlaufend – insbesondere bei Updates oder Änderungen des Systems. Die Schulungsinhalte sollten sowohl die technische Bedienung als auch die kritische Bewertung der KI-Ausgaben und die rechtlichen Rahmenbedingungen umfassen.
  • Governance: Eine klare Governance-Struktur für den KI-Einsatz – mit definierten Verantwortlichkeiten, Eskalationswegen und regelmäßigen Reviews. Wer ist für die Auswahl neuer Systeme verantwortlich? Wer überwacht die Leistung? Wer entscheidet, ein System abzuschalten, wenn es nicht wie erwartet funktioniert?

Wie eine solche Governance-Struktur konkret aussehen kann, beschreiben wir im Detail in unserem Beitrag zur KI-Governance in der Klinik.

Fazit: Haftung ist kein Grund gegen KI – aber ein Grund für Sorgfalt

KI wird die Klinikmedizin besser machen – davon sind wir überzeugt. Aber "besser" setzt voraus, dass die Einführung professionell und rechtssicher erfolgt. Die Haftungsrisiken sind real, aber sie sind beherrschbar. Was es braucht, ist kein pauschales Verbot, sondern eine durchdachte Strategie: klare Prozesse, qualifiziertes Personal, robuste Dokumentation und eine Governance-Struktur, die mit der Technologie mitwächst.

Kliniken, die heute die richtigen Strukturen schaffen, werden morgen nicht nur rechtlich sicher aufgestellt sein – sie werden auch die Kliniken sein, die das volle Potenzial von KI für ihre Patienten ausschöpfen können. Und das ist letztlich der Maßstab, an dem sich alles messen lassen muss.

Häufig gestellte Fragen (FAQ)

Wer haftet, wenn ein KI-System im Krankenhaus einen Behandlungsfehler verursacht?

Drei Haftungsebenen: Der behandelnde Arzt haftet für unkritische Übernahme der KI-Empfehlung, das Krankenhaus haftet für Organisationsverschulden bei Auswahl, Schulung und Überwachung, und der Hersteller haftet nach dem Produkthaftungsgesetz für fehlerhafte Systeme.

Was ist Organisationsverschulden beim Einsatz von KI in der Klinik?

Organisationsverschulden umfasst die Pflicht, den Klinikbetrieb so zu organisieren, dass Patienten keinen vermeidbaren Schaden erleiden. Dazu gehören die Auswahl zertifizierter Systeme, die Schulung des Personals, klare Prozesse für KI-Empfehlungen und definierte Fallback-Prozesse bei Systemausfällen.

Dürfen Assistenzärzte KI-Systeme eigenständig für die Befundung nutzen?

Nur wenn sie fachlich qualifiziert sind, die KI-Ausgabe kritisch zu hinterfragen. Andernfalls liegt ein Übernahmeverschulden des Arztes und ein Organisationsverschulden der Klinik vor. Die Klinik muss klar regeln, wer KI-Empfehlungen eigenständig in klinische Entscheidungen umsetzen darf.

Deckt die Berufshaftpflichtversicherung Schäden durch KI-gestützte Entscheidungen ab?

Das ist häufig unklar, da viele Policen vor der KI-Ära formuliert wurden. Klären Sie mit Ihrem Versicherer, ob fehlerhafte KI-Empfehlungen abgedeckt sind, ob Ausschlussklauseln für experimentelle Technologien bestehen und ob eine gesonderte Cyber-Versicherung nötig ist.

Wie kann ein Krankenhaus KI-Haftungsrisiken präventiv minimieren?

Haftungsprävention ruht auf drei Säulen: Dokumentation jeder KI-gestützten Entscheidung (System, Eingabe, Ausgabe, ärztliche Bewertung), regelmäßige nachweisbare Schulungen und eine klare Governance-Struktur mit definierten Verantwortlichkeiten und Eskalationswegen.

Systematisch vorbereitet. In 90 Minuten.

Der KI-Compliance-Kurs für Ärzte und Praxisteams

Betreiberpflichten, KI-Literacy-Nachweis und 3 CME-Punkte — mit Fallbeispielen, Checklisten und konkretem Fahrplan für die Praxis.