Die Arzthelferin kündigt. Schon wieder. Kann KI helfen? (Kommt drauf an.)
Daniel Kleiboldt — Legal Engineer
Auf einen Blick
- 01KI kann 40–60 % der administrativen MFA-Arbeit übernehmen (Telefon, Formulare, Doku)
- 02Gesundheitsdaten fallen unter Art. 9 DSGVO — KI-Einsatz braucht mehr als ein Häkchen
- 03Compliance by Design statt nachträglichem Draufkleben — vor dem Invest klären
Montagmorgen, 8:02 Uhr. Das Telefon klingelt. Niemand nimmt ab, weil die eine MFA, die heute da ist, gerade einem Patienten erklärt, dass seine Überweisung abgelaufen ist. Im Wartezimmer wächst die Schlange. Um 8:15 Uhr ist der Tag bereits verloren.
Diese Szene kennt jeder, der schon mal in einer deutschen Arztpraxis war — auf beiden Seiten des Tresens.
Und jetzt kommt der Punkt, an dem normalerweise jemand sagt: "KI kann das lösen!" Spoiler: Kann sie nicht. Zumindest nicht so, wie es die LinkedIn-Posts der Tech-Bros versprechen.
Aber — und das ist der interessante Teil — sie kann etwas anderes tun. Etwas, das tatsächlich hilft. Wenn man es richtig macht. Was selten passiert.
Der Elefant im Wartezimmer: Fachkräftemangel
Jede dritte Arztpraxis findet keine MFAs mehr. In manchen Regionen ist es jede zweite. Das liegt nicht daran, dass der Beruf so unattraktiv wäre — okay, doch, auch daran — sondern an einer simplen demografischen Rechnung: mehr Patienten, weniger Arbeitskräfte, keine Besserung in Sicht.
Die Standardlösung heißt: "Wir müssen attraktiver werden, besser bezahlen, mehr ausbilden." Stimmt alles. Wird aber auch nicht reichen.
Denn das Problem ist nicht nur die Zahl der Leute. Es ist das, womit sie ihre Zeit verbringen.
Eine MFA in einer durchschnittlichen Praxis verbringt — je nach Studie — 40 bis 60 Prozent ihrer Arbeitszeit mit Dingen, die nichts mit Patienten zu tun haben. Telefon. Formulare. Überweisungen suchen. Befunde einscannen. Termine jonglieren. Der ganze administrative Wahnsinn, der zwischen "Patient kommt rein" und "Patient geht raus" passiert.
Das ist die unsichtbare Zeitfresser-Maschine. Und genau hier wird KI interessant.
Technologie, die jetzt existiert und im Einsatz ist
- Telefonassistenz: Eine KI nimmt Anrufe an, versteht natürliche Sprache, beantwortet die ewig gleichen Fragen und leitet nur die komplizierten Fälle an einen Menschen weiter. Ergebnis: 60 bis 80 Prozent weniger Unterbrechungen für die MFA.
- Digitale Patientenaufnahme: Der Patient füllt den Anamnesebogen vor dem Termin auf dem Handy aus. Die KI strukturiert die Angaben, erkennt Muster, bereitet eine Zusammenfassung vor. Spart 10 bis 15 Minuten pro Neupatient.
- Dokumentationsunterstützung: Die KI hört beim Arzt-Patienten-Gespräch zu, erstellt automatisch eine strukturierte Dokumentation, schlägt ICD-Codes vor. Der Arzt prüft, korrigiert, bestätigt.
Klingt gut, oder? Ist es auch. Theoretisch.
Der Teil, den einem keiner erzählt
Hier wird es juristisch — aber bleiben Sie dran, das ist der wichtige Teil.
Gesundheitsdaten sind keine normalen Daten. Sie fallen unter Artikel 9 DSGVO, "besondere Kategorien personenbezogener Daten". Die Verarbeitung ist grundsätzlich verboten. Mit Ausnahmen, ja — aber diese Ausnahmen sind eng. Sehr eng.
Und seit August 2024 gilt der EU AI Act. KI im Gesundheitsbereich gilt als Hochrisiko-Kategorie. Dokumentationspflichten, Konformitätsbewertungen, menschliche Aufsicht. Das volle Programm.
Was heißt das praktisch?
- Einwilligung ist nicht "Häkchen setzen". Der Patient muss verstehen, was passiert. Dass eine KI zuhört. Dass seine Daten verarbeitet werden. Von wem, wo, wie lange.
- Serverstandort ist kein Technik-Detail. Viele KI-Tools laufen über amerikanische Cloud-Dienste. Nach dem Schrems-II-Urteil ist Datentransfer in die USA ein juristisches Minenfeld.
- Black-Box-KI ist ein Haftungsproblem. Wenn die KI etwas dokumentiert oder empfiehlt, müssen Sie erklären können, wie sie zu diesem Ergebnis kam.
Die meisten KI-Lösungen, die gerade auf den Markt drängen, sind technisch brilliant und rechtlich ein Himmelfahrtskommando. Nicht, weil KI schlecht ist. Sondern weil die Entwickler das Produkt gebaut haben — und dann erst gefragt haben, ob es legal ist.
KI in der Arztpraxis kann funktionieren
Rechtssicher, sinnvoll, ohne Albträume.
Das funktioniert allerdings nur, wenn man aufhört, es als reines Tech-Projekt zu behandeln. Wenn Compliance nicht nachträglich draufgeklebt wird, sondern von Anfang an mitgedacht. Privacy by Design statt Privacy by Panik.
Das bedeutet: Bevor Sie investieren, klären Sie, wo die Daten liegen. Wie die Einwilligung eingeholt wird. Was passiert, wenn die KI Unsinn macht. Wer haftet.
Das klingt nach Aufwand. Ist es auch. Aber es ist deutlich weniger Aufwand als der Brief vom Anwalt, nachdem Sie schon 50.000 Euro in eine Lösung investiert haben, die Sie nicht nutzen dürfen.
Wenn Sie eine Praxis gründen, umbauen oder erweitern — jetzt ist der Moment, das von Anfang an richtig zu machen. Greenfield-Projekte sind selten. Nutzen Sie die Chance.
Und wenn Sie eine KI-Lösung für den Gesundheitsbereich anbieten: Sprechen Sie mit jemandem, der beide Seiten versteht. Bevor Ihre Kunden es tun müssen.
Häufig gestellte Fragen (FAQ)
Kann KI den Fachkräftemangel in der Arztpraxis lösen?
KI kann den Fachkräftemangel nicht lösen, aber deutlich lindern. KI-Telefonassistenz, digitale Patientenaufnahme und Dokumentationsunterstützung können 40 bis 60 Prozent der administrativen MFA-Arbeit übernehmen und so die verbleibenden Fachkräfte entlasten.
Welche KI-Anwendungen gibt es bereits für die Arztpraxis?
Drei Hauptbereiche: KI-Telefonassistenz (60–80 % weniger Unterbrechungen), digitale Patientenaufnahme mit KI-Strukturierung (10–15 Minuten Zeitersparnis pro Neupatient) und KI-Dokumentationsunterstützung (automatische Protokolle, ICD-Code-Vorschläge aus dem Arzt-Patienten-Gespräch).
Welche Datenschutz-Anforderungen gelten für KI in der Arztpraxis?
Gesundheitsdaten fallen unter Art. 9 DSGVO und sind grundsätzlich besonders geschützt. Die Patienteneinwilligung muss informiert erfolgen, der Serverstandort muss geklärt sein (Schrems II beachten) und die KI muss erklärbar sein. Der EU AI Act stuft KI im Gesundheitsbereich als Hochrisiko ein.
Was muss ich vor der Einführung von KI in meiner Praxis klären?
Vor dem Invest müssen vier Fragen geklärt sein: Wo liegen die Daten? Wie wird die Einwilligung eingeholt? Was passiert bei KI-Fehlern? Wer haftet? Compliance muss von Anfang an mitgedacht werden (Privacy by Design), nicht nachträglich aufgesetzt.
Warum sind viele KI-Lösungen für Arztpraxen rechtlich problematisch?
Viele KI-Anbieter kommen nicht aus dem Healthcare-Bereich und behandeln DSGVO als Buzzword statt als Architekturentscheidung. Cloud-basierte Verarbeitung über US-Dienste, fehlende Erklärbarkeit und unzureichende Haftungskonzepte machen viele Lösungen zu einem juristischen Risiko.
Systematisch vorbereitet. In 90 Minuten.
Der KI-Compliance-Kurs für Ärzte und Praxisteams
Betreiberpflichten, KI-Literacy-Nachweis und 3 CME-Punkte — mit Fallbeispielen, Checklisten und konkretem Fahrplan für die Praxis.
Weiterlesen