Zum Inhalt

Teil 8: KI in der Arztpraxis

KI ist ein mächtiges Werkzeug. Aber KI und Patientendaten sind eine gefährliche Kombination – wenn man nicht weiß, was man tut.


Das Szenario: Arztbrief im ChatGPT

Stellen Sie sich einen typischen Arztpraxis-Alltag vor. Ein Arzt dictiert schnell einen Arztbrief in sein Smartphone:

"Patient Müller, 67 Jahre, Diabetes Typ 2, Hypertonus. Heute Besuch wegen persistierender Kopfschmerzen seit zwei Wochen. In Computertomografie Hinweis auf kleine zerebrale Ischämie temporal-links. Diagnose: Leichte zerebrale Durchblutungsstörung. Plan: Blutdruckeinstellung intensivieren, ASS 100 mg täglich starten..."

Dann, statt mit Papier zu arbeiten, gibt der Arzt den Text in ChatGPT ein: "Bitte formuliere das als formalen Arztbrief mit ICD-Codes und gib mir ein Schreiben für die Überweitung zum Neurologen."

ChatGPT liefert in zehn Sekunden einen perfekt strukturierten Arztbrief. Alle wichtigen Informationen sind drin, die Ton ist professionell, die Formatierung ist korrekt. Der Arzt kopiert den Text ins PVS, und der Brief ist fertig.

Das ist effizient. Das ist auch illegal.

Was ist passiert? Ein öffentliches KI-System (ChatGPT) hat erhalten: - Den Namen eines Patienten - Sein Alter - Sensitive Diagnosen - Bildgebungs-Befunde - Behandlungspläne

Alles – absolut alles – sind personenbezogene Gesundheitsdaten. Sie sind jetzt in den Training-Daten von OpenAI landetet, möglicherweise für immer. Der Patient hat nicht zugestimmt. Die DSGVO wurde verletzt. Die ärztliche Schweigepflicht nach § 203 StGB wurde verletzt.

Das ist nicht nur eine rechtliche Grenzüberschreitung. Es ist auch ein Sicherheitsrisiko: Der Arzt hat keine Kontrolle darüber, was OpenAI mit den Daten tut. OpenAI kann die Daten speichern, für Training nutzen, an Dritte weitergeben – ganz nach ihren Datenschutzbestimmungen.

Das ist das zentrale Problem dieses Kapitels: KI-Tools sind hilfreich, aber sie sind nicht automatisch sicher für Patientendaten.

Was KI in der Arztpraxis leisten kann

KI kann echten Nutzen bringen – wenn sie richtig eingesetzt wird.

Arztbriefe strukturieren und formulieren (mit anonymisierten Daten): "Hier ist ein Beispiel-Fall: 67-jähriger Patient mit Diabetes und Hypertonie, neu diagnostizierte zerebrale Ischämie. Formuliere einen Arztbrief." Das funktioniert, weil keine echten Patientendaten drin sind.

Befund-Strukturierung: Sonographie-Befunde, EKG-Interpretationen – können durch KI strukturiert und zusammengefasst werden, um Zeit zu sparen.

ICD- und OPS-Codierung: KI kann Ärzte bei der Codierung unterstützen – "Dieser Patient hat Diagnose X, Y und Z. Schlag mir passende ICD-Codes vor." Die Ärzte prüfen und wählen dann.

Administrative Aufgaben: Terminplanung, Recall-Management (Patien

ten an Vorsorgetermine erinnern), Rechnungsvorbereitung – solche Aufgaben enthalten oft keine sensitiven Daten und sind daher für KI geeignet.

KI-gestützte Diagnoseunterstützung: Das ist ein separates Thema. Spezial-Software (z.B. Radiologie-KI, Pathologie-KI) ist speziell für medizinische Zwecke entwickelt, DSGVO-konform und in den medizinischen Betrieb integriert. Das ist etwas anderes als ChatGPT – und es ist in vielen Praxen bereits im Einsatz.

Was KI nicht kann und nicht darf

KI kann nicht entscheiden. KI kann Vorschläge machen, aber Ärzte treffen Entscheidungen. Eine KI-Diagnose-Empfehlung muss immer von einem Arzt überprüft und bestätigt werden.

KI darf nicht mit echten Patientendaten gefüttert werden, wenn das System nicht DSGVO-konform ist. Das ist nicht verhandelbar.

KI darf nicht die Schweigepflicht gefährden. Wenn Sie Patient-Namen, Diagnosen, oder andere identifizierende Informationen in ein öffentliches KI-Tool eingeben, verletzen Sie § 203 StGB.

Die Kernfrage: Ist mein KI-Tool erlaubt?

Die Antwort hängt von zwei Dingen ab:

  1. Sind echte Patientendaten im Input? (Ja = Problem)
  2. Hat der Anbieter einen DSGVO-konformen Vertrag mit der Praxis? (Nein = Problem)

Wenn beides mit "Nein" beantwort wird – also: keine Patientendaten, und es gibt einen Vertrag – kann das KI-Tool in Betracht kommen.

Die praktische Formel ist einfach: Keine echten Patientendaten in öffentliche KI-Tools. Punkt. Das ist das Minimum.


Checkliste: KI in der Arztpraxis

  • Ich verstehe, dass öffentliche KI-Tools (ChatGPT, Gemini, Copilot) keine DSGVO-Auftragsverarbeiter sind.
  • Ich gebe keine echten Patientendaten in öffentliche KI-Tools ein.
  • Wenn meine Praxis KI-Tools einsetzt, gibt es einen Auftragsverarbeitungsvertrag.
  • Meine Mitarbeiter sind geschult, welche Daten sie in KI-Tools geben dürfen und welche nicht.
  • Spezialisierte medizinische KI-Systeme (Diagnoseunterstützung) sind in den PVS integriert und DSGVO-konform.