Datenschutz & Schweigepflicht
Datenschutz und Schweigepflicht beim KI-Einsatz¶
Das zentrale Problem: Öffentliche KI-Dienste sind keine Auftragsverarbeiter¶
Das ist der entscheidende Punkt. Lesen Sie das noch einmal:
Öffentliche KI-Dienste wie ChatGPT, Google Gemini, Microsoft Copilot sind NICHT DSGVO-konforme Auftragsverarbeiter für Gesundheitsdaten.
Das bedeutet: Sie dürfen echte Patientendaten nicht in diese Tools eingeben. Punkt.
Warum? Weil diese Dienste – per Datenschutzbestimmung – Ihre Eingaben speichern, zum Training nutzen und möglicherweise an Dritte weitergeben können. Der Betreiber (OpenAI, Google, Microsoft) wird dadurch selbst ein Datenverarbeiter ohne rechtliche Grundlage. Die DSGVO wird verletzt.
Konkret: Wenn Sie einen Patientennamen, eine Diagnose oder eine identifizierende Information eingeben, können Sie nicht kontrollieren, was damit passiert. OpenAI könnte die Daten speichern, an andere Kunden weitergeben, oder in Training-Daten integrieren.
Das ist nicht paranoia – das ist Tatsache.
Zusätzlich: Für Ärzte existiert § 203 StGB – die Schweigepflicht. Diese Pflicht schützt nicht nur den Namen eines Patienten, sondern alle Informationen, die ihn oder sie erkennbar machen könnten. Wenn Sie diese Informationen einem öffentlichen KI-Service geben, verletzen Sie diese Pflicht.
Konzentrat: Keine Patientendaten in ChatGPT. Nicht „nur ein bisschen anonymisiert", nicht „nur kurz", nicht „in der kostenlosen Version ist es sicher". Nein – nie.
Was Anonymisierung bedeutet (und warum Pseudonymisierung nicht ausreicht)¶
Es gibt zwei ähnlich klingende Konzepte, die in der Datenschutz-Diskussion verwechselt werden: Anonymisierung und Pseudonymisierung.
Pseudonymisierung bedeutet: Sie ersetzen den Namen durch ein Pseudonym. "Patient Schmidt" wird zu "Patient A". Die Daten sind nicht mehr direkt identifizierbar – aber der Bezug zum echten Patienten bleibt erhalten (über eine Schlüsseltabelle).
Anonymisierung bedeutet: Die Daten sind für die KI wirklich anonym. Es gibt keine Möglichkeit, sie einem Patienten zuzuordnen – auch nicht über einen Schlüssel.
Die DSGVO erlaubt Pseudonymisierung unter bestimmten Bedingungen. Aber Pseudonymisierung schützt nicht vor Datenschutzverletzungen in die öffentliche KI. Warum? Weil die DSGVO immer noch anwendbar ist, wenn ein Bezug zum Patienten bestehen könnte.
Beispiel: Sie sagen der KI "Patient A, 45 Jahre, Witwer, arbeitet als Lehrer in München, Diabetes Typ 2, letzte HbA1c 6,8...". Ein geschickter Angreifer könnte jemanden mit dieser Kombination von Details identifizieren. Die Pseudonymisierung ist leicht zu durchbrechen. Das ist nicht anonym – das ist unzureichend anonymisiert.
Echte Anonymisierung für KI-Input würde bedeuten: "Ein Patient mittleren Alters mit Diabetes und HbA1c-Wert im Bereich 6,5-7,5". Keine Altersangaben, die zu spezifisch sind, keine beruflichen Details, keine Ortsangaben. Nur generische, stark abstrahierte Informationen.
Mit dieser Stufe von Anonymisierung können Sie ein KI-Tool bedenkenlos nutzen – aber es ist dann auch kaum spezifisch genug, um praktisch nützlich zu sein.
DSGVO-konforme Alternativen¶
Wenn Sie KI in Ihrer Praxis nutzen möchten – egal ob für Arztbriefe, Codierung oder andere Aufgaben – gibt es sichere Wege:
1. Lokale KI-Modelle (Ollama, LocalLLM)¶
Das ist die datenschutz-sicherste Option. Sie betreiben ein KI-Modell auf Ihrem eigenen Server oder Computer. Die Daten verlassen nie die Praxis.
Wie es funktioniert: - Sie installieren eine Open-Source KI-Software (z.B. Ollama) auf Ihrem Praxis-Server - Sie laden ein KI-Modell herunter (z.B. Llama 2, ein quelloffen Modell) - Sie nutzen die KI lokal – alles bleibt in Ihrer Praxis
Vorteile: - Vollständige Datenkontrolle - Keine Daten-Uploads - DSGVO-konform per Design - Kostengünstig (einmalige Software-Lizenz, dann Betriebskosten)
Nachteile: - Die Qualität ist derzeit unter ChatGPT (aber verbessert sich schnell) - Braucht technisches Know-how zur Einrichtung - Braucht lokale Rechenleistung
Für Arztpraxen: Das ist für viele Aufgaben (Strukturierung, einfache Textentwürfe) gut genug. Für spezialisierte medizinische Aufgaben vielleicht nicht.
2. DSGVO-konforme Enterprise-Dienste mit AVV¶
Einige KI-Anbieter bieten Enterprise-Versionen an, die DSGVO-konform sind. Sie schließen einen Auftragsverarbeitungsvertrag (AVV) ab, und der Anbieter garantiert: - Daten werden nicht zum Training genutzt - Daten werden in der EU gespeichert (oder wo Sie es wollen) - Daten werden sicher gelöscht nach Vereinbarung - Regelmäßige Sicherheits-Audits
Beispiele: - OpenAI bietet ChatGPT Business/Enterprise mit AVV-Option - Microsoft bietet Copilot Pro für Unternehmen mit AVV - Spezialisierte Med-Tech Anbieter haben native DSGVO-Integration
Kosten: Typischerweise 20-50 Euro pro Benutzer pro Monat für Enterprise-Versionen.
Für Arztpraxen: Das ist sicher und legal – aber teurer als kostenlose Versionen.
3. Strikte Anonymisierung + Richtlinien¶
Wenn Sie ChatGPT in der kostenlosen Version nutzen wollen, geht das – aber nur unter strengen Bedingungen: - Keine echten Patientendaten - Keine Ortsangaben, keine identifizierenden Details - Nur generische Beschreibungen oder fiktive Szenarien - Klare Policy für Mitarbeiter, was sie nicht eingeben dürfen
Beispiel – Erlaubt: "Ein 45-jähriger Patient mit unkontrolliertem Bluthochdruck kommt mit Kopfschmerzen. Schreib einen Arztbrief-Entwurf."
Beispiel – Nicht erlaubt: "Mein Patient Hans Müller, geb. 15.7.1978, wohnhaft Hauptstr. 5, 10115 Berlin, hat unkontrolliertem Bluthochdruck..."
Mit dieser Regel können Sie ChatGPT nutzen – aber es braucht ständige Vigilanz von Mitarbeitern. Der Fehler ist eine Daten-Panne.
4. Spezialisierte medizinische KI-Systeme¶
Es gibt KI-Systeme, die speziell für medizinische Zwecke entwickelt wurden und native DSGVO-Integration haben: - Dragon Medical One (Spracherkennung mit medizinischem Vokabular) - Nabla (ärztliche Dokumentation) - Nuance DAX (medizinische KI-Suite)
Diese Systeme sind für Ärzte entwickelt, verstehen Medizin, und haben legale Auftragsverarbeitungsverträge.
Kosten: Typischerweise 50-100 Euro pro Benutzer pro Monat.
Für Arztpraxen: Das ist oft die beste Lösung – spezialisiert, sicher, bezahlt sich durch Zeiteinsparung.
§ 203 StGB-Aspekt: KI als „Hilfsperson"¶
Eine letzte rechtliche Spitzfindigkeit: Der ärztliche Schweigepflicht nach § 203 StGB schließt die Weitergabe an "Hilfspersonen" ein. Ein KI-System könnte theoretisch als Hilfsperson ausgelegt werden – wenn es DSGVO-konform ist und der Arzt die volle Kontrolle hat.
Das ist die rechtliche Grundlage dafür, dass lokale KI-Modelle oder DSGVO-konforme Enterprise-KI ohne zusätzliche Bedenken genutzt werden kann. Die KI wird zur "Hilfsperson" in der Praxis.
Eine öffentliche ChatGPT-Instanz ist das nicht – sie ist ein unabhängiger Dritter ohne rechtliche Beziehung zur Praxis.
Checkliste: Datenschutz und KI¶
- Ich nutze keine öffentlichen KI-Tools (ChatGPT kostenlos, Gemini, Copilot) mit echten Patientendaten.
- Wenn meine Praxis ChatGPT oder ähnliche Tools einsetzt, nur mit strikter Anonymisierung.
- Es gibt eine klare schriftliche Policy, welche Daten Mitarbeiter nicht eingeben dürfen.
- Mitarbeiter sind geschult, was Anonymisierung bedeutet und wie man sie praktiziert.
- Für häufig eingesetzte KI-Aufgaben nutzen wir entweder lokale Modelle oder DSGVO-konforme Enterprise-Dienste.
- Es existiert ein AVV mit jedem KI-Anbieter, mit dem wir arbeiten.
- Spezialisierte medizinische KI-Systeme sind in Betracht gezogen.