KI-Beratung · Pillar
ChatGPT DSGVO-konform nutzen – Architektur, AVV und DSFA
Die DSGVO verbietet ChatGPT nicht. Sie verlangt nur, dass Sie wissen, was technisch und vertraglich passiert — und dass Sie es dokumentieren. Dieser Leitfaden erklärt die vier Stellschrauben, die in der Praxis zählen, und gibt Ihnen die Bausteine an die Hand, um eine prüffähige Architektur aufzubauen.
Kurz und ehrlich
- DSGVO-Konformität bei ChatGPT entsteht aus vier Bausteinen: Modell-Auswahl, Pseudonymisierung, AVV und DSFA.
- Standard-ChatGPT (Plus/Free) ist für regulierte Verarbeitungen nicht konformierbar — Azure OpenAI in EU-Region oder ChatGPT Enterprise sind die tragfähigen Alternativen.
- Pseudonymisierung ist nicht optional, sondern der Hebel, mit dem direkter Personenbezug gar nicht erst zum Modell wandert.
- Eine prüffähige DSFA dauert in der Praxis 2–4 Wochen — wir liefern die Vorlage und arbeiten mit Ihrem DSB.
Der DSGVO-Rechtsrahmen für KI – kurz erklärt
Die DSGVO unterscheidet nicht zwischen „klassischer“ und „KI“-Datenverarbeitung. Sobald Sie personenbezogene Daten verarbeiten — und das tun Sie, sobald ein Mitarbeiter eine E-Mail mit Kundennamen an ein KI-Modell schickt — gelten alle bekannten Pflichten: Rechtsgrundlage (Art. 6), gegebenenfalls besondere Datenkategorien (Art. 9), Auftragsverarbeitung (Art. 28), Datenschutz-Folgenabschätzung (Art. 35), technische und organisatorische Maßnahmen (Art. 32).
Hinzu kommt seit 2024 der EU AI Act, der parallel gilt. Für die typischen Use-Cases im Mittelstand (Korrespondenz, Recherche, Zusammenfassungen) bringt der AI Act vor allem Transparenzpflichten mit sich. DSGVO und AI Act überlappen sich punktuell — wir bauen Architekturen so, dass beide Regime aus einem einzigen Dokumentations-Set bedient werden.
Was Standard-ChatGPT konkret problematisch macht
Datenübermittlung in die USA
Standard-ChatGPT (Free, Plus) verarbeitet Daten in den USA. Nach Schrems II ist eine solche Übermittlung nur zulässig, wenn entweder ein Angemessenheitsbeschluss der EU-Kommission greift (seit Juli 2023 das Data Privacy Framework, im Zustand laufender Prüfungen) oder zusätzliche Schutzmaßnahmen ergriffen werden. Für sensible Kategorien — Gesundheits-, Mandanten-, Finanzdaten — ist das in der Praxis kaum darstellbar.
Trainingsnutzung
In der Standardvariante können Eingaben für Modell-Verbesserungen verwendet werden. ChatGPT Business, Team und Enterprise haben das per Default abgeschaltet, aber die Konfiguration muss gewollt erfolgen. Bei kostenfreien Privat-Accounts müssen Sie davon ausgehen, dass Eingaben in das Trainings-Korpus fließen können.
Kein wirksamer AVV
OpenAI bietet einen DPA, der Art. 28 DSGVO formal erfüllt. Für Berufsgeheimnisträger reicht das jedoch oft nicht: §203 StGB verlangt eine berufsrechtsanaloge Verschwiegenheitsverpflichtung, die OpenAI selbst nicht abbildet. Microsoft Deutschland leistet das in Kombination mit Azure OpenAI deutlich tragfähiger.
Vier Stellschrauben für Konformität
| Stellschraube | Was Sie tun | Wirkung |
|---|---|---|
| Modell-Auswahl | Azure OpenAI EU-Region oder ChatGPT Enterprise statt Free/Plus | Daten-Residenz, AVV, kein Default-Training |
| Pseudonymisierung | Direkten Personenbezug vor Modell-Aufruf entfernen | Personenbezug verlässt Verantwortungsbereich nicht |
| Auftragsverarbeitungsvertrag | AVV mit Microsoft Deutschland oder OpenAI Ireland Ltd. | Vertragliche Bindung nach Art. 28 DSGVO |
| DSFA + TOMs | Datenschutz-Folgenabschätzung mit DSB, dokumentierte TOMs nach Art. 32 | Nachweis der organisatorischen Maßnahmen |
Pseudonymisierung – das technische Herzstück
Pseudonymisierung ist der Vorgang, bei dem direkte Personenbezüge so ersetzt werden, dass eine Zuordnung ohne zusätzliche Information nicht mehr möglich ist (Art. 4 Nr. 5 DSGVO). Im Kontext von KI heißt das: Bevor eine Eingabe an das Modell geht, werden Namen, E-Mail-Adressen, Telefonnummern, Aktenzeichen und Adressen durch Tokens ersetzt. Nach der Modell-Antwort werden die Tokens lokal wieder durch die Originalwerte ersetzt.
Architektur-Skizze
- Mitarbeiter:in gibt Anfrage in das Front-End ein.
- Pseudonymisierungs-Service erkennt Entitäten (Named Entity Recognition lokal, ohne externe API).
- Erkannte Entitäten werden durch konsistente Pseudo-IDs ersetzt (z.B. „Mandant_A1“) und das Mapping in einer kurzlebigen Session gespeichert.
- Pseudonymisierter Text geht an Azure OpenAI in EU-Region.
- Antwort des Modells wird mit dem Mapping zurückübersetzt.
- Mapping wird nach Session-Ende verworfen.
Auftragsverarbeitung: welcher AVV trägt wirklich
Ein Auftragsverarbeitungsvertrag nach Art. 28 DSGVO regelt, wie der Auftragsverarbeiter mit Ihren Daten umgeht. Pflichtinhalte sind unter anderem: Gegenstand und Dauer, Art und Zweck, Art der Daten, Pflichten des Auftragsverarbeiters, Subunternehmer, Audit-Rechte und Hilfeleistungspflichten.
| Anbieter | Daten-Residenz | Subprocessor-Liste | Audit-Rechte |
|---|---|---|---|
| OpenAI Ireland Ltd. (Standard) | USA / EU optional | Veröffentlicht | Eingeschränkt |
| OpenAI über ChatGPT Enterprise | Wahl möglich | Veröffentlicht | Erweitert |
| Microsoft Ireland (Azure OpenAI EU) | Frankfurt / Schweden | Microsoft-Subprocessor-Liste | Audit-Rechte gemäß Microsoft Online Services Terms |
| Microsoft Deutschland GmbH | Frankfurt | Microsoft-Subprocessor-Liste | Audit-Rechte gemäß Microsoft-DE-AVV |
Für Berufsgeheimnisträger empfehlen wir Microsoft Deutschland GmbH als Vertragspartner, weil sich §203-StGB-konforme Verschwiegenheitsverpflichtung in der Praxis dort am einfachsten dokumentieren lässt. Reine Mittelstandsunternehmen ohne Berufsgeheimnis kommen in der Regel mit Microsoft Ireland oder OpenAI Ireland zurecht.
Datenschutz-Folgenabschätzung erstellen
Eine DSFA nach Art. 35 DSGVO ist Pflicht, sobald die Verarbeitung „voraussichtlich ein hohes Risiko“ für Betroffene mit sich bringt. Bei KI-Verarbeitungen ist das fast immer der Fall — schon allein wegen des Einsatzes neuer Technologien. Wir nutzen die WP248-Methodik (Artikel-29-Datenschutzgruppe), erweitert um KI-spezifische Aspekte:
- Beschreibung der Verarbeitung: Modell, Region, Datentypen, Zwecke.
- Notwendigkeit und Verhältnismäßigkeit: warum diese Verarbeitung, gibt es weniger eingriffsintensive Alternativen?
- Risiken für Betroffene: Re-Identifikation, Zweckentfremdung, Diskriminierung durch Bias, Halluzinationen.
- Maßnahmen: Pseudonymisierung, Zugriffsmanagement, Audit-Logs, Schulungen, Lösch-Konzept.
- Restrisiko und Konsultation der Aufsichtsbehörde, falls erforderlich.
Audit-Checkliste – was im Ordner liegen muss
Wenn die Aufsichtsbehörde anfragt oder ein interner Audit ansteht, brauchen Sie folgende Dokumente griffbereit:
- Verzeichnis von Verarbeitungstätigkeiten (Art. 30 DSGVO) mit eigenem Eintrag für KI-Verarbeitung.
- Auftragsverarbeitungsvertrag mit dem KI-Anbieter (signiert, mit Subprocessor-Anhang).
- Datenschutz-Folgenabschätzung, abgestimmt mit DSB.
- Technisch-organisatorische Maßnahmen (TOMs) nach Art. 32 — eigener Abschnitt KI.
- Mitarbeiter-Leitfaden mit Schulungs-Nachweisen.
- Audit-Log-Auszüge, mindestens stichprobenartig.
- Lösch-Konzept (für Mappings, Logs, Modell-Caches).
- Bei Hochrisiko-Use-Cases zusätzlich: Konformitäts-Dokumentation nach EU AI Act.
Bereit für ein Erstgespräch?
30 Minuten, kostenlos, unverbindlich. Wir hören uns Ihren Fall an und sagen ehrlich, ob und wie wir helfen können.