Millionen von Mitarbeitern nutzen KI-Tools täglich — und viele geben dabei unbemerkt personenbezogene Daten an externe Anbieter weiter. Ein Kundenname in einem Prompt, eine E-Mail-Adresse in einer Zusammenfassung, ein Arztbrief zur Übersetzung: Das alles kann eine Datenpanne auslösen oder zumindest eine DSGVO-Verletzung darstellen.
Das Kernproblem: Datenweitergabe an KI-Anbieter
Wer einen Text in ChatGPT (Consumer-Version), Google Bard oder ähnliche kostenlose KI-Tools eingibt, übermittelt diese Daten an den jeweiligen Anbieter — häufig in die USA. Enthält der Text personenbezogene Daten, liegt eine Datenweitergabe an einen Dritten vor, die:
- Eine Rechtsgrundlage nach Art. 6 DSGVO benötigt (die bei Consumer-KI in der Regel fehlt)
- Einen Auftragsverarbeitungsvertrag (AVV) nach Art. 28 DSGVO erfordert (den Consumer-Tools nicht bieten)
- Bei Übermittlung in Drittländer (USA) eine Transfer-Rechtsgrundlage erfordert
Enterprise-Versionen: Der richtige Weg
Für den dienstlichen Einsatz gibt es datenschutzkonformere Alternativen:
- Microsoft Copilot (M365) — verarbeitet Daten im M365-Tenant des Unternehmens; AVV ist Bestandteil des M365-Vertrags; Daten werden nicht für Modelltraining verwendet
- OpenAI Enterprise / API — OpenAI bietet für Unternehmenskunden einen AVV und garantiert, dass Eingaben nicht für Training verwendet werden
- Azure OpenAI Service — Verarbeitung in der Microsoft-Cloud-Infrastruktur mit DSGVO-konformem AVV
- On-Premises-Modelle — keine Datenweitergabe an Dritte; für besonders sensitive Verarbeitungen die sicherste Option
EU AI Act: Was zusätzlich zu beachten ist
Der EU AI Act (ab August 2026 vollständig anwendbar) klassifiziert KI-Systeme nach Risikoklassen. Für Unternehmen relevant:
- Hochrisiko-KI-Systeme (z. B. KI in Personalentscheidungen, Kreditwürdigkeitsprüfung, biometrische Identifikation) unterliegen strengen Anforderungen: Konformitätsbewertung, Transparenz, menschliche Aufsicht, Qualitätsmanagementsystem
- General Purpose AI (GPAI) wie ChatGPT unterliegen Transparenz- und Urheberrechtspflichten
- Unternehmen, die KI-Systeme einsetzen (nicht nur entwickeln), sind als Deployer mit Pflichten belegt
Wann ist eine DSFA (DPIA) erforderlich?
Art. 35 DSGVO verlangt eine Datenschutz-Folgeabschätzung bei Verarbeitungen mit hohem Risiko. Bei KI-Systemen ist eine DSFA regelmäßig erforderlich, wenn:
- Das System umfangreiche Profilbildung ermöglicht
- Besondere Datenkategorien verarbeitet werden
- Automatisierte Entscheidungen mit rechtlicher Wirkung getroffen werden (Art. 22 DSGVO)
- Das System in einem neuen oder unbekannten Kontext eingesetzt wird
Praktische Maßnahmen für Unternehmen
- Eine KI-Nutzungsrichtlinie einführen: Welche Tools sind erlaubt? Was darf eingegeben werden?
- Mitarbeiter sensibilisieren: Keine Namen, Adressen, Kundendaten oder Gesundheitsdaten in Consumer-KI eingeben
- Eine Liste genehmigter KI-Tools pflegen — nur Unternehmensversionen mit AVV erlauben
- KI-Verarbeitungen ins Verzeichnis der Verarbeitungstätigkeiten aufnehmen
- Bei Hochrisiko-KI eine DSFA durchführen
