Millionen von Mitarbeitern nutzen KI-Tools täglich — und viele geben dabei unbemerkt personenbezogene Daten an externe Anbieter weiter. Ein Kundenname in einem Prompt, eine E-Mail-Adresse in einer Zusammenfassung, ein Arztbrief zur Übersetzung: Das alles kann eine Datenpanne auslösen oder zumindest eine DSGVO-Verletzung darstellen.

Das Kernproblem: Datenweitergabe an KI-Anbieter

Wer einen Text in ChatGPT (Consumer-Version), Google Bard oder ähnliche kostenlose KI-Tools eingibt, übermittelt diese Daten an den jeweiligen Anbieter — häufig in die USA. Enthält der Text personenbezogene Daten, liegt eine Datenweitergabe an einen Dritten vor, die:

  • Eine Rechtsgrundlage nach Art. 6 DSGVO benötigt (die bei Consumer-KI in der Regel fehlt)
  • Einen Auftragsverarbeitungsvertrag (AVV) nach Art. 28 DSGVO erfordert (den Consumer-Tools nicht bieten)
  • Bei Übermittlung in Drittländer (USA) eine Transfer-Rechtsgrundlage erfordert
Konkretes Beispiel: Ein Mitarbeiter lässt durch ChatGPT eine Bewerbungsabsage formulieren — und gibt dabei den vollständigen Namen und die E-Mail-Adresse des Bewerbers ein. Das ist eine Datenweitergabe ohne Rechtsgrundlage und ohne AVV. Ein potenziell meldepflichtiger Vorfall.

Enterprise-Versionen: Der richtige Weg

Für den dienstlichen Einsatz gibt es datenschutzkonformere Alternativen:

  • Microsoft Copilot (M365) — verarbeitet Daten im M365-Tenant des Unternehmens; AVV ist Bestandteil des M365-Vertrags; Daten werden nicht für Modelltraining verwendet
  • OpenAI Enterprise / API — OpenAI bietet für Unternehmenskunden einen AVV und garantiert, dass Eingaben nicht für Training verwendet werden
  • Azure OpenAI Service — Verarbeitung in der Microsoft-Cloud-Infrastruktur mit DSGVO-konformem AVV
  • On-Premises-Modelle — keine Datenweitergabe an Dritte; für besonders sensitive Verarbeitungen die sicherste Option

EU AI Act: Was zusätzlich zu beachten ist

Der EU AI Act (ab August 2026 vollständig anwendbar) klassifiziert KI-Systeme nach Risikoklassen. Für Unternehmen relevant:

  • Hochrisiko-KI-Systeme (z. B. KI in Personalentscheidungen, Kreditwürdigkeitsprüfung, biometrische Identifikation) unterliegen strengen Anforderungen: Konformitätsbewertung, Transparenz, menschliche Aufsicht, Qualitätsmanagementsystem
  • General Purpose AI (GPAI) wie ChatGPT unterliegen Transparenz- und Urheberrechtspflichten
  • Unternehmen, die KI-Systeme einsetzen (nicht nur entwickeln), sind als Deployer mit Pflichten belegt

Wann ist eine DSFA (DPIA) erforderlich?

Art. 35 DSGVO verlangt eine Datenschutz-Folgeabschätzung bei Verarbeitungen mit hohem Risiko. Bei KI-Systemen ist eine DSFA regelmäßig erforderlich, wenn:

  • Das System umfangreiche Profilbildung ermöglicht
  • Besondere Datenkategorien verarbeitet werden
  • Automatisierte Entscheidungen mit rechtlicher Wirkung getroffen werden (Art. 22 DSGVO)
  • Das System in einem neuen oder unbekannten Kontext eingesetzt wird

Praktische Maßnahmen für Unternehmen

  • Eine KI-Nutzungsrichtlinie einführen: Welche Tools sind erlaubt? Was darf eingegeben werden?
  • Mitarbeiter sensibilisieren: Keine Namen, Adressen, Kundendaten oder Gesundheitsdaten in Consumer-KI eingeben
  • Eine Liste genehmigter KI-Tools pflegen — nur Unternehmensversionen mit AVV erlauben
  • KI-Verarbeitungen ins Verzeichnis der Verarbeitungstätigkeiten aufnehmen
  • Bei Hochrisiko-KI eine DSFA durchführen
Praxistipp: Shadow AI ist das neue Shadow IT. Mitarbeiter nutzen KI-Tools, die der IT nicht bekannt sind. Eine regelmäßige Inventarisierung genutzter Cloud-Dienste (inkl. KI) hilft, den Überblick zu behalten — und unkontrollierte Datenweitergaben zu verhindern.