Künstliche Intelligenz verändert die Cybersicherheitslandschaft in zwei Richtungen gleichzeitig: Sie stärkt Verteidiger durch automatisierte Bedrohungserkennung und schnellere Incident-Response — und sie stärkt Angreifer durch KI-gestützte Phishing-Kampagnen, Deepfakes und automatisierte Schwachstellensuche. Für Unternehmen bedeutet das: KI-Risiken müssen aktiv gemanagt werden.
KI als Angriffswerkzeug: Die neue Bedrohungslage
KI-generiertes Phishing und Spear-Phishing
Traditionelle Phishing-E-Mails waren oft durch schlechtes Deutsch oder generische Ansprachen erkennbar. KI-Tools ermöglichen es Angreifern heute, hochpersonalisierte, grammatisch einwandfreie Phishing-Mails in Sekundenbruchteilen zu generieren — angereichert mit Informationen aus sozialen Netzwerken oder früheren Datenlecks. Die Erkennungsrate durch Mitarbeiter sinkt dramatisch.
Deepfakes: Audio und Video als Angriffsvektoren
CEO-Fraud (Business Email Compromise) ist seit Jahren ein Schadensträger. KI-generierte Audio- und Video-Deepfakes erhöhen die Glaubwürdigkeit solcher Angriffe erheblich. Bereits dokumentierte Fälle: gefälschte Audioanrufe, die CFOs zur Überweisung von Millionenbeträgen veranlassten.
Automatisierte Schwachstellensuche
Angreifer nutzen KI, um Vulnerability-Scanning zu beschleunigen und automatisch Exploits für bekannte Schwachstellen zu generieren. Das Zeitfenster zwischen Veröffentlichung einer CVE und erstem Exploit-Einsatz schrumpft.
Risiken durch KI-Systeme im eigenen Unternehmen
Prompt Injection
Bei KI-Systemen, die externe Eingaben verarbeiten (Chatbots, automatisierte Dokumentenverarbeitung), können Angreifer durch speziell formulierte Eingaben das Systemverhalten manipulieren — und so auf interne Daten zugreifen oder unerwünschte Aktionen auslösen. Platz 1 im OWASP LLM Top 10.
Training Data Poisoning
KI-Modelle, die auf öffentlichen oder nicht ausreichend gefilterten Daten trainiert werden, können absichtlich eingebrachte Fehlinformationen (Poisoning) übernehmen — was zu fehlerhaften Ausgaben oder manipulierbarem Verhalten führt.
Datenlecks durch KI-Ausgaben
Large Language Models (LLMs) können Trainingsdaten in ihren Ausgaben reproduzieren — inklusive personenbezogener Daten oder vertraulicher Informationen, die unbeabsichtigt in den Trainingsdaten enthalten waren. Das OWASP LLM Top 10 bezeichnet dieses Risiko als Sensitive Information Disclosure.
Shadow AI
Mitarbeiter nutzen nicht genehmigte KI-Tools für produktivitätssteigernde Aufgaben, ohne IT oder Datenschutz zu informieren. Die Folge: unkontrollierte Datenweitergabe an externe Anbieter, keine AVVs, keine Dokumentation im VVT.
KI-Risiken im ISO-27001-Risikoassessment abbilden
ISO 27001 fordert eine systematische Identifikation und Bewertung von Informationssicherheitsrisiken. KI-bezogene Risiken sollten explizit ins Risikoregister aufgenommen werden:
- Risiko durch KI-gestützte Phishing-Angriffe → Annex A 6.3 (Awareness), 8.7 (Malware-Schutz), 8.23 (Web Filtering)
- Risiko durch Shadow AI → Annex A 5.8 (Information Security in Project Management), 8.19 (Installation of Software)
- Risiko durch KI-Systeme mit Datenzugang → Annex A 5.23 (Cloud Services), 8.11 (Data Masking), 8.12 (DLP)
Governance-Maßnahmen
- KI-Richtlinie einführen: Genehmigte Tools, verbotene Eingaben, Eskalationspfade
- Inventar genehmigter KI-Dienste führen und regelmäßig aktualisieren
- Deepfake-Awareness in Mitarbeiterschulungen integrieren — insbesondere für Finanzteams und Führungskräfte
- Für eigene KI-Systeme: Security by Design und regelmäßige Adversarial-Tests
