Warum ist KI-Sicherheit ein unterschätztes Risiko?
KI-Sicherheit ist ein unterschätztes Risiko, weil KI-Systeme neue Angriffsvektoren mit sich bringen, die über klassische IT-Security hinausgehen. Als CAIO müssen Sie diese verstehen und proaktiv adressieren.
Ein Warnbeispiel: Bei einem Kunden landeten versehentlich Kundendaten im Prompt eines externen LLM-Dienstes. Erst durch diesen Vorfall wurde Budget für eine Private-Cloud-Lösung freigegeben. Besser: Proaktiv handeln.
Die fünf Hauptangriffsvektoren auf KI-Systeme
Es gibt fünf Hauptangriffsvektoren auf KI-Systeme: Data Poisoning, Model Inversion, Adversarial Attacks, Prompt Injection und Model Stealing.
Data Poisoning
Data Poisoning ist die Manipulation von Trainingsdaten, um das Modellverhalten zu beeinflussen.
Beispiel: Gezielte Falschlabels in Trainingsdaten führen dazu, dass ein Spam-Filter bestimmte Spam-Mails durchlässt.
Gegenmaßnahmen:
- Datenherkunft validieren
- Anomalieerkennung in Trainingsdaten
- Regelmäßige Modell-Audits
Model Inversion
Model Inversion ist die Rekonstruktion sensibler Trainingsdaten aus Modell-Outputs.
Beispiel: Aus einem Gesichtserkennungsmodell werden Gesichtsbilder aus dem Trainingsset extrahiert.
Gegenmaßnahmen:
- Differential Privacy
- Output-Rounding
- Zugangsbeschränkungen auf Modelle
Adversarial Attacks
Adversarial Attacks sind speziell konstruierte Inputs, die das Modell täuschen.
Beispiel: Ein leicht verändertes Bild wird vom Modell völlig falsch klassifiziert, obwohl Menschen den Unterschied nicht sehen.
Gegenmaßnahmen:
- Adversarial Training
- Input-Validierung
- Ensemble-Modelle
Prompt Injection
Prompt Injection ist die Manipulation von LLMs durch speziell konstruierte Prompts.
Beispiel: Ein Nutzer bringt einen Chatbot dazu, seine Systemanweisungen zu ignorieren und sensible Informationen preiszugeben.
Gegenmaßnahmen:
- Strikte Input-Validierung
- Output-Filterung
- Prompt-Hardening
Model Stealing
Model Stealing ist der Nachbau eines proprietären Modells durch viele Anfragen.
Gegenmaßnahmen:
- Rate Limiting
- Monitoring ungewöhnlicher Anfragemuster
- Wasserzeichen in Modell-Outputs
DSGVO-Anforderungen für KI-Systeme
Die DSGVO gilt uneingeschränkt für KI-Systeme mit personenbezogenen Daten. Fünf Grundprinzipien sind zu beachten:
Rechtsgrundlage für KI-Training
Für das Training und den Einsatz von KI braucht man eine Rechtsgrundlage nach Art. 6 DSGVO: Einwilligung, Vertragserfüllung oder berechtigtes Interesse (mit Interessenabwägung).
Zweckbindung
Daten dürfen nur für den ursprünglich definierten Zweck verwendet werden. Wenn Sie Kundendaten für ein neues KI-Modell nutzen wollen, müssen Sie die Kompatibilität prüfen.
Datenminimierung
Verarbeiten Sie nur notwendige Daten. Fragen Sie kritisch: Brauchen Sie wirklich alle Felder für das Training?
Transparenz
Betroffene müssen über den KI-Einsatz informiert werden (Art. 13, 14 DSGVO). Sie müssen verstehen können, dass und wie KI ihre Daten verarbeitet.
Automatisierte Entscheidungen (Art. 22)
Betroffene haben das Recht, nicht einer ausschließlich auf automatisierter Verarbeitung beruhenden Entscheidung unterworfen zu werden.
Ausnahmen:
- Vertragserfüllung (mit geeigneten Schutzmaßnahmen)
- Gesetzliche Ermächtigung
- Ausdrückliche Einwilligung
Pflichten:
- Menschliche Überprüfung ermöglichen
- Logik der Entscheidung erklären können
- Anfechtungsmöglichkeit bieten
Praktische Compliance-Maßnahmen
Datenschutz-Folgenabschätzung (DSFA)
Eine DSFA ist Pflicht für Hochrisiko-KI-Anwendungen:
- Beschreibung: Was macht das KI-System?
- Notwendigkeit: Ist die Verarbeitung erforderlich?
- Risikobewertung: Welche Risiken für Betroffene?
- Maßnahmen: Wie werden Risiken minimiert?
Privacy by Design
Datenschutz von Anfang an einbauen:
- Anonymisierung/Pseudonymisierung wo möglich
- Nur notwendige Daten erheben
- Klare Löschkonzepte
- Zugangsbeschränkungen
Externe KI-Dienste
Bei externen KI-Diensten (z.B. OpenAI API) beachten:
- Auftragsverarbeitungsvertrag abschließen
- Prüfen wo Daten verarbeitet werden
- Klären, ob Daten für Training genutzt werden
EU AI Act Sicherheitsanforderungen
Der EU AI Act stellt spezifische Sicherheitsanforderungen für Hochrisiko-KI-Systeme und generative KI.
Anforderungen für Hochrisiko-KI
- Risikomanagement: Systematische Identifikation und Minimierung von Risiken
- Daten-Governance: Qualitätsanforderungen an Trainingsdaten
- Dokumentation: Technische Dokumentation über das gesamte System
- Logging: Aufzeichnung von Aktivitäten für Nachverfolgbarkeit
- Transparenz: Information der Nutzer über KI-Einsatz
- Menschliche Aufsicht: Möglichkeit zur Intervention
- Genauigkeit und Robustheit: Technische Standards
Anforderungen für generative KI
Der EU AI Act fordert für generative KI (Foundation Models):
- Transparenz über Trainingsdaten
- Kennzeichnungspflicht für KI-generierte Inhalte
- Dokumentation der Modellarchitektur
Security-Checkliste für KI-Projekte
Vor dem Projekt
- Datenschutz-Folgenabschätzung durchgeführt
- Rechtsgrundlage für Datenverarbeitung geklärt
- Risiko-Klassifizierung nach EU AI Act
- Security-Anforderungen definiert
Während der Entwicklung
- Trainingsdaten auf Qualität und Bias geprüft
- Zugangskontrolle für Modelle und Daten
- Adversarial Testing durchgeführt
- Privacy-Maßnahmen implementiert
Im Betrieb
- Monitoring für Anomalien aktiv
- Incident-Response-Prozess definiert
- Regelmäßige Audits geplant
- Löschkonzepte umgesetzt
Fazit
KI-Sicherheit und Datenschutz sind keine nachträglichen Add-ons, sondern müssen von Anfang an mitgedacht werden. Die Kombination aus DSGVO und EU AI Act schafft einen klaren regulatorischen Rahmen. Nutzen Sie ihn als Leitlinie für verantwortungsvolle KI-Entwicklung.
Ein sicheres und datenschutzkonformes KI-System ist nicht nur rechtlich notwendig, sondern schafft auch Vertrauen bei Kunden und Mitarbeitern.
