Governance10 Min. Lesezeit

AI Security & Datenschutz: Was CAIOs wissen müssen

AI Security & Datenschutz: Was CAIOs wissen müssen

Warum ist KI-Sicherheit ein unterschätztes Risiko?

KI-Sicherheit ist ein unterschätztes Risiko, weil KI-Systeme neue Angriffsvektoren mit sich bringen, die über klassische IT-Security hinausgehen. Als CAIO müssen Sie diese verstehen und proaktiv adressieren.

Ein Warnbeispiel: Bei einem Kunden landeten versehentlich Kundendaten im Prompt eines externen LLM-Dienstes. Erst durch diesen Vorfall wurde Budget für eine Private-Cloud-Lösung freigegeben. Besser: Proaktiv handeln.

Die fünf Hauptangriffsvektoren auf KI-Systeme

Es gibt fünf Hauptangriffsvektoren auf KI-Systeme: Data Poisoning, Model Inversion, Adversarial Attacks, Prompt Injection und Model Stealing.

Data Poisoning

Data Poisoning ist die Manipulation von Trainingsdaten, um das Modellverhalten zu beeinflussen.

Beispiel: Gezielte Falschlabels in Trainingsdaten führen dazu, dass ein Spam-Filter bestimmte Spam-Mails durchlässt.

Gegenmaßnahmen:

  • Datenherkunft validieren
  • Anomalieerkennung in Trainingsdaten
  • Regelmäßige Modell-Audits

Model Inversion

Model Inversion ist die Rekonstruktion sensibler Trainingsdaten aus Modell-Outputs.

Beispiel: Aus einem Gesichtserkennungsmodell werden Gesichtsbilder aus dem Trainingsset extrahiert.

Gegenmaßnahmen:

  • Differential Privacy
  • Output-Rounding
  • Zugangsbeschränkungen auf Modelle

Adversarial Attacks

Adversarial Attacks sind speziell konstruierte Inputs, die das Modell täuschen.

Beispiel: Ein leicht verändertes Bild wird vom Modell völlig falsch klassifiziert, obwohl Menschen den Unterschied nicht sehen.

Gegenmaßnahmen:

  • Adversarial Training
  • Input-Validierung
  • Ensemble-Modelle

Prompt Injection

Prompt Injection ist die Manipulation von LLMs durch speziell konstruierte Prompts.

Beispiel: Ein Nutzer bringt einen Chatbot dazu, seine Systemanweisungen zu ignorieren und sensible Informationen preiszugeben.

Gegenmaßnahmen:

  • Strikte Input-Validierung
  • Output-Filterung
  • Prompt-Hardening

Model Stealing

Model Stealing ist der Nachbau eines proprietären Modells durch viele Anfragen.

Gegenmaßnahmen:

  • Rate Limiting
  • Monitoring ungewöhnlicher Anfragemuster
  • Wasserzeichen in Modell-Outputs

DSGVO-Anforderungen für KI-Systeme

Die DSGVO gilt uneingeschränkt für KI-Systeme mit personenbezogenen Daten. Fünf Grundprinzipien sind zu beachten:

Rechtsgrundlage für KI-Training

Für das Training und den Einsatz von KI braucht man eine Rechtsgrundlage nach Art. 6 DSGVO: Einwilligung, Vertragserfüllung oder berechtigtes Interesse (mit Interessenabwägung).

Zweckbindung

Daten dürfen nur für den ursprünglich definierten Zweck verwendet werden. Wenn Sie Kundendaten für ein neues KI-Modell nutzen wollen, müssen Sie die Kompatibilität prüfen.

Datenminimierung

Verarbeiten Sie nur notwendige Daten. Fragen Sie kritisch: Brauchen Sie wirklich alle Felder für das Training?

Transparenz

Betroffene müssen über den KI-Einsatz informiert werden (Art. 13, 14 DSGVO). Sie müssen verstehen können, dass und wie KI ihre Daten verarbeitet.

Automatisierte Entscheidungen (Art. 22)

Betroffene haben das Recht, nicht einer ausschließlich auf automatisierter Verarbeitung beruhenden Entscheidung unterworfen zu werden.

Ausnahmen:

  • Vertragserfüllung (mit geeigneten Schutzmaßnahmen)
  • Gesetzliche Ermächtigung
  • Ausdrückliche Einwilligung

Pflichten:

  • Menschliche Überprüfung ermöglichen
  • Logik der Entscheidung erklären können
  • Anfechtungsmöglichkeit bieten

Praktische Compliance-Maßnahmen

Datenschutz-Folgenabschätzung (DSFA)

Eine DSFA ist Pflicht für Hochrisiko-KI-Anwendungen:

  1. Beschreibung: Was macht das KI-System?
  2. Notwendigkeit: Ist die Verarbeitung erforderlich?
  3. Risikobewertung: Welche Risiken für Betroffene?
  4. Maßnahmen: Wie werden Risiken minimiert?

Privacy by Design

Datenschutz von Anfang an einbauen:

  • Anonymisierung/Pseudonymisierung wo möglich
  • Nur notwendige Daten erheben
  • Klare Löschkonzepte
  • Zugangsbeschränkungen

Externe KI-Dienste

Bei externen KI-Diensten (z.B. OpenAI API) beachten:

  • Auftragsverarbeitungsvertrag abschließen
  • Prüfen wo Daten verarbeitet werden
  • Klären, ob Daten für Training genutzt werden

EU AI Act Sicherheitsanforderungen

Der EU AI Act stellt spezifische Sicherheitsanforderungen für Hochrisiko-KI-Systeme und generative KI.

Anforderungen für Hochrisiko-KI

  • Risikomanagement: Systematische Identifikation und Minimierung von Risiken
  • Daten-Governance: Qualitätsanforderungen an Trainingsdaten
  • Dokumentation: Technische Dokumentation über das gesamte System
  • Logging: Aufzeichnung von Aktivitäten für Nachverfolgbarkeit
  • Transparenz: Information der Nutzer über KI-Einsatz
  • Menschliche Aufsicht: Möglichkeit zur Intervention
  • Genauigkeit und Robustheit: Technische Standards

Anforderungen für generative KI

Der EU AI Act fordert für generative KI (Foundation Models):

  • Transparenz über Trainingsdaten
  • Kennzeichnungspflicht für KI-generierte Inhalte
  • Dokumentation der Modellarchitektur

Security-Checkliste für KI-Projekte

Vor dem Projekt

  • Datenschutz-Folgenabschätzung durchgeführt
  • Rechtsgrundlage für Datenverarbeitung geklärt
  • Risiko-Klassifizierung nach EU AI Act
  • Security-Anforderungen definiert

Während der Entwicklung

  • Trainingsdaten auf Qualität und Bias geprüft
  • Zugangskontrolle für Modelle und Daten
  • Adversarial Testing durchgeführt
  • Privacy-Maßnahmen implementiert

Im Betrieb

  • Monitoring für Anomalien aktiv
  • Incident-Response-Prozess definiert
  • Regelmäßige Audits geplant
  • Löschkonzepte umgesetzt

Fazit

KI-Sicherheit und Datenschutz sind keine nachträglichen Add-ons, sondern müssen von Anfang an mitgedacht werden. Die Kombination aus DSGVO und EU AI Act schafft einen klaren regulatorischen Rahmen. Nutzen Sie ihn als Leitlinie für verantwortungsvolle KI-Entwicklung.

Ein sicheres und datenschutzkonformes KI-System ist nicht nur rechtlich notwendig, sondern schafft auch Vertrauen bei Kunden und Mitarbeitern.

Haben Sie Fragen zu diesem Thema?

Lassen Sie uns in einem unverbindlichen Gespräch besprechen, wie wir Sie unterstützen können.

Kontakt aufnehmen