Governance10 Min. Lesezeit

AI Security & Datenschutz: Was CAIOs wissen müssen

AI Security & Datenschutz: Was CAIOs wissen müssen

KI-Sicherheit: Ein unterschätztes Risiko

KI-Systeme bringen neue Sicherheitsrisiken mit sich, die über klassische IT-Security hinausgehen. Als CAIO müssen Sie diese verstehen und adressieren.

Ein Warnbeispiel: Bei einem Kunden landeten versehentlich Kundendaten im Prompt eines externen LLM-Dienstes. Erst durch diesen Vorfall wurde Budget für eine Private-Cloud-Lösung freigegeben. Besser: Proaktiv handeln.

Die Sicherheitslandschaft für KI-Systeme

Angriffsvektoren auf KI-Systeme

1. Data Poisoning

Angreifer manipulieren Trainingsdaten, um das Modellverhalten zu beeinflussen.

Beispiel: Gezielte Falschlabels in Trainingsdaten führen dazu, dass ein Spam-Filter bestimmte Spam-Mails durchlässt.

Gegenmaßnahmen:

  • Datenherkunft validieren
  • Anomalieerkennung in Trainingsdaten
  • Regelmäßige Modell-Audits

2. Model Inversion

Aus Modell-Outputs werden sensible Trainingsdaten rekonstruiert.

Beispiel: Aus einem Gesichtserkennungsmodell werden Gesichtsbilder aus dem Trainingsset extrahiert.

Gegenmaßnahmen:

  • Differential Privacy
  • Output-Rounding
  • Zugangsbeschränkungen auf Modelle

3. Adversarial Attacks

Speziell konstruierte Inputs täuschen das Modell.

Beispiel: Ein leicht verändertes Bild wird vom Modell völlig falsch klassifiziert, obwohl Menschen den Unterschied nicht sehen.

Gegenmaßnahmen:

  • Adversarial Training
  • Input-Validierung
  • Ensemble-Modelle

4. Prompt Injection

Bei LLMs: Manipulation durch speziell konstruierte Prompts.

Beispiel: Ein Nutzer bringt einen Chatbot dazu, seine Systemanweisungen zu ignorieren und sensible Informationen preiszugeben.

Gegenmaßnahmen:

  • Strikte Input-Validierung
  • Output-Filterung
  • Prompt-Hardening

5. Model Stealing

Durch viele Anfragen wird ein proprietäres Modell nachgebaut.

Gegenmaßnahmen:

  • Rate Limiting
  • Monitoring ungewöhnlicher Anfragemuster
  • Wasserzeichen in Modell-Outputs

Datenschutz und DSGVO bei KI

Grundprinzipien

Die DSGVO gilt uneingeschränkt für KI-Systeme, die personenbezogene Daten verarbeiten:

1. Rechtmäßigkeit der Verarbeitung (Art. 6)

Für das Training und den Einsatz von KI brauchen Sie eine Rechtsgrundlage:

  • Einwilligung
  • Vertragserfüllung
  • Berechtigtes Interesse (mit Interessenabwägung)

2. Zweckbindung (Art. 5)

Daten dürfen nur für den ursprünglich definierten Zweck verwendet werden. Wenn Sie Kundendaten für ein neues KI-Modell nutzen wollen, prüfen Sie die Kompatibilität.

3. Datenminimierung (Art. 5)

Nur notwendige Daten verarbeiten. Brauchen Sie wirklich alle Felder für das Training?

4. Transparenz (Art. 13, 14)

Betroffene müssen über KI-Verarbeitung informiert werden.

5. Auskunftsrecht (Art. 15)

Betroffene können Auskunft verlangen, auch über KI-basierte Entscheidungen.

Automatisierte Einzelentscheidungen (Art. 22)

Besonders relevant für KI:

Betroffene haben das Recht, nicht einer ausschließlich auf automatisierter Verarbeitung beruhenden Entscheidung unterworfen zu werden.

Ausnahmen:

  • Vertragserfüllung (mit geeigneten Schutzmaßnahmen)
  • Gesetzliche Ermächtigung
  • Ausdrückliche Einwilligung

Pflichten:

  • Menschliche Überprüfung ermöglichen
  • Logik der Entscheidung erklären können
  • Anfechtungsmöglichkeit bieten

Praktische Compliance-Maßnahmen

Datenschutz-Folgenabschätzung (DSFA)

Für Hochrisiko-KI-Anwendungen ist eine DSFA Pflicht:

  1. Beschreibung: Was macht das KI-System?
  2. Notwendigkeit: Ist die Verarbeitung erforderlich?
  3. Risikobewertung: Welche Risiken für Betroffene?
  4. Maßnahmen: Wie werden Risiken minimiert?

Privacy by Design

Datenschutz von Anfang an einbauen:

  • Anonymisierung/Pseudonymisierung wo möglich
  • Nur notwendige Daten erheben
  • Klare Löschkonzepte
  • Zugangsbeschränkungen

Data Processing Agreements

Bei externen KI-Diensten (z.B. OpenAI API):

  • Auftragsverarbeitungsvertrag abschließen
  • Prüfen, wo Daten verarbeitet werden
  • Klären, ob Daten für Training genutzt werden

Der EU AI Act und Sicherheit

Der EU AI Act stellt spezifische Sicherheitsanforderungen:

Für Hochrisiko-KI-Systeme:

  • Risikomanagement: Systematische Identifikation und Minimierung von Risiken
  • Daten-Governance: Qualitätsanforderungen an Trainingsdaten
  • Dokumentation: Technische Dokumentation über das gesamte System
  • Logging: Aufzeichnung von Aktivitäten für Nachverfolgbarkeit
  • Transparenz: Information der Nutzer über KI-Einsatz
  • Menschliche Aufsicht: Möglichkeit zur Intervention
  • Genauigkeit und Robustheit: Technische Standards

Für generative KI (Foundation Models):

  • Transparenz über Trainingsdaten
  • Kennzeichnungspflicht für KI-generierte Inhalte
  • Dokumentation der Modellarchitektur

Security-Checkliste für KI-Projekte

Vor dem Projekt:

  • Datenschutz-Folgenabschätzung durchgeführt
  • Rechtsgrundlage für Datenverarbeitung geklärt
  • Risiko-Klassifizierung nach EU AI Act
  • Security-Anforderungen definiert

Während der Entwicklung:

  • Trainingsdaten auf Qualität und Bias geprüft
  • Zugangskontrolle für Modelle und Daten
  • Adversarial Testing durchgeführt
  • Privacy-Maßnahmen implementiert

Im Betrieb:

  • Monitoring für Anomalien aktiv
  • Incident-Response-Prozess definiert
  • Regelmäßige Audits geplant
  • Löschkonzepte umgesetzt

Der nächste Schritt

KI-Sicherheit und Datenschutz sind keine nachträglichen Add-ons, sondern müssen von Anfang an mitgedacht werden. Die Kombination aus DSGVO und EU AI Act schafft einen klaren regulatorischen Rahmen. Nutzen Sie ihn als Leitlinie für verantwortungsvolle KI-Entwicklung.

Ein sicheres und datenschutzkonformes KI-System ist nicht nur rechtlich notwendig, sondern schafft auch Vertrauen bei Kunden und Mitarbeitern.

Haben Sie Fragen zu diesem Thema?

Lassen Sie uns in einem unverbindlichen Gespräch besprechen, wie wir Sie unterstützen können.

Kontakt aufnehmen