Die EU‑KI‑Verordnung verlässt den Bereich abstrakter Prinzipien und wird durch neue technische Normen konkret. Mit der europäischen Norm EN 304 223 liegt erstmals ein verbindlicher Rahmen für Sicherheitsanforderungen an KI‑Systeme vor – inklusive klarer Verantwortlichkeiten entlang der Lieferkette und spezifischer Schutzmaßnahmen gegen KI‑typische Angriffe wie Prompt Injection, Data Poisoning oder Model Evasion. Ein ergänzender Fokus auf generative KI ist angekündigt und wird die besonderen Risiken großsprachiger Modelle (Halluzinationen, Jailbreaks, toxische oder urheberrechtskritische Ausgaben) gezielt adressieren.
Parallel entsteht international ein freiwilliges Cybersicherheits‑Profil für KI. Solche Profile bündeln bewährte Sicherheitskontrollen und können sich – ähnlich wie in der Cloud‑Sicherheit – rasch zum De‑Facto‑Maßstab entwickeln. Für Unternehmen bedeutet das: Neben regulatorischer Konformität rückt die Interoperabilität mit internationalen Best Practices in den Vordergrund. Wer jetzt proaktiv handelt, reduziert nicht nur Compliance‑Risiken, sondern gewinnt Geschwindigkeit, Vertrauen und Skalierbarkeit bei der Umsetzung von KI‑Anwendungen.
Was sich ändert: Pflichten, Fristen, nationale Auslegung, globaler Kontext
-
Pflichten:
- Risikoklassifizierung von KI‑Use‑Cases anhand des Einsatzkontextes und potenzieller Auswirkungen.
- Umfassende Dokumentation über Daten, Modelle und Trainings‑/Testverfahren inklusive Datenherkünfte, Vorverarbeitung, Evaluationsmetriken und Limitierungen.
- Governance‑Nachweise: klare Rollen und Verantwortlichkeiten, wirksame Kontrollprozesse, nachvollziehbare Entscheidungen, Change‑Management.
- Dokumentierter Nachweis von KI‑Kompetenz in relevanten Rollen (Management, Produktverantwortliche, Entwicklung, Betrieb, Compliance).
-
Fristen:
- Kompetenz‑ und Schulungspflichten seit 02/2025 wirksam.
- Der Großteil der Anforderungen tritt ab 08/2026 in Kraft.
- Bußgelder bei Verstößen bis zu 35 Mio. EUR oder 7 % des weltweiten Jahresumsatzes – je nachdem, welcher Betrag höher ist.
-
Nationale Auslegung in Deutschland:
- Es zeichnet sich eine strenge Aufsicht mit starkem Fokus auf Datenschutz und Betroffenenrechte ab – insbesondere beim Training mit personenbezogenen Daten.
- Erwartet werden frühzeitige Einbindungen des Datenschutzes (DPIA, Rechtsgrundlagen, Zweckbindung) sowie belastbare technische Maßnahmen (Anonymisierung/Pseudonymisierung, Zugriffskontrollen, Lösch‑ und Widerspruchsprozesse).
-
Internationaler Kontext:
- Unternehmen mit globaler Präsenz sollten gezielt Interoperabilität sicherstellen: Mapping der EU‑Anforderungen auf ISO/IEC 42001 (KI‑Managementsystem) sowie auf internationale Cybersicherheits‑Profile für KI.
- Ziel ist ein einheitlicher Kontrollkatalog, der lokale Pflichten abdeckt und zugleich weltweit anschlussfähig ist.
EN 304 223 im Überblick: Sicherheitsregeln und Lieferkettenverantwortung
EN 304 223 übersetzt die Sicherheitsziele der EU‑KI‑Verordnung in umsetzbare technische und organisatorische Kontrollen. Kernelemente sind:
-
Sicherheitsarchitektur und Threat Modeling für KI:
- Systematische Identifikation KI‑spezifischer Bedrohungen (Prompt Injection, Data Poisoning, Model Theft/Evasion, Output Manipulation).
- Absicherung der Daten‑ und Modellpipelines (Data Provenance, Integritätsprüfungen, isolierte Trainingsumgebungen, Secret Management).
-
Abgesicherter Modell‑Lebenszyklus:
- Kontrollpunkte über Entwicklung, Training, Evaluation, Deployment, Monitoring, Drift‑Erkennung und Rückbau.
- Reproduzierbarkeit und Auditierbarkeit durch Modell‑ und Daten‑Lineage, Versionierung und dokumentierte Freigabeprozesse.
-
Lieferkette und Drittanbieter:
- Präzise Zuweisung von Verantwortlichkeiten zwischen Auftraggeber, Modellanbieter, Integrator und Betreiber.
- Vendor‑Due‑Diligence, vertragliche Zusicherungen zu Datenherkunft, Sicherheit, Evaluationskriterien und Konformität; Nachweise und Zertifikate einfordern und prüfen.
-
Vorfallmanagement und Meldewege:
- KI‑spezifische Incident‑Response‑Playbooks, Meldeverfahren und Eskalationspfade.
- Red‑Teaming (insbesondere für generative KI) mit dokumentierten Findings, Gegenmaßnahmen und erneuter Validierung.
-
Nutzerorientierung und Transparenz:
- Benutzerhinweise, Einsatzgrenzen, Erklärbarkeit je nach Risiko und Zielgruppe.
- Protokollierung, Nachvollziehbarkeit und Schutz vor Missbrauch.
Damit werden Sicherheits‑ und Governance‑Anforderungen erstmals über den gesamten Lebenszyklus und die Lieferkette hinweg verbindlich definiert.
Acht To‑dos, die Sie sofort starten sollten
1) Inventur aller KI‑Systeme und Vorhaben
- Vollständige Erfassung produktiver, geplanter und experimenteller Anwendungen inklusive Schatten‑KI; Zuordnung zu Geschäftszielen.
- Lieferkette und Drittanbieter katalogisieren (Modelle, Foundation‑Modelle, APIs, Datenquellen, Tools).
2) Risikobewertung je System
- Einstufung nach Einsatzkontext, Betroffenheit von Personen, potenziellen Schäden und Geschäftsrisiken.
- Berücksichtigung KI‑spezifischer Angriffsszenarien: Prompt Injection, Data Poisoning, Model Theft/Evasion, Jailbreaks, Output Manipulation.
3) Sicherheits‑ und Governance‑Kontrollen integrieren
- Threat Modeling für KI in bestehende Risiko‑ und Sicherheitsprozesse einbetten.
- Abgesicherter Modell‑Lebenszyklus mit Monitoring und Drift‑Erkennung etablieren.
- Incident‑Response mit klaren Meldewegen; Red‑Teaming für generative KI einführen.
4) Governance stärken
- Rollen/Verantwortlichkeiten festlegen (Produktverantwortliche, Modell‑Owner, Datenschutz, Sicherheit, Fachbereiche).
- Entscheidungsprotokolle, Change‑Management, Modell‑ und Daten‑Lineage operationalisieren.
- Vendor‑Due‑Diligence und vertragliche Zusicherungen zu Daten, Sicherheit und Konformität standardisieren.
5) Nachweisbare Schulungsprogramme
- Rollenbasiert (Management, Fachbereiche, Entwicklung, Betrieb).
- Klare Lernziele, Prüfungen/Zertifikate, jährliche Auffrischungen; Teilnahme‑ und Kompetenznachweise revisionssicher ablegen.
6) Datenschutzmaßnahmen umsetzen
- Rechtsgrundlagen klären, DPIA/Datenschutz‑Folgenabschätzung durchführen.
- Datenminimierung, Anonymisierung/Pseudonymisierung, Zugriffskontrollen, Lösch‑ und Widerspruchsprozesse.
- Besonderes Augenmerk auf Trainingsdaten mit Personenbezug und deren Herkunft.
7) Dokumentationspaket bereitstellen
- Risikoregister, Modell‑ und Datenkarten, Evaluations‑/Bias‑Reports, Testprotokolle, Benutzerhinweise, technische Spezifikationen.
- Lieferketten‑Nachweise und Zertifikate systematisch erfassen.
8) Roadmap bis 08/2026 planen
- Meilensteine, Budget, RACI‑Matrix, interne Audits und Management‑Reviews.
- Anbindung an ISO/IEC 42001 und bestehende Managementsysteme (z. B. ISMS, QMS).
Ihr 90‑Tage‑Plan (Quick Start)
-
Wochen 1–2:
- Verantwortliche benennen (Executive Sponsor, KI‑Governance‑Lead, Security‑ und Datenschutz‑Lead).
- Geltungsbereich definieren (Use‑Cases, Einheiten, Lieferanten); Policy‑Update starten (KI‑Policy, Daten‑Policy, Secure‑AI‑Development‑Standard).
-
Wochen 3–6:
- Inventur und Risikobewertung abschließen; Kritikalität priorisieren.
- Lückenanalyse gegen EN 304 223 und ISO/IEC 42001 durchführen; Maßnahmenplan beschließen.
-
Wochen 7–10:
- Pilot‑Kontrollen umsetzen: kontinuierliches Monitoring, Incident‑Response‑Playbooks, Red‑Teaming für mind. einen GenAI‑Use‑Case.
- Rollenbasierte Trainingscurricula ausrollen; Prüfungen und Zertifizierungen dokumentieren.
-
Wochen 11–13:
- Dokumentation konsolidieren: Risikoregister, Modell‑/Datenkarten, Test‑ und Bias‑Reports, Lieferantennachweise.
- Internes Audit, Korrekturmaßnahmen priorisieren, Statusbericht ans Top‑Management mit Roadmap bis 08/2026.
Branchennotizen: Was jetzt besonders zählt
-
Fertigung:
- Qualitätsprüfung und vorausschauende Wartung profitieren von modellbasiertem Monitoring und Drift‑Erkennung.
- Nachweise der Lieferanten zu Datenqualität, Sicherheitskontrollen und Modellupdates konsequent einfordern.
-
Finanzwesen:
- Erklärbarkeit und Bias‑Kontrollen sind geschäftskritisch; klare Freigabeprozesse und Vier‑Augen‑Prinzip für produktive Modelle.
- Lückenlose Protokollierung für Modellentscheidungen und Kundeninteraktionen.
-
Gesundheitswesen:
- Strengste Datenschutzanforderungen; DPIA verpflichtend, Zweckbindung und minimale Datennutzung.
- Menschliche Aufsicht definieren und dokumentieren; klinische Evaluationsstandards einhalten.
-
Handel:
- Personalisierung und Chatbots erfordern Content‑Filter, Halluzinations‑Kontrollen und klare Nutzungsrichtlinien.
- Logging und Missbrauchserkennung zur Vorbeugung von Fraud und toxischen Inhalten.
Typische Fallstricke – und wie Sie sie vermeiden
- Unvollständige Inventur und Schatten‑KI: Führen Sie verpflichtende Self‑Assessments pro Team ein und koppeln Sie Freigaben an die KI‑Policy.
- Unterschätzte Kompetenzpflicht: Planen Sie Schulung, Prüfung und Zertifikat früh; dokumentieren Sie Teilnahme, Inhalte und Ergebnisse revisionssicher.
- Fehlende Daten‑/Modell‑Lineage: Nutzen Sie ein zentrales Repository mit Versionierung, Metadaten und Freigabeprotokollen.
- Vernachlässigte Lieferkette: Standardisieren Sie Due‑Diligence‑Fragen, Sicherheitsanforderungen und SLAs; prüfen Sie Nachweise regelmäßig.
- Kein Red‑Team für GenAI: Etablieren Sie ein wiederkehrendes Red‑Team‑Programm mit klaren Erfolgskriterien und Fix‑Follow‑Ups.
- Parallelwelten bei Compliance und Betrieb: Integrieren Sie KI‑Kontrollen in bestehende ISMS/QMS‑Prozesse, anstatt separate Silos aufzubauen.
Roadmap bis 08/2026: Vom Kostenfaktor zum strategischen Vorteil
Eine realistische Roadmap verbindet regulatorische Pflichten mit Business‑Mehrwert:
-
Kurzfristig (0–6 Monate):
- Transparenz schaffen (Inventur, Risiko, Dokumentation), zentrale Policies und Basiskontrollen verankern.
- Erste Quick‑Wins durch Prozessautomatisierung, Monitoring und verbesserte Datenqualität heben.
-
Mittelfristig (6–18 Monate):
- Skalierbare Betriebsmodelle etablieren: standardisierte Freigaben, MLOps/LLMOps mit Sicherheits‑Gates, integriertes Incident‑ und Problem‑Management.
- Interoperabilität sichern: Mapping auf ISO/IEC 42001 und internationale KI‑Sicherheitsprofile, Lieferkettensicherheit stärken.
-
Langfristig (18–24+ Monate):
- Reifegrad steigern durch kontinuierliche Audits, Performance‑/Bias‑Verbesserungszyklen, automatisierte Kontrollen und Kennzahlen.
- Vertrauensvorsprung am Markt nutzen: schnellere Skalierung neuer Use‑Cases, verkürzte Due‑Diligence‑Zyklen bei Partnern, höhere Kund:innen‑ und Aufsichtsbehörden‑Akzeptanz.
Wenn Sie frühzeitig in Governance, Sicherheit und Kompetenz investieren, wird Compliance nicht zum Bremsklotz, sondern zum Enabler: Sie reduzieren operative Risiken, beschleunigen Freigaben und schaffen die Basis, KI verantwortungsvoll und effizient in großem Maßstab zu betreiben.








