Der EU AI Act ist die erste umfassende Regulierung für Künstliche Intelligenz in Europa. Für Unternehmen in der DACH-Region – ob mit EU-Marktbezug oder als Teil europäischer Lieferketten – bedeutet dies schrittweise, aber verbindliche Anforderungen an Entwicklung, Einkauf und Nutzung von KI-Systemen. Die Pflichten treten gestaffelt in Kraft: kurzfristig greifen Verbote einzelner Praktiken und Transparenzanforderungen; mittelfristig folgen umfassende Pflichten für Hochrisiko-Systeme, einschließlich Konformitätsbewertung und laufendem Monitoring. Für viele Organisationen heißt das: Schon heute die eigenen Use-Cases inventarisieren, Risikoklassen korrekt zuordnen und Governance-Strukturen aufsetzen, damit in 12–36 Monaten keine kostspieligen Nacharbeiten anfallen.
Wesentlich ist die Unterscheidung der Rollen:
- Anbieter/Hersteller (Provider): entwickeln, fine-tunen oder vertreiben KI-Systeme.
- Verwender/Betreiber (Deployer): setzen KI in Geschäftsprozessen ein.
- Importeure, Händler, Integratoren: übernehmen spezifische Sorgfaltspflichten entlang der Supply Chain.
Parallel sollten Sie Überschneidungen mit DSGVO/Schweizer DSG, sektoralen Regelungen (z. B. MDR/IVDR im Gesundheitsbereich, Bankenaufsicht) und internen Qualitätsmanagement-Systemen berücksichtigen.
Der 6‑Schritte‑Fahrplan zur Compliance
Schritt 1: Systematische Inventarisierung Ihrer KI-Use-Cases
Erstellen Sie ein unternehmensweites KI-Register. Für jeden Use-Case sollten mindestens erfasst werden:
- Zweck und Geschäftsprozess
- Eingaben/Datenquellen, Kategorien personenbezogener Daten, Datenherkunft
- Modelltyp und -version (z. B. interne Modelle, GPAI/LLMs von Drittanbietern)
- Bereitstellungsmodell (On-Prem, Cloud, Edge) und Anbieter
- Nutzergruppen und betroffene Personengruppen
- Automatisierungsgrad (Unterstützung, Empfehlung, (teil-)automatisierte Entscheidung)
- Potenzielle Auswirkungen auf Gesundheit, Sicherheit und Grundrechte
- Verantwortliche Rollen (Owner), Betriebsverantwortung, Freigaben
- Relevante Rechtsgrundlagen und Policies
Dieses Register ist Dreh- und Angelpunkt für Risikoklassifizierung, Governance und Audits.
Schritt 2: Korrekte Einstufung in Risikoklassen
Ordnen Sie jeden Use-Case einer der vier Kategorien zu:
- Verboten: u. a. manipulative Praktiken, die erheblichen Schaden verursachen können, soziale Bewertung durch öffentliche Stellen oder bestimmte biometrische Kategorisierungen. Solche Vorhaben sind einzustellen.
- Hochrisiko: KI, die als Sicherheitskomponente regulierter Produkte dient (z. B. Medizinprodukte, Maschinen) oder Anwendungen aus der EU-Positivliste, etwa Kreditwürdigkeitsprüfung natürlicher Personen, bestimmte Beschäftigungs- und Bildungsanwendungen. Hier gelten strenge Anforderungen an Datenqualität, technische Dokumentation, Konformitätsbewertung, Human Oversight, Logging, Robustheit und Cybersicherheit.
- Begrenztes Risiko: vor allem Transparenzpflichten (z. B. Kennzeichnung von Chatbots oder generierten Inhalten), Benutzerinformationen, ggf. Grundrechtseinschätzungen.
- Minimales Risiko: keine spezifischen AI-Act-Pflichten; dennoch sind Good Practices empfehlenswert.
Hinweise:
- Credit Scoring für Privatkundinnen und -kunden ist typischerweise Hochrisiko.
- Diagnoseunterstützung als Teil eines Medizinprodukts fällt regelmäßig in Hochrisiko (interplay mit MDR/IVDR).
- Personalisierung im Handel ist oft begrenzt oder minimal, kann jedoch je nach Datenkategorien (z. B. biometrische Merkmale) höhere Pflichten auslösen.
- Qualitätsprüfung in der Fertigung variiert: Ist die KI sicherheitsrelevant oder Teil eines regulierten Produkts, tendiert die Einstufung zu Hochrisiko.
Schritt 3: Governance und Verantwortlichkeiten etablieren
Bauen Sie eine schlanke, wirksame KI-Governance auf:
- Richtlinien: AI Policy mit Prinzipien, Rollen, Entscheidungskompetenzen, Freigabeprozessen
- Gremien: AI Steering Committee, Risk Board, Datenschutz- und Informationssicherheitsanbindung
- Rollen: Product/Use-Case Owner, Responsible AI Lead, Model Risk Manager, Human Oversight Verantwortliche
- Prozesse: Change- und Release-Management, Exception Handling, Incident- und Vulnerability-Management
- Kompetenzaufbau: Schulungen für Fachbereiche, Risiko- und Compliance-Teams
- Lieferkettensteuerung: Due Diligence, SLAs, Audit- und Testrechte gegenüber Anbietern
Schritt 4: Technische Dokumentation und Datengovernance absichern
Für Hochrisiko-Systeme verpflichtend, für alle anderen Best Practice:
- Technische Dokumentation: Zweck, Design, Trainings-/Testdaten, Metriken (Genauigkeit, Robustheit), Begrenzungen, Use Instructions
- Datenmanagement: Datenqualität, Bias-Analysen, Data Provenance, Lösch- und Aktualisierungsprozesse
- Logging und Nachvollziehbarkeit: Input/Output-Logs, Model- und Prompt-Versionierung, Decision Trails
- Evaluierung: Pre-Deployment-Tests, Red-Teaming für sicherheitsrelevante Risiken, Fairness- und Drift-Monitoring
- Nutzerinformation: klare Anweisungen, Transparenz- und Kennzeichnungspflichten erfüllen
- Für Hochrisiko: Konformitätsbewertung, ggf. Einbindung benannter Stellen; Post-Market-Surveillance-Plan
Schritt 5: Human Oversight wirksam gestalten
Definieren Sie konkrete Kontrollpunkte:
- Klarer Automatisierungsgrad: Unterstützung, Vorschlag, Override, oder bindende Entscheidung
- Eingriffsgrenzen: Schwellenwerte, unter denen eine menschliche Prüfung zwingend ist
- Qualifikation und Schulung der Aufsichtspersonen
- Arbeitsanweisungen: Checklisten, Eskalationen, Dokumentationspflichten
- Nutzererlebnis: Oberflächen, die Übersteuerungen und begründete Ablehnungen ermöglichen
Schritt 6: Laufendes Monitoring und Verbesserungszyklus
Etablieren Sie Betrieb und Überwachung als Regelbetrieb:
- Performance-, Bias- und Drift-KPIs mit Alerting
- Feedbackkanäle für Nutzerinnen/Nutzer und Betroffene
- Incident-Management inkl. Meldungen an zuständige Stellen, wo erforderlich
- Periodische Reviews, Re-Validierungen und Re-Zertifizierungen
- Änderungsmanagement bei Modell-Updates, Datenverschiebungen oder Zweckänderungen
ISO/IEC 42001 als Orchestrierungsrahmen (Blueprint)
ISO/IEC 42001 liefert den Managementsystem-Rahmen, um die AI-Act-Pflichten effizient zu integrieren – ähnlich wie ISO 27001 für Informationssicherheit. Ein praxisnaher Blueprint:
- Kontext und Scope: definieren, welche Geschäftsbereiche/Use-Cases im AIMS (AI Management System) liegen
- Führung und Policy: AI-Grundsatz, Ziele, Verantwortlichkeiten, Ressourcen
- Planung und Risikomanagement: Risiko- und Auswirkungsanalysen (u. a. Sicherheit, Grundrechte), Kontrollen, Maßnahmenpläne
- Unterstützung: Kompetenz, Bewusstsein, Kommunikation, dokumentierte Information (Model Cards, Datasheets, Logs)
- Betrieb: Prozesse für Entwicklung, Beschaffung, Integration, Tests, Freigaben und Betrieb
- Leistungsbewertung: Monitoring, interne Audits, Management-Reviews, KPIs
- Verbesserung: Korrektur- und Vorbeugemaßnahmen, Lessons Learned, kontinuierliche Optimierung
Die Norm lässt sich mit bestehenden Systemen (ISO 9001/27001, MDR-QMS, MaRisk/BAIT) verzahnen und dient als „Organisationskitt“ zwischen Fachbereichen, IT und Compliance.
90‑Tage‑Checkliste: schnelle Compliance‑Gewinne
- Woche 1–2: KI-Register aufsetzen; Template bereitstellen; Top-20 Use-Cases erfassen
- Woche 2–3: Grobklassifizierung nach Risiko; rote Flaggen (verboten) stoppen; Hochrisiko-Kandidaten markieren
- Woche 3–4: AI-Policy und RACI-Rollenentwurf verabschieden; Steering Committee benennen
- Woche 4–6: Lieferanteninventar (Modelle, APIs, Tools) erstellen; Due-Diligence-Questionnaire versenden; Vertrags-Addenda für Transparenz, Logging, Auditrechte vorbereiten
- Woche 5–7: Human-Oversight-Standard-Operating-Procedures (SOP) für priorisierte Use-Cases definieren
- Woche 6–8: Technische Basismaßnahmen implementieren: Prompt-/Modell-Versionierung, zentralisiertes Logging, Zugriffs- und Rollenkonzepte
- Woche 7–9: Risiko- und Auswirkungsanalysen pilotieren (einschließlich Datenschutz); Bias- und Robustheits-Checks auf Prioritätsmodellen
- Woche 8–10: Post-Market-Monitoring-Plan entwerfen; Incident-Workflow und Meldekanäle etablieren
- Woche 9–12: Interner Audit-Check (Readiness Review); Maßnahmenplan mit Budget und Meilensteinen für 12–24 Monate verabschieden
- Laufend: Schulungen für Fachbereiche und Management; Kennzeichnungspflichten (Chatbots/Generatives) umsetzen
Branchenbeispiele aus der Praxis
- Fertigung – Visuelle Qualitätsprüfung:
- Einstufung: abhängig von Produkt und Sicherheitsrelevanz; bei sicherheitskritischen Komponenten tendenziell Hochrisiko.
- Maßnahmen: robuste Datensets mit Repräsentanz seltener Fehler, Edge-Absicherung, klare Ablehnungs- und Nachprüfpfade, Liniendrift-Monitoring; Lieferantennachweise zur Modellleistung und Änderungslogs.
- Finanzdienstleistung – Kreditscoring:
- Einstufung: in der Regel Hochrisiko.
- Maßnahmen: Datenqualitäts- und Fairness-Kontrollen, Feature-Governance, erklärbare Entscheidungskriterien, Human Oversight bei Grenzfällen, gründliche technische Dokumentation und Konformitätsbewertung; Abstimmung mit Datenschutz und Aufsicht.
- Gesundheitswesen – Diagnoseunterstützung:
- Einstufung: typischerweise Hochrisiko (als Teil eines Medizinprodukts).
- Maßnahmen: klinische Validierung, Risiko-Management nach einschlägigen Normen, klare Nutzerinstruktionen, Monitoring von Leistung in der Versorgungsrealität, strukturierte Meldemechanismen für Vorkommnisse.
- Handel – Personalisierung/Recommendation:
- Einstufung: meist begrenztes oder minimales Risiko.
- Maßnahmen: Transparenz (Kennzeichnung generierter Inhalte/Chatbots), Kontrolle sensibler Merkmale, A/B-Tests mit Fairness-KPIs, Möglichkeit für Nutzerinnen/Nutzer, Personalisierung zu steuern oder abzulehnen.
Praxis-Templates für sofortige Anwendung
Template: Lieferanten‑Due‑Diligence (Auszug)
- Unternehmensdaten: Rechtsträger, Sitz, Subprozessoren
- Produktumfang: Modell/Service, Version, Einsatzgrenzen, intended purpose
- Compliance-Nachweise: AI-Act-Readiness, ggf. ISO/IEC 42001, 27001, sektorale Zertifikate
- Datenherkunft und -rechte: Provenance, Lizenzierung, Urheberrechts-Compliance
- Modellinformationen: Trainings-/Evaluationsdaten, Leistungsmetriken, bekannte Limitierungen
- Sicherheit: Secure Development, Schwachstellenmanagement, Penetrationstests
- Transparenz: Model Card/Datasheet vorhanden? Logging- und Audit-Schnittstellen
- Support/SLA: Reaktionszeiten, Änderungsmitteilungen, Roadmap
- Rechte und Pflichten: Audit- und Testrechte, Incident-Meldepflichten, Decommissioning-Regeln
- Ethik/Grundrechte: Bias-Tests, Maßnahmen gegen Diskriminierung, Human Oversight-Unterstützung
Template: Human‑Oversight‑Plan (Auszug)
- Rolle und Qualifikation der Beaufsichtigenden
- Entscheidungsmodell: HITL/HOTL/HOoL, Schwellenwerte, Notfallstopp
- Checkliste für Prüfungen: Daten-/Kontextangemessenheit, Plausibilität, Begründung
- Eskalationspfade: Wann und an wen eskalieren
- Dokumentation: Entscheidungsjournal, Gründe für Overrides/Bestätigungen
- Schulung und Kompetenznachweise; regelmäßige Re‑Zertifizierung
Template: Post‑Market‑Monitoring‑Plan (Auszug)
- KPIs: Genauigkeit, Fehlerraten, Drift, Fairness-Indikatoren, Stabilität
- Datenerfassung: Umfang, Sampling, Schutz personenbezogener Daten
- Trigger und Alarme: Grenzwerte, die Maßnahmen auslösen
- Feedbackkanäle: interne Nutzer, Kundinnen/Kunden, Beschwerdemechanismen
- Incident-Workflow: Klassifikation, Erstmaßnahmen, Fristen für Meldungen an relevante Stellen, Lessons Learned
- Änderungsmanagement: Bewertung und Dokumentation von Modell- oder Datenupdates
- Review-Zyklen: monatlich/vierteljährlich, Management-Reportings
Fazit und nächste Schritte
Die Reise zur AI-Act-Compliance ist beherrschbar, wenn Sie strukturiert vorgehen: Use-Cases inventarisieren, sauber klassifizieren, Governance aufbauen, dokumentieren und kontinuierlich überwachen. ISO/IEC 42001 bietet den optimalen Orchestrierungsrahmen, um diese Elemente effizient zu verbinden und mit bestehenden Managementsystemen zu verzahnen. Beginnen Sie mit der 90‑Tage‑Checkliste, identifizieren Sie Hochrisiko-Schwerpunkte und professionalisieren Sie parallel Lieferantensteuerung, Human Oversight und Monitoring. So schaffen Sie kurzfristig Sicherheit und legen die Basis für nachhaltige, verantwortungsvolle KI‑Innovation in den nächsten 12–36 Monaten.








