Der EU AI Act ist seit 2024 in Kraft und wird stufenweise bis 2026 voll anwendbar. Er verpflichtet Unternehmen zu einem risikobasierten Umgang mit KI‑Systemen – mit Bußgeldern von bis zu 7 % des weltweiten Jahresumsatzes im Falle schwerwiegender Verstöße. Viele mittelständische Unternehmen in der DACH‑Region nutzen bereits KI in Form von SaaS‑Lösungen, eingebetteten Funktionen in Standardsoftware oder intern entwickelten Modellen – jedoch ohne vollständige Transparenz über Umfang, Datenflüsse und Risiken. Genau hier setzt die KI‑Inventur an: Sie verschafft Ihnen in kurzer Zeit einen strukturierten Überblick, ermöglicht eine rechtskonforme Risikoklassifizierung nach EU AI Act und legt die Basis für eine wirksame Governance im Sinne von ISO/IEC 42001.
Für Branchen wie Fertigung, Finanzdienstleistungen, Gesundheitswesen und Handel ist der Handlungsdruck besonders hoch: KI greift in qualitätskritische Prozesse, unterstützt Entscheidungen mit Kundenwirkung oder verarbeitet sensible Daten. Wer jetzt systematisch vorgeht, reduziert nicht nur Compliance‑Risiken, sondern schafft die Grundlage, erfolgreiche Use Cases sicher zu skalieren.
Was zur KI‑Inventur gehört
Eine belastbare Inventur umfasst sämtliche KI‑Nutzungen – von etablierten Anwendungen bis zu Experimenten. Berücksichtigen Sie insbesondere:
- Intern entwickelte Modelle und Anwendungen (z. B. Prognosen, Klassifikatoren, Optimierer)
- Drittanbieter/SaaS mit KI‑Funktionen (z. B. CRM, ERP, HR‑Tools mit eingebetteter KI)
- Eingebettete KI in bestehenden Tools (z. B. “Smart Features” in Office‑Suiten)
- APIs und Modellzugriffe (z. B. GPT‑ oder Vision‑APIs in eigenen Produkten)
- Pilotprojekte/PoCs, Plug‑ins und generative Assistenten
- RPA, Analytics und Decision‑Engines
- Edge/IoT‑Komponenten (z. B. visuelle Inspektion in der Fertigung)
Schatten‑IT aktiv mitdenken:
- Team‑Accounts, Trial‑Zugänge, private Lizenzen im beruflichen Kontext
- Experimentelle Notebooks, Skripte und lokale Tools
Für jedes System dokumentieren Sie mindestens:
- Zweck/Use Case und betroffene Geschäftsprozesse
- Fachliche Verantwortliche (Product Owner) und technische Verantwortliche
- Anbieter/Modell (soweit bekannt), inkl. Version/Release
- Datenkategorien, insbesondere personenbezogene/sensible Daten
- Datenquellen, Übermittlungen (intern/extern) und Speicherorte
- Trainingsdaten vs. Nutzungsdaten (Inference), inkl. Datenherkunft
- Betroffene Nutzer/Kunden und Reichweite (intern/extern)
- Entscheidungswirkung (unterstützend, automatisch, folgenrelevant)
- Mensch‑in‑der‑Schleife (Design, Freigaben, Overrides)
- Logging/Monitoring (Events, Metriken, Drifts, Feedback)
- Bestehende Kontrollen (Zugriffe, Qualitätsprüfungen, Tests, Bias‑Checks)
Tipp für die Praxis: Starten Sie mit einer einfachen, unternehmensweit zugänglichen Inventory‑Vorlage (z. B. in einem GRC‑Tool oder einem strukturierten Formular). Machen Sie das Melden neuer KI‑Nutzungen verpflichtend und niedrigschwellig.
So setzen Sie die Inventur in 30 Tagen auf
Sofortmaßnahmen (0–30 Tage) für einen schnellen, auditfähigen Start:
- Cross‑funktionales Team benennen: Fachbereiche, IT, Datenschutz, Recht, Compliance, Einkauf; bei Bedarf Informationssicherheit, Qualitätsmanagement, Medizinproduktesicherheit (Healthcare) und Modellierung/Data Science.
- Inventarvorlage und Datenerhebungsprozess bereitstellen: Klare Definition, was als KI gilt; Meldekanal (Formular), Fristen und Verantwortlichkeiten festlegen; Verantwortliche je Use Case zuordnen.
- Kommunikations‑ und Schulungsinitiativen starten: Kurzformate zu Rollen, Pflichten, Transparenzanforderungen, Datenumgang und Kennzeichnungspflichten. Sensibilisieren Sie für Schatten‑IT und verbindliche Freigabeprozesse.
- “Quick Discovery”: Top‑Systeme durch Befragungen der Teams, Tool‑Scans (z. B. SaaS‑Verbrauch), API‑Logs und Einkaufsdaten identifizieren.
- Erste Risiken markieren: Flaggen für personenbezogene Daten, Kundenwirkung, Automatisierungsgrad, externe Modellnutzung.
Ergebnis nach 30 Tagen: Ein initiales, priorisiertes Inventar mit verantwortlichen Ansprechpersonen, ausreichender Datentiefe für die Risikoklassifizierung und ein gelebter Meldeprozess für neue KI‑Nutzungen.
Risikoklassifizierung nach EU AI Act – pragmatische Orientierung
Nutzen Sie eine vereinfachte, aber belastbare Zuordnung, um schnell handlungsfähig zu werden:
- Verbotene Praktiken
- Beispiel: staatliches Social Scoring.
- Maßnahme: Nutzung unterbinden, Alternativen evaluieren, Lessons Learned dokumentieren.
- Hochrisiko‑KI
- Beispiele: Personalauswahl/Bewerbungsprüfung; medizinische Anwendungen; Kredit‑ oder Zugangsentscheidungen zu wesentlichen Diensten; Anwendungen im Justizumfeld oder in sicherheitskritischen Bereichen.
- Pflichten im Überblick: durchgängiges Risikomanagement; robuste Datenqualität (repräsentative, unverzerrte Trainingsdaten); ausführliche technische Dokumentation; klare menschliche Aufsicht; zielgruppenspezifische Schulungen zur AI‑Literacy; Post‑Market‑Monitoring.
- Praxis: Frühzeitig Gap‑Analysen gegen diese Pflichten, Verantwortlichkeiten und Budgets festlegen.
- Begrenztes Risiko
- Beispiele: Chatbots, synthetische Medien/Generatoren.
- Pflichten: Transparenzhinweise (Kennzeichnung als KI, Hinweise bei Deepfakes), klare Nutzungsanleitungen und Grenzen.
- Praxis: Standardisierte Disclosure‑Bausteine, UI‑Hinweise und Nutzerleitfäden bereitstellen.
- Minimales Risiko
- Beispiele: Spamfilter, Standard‑Produktivitätsfunktionen.
- Pflichten: Keine besonderen Anforderungen über allgemeine Sicherheit/Qualität hinaus.
- Praxis: Gute Verfahren fortführen, Monitoring etablieren und Inventar aktuell halten.
Dokumentieren Sie für jeden Use Case die Begründung der Risikoklasse. So schaffen Sie Nachvollziehbarkeit gegenüber Aufsichtsbehörden, Kunden und internen Prüfern.
Von der Inventur zur Priorisierung (30–90 Tage)
Die nächsten Schritte (30–90 Tage) konsolidieren die Inventur und führen in die Governance:
- Klassifizieren und Lücken analysieren: Für jedes System Risikoklasse festlegen; Gap‑Analyse gegen die Pflichten je Klasse (z. B. Datenqualität, Dokumentation, menschliche Aufsicht, Kennzeichnung, Monitoring).
- Prioritäten definieren: Hohe Kundenwirkung, regulatorische Relevanz, sensible Daten und Automatisierungsgrad zuerst. Parallel “No‑Regret”-Maßnahmen (Transparenzhinweise, Logging, Zugriffskontrollen) breit ausrollen.
- Governance aufsetzen:
- Richtlinien: Was ist KI? Welche Freigaben sind nötig? Zulässige Anwendungsfälle, Datenrichtlinien, Prompt/Output‑Policies für generative KI.
- Freigabeprozess: Gate für PoC → Pilot → Produktion mit klaren Evidenzen (Tests, Bias‑Checks, Security, Datenschutz‑Folgenabschätzung).
- Monitoring und Vorfallmanagement: Drift‑Detection, Performance‑KPIs, Nutzerfeedback; definierte Schwellenwerte, Eskalationswege, Incident‑Response.
- Lieferantenprüfungen: Anforderungen an Third‑Party‑KI (Dokumentation, Datenherkunft, Modellkarten, Support für Audits).
- Ausrichtung an einem AI‑Managementsystem (z. B. ISO/IEC 42001): Scope, Rollen, Prozesse und Artefakte festlegen; Reifegrad stufenweise erhöhen.
- Unterstützungsangebote prüfen: Regulatorische Reallabore/Sandboxes und nationale Anlaufstellen nutzen, um komplexe Use Cases abgesichert zu entwickeln.
Ergebnis nach 90 Tagen: Risiko‑klassifiziertes Inventar, priorisierter Maßnahmenplan, initiale AI‑Governance und klarer Pfad zur Konformität bis 2026.
ISO/IEC 42001 als Governance‑Leitplanke
ISO/IEC 42001 beschreibt ein Managementsystem für KI. Es liefert die Struktur, um EU‑AI‑Act‑Pflichten dauerhaft wirksam umzusetzen:
- Kontext und Scope: Festlegung, welche Organisationsteile, Use Cases und Lieferketten abgedeckt sind.
- Führung und Rollen: Verantwortlichkeiten (z. B. AI‑Owner, AI‑Risk Officer, Model Steward), Gremien (AI‑Board), RACI‑Modelle.
- Risikomanagement: Einheitliche Kriterien für Risikoidentifikation, Bewertung und Behandlung; Verzahnung mit Enterprise Risk Management.
- Datenmanagement: Standards für Datenherkunft, Qualität, Repräsentativität, Bias‑Kontrollen, Versionierung von Trainings- und Nutzungsdaten.
- Lebenszyklussteuerung: Anforderungen an Design, Entwicklung, Test, Deployment, Change‑Management und Stilllegung von KI‑Systemen.
- Menschliche Aufsicht: Festlegung von Kontrollpunkten, Escape‑Hatches, Override‑Rechten und Schulungsanforderungen.
- Transparenz und Dokumentation: Technische Spezifikationen, Modellkarten, Nutzungsanleitungen, Transparenzhinweise für Endnutzer.
- Monitoring und Verbesserung: Post‑Market‑Monitoring, Performance‑ und Fairness‑Metriken, Audit‑Trails, Management‑Reviews.
- Lieferanten- und Drittparteiensteuerung: Vertragsklauseln, Due‑Diligence, Nachweise (z. B. Konformitätsbewertungen, Sicherheitszertifikate).
- Kompetenzaufbau: Zielgruppenspezifische AI‑Literacy und Schulungspfade für Fachbereiche, IT, Compliance und Führungskräfte.
Mit ISO/IEC 42001 etablieren Sie ein wiederholbares, auditfähiges System, das technische Exzellenz mit geschäftlicher Steuerbarkeit verbindet – ideal für regulierte und sicherheitskritische Branchen.
Business‑Nutzen der frühen Umsetzung
Eine frühe, strukturierte Umsetzung zahlt sich operativ und strategisch aus:
- Geringeres Bußgeld‑ und Reputationsrisiko durch nachweisbare Compliance
- Schnelleres Skalieren erfolgreicher Use Cases dank klarer Freigabepfade
- Weniger Schatten‑IT und ungeplante Kosten durch verbindliche Prozesse
- Bessere Datenqualität, Nachvollziehbarkeit und Auditfähigkeit
- Vertrauensgewinn bei Kunden, Partnern, Aufsichtsbehörden und Mitarbeitenden
- Höhere Effizienz: Weniger Redundanzen, mehr Wiederverwendung von Komponenten und Standards
- Wettbewerbsfähigkeit: Proaktive Vorbereitung auf 2026 schafft Marktvorteile
Checkliste und nächste Meilensteine
Nutzen Sie diese Fragen als Leitfaden:
- Welche KI nutzen wir bereits? Wer ist verantwortlich? Welche Daten fließen?
- In welche Risikoklasse fällt jeder Use Case und warum?
- Welche Lücken bestehen (z. B. Datenqualität, Dokumentation, Aufsicht, Kennzeichnung)?
- Welche kurzfristigen Maßnahmen und Meilensteine bis 2026 setzen wir fest?
Roadmap‑Vorschlag:
- 0–30 Tage: Inventar aufbauen, Meldeprozess etablieren, Grundschulungen durchführen.
- 30–90 Tage: Risikoklassifizierung abschließen, Gap‑Analyse je Use Case, Governance (Policies, Freigaben, Monitoring, Vorfallmanagement, Lieferantenprüfungen) aufsetzen, ISO/IEC‑42001‑Rahmen definieren.
- 3–6 Monate: Priorisierte Maßnahmen umsetzen (z. B. Transparenzhinweise, Datenqualitätsmaßnahmen, Dokumentation, menschliche Aufsicht), erste interne Audits/Pilot‑Konformitätsbewertungen.
- 6–12 Monate: Skalierung, Post‑Market‑Monitoring etablieren, kontinuierliche Verbesserung verankern; Reallabore/Sandboxes für komplexe Anwendungsfälle nutzen.
Jetzt Inventar starten, Risikoklassen zuweisen und Governance etablieren; anschließend pilotierte Systeme priorisiert in die Konformität überführen.








