I
Impetora

EU-KI-Verordnung Umsetzungs-Checkliste für Anbieter und Betreiber

By Impetora -

Verordnung (EU) 2024/1689, die EU-KI-Verordnung, gilt für Anbieter, Betreiber, Einführer und Händler von KI-Systemen, die auf dem EU-Markt in Verkehr gebracht werden oder deren Output in der Union verwendet wird, unabhängig vom Sitz des Akteurs [1]. Die Anwendung erfolgt gestaffelt: in Kraft seit 1. August 2024, verbotene Praktiken ab 2. Februar 2025, Pflichten für KI-Modelle mit allgemeinem Verwendungszweck ab 2. August 2025, der Grossteil der Hochrisiko-Pflichten ab 2. August 2026 [1]. Diese Checkliste umfasst zwölf konkrete Schritte, die jeder Akteur vor dem Stichtag im August 2026 abgeschlossen haben sollte.

Aug 2026
die meisten Hochrisiko-KI-Pflichten greifen
EUR-Lex
35 Mio. EUR / 7%
Höchstbussgeld bei verbotenen Praktiken (Art. 99)
EUR-Lex
Anhang III
acht Hochrisiko-Anwendungskategorien
EUR-Lex

Schritt 1. Bestimmen Sie Ihre Rolle nach der Verordnung

Artikel 3 definiert vier Akteurs-Rollen, und dieselbe Organisation kann mehr als eine innehaben. Ein Anbieter entwickelt ein KI-System oder lässt es entwickeln und bringt es unter eigenem Namen in Verkehr oder in Betrieb. Ein Betreiber verwendet ein KI-System unter eigener Verantwortung im professionellen Kontext. Ein Einführer bringt ein System mit dem Namen eines Nicht-EU-Anbieters auf dem EU-Markt in Verkehr. Ein Händler stellt ein System bereit, ohne dessen Eigenschaften zu verändern [1].

Entscheidend ist, dass ein Betreiber, der ein Hochrisiko-System wesentlich verändert, umlabelt oder dessen Zweckbestimmung ändert, nach Artikel 25 für das geänderte System zum Anbieter wird. Ordnen Sie zuerst jedes KI-System Ihres Portfolios diesen vier Rollen zu, denn alle weiteren Schritte hängen von dieser Antwort ab.

Schritt 2. Klassifizieren Sie jedes KI-System

Die Verordnung teilt KI-Systeme in vier Risikostufen ein. Verbotene Praktiken nach Artikel 5 umfassen unterschwellige Manipulation, Ausbeutung schutzbedürftiger Gruppen, Social Scoring durch Behörden, ungerichtetes Auslesen von Gesichtsbildern, biometrische Kategorisierung nach sensiblen Merkmalen, biometrische Echtzeit-Fernidentifizierung im öffentlichen Raum (mit eng begrenzten Ausnahmen für die Strafverfolgung) und Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen [1]. Hochrisiko-Systeme sind in Artikel 6 und Anhang III definiert und decken acht Kategorien ab: Biometrie, kritische Infrastruktur, allgemeine und berufliche Bildung, Beschäftigung und Beschäftigtenmanagement, Zugang zu wesentlichen öffentlichen und privaten Diensten (einschliesslich Kreditwürdigkeit), Strafverfolgung, Migration und Grenzkontrolle, Justiz und demokratische Prozesse. Begrenzt riskante Systeme lösen Transparenzpflichten nach Artikel 50 aus (Chatbots, Deepfakes, KI-generierte Inhalte). Minimalrisiko-Systeme tragen über freiwillige Verhaltenskodizes hinaus keine spezifischen Verordnungspflichten.

Dokumentieren Sie die Klassifizierungsentscheidung pro System samt Begründung. Das Europäische KI-Büro veröffentlicht Klassifizierungsleitlinien, und dieses Dokument ist die massgebliche Referenz, nicht das Marketingmaterial der Anbieter [2].

Schritt 3. Risikomanagementsystem einrichten (Artikel 9)

Für jedes Hochrisiko-System verlangt Artikel 9 ein schriftliches, kontinuierliches und iteratives Risikomanagementsystem über den gesamten Lebenszyklus. Es muss vorhersehbare Risiken für Gesundheit, Sicherheit und Grundrechte identifizieren und analysieren, Risiken in der bestimmungsgemässen Verwendung und im vernünftigerweise vorhersehbaren Missbrauch schätzen und bewerten, weitere Risiken auf Basis der Daten aus der Beobachtung nach dem Inverkehrbringen bewerten und geeignete Risikomanagementmassnahmen ergreifen.

Das RMS-Dokument ist kein einmaliges Ergebnis. Es wird systematisch überprüft und fortgeschrieben, und Tests müssen belegen, dass die gewählten Massnahmen im jeweiligen Betriebskontext wirken. Behandeln Sie es als lebendes Artefakt mit benannter verantwortlicher Person.

Schritt 4. Daten-Governance (Artikel 10)

Trainings-, Validierungs- und Testdaten müssen relevant, hinreichend repräsentativ, fehlerfrei und im Hinblick auf die Zweckbestimmung vollständig sein. Artikel 10 verlangt dokumentierte Daten-Governance-Praktiken zu: Designentscheidungen, Datenerhebungsprozessen, Datenaufbereitung (Annotation, Etikettierung, Bereinigung, Anreicherung, Aggregation), Annahmenbildung, Vorabprüfung der Verfügbarkeit, Untersuchung auf Verzerrungen, die Gesundheit, Sicherheit oder Grundrechte beeinträchtigen können, sowie Identifizierung relevanter Datenlücken mit Minderungsmassnahmen.

Soweit unbedingt erforderlich, ist die Verarbeitung besonderer Kategorien personenbezogener Daten nach Artikel 10 Absatz 5 zur Erkennung und Korrektur von Verzerrungen mit angemessenen Schutzmassnahmen zulässig. Dokumentieren Sie jede Entscheidung; die Konformitätsbewertung besteht ohne diese Dokumentation nicht.

Schritt 5. Technische Dokumentation (Artikel 11 und Anhang IV)

Die technische Dokumentation muss vor Inverkehrbringen erstellt und auf dem aktuellen Stand gehalten werden. Anhang IV legt den Mindestinhalt fest: allgemeine Beschreibung des Systems, detailliertes Design und Architektur, Überwachung und Steuerung, Validierungs- und Testdaten und -verfahren, Bewertungsergebnisse einschliesslich Metriken und bekannter Einschränkungen, Cybersicherheits-Massnahmen, Verfahren zum Änderungsmanagement und EU-Konformitätserklärung.

KMU und Start-ups dürfen ein vereinfachtes Anhang-IV-Formular des KI-Büros nutzen, die zugrunde liegenden Pflichten bleiben unverändert. Halten Sie die Dokumentation in einer Form vor, die die zuständige nationale Behörde auf Anfrage einsehen kann.

Schritt 6. Automatische Protokollierung (Artikel 12)

Hochrisiko-Systeme müssen während ihrer gesamten Lebensdauer automatisch Ereignisse (Logs) in einem der Zweckbestimmung angemessenen Mass aufzeichnen. Logs müssen die Identifizierung von Situationen ermöglichen, in denen das System nach Artikel 79 ein Risiko darstellen kann, die Beobachtung nach dem Inverkehrbringen erleichtern und die Überwachung durch den Betreiber nach Artikel 26 ermöglichen. Artikel 12 Absatz 3 legt für biometrische Fernidentifizierungssysteme spezifische Mindestlogs fest (Nutzungsdauer, Referenzdatenbank, Eingangsdaten, identifizierendes Personal).

Legen Sie eine zur Zweckbestimmung verhältnismässige Aufbewahrungsdauer fest, mindestens jedoch sechs Monate, sofern andere Vorschriften der Union oder der Mitgliedstaaten nichts anderes bestimmen.

Schritt 7. Transparenz gegenüber Betreibern (Artikel 13)

Hochrisiko-Systeme sind so zu gestalten, dass Betreiber die Ausgaben interpretieren und sachgerecht nutzen können. Sie sind mit präzisen, vollständigen, korrekten und klaren Betriebsanleitungen zu liefern, die folgende Angaben enthalten: Identität des Anbieters, Eigenschaften und Zweckbestimmung des Systems, Genauigkeits- und Robustheitsniveau, vorhersehbare Risikolagen, technische Eigenschaften für die Erklärung der Ausgaben, Leistung in Bezug auf bestimmte Personen oder Gruppen, Spezifikation der Eingabedaten, menschliche Aufsicht, erwartete Lebensdauer und erforderliche Wartung.

Bei begrenzt riskanten Systemen erlegt Artikel 50 zusätzliche Transparenzpflichten auf: Nutzer sind darüber zu informieren, dass sie mit einem KI-System interagieren, KI-erzeugte synthetische Inhalte sind maschinenlesbar als solche zu kennzeichnen, Deepfakes sind offenzulegen.

Schritt 8. Menschliche Aufsicht (Artikel 14)

Hochrisiko-Systeme sind so zu gestalten, dass sie während ihrer Verwendung wirksam von natürlichen Personen beaufsichtigt werden können. Aufsichtsmassnahmen müssen es der zugewiesenen Person erlauben: relevante Fähigkeiten und Grenzen des Systems zu verstehen, sich des Automation Bias bewusst zu bleiben, Ausgaben korrekt zu interpretieren, das System nicht zu verwenden oder dessen Ausgabe zu missachten, zu überschreiben oder rückgängig zu machen, sowie den Betrieb durch eine Stopptaste oder ein vergleichbares Verfahren zu unterbrechen.

Bei biometrischer Fernidentifizierung nach Anhang III(1)(a) darf keine Massnahme oder Entscheidung allein auf Basis der Identifizierung getroffen werden, sofern diese nicht von mindestens zwei natürlichen Personen mit der erforderlichen Sachkunde, Schulung und Befugnis überprüft und bestätigt wurde.

Schritt 9. Genauigkeit, Robustheit, Cybersicherheit (Artikel 15)

Artikel 15 verlangt, dass Hochrisiko-Systeme im Hinblick auf ihre Zweckbestimmung ein angemessenes Mass an Genauigkeit, Robustheit und Cybersicherheit erreichen und durchgängig über den Lebenszyklus konsistent funktionieren. Genauigkeitsniveaus und einschlägige Metriken sind in der Betriebsanleitung anzugeben.

Die Robustheit muss Rückkopplungsschleifen, Fehler und Inkonsistenzen behandeln. Die Cybersicherheit muss gegen Versuche resilient sein, Verwendung, Verhalten oder Leistung zu verändern, einschliesslich Datenvergiftung, Modellvergiftung, adversarialer Beispiele, Modellumgehung und Vertraulichkeitsangriffen. Das KI-Büro entwickelt mit ENISA technische Spezifikationen [3].

Schritt 10. Konformitätsbewertung, CE-Kennzeichnung, EU-Datenbank

Vor dem Inverkehrbringen eines Hochrisiko-Systems muss der Anbieter eine Konformitätsbewertung durchführen. Für die meisten Anhang-III-Systeme ist die interne Kontrolle nach Anhang VI möglich. Anhang-III(1)-Biometriesysteme müssen das Verfahren mit notifizierter Stelle nach Anhang VII durchlaufen, sofern keine harmonisierten Normen angewendet wurden. Eine erfolgreiche Bewertung führt zu: EU-Konformitätserklärung (Artikel 47), Anbringung des CE-Kennzeichens (Artikel 48) und Registrierung in der EU-Datenbank (Artikel 49) vor Inbetriebnahme. Behördliche Betreiber registrieren ihre Verwendung zusätzlich nach Artikel 49 Absatz 1a.

Anbieterpflichten sind in den Artikeln 16 bis 26 geregelt und umfassen Qualitätsmanagement, Aufbewahrung von Unterlagen, Aufbewahrung automatisch erzeugter Logs, Korrekturmassnahmen, Zusammenarbeit mit Behörden und Barrierefreiheit.

Schritt 11. Beobachtung nach Inverkehrbringen und Meldung schwerer Vorfälle (Artikel 72-73)

Anbieter müssen ein dokumentiertes System zur Beobachtung nach Inverkehrbringen einrichten, das den KI-Technologien und den Risiken des Hochrisiko-Systems angemessen ist. Der Plan ist Teil der technischen Dokumentation. Daten werden während der gesamten Lebensdauer aktiv und systematisch erhoben, dokumentiert und analysiert, und der Anbieter prüft die fortdauernde Einhaltung der Anforderungen der Verordnung.

Artikel 73 verlangt die Meldung schwerer Vorfälle an die Marktüberwachungsbehörde des Mitgliedstaats, in dem der Vorfall eingetreten ist, unverzüglich nach Feststellung eines kausalen Zusammenhangs oder einer angemessenen Wahrscheinlichkeit dafür, spätestens innerhalb von 15 Tagen nach Kenntnisnahme. Tod oder schwere Beeinträchtigung lösen eine 10-Tages-Frist aus. Weitverbreitete Verstösse oder Beeinträchtigungen kritischer Infrastruktur lösen eine 2-Tages-Frist aus.

Schritt 12. Behördliche Betreiber - Grundrechte-Folgenabschätzung (Artikel 27)

Vor dem Einsatz eines in Anhang III aufgeführten Hochrisiko-Systems (mit begrenzten Ausnahmen) müssen Einrichtungen des öffentlichen Rechts und private Anbieter öffentlicher Dienste sowie Betreiber von Kreditscoring- oder Lebens- und Krankenversicherungs-Risikosystemen eine Grundrechte-Folgenabschätzung (FRIA) durchführen. Die FRIA muss beschreiben: den Einsatzprozess, Dauer und Häufigkeit der Verwendung, Kategorien der wahrscheinlich betroffenen natürlichen Personen, konkrete vernünftigerweise zu erwartende Schäden, die menschlichen Aufsichtsmassnahmen und die im Risikoeintritt zu treffenden Massnahmen.

Das Ergebnis der FRIA wird der Marktüberwachungsbehörde über ein vom KI-Büro veröffentlichtes Muster angezeigt. Bei wesentlicher Änderung eines Elements ist eine neue FRIA erforderlich.

Anwendungs-Zeitplan

  • 1. August 2024 - Verordnung tritt in Kraft.
  • 2. Februar 2025 - Verbote nach Artikel 5 sowie KI-Kompetenzpflicht (Artikel 4) für Anbieter und Betreiber gelten.
  • 2. August 2025 - Pflichten für KI-Modelle mit allgemeinem Verwendungszweck (Artikel 51-55), Governance-Struktur, Bussgelder, Rahmen für notifizierende Behörden und notifizierte Stellen gelten.
  • 2. August 2026 - Grossteil der Pflichten gilt, einschliesslich Hochrisiko-Systeme nach Artikel 6 Absatz 2 und Anhang III, Betreiberpflichten nach Artikel 26, FRIA nach Artikel 27, Registrierung in der EU-Datenbank nach Artikel 49.
  • 2. August 2027 - Pflichten gelten für Hochrisiko-Systeme als Sicherheitsbauteile von Produkten, die unter sektorale Rechtsakte aus Anhang I fallen.

Bussgelder (Artikel 99)

Sanktionen sind gestaffelt. Verstösse gegen Verbote nach Artikel 5 ziehen Bussgelder bis zu 35 Mio. EUR oder 7 % des weltweiten Jahresumsatzes nach sich, je nachdem welcher Betrag höher ist. Verstösse gegen die meisten anderen Akteurspflichten (Artikel 16-26 für Anbieter, Artikel 26 für Betreiber, Artikel 31, 33, 34 für notifizierte Stellen) ziehen Bussgelder bis zu 15 Mio. EUR oder 3 % des Umsatzes nach sich. Falsche, unvollständige oder irreführende Angaben gegenüber Behörden ziehen Bussgelder bis zu 7,5 Mio. EUR oder 1 % nach sich. Für KMU und Start-ups gilt jeweils die niedrigere der beiden Grössen.

Anbieter von KI-Modellen mit allgemeinem Verwendungszweck unterliegen einem getrennten Regime nach Artikel 101 mit Höchstbeträgen von 15 Mio. EUR oder 3 % des Umsatzes.

Häufig gestellte Fragen

Gilt die EU-KI-Verordnung für einen Nicht-EU-Anbieter, der nach Europa verkauft?
Ja. Artikel 2 Absatz 1 Buchstabe c erstreckt die Verordnung auf Anbieter und Betreiber mit Sitz ausserhalb der EU, sofern der Output des Systems in der Union verwendet wird. Ein US- oder UK-Anbieter, der ein Hochrisiko-KI-System an einen EU-Kunden verkauft, muss vor dem Inverkehrbringen einen Bevollmächtigten nach Artikel 22 benennen und sämtliche Anbieterpflichten der Artikel 16 bis 26 erfüllen. Eine vertragliche Delegation an den EU-Kunden funktioniert nicht; die Verordnung behandelt die Anbieterrolle als Tatsachenfrage, nicht als Vertragsfrage.
Wie überschneiden sich Pflichten für KI-Modelle mit allgemeinem Verwendungszweck und Anhang-III-Hochrisiko-Pflichten?
Es sind zwei getrennte Regime. Pflichten für KI-Modelle mit allgemeinem Verwendungszweck (Artikel 51-55) gelten unabhängig von der nachgelagerten Verwendung für den Modellanbieter, mit strengeren Regeln für Modelle mit systemischem Risiko oberhalb des Trainings-Schwellenwerts von 10^25 FLOPs. Wird ein solches Modell in ein nachgelagertes System eingebunden, das die Hochrisiko-Kriterien aus Anhang III erfüllt, so treffen den nachgelagerten Anbieter zusätzlich die vollen Pflichten nach Artikel 6, und er erbt Dokumentation vom Modellanbieter über die Informationspflicht nach Artikel 53 Absatz 1 Buchstabe b. Käufer sollten in der Beschaffung Belege für beide Ebenen verlangen.
Sind KI-Reallabore für die Compliance nützlich?
Für viele Anbieter ja. Artikel 57 verpflichtet Mitgliedstaaten, bis zum 2. August 2026 mindestens ein nationales KI-Reallabor einzurichten (die Kommission kann auch gemeinsame Reallabore organisieren). Reallabore schaffen Rechtssicherheit beim Test innovativer Systeme unter Aufsicht des Regulators, und der Teilnahmenachweis stützt die spätere Konformitätsbewertung. Artikel 59 schafft eine spezifische Rechtsgrundlage für die Verarbeitung personenbezogener Daten, die rechtmässig zu anderen Zwecken erhoben wurden, zur Entwicklung gemeinwohlorientierter KI im Reallabor unter strengen Schutzmassnahmen.
Wann beisst August 2026 für einen Unternehmens-Käufer wirklich?
Praktisch ab Q4 2025. Beschaffungszyklen für Systeme, die im Sommer 2026 produktiv sein sollen, beginnen 9-12 Monate früher, und jeder Anbieter, der bis dahin keinen Konformitätsbewertungsplan, kein Anhang-IV-Dokumentationsgerüst und keinen Plan für die Beobachtung nach Inverkehrbringen vorlegen kann, ist ein Beschaffungsrisiko. Ehrlich: Organisationen, die 2026 starten, sind bereits spät. Das früheste Lieferergebnis ist eine KI-Portfolio-Inventur plus die Klassifizierung aus Schritt 2 je System; allein diese Arbeit dauert in der Regel 3-4 Wochen.
Ersetzt eine ISO/IEC 42001-Zertifizierung die KI-Verordnungs-Compliance?
Nein, sie ist aber eine starke Grundlage. ISO/IEC 42001:2023 ist eine Norm für KI-Managementsysteme und ist noch keine harmonisierte Norm im Sinne der Verordnung. Die Zertifizierung belegt eine Governance-Reife, die sich sauber auf die Qualitätsmanagement-Pflichten nach Artikel 17 abbilden lässt und den Abstand zu einer sauberen Konformitätsbewertung verringert. Sobald CEN-CENELEC JTC 21 harmonisierte Normen zur KI-Verordnung veröffentlicht, begründet ihre Anwendung eine Konformitätsvermutung nach Artikel 40.
Wer ist die zuständige nationale Behörde nach der KI-Verordnung?
Jeder Mitgliedstaat muss bis zum 2. August 2025 mindestens eine notifizierende Behörde und mindestens eine Marktüberwachungsbehörde benennen (Artikel 70). Listen werden auf der Seite des KI-Büros der Kommission veröffentlicht; mehrere Mitgliedstaaten haben ihre Datenschutzbehörde, ihren Telekommunikationsregulator oder eine neue eigene KI-Agentur benannt. Bei mehrländerigem Einsatz identifizieren Sie die Behörde in jedem Einsatzland, denn Vorfallmeldung und Registerpflichten sind national.
Was ist die KI-Kompetenzpflicht nach Artikel 4?
Anbieter und Betreiber müssen nach besten Kräften Massnahmen ergreifen, um ein ausreichendes Mass an KI-Kompetenz bei ihrem Personal und anderen Personen sicherzustellen, die KI-Systeme in ihrem Auftrag betreiben oder verwenden, unter Berücksichtigung von technischem Wissen, Erfahrung, Bildung und Einsatzkontext. Sie gilt seit 2. Februar 2025 und ist nicht auf Hochrisiko-Systeme beschränkt. Dokumentieren Sie Programm, Inhalt und Durchführung des Trainings, Behörden können nachfragen.
Wo registrieren wir ein Hochrisiko-System in der EU-Datenbank?
Die EU-Datenbank für Hochrisiko-KI-Systeme wird gemäss Artikel 71 von der Kommission betrieben und über das Portal des KI-Büros erreicht. Der Anbieter registriert das System vor dem Inverkehrbringen (Artikel 49 Absatz 1). Behördliche Betreiber registrieren ihre Verwendung getrennt nach Artikel 49 Absatz 1a vor Inbetriebnahme. Die meisten Felder sind öffentlich; einige Felder zu Sicherheit, Schutz und Strafverfolgung sind beschränkt.
Impetora

Bereit, Ihr Projekt einzugrenzen? Reichen Sie eine kurze Beschreibung ein - wir antworten innerhalb eines Werktages.

Zitierte Quellen

Zitierte Quellen (7) - anzeigen
  1. Verordnung (EU) 2024/1689 (KI-Verordnung) - konsolidierter Text. EUR-Lex, Amtsblatt der Europäischen Union, 2024-07-12. https://eur-lex.europa.eu/eli/reg/2024/1689/oj
  2. Europäisches KI-Büro - Leitlinien und Durchführungsrechtsakte. Europäische Kommission, 2025-01. https://digital-strategy.ec.europa.eu/en/policies/ai-office
  3. Multilayer framework for good cybersecurity practices for AI. ENISA, 2023-06. https://www.enisa.europa.eu/publications/multilayer-framework-for-good-cybersecurity-practices-for-ai
  4. ISO/IEC 42001:2023 - KI-Managementsysteme. Internationale Organisation für Normung, 2023-12. https://www.iso.org/standard/81230.html
  5. Liste nationaler notifizierender Behörden und notifizierter Stellen. Europäische Kommission, NANDO-Datenbank, 2025-08. https://single-market-economy.ec.europa.eu/single-market/european-standards/notified-bodies_en
  6. FRIA-Vorlage zu Artikel 27. Europäisches KI-Büro, 2026-02. https://digital-strategy.ec.europa.eu/en/policies/ai-office
  7. Verordnung (EU) 2016/679 (DSGVO). EUR-Lex, Amtsblatt der Europäischen Union, 2016-04-27. https://eur-lex.europa.eu/eli/reg/2016/679/oj
Über Impetora
Impetora konzipiert, entwickelt und implementiert massgeschneiderte KI-Systeme für Unternehmen in regulierten Branchen. Wir arbeiten von Vilnius aus in fünf Sprachen.
Discovery-Gespräch

Discovery-Gespräch buchen

Erzählen Sie uns, was Sie bauen möchten. Wir antworten innerhalb eines Werktages.

30-minütiges Gespräch. Kostenfrei. Unverbindlich.