EU AI Act Compliance: Framework, Risk Classification & Practical Steps EU-KI-Verordnung Compliance: Klassifizierung, Anforderungen und praktische Schritte
What companies deploying AI in Europe need to understand about Regulation 2024/1689 before August 2, 2026. Was Unternehmen mit KI-Systemen jetzt wissen müssen — ein praktischer Überblick zur Compliance bis August 2026.
The European Union's AI Act (Regulation 2024/1689) represents one of the first comprehensive legal frameworks governing artificial intelligence systems at scale. For companies deploying AI in Europe, it is no longer a distant regulatory prospect. Penalties for non-compliance go live August 2, 2026—less than five months from now. Understanding the framework is not optional; it is a prerequisite for operating legally in the EU.
The regulation operates on a risk-based classification system. Rather than imposing identical obligations on all AI systems, it sorts them into tiers: prohibited practices (already illegal since February 2025), high-risk systems, limited-risk systems, and minimal-risk systems. This tiered approach reflects a deliberate policy choice: regulate proportionately to harm. A system that recognizes faces in social media does not face the same obligations as one classifying loan applicants or screening job candidates.
Prohibited practices have already been in force since February 2025. These include subliminal manipulation, exploitative systems targeting vulnerable groups, and mass surveillance via biometric real-time identification (with narrow exceptions for law enforcement). If a company is deploying any of these, compliance ceased being a matter of preparation months ago. It became a matter of immediate legal risk.
High-risk systems include AI used in employment decisions, educational scoring, credit assessment, law enforcement applications, and critical infrastructure. These systems trigger a conformity assessment framework: the provider must document training data, keep logs, ensure human oversight, and maintain technical documentation that is fit for audit. The obligations are substantial, but not impossible. A credit scoring algorithm is high-risk. So is an AI system filtering CVs for recruitment. Deployers—the organizations actually using these systems—share responsibility with providers. Neither can pass all accountability to the other.
The Commission's implementation has revealed friction. High-risk guidelines were due in September 2025. They have not been published. The deadline has passed. This leaves companies in an awkward position: the regulation names categories of high-risk use but provides little prescriptive guidance on what "adequate documentation" or "effective human oversight" actually means. This gap is not an invitation to delay. It is a reason to interpret the regulation conservatively and document your reasoning. When enforcement arrives, transparency about your interpretation will serve you better than inaction.
GPAI model obligations complicate the landscape further. Foundation models—large, general-purpose models like GPT variants—carry their own disclosure and documentation requirements. If a company is deploying or fine-tuning a GPAI model, it must make available a model card and respect terms of use set by the model provider. The Commission has also flagged "systemic risk" designations for models that might pose severe threats. To date, no systemic risk designations have been made public. When they do come, obligations will tighten significantly.
The Digital Omnibus proposal circulating through EU legislative channels threatens to amend the AI Act further. Some of its provisions could narrow the scope of high-risk systems; others might introduce new clarity. Do not bet your compliance strategy on the Omnibus. Legislation in the EU moves slowly. The Omnibus may arrive in 2027, or it may not. Assume the current text of Regulation 2024/1689 is law, and treat any future amendments as improvements, not escapes.
Provider vs. deployer obligations deserve careful attention. A provider is the organization that develops or places an AI system on the market. A deployer is the organization that uses it in an enterprise context. The line is not always clear—a company might be both, or neither. Under high-risk regimes, both bear obligations. A deployer cannot outsource compliance to a provider's documentation; it must conduct its own conformity assessment. A provider cannot assume the deployer will handle all oversight. This shared responsibility means neither party can treat the other as responsible for all legal risk.
The penalty structure is steep. Prohibited practices carry fines up to €35 million or 7 percent of global turnover, whichever is higher. High-risk non-compliance carries fines up to €15 million or 3 percent of turnover. For a mid-sized software company, 3 percent of global revenue is not a minor expense. For a startup, it is existential. The fines are not theoretical. The Commission has published a 60-page enforcement strategy. Audits are coming.
What should companies deploying AI do now? First, classify every AI system in use against the regulation's categories. Create an inventory. Which systems touch employment? Credit decisions? Law enforcement or border control? Second, document your classification reasoning. When a regulator asks why you deemed a system low-risk, have an answer. Third, prepare conformity assessments for any high-risk system. This means auditable records: training data, test results, records of human review. Fourth, identify your GPAI dependencies. If you rely on foundation models, understand the provider's obligations and terms. Fifth, engage legal counsel early. Compliance is not a box to tick; it is a governance issue that touches product design, data practices, and operations.
The regulation is not a barrier to innovation. It is a baseline. European regulators are watching to see whether the market can self-correct, or whether they must step in more aggressively. Companies that move first, document thoroughly, and embrace transparency will build trust. Those that delay, obscure, or compartmentalize risk will face significantly higher costs when enforcement arrives.
The August 2, 2026 deadline is real. The time for preparation is now.
AI Act Compliance Assessment
Let's evaluate your AI systems against the regulation and build a practical compliance roadmap.
Schedule a consultationDie Verordnung über künstliche Intelligenz der Europäischen Union (EU-KI-Verordnung, Regulation 2024/1689) ist eines der ersten umfassenden Regelwerke für KI-Systeme in Massenverwendung. Für Unternehmen, die KI in Europa einsetzen, ist sie keine ferne regulatorische Perspektive mehr. Die Strafgelder für Nichtbeachtung treten am 2. August 2026 in Kraft – in weniger als fünf Monaten. Die Verordnung zu verstehen ist nicht optional; es ist eine Voraussetzung für legales Handeln in der EU.
Die Verordnung arbeitet mit einem gestuften Risikosystem. Statt alle KI-Systeme gleich zu behandeln, sortiert sie sie in Kategorien: verbotene Praktiken (seit Februar 2025 bereits illegal), Hochrisiko-Systeme, begrenzte Risiken und Minimalrisiko-Systeme. Dieser Ansatz spiegelt eine bewusste politische Wahl wider: Proportional zum potentiellen Schaden regulieren. Ein System, das Gesichter in sozialen Medien erkennt, sieht nicht die gleichen Anforderungen wie eines, das Kreditanträge oder Jobbewerbungen bewertet.
Verbotene Praktiken sind seit Februar 2025 bereits in Kraft. Dazu gehören unterschwellige Manipulation, ausbeuterische Systeme gegen vulnerable Gruppen und Massenüberwachung mittels biometrischer Echtzeit-Identifikation (mit Ausnahmen für Strafverfolgung). Wenn ein Unternehmen eines dieser Systeme einsetzt, ist Compliance nicht mehr eine Vorbereitung—es ist sofortiges Rechtsrisiko.
Hochrisiko-Systeme umfassen KI in Beschäftigungsentscheidungen, Schul- und Universitätsbewertungen, Kreditvergabe, Strafverfolgung und kritischer Infrastruktur. Diese Systeme erfordern eine Konformitätsbewertung: Der Provider muss Trainingsdaten dokumentieren, Logs führen, menschliche Aufsicht sicherstellen und technische Dokumentation unterhalten, die audit-sicher ist. Die Anforderungen sind erheblich, aber nicht unmöglich. Ein Kreditbewertungsalgorithmus ist Hochrisiko. Ebenso ein KI-System, das Lebensläufe für Rekrutierung filtert. Anwender—Organisationen, die das System tatsächlich nutzen—tragen gemeinsam mit Providern Verantwortung. Keiner kann alle Verantwortung delegieren.
Die Umsetzung durch die Kommission zeigt Friktionen. Hochrisiko-Richtlinien waren für September 2025 vorgesehen. Sie sind nicht veröffentlicht worden. Der Termin ist vorbei. Das versetzt Unternehmen in eine schwierige Position: Die Verordnung nennt Kategorien von Hochrisiko-Nutzung, gibt aber wenig präskriptive Hinweise, was „angemessene Dokumentation" oder „effektive menschliche Aufsicht" wirklich bedeutet. Diese Lücke ist keine Einladung zu verzögern. Sie ist ein Grund, konservativ auszulegen und deine Überlegungen zu dokumentieren. Wenn Enforcement kommt, wird Transparenz über deine Interpretation dir besser dienen als Untätigkeit.
GPAI-Modell-Anforderungen verkomplizieren die Lage weiter. Grundmodelle—große, allgemeine Modelle wie GPT-Varianten—haben ihre eigenen Offen-legungs- und Dokumentationspflichten. Wenn ein Unternehmen ein GPAI-Modell einsetzt oder verfeinert, muss es eine Modellkarte verfügbar machen und die Nutzungsbedingungen des Modellanbieters respektieren. Die Kommission hat auch „Systemische-Risiko"-Bezeichnungen für Modelle gekennzeichnet, die schwere Bedrohungen darstellen könnten. Bislang sind keine Systemische-Risiko-Bezeichnungen öffentlich. Wenn sie kommen, werden Anforderungen deutlich strenger.
Der Digital-Omnibus-Vorschlag, der durch EU-Legislativkanäle zirkuliert, droht die KI-Verordnung weiter zu ändern. Einige Bestimmungen könnten die Hochrisiko-Kategorien verengen; andere könnten neue Klarheit bringen. Wette nicht auf den Omnibus. Gesetzgebung in der EU bewegt sich langsam. Der Omnibus kann 2027 kommen, oder auch nicht. Gehe davon aus, dass die aktuelle Fassung von Regulation 2024/1689 Gesetz ist, und behandle zukünftige Änderungen als Verbesserungen, nicht als Ausstiegswege.
Provider vs. Anwender-Anforderungen verdienen sorgfältige Beachtung. Ein Provider ist die Organisation, die ein KI-System entwickelt oder auf den Markt bringt. Ein Anwender ist die Organisation, die es in einem Unternehmenskontext nutzt. Die Grenze ist nicht immer klar—ein Unternehmen könnte beides sein, oder keins. In Hochrisiko-Regime tragen beide Verpflichtungen. Ein Anwender kann Compliance nicht komplett an die Dokumentation eines Providers delegieren; er muss seine eigene Konformitätsbewertung durchführen. Ein Provider kann nicht davon ausgehen, dass der Anwender alles Oversight übernimmt. Diese geteilte Verantwortung bedeutet, dass keiner die andere Seite als verantwortlich für das ganze Risiko betrachten kann.
Die Bußgeldstruktur ist erheblich. Verbotene Praktiken tragen Bußgelder bis zu €35 Millionen oder 7 Prozent des globalen Umsatzes, je nachdem, welcher Betrag höher ist. Hochrisiko-Nichtbeachtung trägt Bußgelder bis zu €15 Millionen oder 3 Prozent des Umsatzes. Für ein mittelständisches Softwareunternehmen sind 3 Prozent des globalen Umsatzes keine geringfügige Ausgabe. Für ein Startup ist es existenziell. Die Bußgelder sind nicht theoretisch. Die Kommission hat eine 60-seitige Durchsetzungsstrategie veröffentlicht. Audits kommen.
Was sollten Unternehmen, die KI einsetzen, jetzt tun? Erstens: Klassifiziere jedes KI-System gegen die Verordnungskategorien. Erstelle einen Bestand. Welche Systeme berühren Beschäftigung? Kreditentscheidungen? Strafverfolgung oder Grenzkontrolle? Zweitens: Dokumentiere deine Klassifizierungsbegründung. Wenn ein Regulator fragt, warum du ein System als Minimalrisiko eingestuft hast, habe eine Antwort. Drittens: Bereite Konformitätsbewertungen für alle Hochrisiko-Systeme vor. Das bedeutet audit-sichere Unterlagen: Trainingsdaten, Testergebnisse, Aufzeichnungen menschlicher Überprüfung. Viertens: Identifiziere deine GPAI-Abhängigkeiten. Wenn du auf Grundmodelle verlässt, verstehe die Verpflichtungen und Bedingungen des Providers. Fünftens: Beziehe Rechtsberater früh ein. Compliance ist keine Checkbox; es ist eine Governance-Frage, die Produktdesign, Datenpraktiken und Operationen berührt.
Die Verordnung ist keine Barriere für Innovation. Sie ist ein Minimum. Europäische Regulatoren beobachten, ob der Markt sich selbst korrigieren kann, oder ob sie noch aggressiver eingreifen müssen. Unternehmen, die zuerst handeln, gründlich dokumentieren und Transparenz annehmen, bauen Vertrauen auf. Diejenigen, die verzögern, verschleiern oder Risiken segregieren, werden bei Enforcement deutlich höhere Kosten sehen.
Der Termin 2. August 2026 ist real. Die Zeit für Vorbereitung ist jetzt.
KI-Verordnung: Compliance-Assessment
Lass deine KI-Systeme gegen die Verordnung evaluieren und baue eine praktische Compliance-Roadmap auf.
Konsultation vereinbaren