EU AI Act 2025: Was deutsche Unternehmen jetzt wissen müssen
Am 1. August 2024 ist der EU AI Act (Verordnung (EU) 2024/1689) in Kraft getreten — die weltweit erste umfassende Regulierung für Künstliche Intelligenz. Für deutsche Unternehmen, die KI-Systeme entwickeln, einsetzen oder vertreiben, bedeutet das: Compliance ist keine Option mehr. Es ist Pflicht.
Dieser Artikel liefert keine abstrakte Rechtsanalyse. Er gibt CTOs, IT-Leitern und technischen Entscheidern im deutschen Mittelstand eine konkrete Orientierung: Welche Pflichten gelten wann? Welche KI-Systeme sind betroffen? Und welche Schritte müssen Sie jetzt einleiten, um compliant zu bleiben?
Warum der EU AI Act für Ihr Unternehmen relevant ist
Der EU AI Act verfolgt einen risikobasierten Ansatz. Nicht jede KI-Anwendung wird gleich behandelt. Entscheidend ist, welches Risiko ein System für Grundrechte, Sicherheit und Demokratie darstellt. Und hier liegt der Kern: Auch wenn Sie keine KI entwickeln, sondern nur einsetzen — als sogenannter "Deployer" — unterliegen Sie Pflichten.
Das betrifft:
- Unternehmen, die KI-Systeme entwickeln (Provider/Anbieter)
- Unternehmen, die KI-Systeme einsetzen (Deployer/Betreiber)
- Importeure und Händler von KI-Produkten im EU-Markt
Wenn Sie beispielsweise einen KI-Agenten für die automatisierte Dokumentenverarbeitung einsetzen, einen Chatbot für den Kundenservice betreiben oder KI-gestützte Scoring-Modelle für Kreditentscheidungen verwenden — der EU AI Act betrifft Sie direkt.
Die vier Risikoklassen im Detail
Der EU AI Act klassifiziert KI-Systeme in vier Risikostufen. Diese Klassifizierung bestimmt, welche Anforderungen und Pflichten für Anbieter und Betreiber gelten.
Unannehmbares Risiko (Verboten)
KI-Systeme in dieser Kategorie sind ab dem 2. Februar 2025 verboten. Es gibt keine Übergangsfrist.
Beispiele verbotener Systeme:
- Social Scoring: Bewertung von Personen basierend auf Sozialverhalten oder persönlichen Eigenschaften durch Behörden oder Unternehmen
- Manipulative KI: Systeme, die menschliches Verhalten unterschwellig manipulieren und dadurch physischen oder psychischen Schaden verursachen können
- Biometrische Echtzeit-Fernidentifikation in öffentlich zugänglichen Räumen durch Strafverfolgungsbehörden (mit eng definierten Ausnahmen)
- Emotionserkennung am Arbeitsplatz oder in Bildungseinrichtungen
- Prädiktive Polizeiarbeit basierend ausschließlich auf Profiling
Praxisrelevanz für Unternehmen: Prüfen Sie, ob interne Systeme Mitarbeiter-Scoring auf Basis von Verhaltensmustern durchführen oder ob Bewerbermanagement-Tools biometrische Daten auswerten. Beide Szenarien können unter das Verbot fallen.
Hochrisiko-KI-Systeme
Dies ist die regulatorisch dichteste Kategorie. Hochrisiko-Systeme unterliegen umfangreichen Anforderungen vor und nach der Markteinführung.
Hochrisiko-KI umfasst:
- Biometrische Identifikation und Kategorisierung von natürlichen Personen
- Kritische Infrastruktur: KI in Energie-, Wasser- und Verkehrsmanagement
- Bildung und Berufsausbildung: Automatisierte Bewertung, Prüfungsergebnisse, Zugangsentscheidungen
- Beschäftigung und Personalmanagement: KI-gestützte Einstellung, Beförderung, Kündigung
- Zugang zu essenziellen Dienstleistungen: Kreditwürdigkeitsprüfung, Versicherungs-Scoring, Sozialleistungen
- Strafverfolgung: Risikobewertung, Beweismittelbewertung
- Migration und Asyl: Antragsbearbeitung, Risikobewertung
- Rechtspflege und demokratische Prozesse: KI in Gerichtsverfahren, Wahlbeeinflussung
Pflichten für Anbieter von Hochrisiko-KI:
Pflichten für Betreiber (Deployer) von Hochrisiko-KI:
- Einsatz gemäß Gebrauchsanweisung des Anbieters
- Sicherstellung der menschlichen Aufsicht durch qualifiziertes Personal
- Überwachung der Systemleistung und Meldung von Vorfällen
- Durchführung einer Grundrechte-Folgenabschätzung (Fundamental Rights Impact Assessment) vor dem Einsatz
- Information betroffener Personen über den KI-Einsatz
Begrenztes Risiko (Transparenzpflichten)
Systeme mit begrenztem Risiko unterliegen primär Transparenzanforderungen.
Betroffene Systeme:
- Chatbots und virtuelle Assistenten: Nutzer müssen wissen, dass sie mit einer KI interagieren
- Deepfakes und KI-generierte Inhalte: Müssen als solche gekennzeichnet werden
- Emotionserkennungssysteme: Betroffene Personen müssen informiert werden (sofern nicht unter Verbot fallend)
Praxisrelevanz: Wenn Sie einen KI-gestützten Kundenservice-Bot einsetzen, müssen Sie den Nutzern klar kommunizieren, dass sie mit einer KI und nicht mit einem Menschen interagieren. Das gilt auch für KI-generierte E-Mails und Texte im Geschäftsverkehr.
Minimales oder kein Risiko
Die Mehrheit der KI-Anwendungen fällt in diese Kategorie. Hier gelten keine spezifischen regulatorischen Anforderungen aus dem AI Act.
Beispiele:
- Spam-Filter
- KI-gestützte Suchfunktionen
- Empfehlungsalgorithmen (mit Einschränkungen)
- KI-basierte Übersetzungstools
- Automatisierte Datenanalyse ohne personenbezogene Entscheidungen
Der EU AI Act ermutigt Anbieter in dieser Kategorie ausdrücklich zur freiwilligen Einhaltung von Verhaltenskodizes — auch wenn keine Pflicht besteht.
Risikoklassen-Übersicht
Zeitplan: Wann welche Pflichten greifen
Der EU AI Act wird gestaffelt wirksam. Die Übergangsfristen sind klar definiert:
Handlungsempfehlung: Auch wenn die Hauptpflichten für Hochrisiko-KI erst ab August 2026 greifen — die Vorbereitung erfordert Monate. Risikoklassifizierung, Dokumentation, Governance-Strukturen und technische Anpassungen lassen sich nicht über Nacht implementieren. Beginnen Sie jetzt.
General-Purpose AI: Sonderregeln für Foundation Models
Seit dem 2. August 2025 gelten spezielle Regeln für General-Purpose AI Models (GPAI) — also Modelle wie GPT-4, Claude, Llama oder Gemini, die für verschiedene Zwecke eingesetzt werden können.
Pflichten für alle GPAI-Anbieter
- Technische Dokumentation erstellen und aktualisieren
- Informationen und Dokumentation für nachgelagerte Anbieter bereitstellen
- Urheberrechtsrichtlinie einhalten und Transparenz über Trainingsdaten gewährleisten
- Zusammenfassung der für das Training verwendeten Daten veröffentlichen
Zusätzliche Pflichten bei systemischem Risiko
GPAI-Modelle mit systemischem Risiko (Schwellenwert: Rechenleistung > 10^25 FLOPs für das Training) unterliegen erweiterten Pflichten:
- Modellbewertung nach standardisierten Protokollen
- Bewertung und Minderung systemischer Risiken
- Dokumentation und Meldung schwerwiegender Vorfälle
- Cybersecurity-Schutzmaßnahmen
Relevanz für Unternehmen: Wenn Sie GPAI-Modelle in Ihren KI-Agenten einsetzen — etwa für die Prozessautomatisierung — sind Sie als Betreiber nicht direkt von den GPAI-Anbieterpflichten betroffen. Aber Sie müssen sicherstellen, dass Ihr KI-Systemanbieter diese Pflichten erfüllt, insbesondere wenn das Gesamtsystem als Hochrisiko eingestuft wird.
Was bedeutet das für KI-Agenten in Unternehmen?
KI-Agenten — autonome Systeme, die Aufgaben eigenständig planen und ausführen — werden durch den EU AI Act besonders relevant. Der Grund: Je autonomer ein System agiert, desto höher ist potenziell das regulatorische Risiko.
Risikoklassifizierung von KI-Agenten
Die Einstufung eines KI-Agenten hängt vom Einsatzzweck ab, nicht von der Technologie selbst:
Auswirkungen auf die Architektur
Der EU AI Act hat direkte Auswirkungen auf die technische Architektur von KI-Agenten-Systemen:
- Logging und Audit-Trail: Jede Entscheidung eines Hochrisiko-Agenten muss nachvollziehbar protokolliert werden. Das erfordert robuste Logging-Infrastruktur, die wir in unserem Artikel über KI-Agenten-Architekturen detailliert beschreiben.
- Human-in-the-Loop: Für Hochrisiko-Anwendungen muss ein Mensch in den Entscheidungsprozess eingebunden werden können. Das Agent-System braucht definierte Eskalationspunkte.
- Datenschutz by Design: Der AI Act ergänzt die DSGVO. Beide müssen gleichzeitig erfüllt werden. Unsere Empfehlung: On-Premise LLMs und DSGVO-konforme KI-Infrastruktur als Basis für datenschutzkritische Anwendungen.
- Versionierung und Reproduzierbarkeit: Modell-Versionen, Prompt-Templates und Konfigurationen müssen versioniert und dokumentiert sein.
Compliance-Checkliste für deutsche Unternehmen
Nutzen Sie diese Checkliste als Ausgangspunkt für Ihre AI-Act-Compliance:
Phase 1: Bestandsaufnahme (Sofort)
- KI-Inventar erstellen: Alle KI-Systeme im Unternehmen identifizieren und dokumentieren — einschließlich eingebetteter KI in SaaS-Produkten
- Risikoklassifizierung durchführen: Jedes System den vier Risikostufen zuordnen
- Verbotene Praktiken prüfen: Sicherstellen, dass keine verbotenen KI-Anwendungen im Einsatz sind (Frist abgelaufen: 2. Februar 2025)
- Rollen klären: Sind Sie Anbieter, Betreiber, Importeur oder Händler?
Phase 2: Governance aufbauen (Q1-Q2 2026)
- AI-Governance-Struktur etablieren mit klaren Verantwortlichkeiten
- KI-Kompetenzen im Team aufbauen (Art. 4 — seit 2. Februar 2025 Pflicht)
- Risikomanagementprozess für KI-Systeme definieren
- Datenschutz-Folgenabschätzung (DSFA) und Grundrechte-Folgenabschätzung planen
- Vorfallsmanagement für KI-Fehlfunktionen implementieren
Phase 3: Technische Compliance (Q2-Q4 2026)
- Technische Dokumentation für Hochrisiko-Systeme erstellen
- Logging und Monitoring implementieren (automatische Protokollierung)
- Human-Oversight-Mechanismen in Hochrisiko-Workflows einbauen
- Transparenz-Maßnahmen umsetzen (KI-Kennzeichnung, Nutzungsinformationen)
- Konformitätsbewertung vorbereiten und durchführen
Phase 4: Kontinuierliche Compliance (Ab August 2026)
- Post-Market-Monitoring für Hochrisiko-Systeme einrichten
- Regelmäßige Audits und Überprüfungen der Risikoklassifizierung
- Schulungsprogramm für Mitarbeiter, die KI-Systeme betreiben
- Dokumentation aktuell halten bei System-Updates oder Modellwechseln
Sanktionen: Was bei Nicht-Compliance droht
Der EU AI Act sieht empfindliche Strafen vor, die sich am Umsatz orientieren — ähnlich wie bei der DSGVO:
Für KMU und Start-ups gelten reduzierte Obergrenzen, aber die Verhältnismäßigkeit bedeutet nicht Straffreiheit. Die nationalen Aufsichtsbehörden — in Deutschland voraussichtlich die BNetzA (Bundesnetzagentur) als zentrale Marktüberwachungsbehörde — werden Durchsetzungsbefugnisse erhalten.
Praxisbeispiel: KI-Agent für die Angebotsverarbeitung
Nehmen wir ein konkretes Szenario: Ein mittelständisches Unternehmen setzt einen KI-Agenten ein, der eingehende Ausschreibungen analysiert, relevante Informationen extrahiert und Angebotsvorschläge generiert.
Risikoklassifizierung: Minimal bis Begrenzt. Der Agent trifft keine Entscheidungen über natürliche Personen und operiert nicht in einem der Hochrisiko-Bereiche. Wenn der Agent jedoch automatisch bindende Angebote versendet, steigen die Governance-Anforderungen.
Erforderliche Maßnahmen:
- Transparenz: Geschäftspartner über den KI-Einsatz bei der Angebotserstellung informieren
- Qualitätssicherung: Human-Review vor dem Versand von Angeboten
- Dokumentation: Nachvollziehbare Protokollierung der Agent-Entscheidungen
- Datenqualität: Sicherstellung, dass Trainings- und Kontextdaten korrekt und aktuell sind
Dieses Szenario zeigt: Auch bei minimalem regulatorischem Risiko ist ein strukturierter Umgang mit KI-Systemen sinnvoll — nicht nur für Compliance, sondern für Qualität und Vertrauen.
Der EU AI Act und die DSGVO: Zusammenspiel
Der AI Act ersetzt die DSGVO nicht — er ergänzt sie. Beide Regelwerke müssen parallel erfüllt werden. Die wichtigsten Berührungspunkte:
- Datenminimierung (DSGVO) trifft auf Datenqualitätsanforderungen (AI Act): Sie brauchen hochwertige Trainingsdaten, dürfen aber nicht mehr Daten erheben als nötig.
- Betroffenenrechte (DSGVO) werden durch Transparenzpflichten (AI Act) verstärkt: Betroffene müssen nicht nur über Datenverarbeitung, sondern auch über KI-gestützte Entscheidungen informiert werden.
- Datenschutz-Folgenabschätzung (DSGVO) und Grundrechte-Folgenabschätzung (AI Act) können kombiniert durchgeführt werden.
- On-Premise-Betrieb kann beide Anforderungen gleichzeitig adressieren — DSGVO-konforme KI-Infrastruktur mit lokalen LLMs minimiert Datenübertragungsrisiken und stärkt die Kontrollierbarkeit.
Praktische Schritte: Von der Analyse zur Umsetzung
Der Weg zur AI-Act-Compliance muss kein Blindflug sein. Hier sind fünf konkrete Schritte, die Sie sofort einleiten können:
Schritt 1: KI-Systeme inventarisieren
Listen Sie jedes KI-System im Unternehmen auf — auch eingebettete KI in SaaS-Tools wie CRM-Systeme, HR-Plattformen oder ERP-Lösungen. Viele Unternehmen unterschätzen die Anzahl der KI-Systeme, die sie bereits im Einsatz haben. Microsoft Copilot, Salesforce Einstein, SAP Business AI — all das zählt.
Schritt 2: Risikoklassen zuordnen
Gehen Sie für jedes identifizierte System die Checkliste durch: Ist es verboten? Hochrisiko (Anhang III)? Begrenzt? Minimal? Dokumentieren Sie Ihre Einschätzung und die Begründung. Diese Dokumentation ist nicht nur Good Practice — sie wird bei einer Prüfung erwartet.
Schritt 3: Governance-Struktur aufsetzen
Definieren Sie Verantwortlichkeiten: Wer ist AI-Beauftragter? Wer überwacht die Einhaltung? Wer führt Risikoklassifizierungen durch? Eine klare Governance-Struktur ist die Voraussetzung für alle weiteren Maßnahmen.
Schritt 4: Technische Infrastruktur bewerten
Prüfen Sie, ob Ihre aktuelle IT-Infrastruktur die Anforderungen des AI Act erfüllt: Logging, Monitoring, Versionierung, Human-in-the-Loop-Mechanismen. Identifizieren Sie Lücken und priorisieren Sie nach Risikoklasse. Für KI-Automatisierung in regulierten Umgebungen ist eine solide technische Basis unverzichtbar.
Schritt 5: Schulungsprogramm starten
Art. 4 des AI Act verpflichtet Unternehmen, KI-Kompetenzen bei Mitarbeitern aufzubauen, die KI-Systeme betreiben oder beaufsichtigen. Diese Pflicht gilt bereits seit dem 2. Februar 2025. Starten Sie mit Awareness-Schulungen für Führungskräfte und vertiefenden Trainings für technische Teams.
Häufig gestellte Fragen (FAQ)
Gilt der EU AI Act auch für KMU und Start-ups?
Ja. Der AI Act gilt unabhängig von der Unternehmensgröße. Allerdings sieht die Verordnung Erleichterungen vor: KMU können von reduzierten Sanktionsobergrenzen profitieren, und die EU-Kommission hat Leitlinien und regulatorische Sandboxes angekündigt, um kleineren Unternehmen den Compliance-Einstieg zu erleichtern. Die inhaltlichen Anforderungen bleiben jedoch identisch — ein Hochrisiko-System ist ein Hochrisiko-System, unabhängig davon, wer es betreibt.
Wir setzen nur SaaS-KI-Tools ein (z.B. ChatGPT Enterprise, Microsoft Copilot). Sind wir betroffen?
Ja, als Betreiber (Deployer). Sie sind dafür verantwortlich, KI-Systeme gemäß den Gebrauchsanweisungen des Anbieters einzusetzen, die menschliche Aufsicht sicherzustellen und — bei Hochrisiko-Anwendungen — eine Grundrechte-Folgenabschätzung durchzuführen. Prüfen Sie außerdem, ob der SaaS-Anbieter seine Anbieterpflichten erfüllt, insbesondere hinsichtlich technischer Dokumentation und Konformitätsbewertung.
Wie klassifiziere ich mein KI-System richtig?
Prüfen Sie in drei Schritten: (1) Fällt das System unter eine verbotene Praktik (Art. 5)? (2) Fällt der Einsatzzweck unter Anhang III (Hochrisiko-Bereiche)? (3) Ist das System ein Bestandteil eines Produkts, das unter EU-Harmonisierungsrecht fällt (Anhang I)? Wenn keines zutrifft, prüfen Sie Transparenzpflichten für Chatbots, Deepfakes oder Emotionserkennung. Im Zweifel: Rechtliche Beratung mit KI-Spezialisierung einholen.
Was passiert, wenn sich die Risikoklasse meines Systems ändert?
Das kann passieren — etwa wenn Sie einen bisher internen KI-Agenten nun für Personalentscheidungen einsetzen. Sie müssen die Risikoklassifizierung kontinuierlich überprüfen, insbesondere bei Änderungen des Einsatzzwecks, Modell-Updates oder Erweiterungen des Funktionsumfangs. Bei Hochstufung müssen Sie die entsprechenden Compliance-Anforderungen innerhalb eines angemessenen Zeitraums erfüllen.
Wie hängen EU AI Act und ISO-Normen zusammen?
Die EU-Kommission hat die europäischen Normungsorganisationen CEN und CENELEC beauftragt, harmonisierte Standards für den AI Act zu entwickeln. Diese Standards werden voraussichtlich auf bestehenden Normen wie ISO/IEC 42001 (AI Management System) und ISO/IEC 23894 (AI Risk Management) aufbauen. Die Einhaltung harmonisierter Standards wird eine Vermutungswirkung für die Konformität bieten — ähnlich wie bei der CE-Kennzeichnung.
Nächste Schritte: So unterstützen wir Sie
Der EU AI Act ist komplex, aber er ist auch eine Chance. Unternehmen, die jetzt regulatorische Klarheit schaffen, gewinnen Vertrauen bei Kunden, Partnern und Mitarbeitern. Compliant eingesetzte KI ist bessere KI — dokumentiert, nachvollziehbar, qualitätsgesichert.
Wir bei IJONIS unterstützen deutsche Unternehmen dabei, KI-Systeme nicht nur technisch exzellent, sondern auch regulatorisch sicher aufzubauen:
- KI-Inventar und Risikoklassifizierung: Wir analysieren Ihre bestehenden KI-Systeme und ordnen sie den Risikoklassen zu.
- Compliance-Architektur: Wir entwerfen KI-Agenten-Systeme mit eingebautem Logging, Human-in-the-Loop und Audit-Trail — von Anfang an AI-Act-konform.
- DSGVO + AI Act: Wir implementieren KI-Automatisierung, die beide Regelwerke gleichzeitig adressiert.
- On-Premise und Hybrid: Für maximale Kontrolle setzen wir auf lokale LLMs und sichere Infrastruktur.
Sie wollen wissen, wo Ihr Unternehmen beim EU AI Act steht? Sprechen Sie mit uns — wir führen eine initiale Standortbestimmung durch und entwickeln gemeinsam Ihren Compliance-Fahrplan.
Wie bereit ist Ihr Unternehmen für KI? Finden Sie es in 3 Minuten heraus — mit unserem kostenlosen, KI-gestützten Readiness-Check. Jetzt Check starten →


