KICompliance

EU AI Act 2025: Was deutsche Unternehmen jetzt wissen müssen

Jamin Mahmood-Wiebe

Jamin Mahmood-Wiebe

Infografik zum EU AI Act mit Risikoklassifizierung und Zeitstrahl der Umsetzungsfristen
Artikel

EU AI Act 2025: Was deutsche Unternehmen jetzt wissen müssen

Am 1. August 2024 ist der EU AI Act (Verordnung (EU) 2024/1689) in Kraft getreten — die weltweit erste umfassende Regulierung für Künstliche Intelligenz. Für deutsche Unternehmen, die KI-Systeme entwickeln, einsetzen oder vertreiben, bedeutet das: Compliance ist keine Option mehr. Es ist Pflicht.

Dieser Artikel liefert keine abstrakte Rechtsanalyse. Er gibt CTOs, IT-Leitern und technischen Entscheidern im deutschen Mittelstand eine konkrete Orientierung: Welche Pflichten gelten wann? Welche KI-Systeme sind betroffen? Und welche Schritte müssen Sie jetzt einleiten, um compliant zu bleiben?

Warum der EU AI Act für Ihr Unternehmen relevant ist

Der EU AI Act verfolgt einen risikobasierten Ansatz. Nicht jede KI-Anwendung wird gleich behandelt. Entscheidend ist, welches Risiko ein System für Grundrechte, Sicherheit und Demokratie darstellt. Und hier liegt der Kern: Auch wenn Sie keine KI entwickeln, sondern nur einsetzen — als sogenannter "Deployer" — unterliegen Sie Pflichten.

Das betrifft:

  • Unternehmen, die KI-Systeme entwickeln (Provider/Anbieter)
  • Unternehmen, die KI-Systeme einsetzen (Deployer/Betreiber)
  • Importeure und Händler von KI-Produkten im EU-Markt

Wenn Sie beispielsweise einen KI-Agenten für die automatisierte Dokumentenverarbeitung einsetzen, einen Chatbot für den Kundenservice betreiben oder KI-gestützte Scoring-Modelle für Kreditentscheidungen verwenden — der EU AI Act betrifft Sie direkt.

Die vier Risikoklassen im Detail

Der EU AI Act klassifiziert KI-Systeme in vier Risikostufen. Diese Klassifizierung bestimmt, welche Anforderungen und Pflichten für Anbieter und Betreiber gelten.

Unannehmbares Risiko (Verboten)

KI-Systeme in dieser Kategorie sind ab dem 2. Februar 2025 verboten. Es gibt keine Übergangsfrist.

Beispiele verbotener Systeme:

  • Social Scoring: Bewertung von Personen basierend auf Sozialverhalten oder persönlichen Eigenschaften durch Behörden oder Unternehmen
  • Manipulative KI: Systeme, die menschliches Verhalten unterschwellig manipulieren und dadurch physischen oder psychischen Schaden verursachen können
  • Biometrische Echtzeit-Fernidentifikation in öffentlich zugänglichen Räumen durch Strafverfolgungsbehörden (mit eng definierten Ausnahmen)
  • Emotionserkennung am Arbeitsplatz oder in Bildungseinrichtungen
  • Prädiktive Polizeiarbeit basierend ausschließlich auf Profiling

Praxisrelevanz für Unternehmen: Prüfen Sie, ob interne Systeme Mitarbeiter-Scoring auf Basis von Verhaltensmustern durchführen oder ob Bewerbermanagement-Tools biometrische Daten auswerten. Beide Szenarien können unter das Verbot fallen.

Hochrisiko-KI-Systeme

Dies ist die regulatorisch dichteste Kategorie. Hochrisiko-Systeme unterliegen umfangreichen Anforderungen vor und nach der Markteinführung.

Hochrisiko-KI umfasst:

  • Biometrische Identifikation und Kategorisierung von natürlichen Personen
  • Kritische Infrastruktur: KI in Energie-, Wasser- und Verkehrsmanagement
  • Bildung und Berufsausbildung: Automatisierte Bewertung, Prüfungsergebnisse, Zugangsentscheidungen
  • Beschäftigung und Personalmanagement: KI-gestützte Einstellung, Beförderung, Kündigung
  • Zugang zu essenziellen Dienstleistungen: Kreditwürdigkeitsprüfung, Versicherungs-Scoring, Sozialleistungen
  • Strafverfolgung: Risikobewertung, Beweismittelbewertung
  • Migration und Asyl: Antragsbearbeitung, Risikobewertung
  • Rechtspflege und demokratische Prozesse: KI in Gerichtsverfahren, Wahlbeeinflussung

Pflichten für Anbieter von Hochrisiko-KI:

AnforderungDetails
RisikomanagementsystemKontinuierliche Risikobewertung über den gesamten Lebenszyklus
Daten-GovernanceQualitätskriterien für Trainings-, Validierungs- und Testdaten
Technische DokumentationVollständige Dokumentation des Systems und seiner Funktionsweise
AufzeichnungspflichtAutomatische Protokollierung (Logs) für Nachvollziehbarkeit
TransparenzKlare Gebrauchsanweisungen für Betreiber
Menschliche AufsichtDesign ermöglicht effektive menschliche Überwachung
Genauigkeit und RobustheitNachweisbare Leistungskennzahlen, Schutz vor Manipulation
CybersecuritySchutz gegen Angriffe und unautorisierte Zugriffe
KonformitätsbewertungVor Marktzugang: Selbstbewertung oder Prüfung durch Dritte
EU-Datenbank-RegistrierungEintrag in öffentliche EU-Datenbank für Hochrisiko-KI

Pflichten für Betreiber (Deployer) von Hochrisiko-KI:

  • Einsatz gemäß Gebrauchsanweisung des Anbieters
  • Sicherstellung der menschlichen Aufsicht durch qualifiziertes Personal
  • Überwachung der Systemleistung und Meldung von Vorfällen
  • Durchführung einer Grundrechte-Folgenabschätzung (Fundamental Rights Impact Assessment) vor dem Einsatz
  • Information betroffener Personen über den KI-Einsatz

Begrenztes Risiko (Transparenzpflichten)

Systeme mit begrenztem Risiko unterliegen primär Transparenzanforderungen.

Betroffene Systeme:

  • Chatbots und virtuelle Assistenten: Nutzer müssen wissen, dass sie mit einer KI interagieren
  • Deepfakes und KI-generierte Inhalte: Müssen als solche gekennzeichnet werden
  • Emotionserkennungssysteme: Betroffene Personen müssen informiert werden (sofern nicht unter Verbot fallend)

Praxisrelevanz: Wenn Sie einen KI-gestützten Kundenservice-Bot einsetzen, müssen Sie den Nutzern klar kommunizieren, dass sie mit einer KI und nicht mit einem Menschen interagieren. Das gilt auch für KI-generierte E-Mails und Texte im Geschäftsverkehr.

Minimales oder kein Risiko

Die Mehrheit der KI-Anwendungen fällt in diese Kategorie. Hier gelten keine spezifischen regulatorischen Anforderungen aus dem AI Act.

Beispiele:

  • Spam-Filter
  • KI-gestützte Suchfunktionen
  • Empfehlungsalgorithmen (mit Einschränkungen)
  • KI-basierte Übersetzungstools
  • Automatisierte Datenanalyse ohne personenbezogene Entscheidungen

Der EU AI Act ermutigt Anbieter in dieser Kategorie ausdrücklich zur freiwilligen Einhaltung von Verhaltenskodizes — auch wenn keine Pflicht besteht.

Risikoklassen-Übersicht

RisikoklasseBeispieleRegulierungStatus
UnannehmbarSocial Scoring, manipulative KI, biometrische MassenüberwachungVollständig verbotenSeit 02/2025
HochrisikoKI für Personalentscheidungen, Kreditscoring, kritische InfrastrukturUmfangreiche Compliance-PflichtenAb 08/2026
BegrenztChatbots, Deepfake-Generatoren, EmotionserkennungTransparenzpflichtenAb 08/2026
MinimalSpam-Filter, Übersetzungstools, EmpfehlungsalgorithmenKeine spezifischen PflichtenFreiwillig

Zeitplan: Wann welche Pflichten greifen

Der EU AI Act wird gestaffelt wirksam. Die Übergangsfristen sind klar definiert:

DatumMeilenstein
1. August 2024EU AI Act tritt in Kraft
2. Februar 2025Verbote greifen: Alle verbotenen KI-Praktiken (Kapitel II) und KI-Kompetenzvorgaben (Art. 4)
2. August 2025General-Purpose AI (GPAI): Pflichten für Anbieter von Allzweck-KI-Modellen und Governance-Strukturen (überwacht durch das EU AI Office)
2. August 2026Hauptteil: Hochrisiko-KI-Pflichten (Anhang III), Transparenzpflichten, Sanktionen
2. August 2027Erweiterte Hochrisiko-Pflichten: Systeme nach Anhang I (Produkte unter EU-Harmonisierungsrecht)

Handlungsempfehlung: Auch wenn die Hauptpflichten für Hochrisiko-KI erst ab August 2026 greifen — die Vorbereitung erfordert Monate. Risikoklassifizierung, Dokumentation, Governance-Strukturen und technische Anpassungen lassen sich nicht über Nacht implementieren. Beginnen Sie jetzt.

General-Purpose AI: Sonderregeln für Foundation Models

Seit dem 2. August 2025 gelten spezielle Regeln für General-Purpose AI Models (GPAI) — also Modelle wie GPT-4, Claude, Llama oder Gemini, die für verschiedene Zwecke eingesetzt werden können.

Pflichten für alle GPAI-Anbieter

  • Technische Dokumentation erstellen und aktualisieren
  • Informationen und Dokumentation für nachgelagerte Anbieter bereitstellen
  • Urheberrechtsrichtlinie einhalten und Transparenz über Trainingsdaten gewährleisten
  • Zusammenfassung der für das Training verwendeten Daten veröffentlichen

Zusätzliche Pflichten bei systemischem Risiko

GPAI-Modelle mit systemischem Risiko (Schwellenwert: Rechenleistung > 10^25 FLOPs für das Training) unterliegen erweiterten Pflichten:

  • Modellbewertung nach standardisierten Protokollen
  • Bewertung und Minderung systemischer Risiken
  • Dokumentation und Meldung schwerwiegender Vorfälle
  • Cybersecurity-Schutzmaßnahmen

Relevanz für Unternehmen: Wenn Sie GPAI-Modelle in Ihren KI-Agenten einsetzen — etwa für die Prozessautomatisierung — sind Sie als Betreiber nicht direkt von den GPAI-Anbieterpflichten betroffen. Aber Sie müssen sicherstellen, dass Ihr KI-Systemanbieter diese Pflichten erfüllt, insbesondere wenn das Gesamtsystem als Hochrisiko eingestuft wird.

Was bedeutet das für KI-Agenten in Unternehmen?

KI-Agenten — autonome Systeme, die Aufgaben eigenständig planen und ausführen — werden durch den EU AI Act besonders relevant. Der Grund: Je autonomer ein System agiert, desto höher ist potenziell das regulatorische Risiko.

Risikoklassifizierung von KI-Agenten

Die Einstufung eines KI-Agenten hängt vom Einsatzzweck ab, nicht von der Technologie selbst:

EinsatzszenarioRisikoklassePflichten
Agent für interne DokumentenklassifizierungMinimalFreiwillige Verhaltenskodizes
Kundenservice-Agent mit Chat-InterfaceBegrenztTransparenzpflicht (KI-Kennzeichnung)
Agent für automatisierte KreditwürdigkeitsprüfungHochrisikoVolle Compliance-Anforderungen
Agent für PersonalauswahlentscheidungenHochrisikoVolle Compliance-Anforderungen
Agent für Produktionsoptimierung (nicht-kritisch)MinimalFreiwillige Verhaltenskodizes
Agent für kritische InfrastruktursteuerungHochrisikoVolle Compliance-Anforderungen

Auswirkungen auf die Architektur

Der EU AI Act hat direkte Auswirkungen auf die technische Architektur von KI-Agenten-Systemen:

  • Logging und Audit-Trail: Jede Entscheidung eines Hochrisiko-Agenten muss nachvollziehbar protokolliert werden. Das erfordert robuste Logging-Infrastruktur, die wir in unserem Artikel über KI-Agenten-Architekturen detailliert beschreiben.
  • Human-in-the-Loop: Für Hochrisiko-Anwendungen muss ein Mensch in den Entscheidungsprozess eingebunden werden können. Das Agent-System braucht definierte Eskalationspunkte.
  • Datenschutz by Design: Der AI Act ergänzt die DSGVO. Beide müssen gleichzeitig erfüllt werden. Unsere Empfehlung: On-Premise LLMs und DSGVO-konforme KI-Infrastruktur als Basis für datenschutzkritische Anwendungen.
  • Versionierung und Reproduzierbarkeit: Modell-Versionen, Prompt-Templates und Konfigurationen müssen versioniert und dokumentiert sein.

Compliance-Checkliste für deutsche Unternehmen

Nutzen Sie diese Checkliste als Ausgangspunkt für Ihre AI-Act-Compliance:

Phase 1: Bestandsaufnahme (Sofort)

  • KI-Inventar erstellen: Alle KI-Systeme im Unternehmen identifizieren und dokumentieren — einschließlich eingebetteter KI in SaaS-Produkten
  • Risikoklassifizierung durchführen: Jedes System den vier Risikostufen zuordnen
  • Verbotene Praktiken prüfen: Sicherstellen, dass keine verbotenen KI-Anwendungen im Einsatz sind (Frist abgelaufen: 2. Februar 2025)
  • Rollen klären: Sind Sie Anbieter, Betreiber, Importeur oder Händler?

Phase 2: Governance aufbauen (Q1-Q2 2026)

  • AI-Governance-Struktur etablieren mit klaren Verantwortlichkeiten
  • KI-Kompetenzen im Team aufbauen (Art. 4 — seit 2. Februar 2025 Pflicht)
  • Risikomanagementprozess für KI-Systeme definieren
  • Datenschutz-Folgenabschätzung (DSFA) und Grundrechte-Folgenabschätzung planen
  • Vorfallsmanagement für KI-Fehlfunktionen implementieren

Phase 3: Technische Compliance (Q2-Q4 2026)

  • Technische Dokumentation für Hochrisiko-Systeme erstellen
  • Logging und Monitoring implementieren (automatische Protokollierung)
  • Human-Oversight-Mechanismen in Hochrisiko-Workflows einbauen
  • Transparenz-Maßnahmen umsetzen (KI-Kennzeichnung, Nutzungsinformationen)
  • Konformitätsbewertung vorbereiten und durchführen

Phase 4: Kontinuierliche Compliance (Ab August 2026)

  • Post-Market-Monitoring für Hochrisiko-Systeme einrichten
  • Regelmäßige Audits und Überprüfungen der Risikoklassifizierung
  • Schulungsprogramm für Mitarbeiter, die KI-Systeme betreiben
  • Dokumentation aktuell halten bei System-Updates oder Modellwechseln

Sanktionen: Was bei Nicht-Compliance droht

Der EU AI Act sieht empfindliche Strafen vor, die sich am Umsatz orientieren — ähnlich wie bei der DSGVO:

VerstoßMaximale Strafe
Einsatz verbotener KI-Praktiken35 Mio. EUR oder 7 % des weltweiten Jahresumsatzes
Verstoß gegen Hochrisiko-Anforderungen15 Mio. EUR oder 3 % des weltweiten Jahresumsatzes
Falsche Angaben gegenüber Behörden7,5 Mio. EUR oder 1 % des weltweiten Jahresumsatzes

Für KMU und Start-ups gelten reduzierte Obergrenzen, aber die Verhältnismäßigkeit bedeutet nicht Straffreiheit. Die nationalen Aufsichtsbehörden — in Deutschland voraussichtlich die BNetzA (Bundesnetzagentur) als zentrale Marktüberwachungsbehörde — werden Durchsetzungsbefugnisse erhalten.

Praxisbeispiel: KI-Agent für die Angebotsverarbeitung

Nehmen wir ein konkretes Szenario: Ein mittelständisches Unternehmen setzt einen KI-Agenten ein, der eingehende Ausschreibungen analysiert, relevante Informationen extrahiert und Angebotsvorschläge generiert.

Risikoklassifizierung: Minimal bis Begrenzt. Der Agent trifft keine Entscheidungen über natürliche Personen und operiert nicht in einem der Hochrisiko-Bereiche. Wenn der Agent jedoch automatisch bindende Angebote versendet, steigen die Governance-Anforderungen.

Erforderliche Maßnahmen:

  1. Transparenz: Geschäftspartner über den KI-Einsatz bei der Angebotserstellung informieren
  2. Qualitätssicherung: Human-Review vor dem Versand von Angeboten
  3. Dokumentation: Nachvollziehbare Protokollierung der Agent-Entscheidungen
  4. Datenqualität: Sicherstellung, dass Trainings- und Kontextdaten korrekt und aktuell sind

Dieses Szenario zeigt: Auch bei minimalem regulatorischem Risiko ist ein strukturierter Umgang mit KI-Systemen sinnvoll — nicht nur für Compliance, sondern für Qualität und Vertrauen.

Der EU AI Act und die DSGVO: Zusammenspiel

Der AI Act ersetzt die DSGVO nicht — er ergänzt sie. Beide Regelwerke müssen parallel erfüllt werden. Die wichtigsten Berührungspunkte:

  • Datenminimierung (DSGVO) trifft auf Datenqualitätsanforderungen (AI Act): Sie brauchen hochwertige Trainingsdaten, dürfen aber nicht mehr Daten erheben als nötig.
  • Betroffenenrechte (DSGVO) werden durch Transparenzpflichten (AI Act) verstärkt: Betroffene müssen nicht nur über Datenverarbeitung, sondern auch über KI-gestützte Entscheidungen informiert werden.
  • Datenschutz-Folgenabschätzung (DSGVO) und Grundrechte-Folgenabschätzung (AI Act) können kombiniert durchgeführt werden.
  • On-Premise-Betrieb kann beide Anforderungen gleichzeitig adressieren — DSGVO-konforme KI-Infrastruktur mit lokalen LLMs minimiert Datenübertragungsrisiken und stärkt die Kontrollierbarkeit.

Praktische Schritte: Von der Analyse zur Umsetzung

Der Weg zur AI-Act-Compliance muss kein Blindflug sein. Hier sind fünf konkrete Schritte, die Sie sofort einleiten können:

Schritt 1: KI-Systeme inventarisieren

Listen Sie jedes KI-System im Unternehmen auf — auch eingebettete KI in SaaS-Tools wie CRM-Systeme, HR-Plattformen oder ERP-Lösungen. Viele Unternehmen unterschätzen die Anzahl der KI-Systeme, die sie bereits im Einsatz haben. Microsoft Copilot, Salesforce Einstein, SAP Business AI — all das zählt.

Schritt 2: Risikoklassen zuordnen

Gehen Sie für jedes identifizierte System die Checkliste durch: Ist es verboten? Hochrisiko (Anhang III)? Begrenzt? Minimal? Dokumentieren Sie Ihre Einschätzung und die Begründung. Diese Dokumentation ist nicht nur Good Practice — sie wird bei einer Prüfung erwartet.

Schritt 3: Governance-Struktur aufsetzen

Definieren Sie Verantwortlichkeiten: Wer ist AI-Beauftragter? Wer überwacht die Einhaltung? Wer führt Risikoklassifizierungen durch? Eine klare Governance-Struktur ist die Voraussetzung für alle weiteren Maßnahmen.

Schritt 4: Technische Infrastruktur bewerten

Prüfen Sie, ob Ihre aktuelle IT-Infrastruktur die Anforderungen des AI Act erfüllt: Logging, Monitoring, Versionierung, Human-in-the-Loop-Mechanismen. Identifizieren Sie Lücken und priorisieren Sie nach Risikoklasse. Für KI-Automatisierung in regulierten Umgebungen ist eine solide technische Basis unverzichtbar.

Schritt 5: Schulungsprogramm starten

Art. 4 des AI Act verpflichtet Unternehmen, KI-Kompetenzen bei Mitarbeitern aufzubauen, die KI-Systeme betreiben oder beaufsichtigen. Diese Pflicht gilt bereits seit dem 2. Februar 2025. Starten Sie mit Awareness-Schulungen für Führungskräfte und vertiefenden Trainings für technische Teams.

Häufig gestellte Fragen (FAQ)

Gilt der EU AI Act auch für KMU und Start-ups?

Ja. Der AI Act gilt unabhängig von der Unternehmensgröße. Allerdings sieht die Verordnung Erleichterungen vor: KMU können von reduzierten Sanktionsobergrenzen profitieren, und die EU-Kommission hat Leitlinien und regulatorische Sandboxes angekündigt, um kleineren Unternehmen den Compliance-Einstieg zu erleichtern. Die inhaltlichen Anforderungen bleiben jedoch identisch — ein Hochrisiko-System ist ein Hochrisiko-System, unabhängig davon, wer es betreibt.

Wir setzen nur SaaS-KI-Tools ein (z.B. ChatGPT Enterprise, Microsoft Copilot). Sind wir betroffen?

Ja, als Betreiber (Deployer). Sie sind dafür verantwortlich, KI-Systeme gemäß den Gebrauchsanweisungen des Anbieters einzusetzen, die menschliche Aufsicht sicherzustellen und — bei Hochrisiko-Anwendungen — eine Grundrechte-Folgenabschätzung durchzuführen. Prüfen Sie außerdem, ob der SaaS-Anbieter seine Anbieterpflichten erfüllt, insbesondere hinsichtlich technischer Dokumentation und Konformitätsbewertung.

Wie klassifiziere ich mein KI-System richtig?

Prüfen Sie in drei Schritten: (1) Fällt das System unter eine verbotene Praktik (Art. 5)? (2) Fällt der Einsatzzweck unter Anhang III (Hochrisiko-Bereiche)? (3) Ist das System ein Bestandteil eines Produkts, das unter EU-Harmonisierungsrecht fällt (Anhang I)? Wenn keines zutrifft, prüfen Sie Transparenzpflichten für Chatbots, Deepfakes oder Emotionserkennung. Im Zweifel: Rechtliche Beratung mit KI-Spezialisierung einholen.

Was passiert, wenn sich die Risikoklasse meines Systems ändert?

Das kann passieren — etwa wenn Sie einen bisher internen KI-Agenten nun für Personalentscheidungen einsetzen. Sie müssen die Risikoklassifizierung kontinuierlich überprüfen, insbesondere bei Änderungen des Einsatzzwecks, Modell-Updates oder Erweiterungen des Funktionsumfangs. Bei Hochstufung müssen Sie die entsprechenden Compliance-Anforderungen innerhalb eines angemessenen Zeitraums erfüllen.

Wie hängen EU AI Act und ISO-Normen zusammen?

Die EU-Kommission hat die europäischen Normungsorganisationen CEN und CENELEC beauftragt, harmonisierte Standards für den AI Act zu entwickeln. Diese Standards werden voraussichtlich auf bestehenden Normen wie ISO/IEC 42001 (AI Management System) und ISO/IEC 23894 (AI Risk Management) aufbauen. Die Einhaltung harmonisierter Standards wird eine Vermutungswirkung für die Konformität bieten — ähnlich wie bei der CE-Kennzeichnung.

Nächste Schritte: So unterstützen wir Sie

Der EU AI Act ist komplex, aber er ist auch eine Chance. Unternehmen, die jetzt regulatorische Klarheit schaffen, gewinnen Vertrauen bei Kunden, Partnern und Mitarbeitern. Compliant eingesetzte KI ist bessere KI — dokumentiert, nachvollziehbar, qualitätsgesichert.

Wir bei IJONIS unterstützen deutsche Unternehmen dabei, KI-Systeme nicht nur technisch exzellent, sondern auch regulatorisch sicher aufzubauen:

  • KI-Inventar und Risikoklassifizierung: Wir analysieren Ihre bestehenden KI-Systeme und ordnen sie den Risikoklassen zu.
  • Compliance-Architektur: Wir entwerfen KI-Agenten-Systeme mit eingebautem Logging, Human-in-the-Loop und Audit-Trail — von Anfang an AI-Act-konform.
  • DSGVO + AI Act: Wir implementieren KI-Automatisierung, die beide Regelwerke gleichzeitig adressiert.
  • On-Premise und Hybrid: Für maximale Kontrolle setzen wir auf lokale LLMs und sichere Infrastruktur.

Sie wollen wissen, wo Ihr Unternehmen beim EU AI Act steht? Sprechen Sie mit uns — wir führen eine initiale Standortbestimmung durch und entwickeln gemeinsam Ihren Compliance-Fahrplan.


Wie bereit ist Ihr Unternehmen für KI? Finden Sie es in 3 Minuten heraus — mit unserem kostenlosen, KI-gestützten Readiness-Check. Jetzt Check starten →

Ende des Artikels

KI-Readiness-Check

Erfahren Sie in 3 Min., wie KI-bereit Ihr Unternehmen ist.

Jetzt starten3 Min. · Kostenlos

KI-Insights für Entscheider

Monatliche Einblicke in KI-Automatisierung, Software-Architektur und digitale Transformation. Kein Spam, jederzeit abbestellbar.

Lass uns sprechen

Fragen zum Artikel?.

Jamin Mahmood-Wiebe

Jamin Mahmood-Wiebe

Managing Director

Termin buchen
WhatsAppSchnell & direkt

Nachricht schreiben

Diese Website wird durch reCAPTCHA geschützt und es gelten die Google Datenschutzbestimmungen Nutzungsbedingungen.