Recht2026-04-226 Min.

EU AI Act: Erste Verbote greifen, Hochrisiko-KI im Fokus des DACH-Mittelstands

Der EU AI Act tritt schrittweise in Kraft und bringt seit April 2026 erste Verbote für KI-Systeme mit sich. Unternehmen im DACH-Raum müssen insbesondere Hochrisiko-Anwendungen bis August 2026 klassifizieren und dokumenti

KH

Kapitel H Research Team

Kapitel H

Die europäische Arbeitswelt, insbesondere im DACH-Raum, erlebt durch die sukzessive Inkraftsetzung des EU AI Act eine bedeutende Transformation. Seit dem 6. April 2026 sind die ersten verbindlichen Verbote der KI-Verordnung aktiv, die bestimmte Anwendungen von künstlicher Intelligenz (KI) unter Strafe stellen. Diese Entwicklung zwingt Unternehmen zu sofortigem Handeln. Mit weitreichenden Auswirkungen auf Personalmanagement, Sicherheit und Datenverarbeitung müssen sich Organisationen in Deutschland, Österreich und der Schweiz auf strikte Compliance-Anforderungen einstellen. Ziel ist es, hohe Bußgelder zu vermeiden und die vertrauensvolle Einführung von KI-Systemen zu gewährleisten. Die nächsten entscheidenden Fristen, insbesondere für Hochrisiko-KI-Systeme, stehen bereits im August 2026 an, was eine proaktive Klassifizierung und Dokumentation der eingesetzten KI-Systeme unerlässlich macht.

Der EU AI Act gilt als weltweit erstes umfassendes Rechtsrahmenwerk für KI. Er verfolgt einen risikobasierten Ansatz, der KI-Systeme in verschiedene Risikokategorien einteilt. Entsprechend diesen Kategorien werden unterschiedliche Anforderungen und Pflichten festgelegt. Die vollständige Anwendung des AI Act erfolgt zwar gestaffelt bis August 2027. Jedoch sind am 6. April 2026 bereits kritische Bestimmungen in Kraft getreten, die unmittelbaren Handlungsbedarf für zahlreiche Organisationen schaffen. Für den Mittelstand im DACH-Raum bedeutet dies, die eigenen KI-Strategien und Anwendungen rasch zu überprüfen und anzupassen.

Unmittelbare Verbote und hohe Konsequenzen: Was seit April 2026 gilt

Seit dem 6. April 2026 sind spezifische KI-Praktiken innerhalb der EU gänzlich untersagt. Diese Verbote sind nicht nur symbolisch, sondern schaffen klare Grenzen für den Einsatz von KI. Zu den untersagten Anwendungen gehören:

* Social Scoring durch staatliche Stellen: Die Bewertung oder Klassifizierung von Personen anhand ihres Sozialverhaltens mithilfe von KI ist nun verboten. * Manipulative KI-Systeme: Systeme, die die Willensfreiheit von Personen unterlaufen oder physischen, psychischen oder finanziellen Schaden verursachen können, sind untersagt. * Emotionserkennung am Arbeitsplatz: Der Einsatz von KI zur Erkennung von Emotionen bei Mitarbeitern, beispielsweise zur Leistungsbewertung oder Stimmungsanalyse, ist explizit verboten. * Biometrische Massenüberwachung: Der Einsatz von Echtzeit-Biometrie zur Identifizierung in öffentlich zugänglichen Räumen ist grundsätzlich untersagt, mit wenigen, eng definierten Ausnahmen. * Biometrische Kategorisierung im Recruiting: Die Nutzung von biometrischen Daten zur Vorauswahl von Bewerbern, etwa basierend auf Merkmalen wie Geschlecht, Ethnie oder sexueller Orientierung, ist nicht mehr zulässig.

Diese Verbote haben direkte Auswirkungen auf den HR-Bereich und die Arbeitsorganisation von Unternehmen. Besonders die Emotionserkennung am Arbeitsplatz war in einigen Kontexten bereits im Gespräch oder in Pilotprojekten. Ihre Untersagung erfordert eine umgehende Anpassung. Auch im Recruiting müssen Unternehmen prüfen, ob und wie KI-gestützte Tools eingesetzt werden, um sicherzustellen, dass keine verbotenen biometrischen Kategorisierungen stattfinden.

Die Konsequenzen bei Verstößen sind erheblich und unterstreichen die Ernsthaftigkeit der Verordnung. Es drohen Bußgelder von bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes eines Konzerns, je nachdem welcher Wert höher ist. Diese Sanktionen übersteigen die Höchstgrenzen der DSGVO deutlich. Der Branchenverband Bitkom beziffert die Compliance-Kosten für deutsche Unternehmen auf bis zu 20 Milliarden Euro jährlich. Dies zeigt den finanziellen Druck und die Notwendigkeit proaktiven Handelns.

Hochrisiko-KI-Systeme: Die August-Frist 2026 und ihre Anforderungen

Der nächste entscheidende Meilenstein ist der August 2026. Bis dahin müssen Unternehmen, die sogenannte Hochrisiko-KI-Systeme einsetzen, bestimmte Zertifizierungspflichten erfüllen. Hochrisiko-Systeme finden sich in verschiedenen Bereichen, die für den Arbeitsmarkt von entscheidender Bedeutung sind. Dazu zählen beispielsweise das Personalmanagement, die Gesundheitsversorgung, Bildung und kritische Infrastrukturen.

Für diese Systeme müssen Unternehmen bis August 2026 ein umfassendes KI-Inventar erstellen und ihre Systeme entsprechend klassifizieren. Das bedeutet, jede im Unternehmen genutzte KI-Anwendung, die potenziell als Hochrisiko eingestuft werden könnte, muss identifiziert und bewertet werden. Beispiele hierfür sind KI-gestützte Tools zur Automatisierung von HR-Prozessen, zur Erstellung von Mitarbeiterprofilen oder zur Entscheidungsfindung bei Beförderungen. Eine Studie von SHRM aus April 2026 belegt, dass KI in HR-Workflows immer häufiger eingesetzt wird. 92 Prozent der CHROs erwarten eine weitere Integration im aktuellen Jahr, was die Relevanz dieser Regulierung für Personalabteilungen unterstreicht.

Zusätzlich zur Klassifizierung sind bis August 2026 Transparenzpflichten für Hochrisiko-KI-Systeme zu erfüllen. Dies umfasst die Bereitstellung von Informationen über die Funktionsweise des Systems, seine beabsichtigte Verwendung, seine Leistung, seine Grenzen und die menschliche Aufsicht, die gewährleistet werden muss. Auch die Anforderungen an die Daten-Governance, die technische Dokumentation und die Durchführung von Konformitätsbewertungen treten zu diesem Zeitpunkt in Kraft. Obwohl eine vollständige externe Zertifizierung aller Systeme bis August möglicherweise nicht realistisch ist, da die ersten externen Konformitätsbewertungsstellen erst ab Juni ihre Arbeit aufnehmen, ist eine umfassende interne Dokumentation und ein Konformitätsnachweis zwingend erforderlich.

Der DACH-Mittelstand im Blick: Herausforderungen und Unterstützungsangebote

Der deutsche Mittelstand, als Rückgrat der Wirtschaft, ist besonders von den neuen Vorschriften betroffen. Der Zukunftstag Mittelstand 2026, dessen Berichte Mitte April veröffentlicht wurden, betonte die zentrale Rolle der digitalen Transformation und des KI-Einsatzes für die Zukunftsfähigkeit des Mittelstands. Dabei wurde deutlich, dass es nicht nur um neue Technologien geht, sondern auch um die passenden Rahmenbedingungen, von Regulierung und digitaler Souveränität bis hin zu Energie- und Rohstoffstrategien.

Viele mittelständische Unternehmen stehen vor der Herausforderung, die Komplexität des EU AI Act zu verstehen und die notwendigen Schritte zur Compliance einzuleiten. Die sogenannte "KI Readiness", also die Voraussetzungen für den erfolgreichen Einsatz von KI, wie der Aufbau von KI-Kompetenzen und der Technologiereifegrad, rückt stärker in den Fokus. Es gibt jedoch auch Unterstützungsangebote. Der Green-AI Hub Mittelstand stellte auf dem Zukunftstag beispielsweise praxisnahe Demonstrationen und Masterclasses vor, um Unternehmen auf diesem Weg zu begleiten. Kapitel H sieht hier eine klare Chance für den Mittelstand, durch proaktives Handeln und gezielte Investitionen in Wissen und Prozesse einen Wettbewerbsvorteil zu erzielen. Es geht darum, nicht nur Vorschriften zu erfüllen, sondern KI als Treiber für Innovation und Effizienz unter klaren Rahmenbedingungen zu nutzen.

KI-Sicherheit, Datenschutz und Change Management: Integrierte Strategien gefragt

Neben den direkten Compliance-Anforderungen rücken auch die Themen KI-Sicherheit und Datenschutz weiter in den Mittelpunkt. Die Eröffnung des neuen Hauptsitzes von Ontinue in Zürich im April 2026, einem führenden Anbieter von verwalteten Sicherheitsoperationen mit Fokus auf KI-gesteuerte Sicherheit, unterstreicht die wachsende Bedeutung von KI in der Cybersicherheit. Ontinue kombiniert fortschrittliche KI mit menschlicher Expertise, um Sicherheitsoperationen zu optimieren und Bedrohungen zu verhindern, zu erkennen und darauf zu reagieren. Dies zeigt, dass KI nicht nur reguliert, sondern auch als Lösung für die Sicherheit eingesetzt wird.

Der EU AI Act ergänzt bestehende Datenschutzgesetze wie die DSGVO und stellt zusätzliche Anforderungen an die Sicherheit von KI-Systemen. Dies betrifft insbesondere Datenqualität, Transparenz und menschliche Aufsicht. Unternehmen müssen sicherstellen, dass die für KI-Systeme verwendeten Daten den Datenschutzanforderungen entsprechen. Zudem müssen die Systeme selbst vor Manipulation und unbefugtem Zugriff geschützt sein. Die Integration von KI in die Finanzfunktion, wie von CIO im März 2026 beschrieben, erfordert ebenfalls robuste Governance-Modelle und konsistente, kontextbezogene Daten, um Vertrauen und Zuverlässigkeit zu gewährleisten.

Die erfolgreiche Einführung von KI-Systemen in Unternehmen ist nicht nur eine technische, sondern auch eine kulturelle Herausforderung. Ein Beitrag vom Innovation Summit 2026 hob hervor, dass KI-Investitionen scheitern können, wenn die Unternehmenskultur nicht darauf vorbereitet ist. Die Anpassung der Arbeitswelt an KI erfordert Führungskräfte, die die Mitarbeiter auf diesem Transformationspfad begleiten und Ängste adressieren. Es geht darum, KI-Einführungsprozesse auf die Menschen auszurichten und nicht umgekehrt.

Der HR Analytics & AI Summit DACH 2026 bringt Fachkräfte zusammen, um den praktischen Einsatz von HR Analytics und KI zu diskutieren. Dies zeigt, dass sich die Personalabteilungen intensiv mit der Gestaltung daten- und KI-gesteuerter HR-Strategien auseinandersetzen. Themen wie der Aufbau von KI-Kompetenzen, die ethische Nutzung von KI im Recruiting und die Transformation von HR-Daten in umsetzbare Erkenntnisse stehen dabei im Vordergrund. Der SHRM "State of AI in HR 2026 Report" betont, dass KI die Effizienz und Kreativität in HR signifikant verbessert hat. Bisher hatte sie kaum Auswirkungen auf die Arbeitsplatzsicherheit oder Karrierewege der meisten HR-Fachkräfte. Vielmehr verschieben sich Jobverantwortlichkeiten und neue Rollen entstehen.

Kapitel H-Perspektive: Pragmatismus statt Panik bei der KI-Regulierung

Aus Sicht von Kapitel H ist der EU AI Act eine notwendige Entwicklung, die jedoch mit einem pragmatischen Ansatz angegangen werden muss. Es besteht kein Grund zur Panik, aber sehr wohl zur umgehenden und systematischen Vorbereitung. Die Verordnung schafft Rahmenbedingungen, die Vertrauen in KI-Technologien fördern können, wenn Unternehmen ihre Hausaufgaben machen. Statt als Belastung sollte die Regulierung als Chance verstanden werden, die eigene KI-Strategie auf ein solides, ethisches und rechtskonformes Fundament zu stellen.

Wir beobachten oft, dass Unternehmen im Mittelstand bei neuen Regularien zunächst abwarten. Der EU AI Act duldet dieses Zögern jedoch nicht, insbesondere angesichts der hohen Bußgelder und der bereits in Kraft getretenen Verbote. Ein kritischer Blick auf den "Hype" um schnelle KI-Implementierungen ohne Rücksicht auf Governance ist jetzt wichtiger denn je. Eine KI-Strategie, die nicht Compliance und Ethik von Anfang an integriert, ist zum Scheitern verurteilt. Es geht nicht darum, KI gänzlich zu meiden, sondern sie bewusst, verantwortungsvoll und zweckgebunden einzusetzen.

Die Schweiz, die eine sektorale Regulierung von KI gegenüber einem horizontalen AI Act bevorzugt, betont die Bedeutung von Datensouveränität und einer starken lokalen Innovationskultur. Dennoch werden auch schweizerische Unternehmen, die KI-Systeme auf dem EU-Markt anbieten oder deren Output in der EU genutzt wird, von den Bestimmungen des EU AI Act betroffen sein. Dies erfordert eine grenzüberschreitende Compliance-Strategie, die über die nationalen Präferenzen hinausgeht.

Praktische Handlungsempfehlungen für Unternehmen

Um den Anforderungen des EU AI Act gerecht zu werden und die Chancen von KI verantwortungsvoll zu nutzen, empfiehlt Kapitel H folgende konkrete Schritte:

1. KI-Inventar erstellen und klassifizieren: Beginnen Sie sofort mit der Erfassung aller im Unternehmen genutzten oder geplanten KI-Systeme. Klassifizieren Sie diese nach dem Risikobasierten Ansatz des AI Act. Identifizieren Sie insbesondere Hochrisiko-Systeme, für die bis August 2026 spezielle Anforderungen gelten. 2. Verbotene Anwendungen überprüfen: Prüfen Sie umgehend, ob in Ihrem Unternehmen KI-Systeme zum Einsatz kommen, die seit dem 6. April 2026 verboten sind, wie Emotionserkennung am Arbeitsplatz oder biometrische Kategorisierung im Recruiting. Stellen Sie deren Betrieb sofort ein. 3. Governance-Strukturen aufbauen: Etablieren Sie klare Verantwortlichkeiten und Prozesse für die Implementierung und Überwachung von KI-Systemen. Dazu gehören auch Data-Governance-Richtlinien und ein internes Kontrollsystem für KI. 4. Technische Dokumentation und Transparenz: Bereiten Sie die technische Dokumentation für Hochrisiko-KI-Systeme vor. Sorgen Sie für die notwendige Transparenz über deren Funktionsweise, Leistung und die menschliche Aufsicht, die gewährleistet wird. 5. Mitarbeiter schulen und einbeziehen: Investieren Sie in die Weiterbildung Ihrer Mitarbeiter. Vermitteln Sie Wissen über den EU AI Act, ethische KI-Nutzung und die spezifischen Anforderungen im eigenen Unternehmenskontext. Nehmen Sie Bedenken ernst und gestalten Sie den Change-Prozess aktiv. 6. Rechtliche und technische Expertise einholen: Ziehen Sie bei Bedarf externe Berater, wie Kapitel H, hinzu, um eine fundierte Bewertung und Umsetzung der Compliance-Anforderungen sicherzustellen. Die Komplexität des AI Act erfordert oft spezialisiertes Wissen.

Fazit: Jetzt handeln für eine zukunftsfähige KI-Nutzung

Die Zeit bis August 2026 ist für Unternehmen im DACH-Raum entscheidend. Die sukzessive Inkraftsetzung des EU AI Act erzwingt eine proaktive Haltung im Umgang mit künstlicher Intelligenz. Wer jetzt systematisch seine KI-Systeme inventarisiert, klassifiziert und die ersten Konformitätsbewertungen für Hochrisiko-Anwendungen durchführt, legt den Grundstein für eine rechtssichere und zukunftsfähige KI-Nutzung. Dies vermeidet nicht nur erhebliche Bußgelder, sondern stärkt auch das Vertrauen in die eigenen KI-Anwendungen bei Mitarbeitern, Kunden und Partnern.

Der EU AI Act ist keine Innovationsbremse, sondern ein Rahmenwerk, das die europäische KI-Landschaft auf eine solide Basis stellen soll. Unternehmen, die diese Entwicklung als Chance begreifen und aktiv gestalten, werden sich einen Wettbewerbsvorteil sichern. Sie nutzen KI nicht nur effizienter, sondern auch verantwortungsvoller und mit dem nötigen Vertrauen. Die Befähigung statt Abhängigkeit von neuen Technologien ist der Kernansatz, den Kapitel H seinen Partnern vermittelt. Beginnen Sie heute mit der Analyse und Anpassung, um morgen erfolgreich zu sein.

Häufige Fragen

Was ist der EU AI Act?

Der EU AI Act ist das weltweit erste umfassende Rechtsrahmenwerk für künstliche Intelligenz. Er verfolgt einen risikobasierten Ansatz, um KI-Systeme in verschiedene Kategorien einzuteilen und entsprechende rechtliche Anforderungen festzulegen. Ziel ist es, Vertrauen in KI zu schaffen und Risiken zu minimieren.

Welche KI-Anwendungen sind seit April 2026 verboten?

Seit dem 6. April 2026 sind unter anderem Social Scoring durch staatliche Stellen, manipulative KI-Systeme, Emotionserkennung am Arbeitsplatz, biometrische Massenüberwachung und biometrische Kategorisierung im Recruiting verboten.

Was sind Hochrisiko-KI-Systeme und was müssen Unternehmen bis August 2026 beachten?

Hochrisiko-KI-Systeme sind Anwendungen in kritischen Bereichen wie Personalmanagement, Gesundheit oder Infrastruktur, die potenzielle Risiken für die Grundrechte oder die Sicherheit darstellen. Bis August 2026 müssen Unternehmen ein Inventar dieser Systeme erstellen, sie klassifizieren, technische Dokumentationen vorbereiten und Transparenzpflichten erfüllen, auch wenn eine vollständige externe Zertifizierung noch nicht für alle Systeme möglich ist.

Wie wirkt sich der EU AI Act auf schweizerische Unternehmen aus?

Auch wenn die Schweiz eine sektorale Regulierung bevorzugt, sind schweizerische Unternehmen vom EU AI Act betroffen, wenn sie KI-Systeme auf dem EU-Markt anbieten oder deren Output in der EU genutzt wird. Eine grenzüberschreitende Compliance-Strategie ist daher unerlässlich.

Welche ersten Schritte sollten Unternehmen jetzt unternehmen?

Unternehmen sollten umgehend ein umfassendes KI-Inventar erstellen, alle verbotenen Anwendungen identifizieren und einstellen, Governance-Strukturen aufbauen, technische Dokumentationen vorbereiten und Mitarbeiter schulen. Die Einholung externer Expertise kann bei der Komplexität des AI Act hilfreich sein.

Bereit für Ihre KI-Transformation?

Lassen Sie uns in einem unverbindlichen Erstgespräch herausfinden, wie wir Ihr Unternehmen unterstützen können.

Erstgespräch vereinbaren →