Strategie2026-04-3012 Min.

KI-Regulierung im DACH-Raum: Was Unternehmen jetzt wissen müssen

Der EU AI Act und das Schweizer Datenschutzgesetz (DSG) erzwingen eine Neuausrichtung der KI-Strategien in DACH-Unternehmen. Proaktives Change Management und robuste Datengovernance sind entscheidend für Compliance und n

KH

Kapitel H Research Team

Kapitel H

# KI-Regulierung im DACH-Raum: Was Unternehmen jetzt wissen müssen

Die Einführung von Künstlicher Intelligenz in Unternehmen ist längst keine rein technische Frage mehr. Spätestens mit den gestaffelten Anwendungsfristen des EU AI Acts und der direkten Relevanz des Schweizer Datenschutzgesetzes (DSG) stehen Unternehmen im DACH-Raum vor der Notwendigkeit, ihre KI-Strategien grundlegend zu überdenken. Es geht nicht mehr nur um technologische Machbarkeit, sondern um rechtliche Compliance, proaktives Change Management und eine umfassende Datengovernance. Diese Entwicklungen markieren einen Übergang von experimenteller KI-Nutzung zu einem regulierten, verantwortungsvollen Einsatz mit klaren Pflichten und potenziellen Sanktionen.

Die Tage, in denen KI-Projekte ohne detaillierte Berücksichtigung rechtlicher Rahmenbedingungen gestartet werden konnten, sind endgültig vorbei. Unternehmen, die jetzt nicht handeln, riskieren nicht nur hohe Bußgelder, sondern auch einen Vertrauensverlust bei Kunden und Mitarbeitern. Kapitel H beleuchtet die aktuellen regulatorischen Anforderungen, die organisatorischen Herausforderungen und die konkreten Schritte, die Ihr Unternehmen ergreifen muss, um die Potenziale der KI verantwortungsbewusst und gesetzeskonform zu nutzen.

Der EU AI Act: Was DACH-Unternehmen jetzt wissen müssen

Die Europäische Union hat mit dem Artificial Intelligence Act (AI Act) einen wegweisenden Rechtsrahmen für Künstliche Intelligenz geschaffen. Obwohl das Gesetz offiziell am 1. August 2024 in Kraft getreten ist, erfolgen die Anwendungsfristen gestaffelt. Das bedeutet, dass Unternehmen im DACH-Raum nicht warten können, bis alle Bestimmungen vollumfänglich greifen. Einige wichtige Pflichten sind bereits relevant oder stehen unmittelbar bevor.

Bereits seit dem 2. Februar 2025 gelten zwei zentrale Pflichten. Erstens, das Verbot bestimmter KI-Praktiken, welche als inakzeptables Risiko für Grundrechte eingestuft werden. Dazu gehören unter anderem Social-Scoring-Systeme, manipulative KI-Techniken, die Schwächen von Personen ausnutzen, sowie die ungezielte Gesichtserkennung im öffentlichen Raum. Unternehmen müssen sicherstellen, dass keine dieser verbotenen Praktiken im Einsatz sind oder entwickelt werden. Zweitens, die sogenannte KI-Kompetenzpflicht. Diese verlangt, dass alle Mitarbeiter, die mit KI-Systemen arbeiten, über ausreichende Kenntnisse im Umgang mit diesen Technologien verfügen. Hier geht es nicht nur um die technische Handhabung, sondern auch um das Verständnis der Funktionsweise, der Grenzen und der potenziellen Risiken von KI. Dokumentierte KI-Schulungen und Teilnahmezertifikate sind hier essenziell, um Compliance nachweisen zu können.

Ab dem 2. August 2025 treten weitere wichtige Pflichten in Kraft, die insbesondere Anbieter von General Purpose AI (GPAI), also Basismodellen wie GPT-4, Claude oder Gemini, betreffen. Hierzu zählen Transparenz- und Dokumentationspflichten, wie die Offenlegung von Trainingsdaten und die Kennzeichnung KI-generierter Inhalte, oft als Deepfakes bezeichnet. Auch wenn Ihr Unternehmen diese Modelle nicht selbst entwickelt, sind Sie als Anwender in der Pflicht, zu verstehen, wie die Modelle funktionieren und welche Transparenzanforderungen an sie gestellt werden, insbesondere wenn Sie KI-generierte Inhalte erstellen und veröffentlichen.

Die umfassendsten Pflichten werden ab dem 2. August 2026 für die meisten Unternehmen unmittelbar anwendbar sein. Dies betrifft sogenannte Hochrisiko-KI-Systeme. Darunter fallen Systeme, die ein erhebliches Potenzial haben, die Gesundheit, Sicherheit oder Grundrechte von Personen zu beeinträchtigen. Beispiele hierfür sind KI in HR-Prozessen zur Bewerberauswahl oder Leistungsbewertung, in der Kreditwürdigkeitsprüfung, in Bildungseinrichtungen zur Prüfungsbewertung, in kritischen Infrastrukturen oder in der Strafverfolgung. Für diese Systeme gelten strenge Anforderungen: ein umfassendes Risikomanagement, Sicherstellung hoher Datenqualität, technische Robustheit, Transparenz über die Funktionsweise, menschliche Aufsicht und Cybersicherheit. Unternehmen, die solche Systeme entwickeln oder einsetzen, müssen eine umfassende technische Dokumentation erstellen und eine detaillierte Risikobewertung durchführen. Eine CE-Kennzeichnung ist bei der Inverkehrbringung von Hochrisiko-KI-Systemen erforderlich.

Verstöße gegen den EU AI Act sind mit empfindlichen Bußgeldern verbunden. Der Einsatz verbotener KI-Praktiken kann Bußgelder von bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes nach sich ziehen, je nachdem, welcher Betrag höher ist. Verstöße gegen die Pflichten für Hochrisiko-KI-Systeme können mit bis zu 15 Millionen Euro oder 3 Prozent des Jahresumsatzes geahndet werden. Dies sind Beträge, die existenzbedrohend sein können und eine proaktive Auseinandersetzung mit dem Gesetz unerlässlich machen.

In Deutschland hat die Bundesregierung bereits am 11. Februar 2026 einen Gesetzentwurf zur Durchführung der europäischen KI-Verordnung beschlossen. Dieser sieht klare Zuständigkeiten vor, wobei der Bundesnetzagentur eine Schlüsselrolle als "KI-Drehscheibe" mit einem Koordinierungs- und Kompetenzzentrum zukommt. Zusätzlich sollen KI-Reallabore eingerichtet werden, die insbesondere dem Mittelstand und Start-ups die Möglichkeit geben, innovative KI-Systeme unter realistischen Bedingungen zu testen. In Österreich unterstützt die KI-Servicestelle bei der RTR-GmbH Unternehmen bei der Identifizierung ihrer Pflichten. Eine EY-Studie ("Digitaler Wandel in österreichischen Unternehmen 2026") zeigt, dass KI im Mittelstand angekommen ist, aber weiterhin Investitionshemmnisse wie fehlendes Personal und begrenzte Budgets bestehen.

Schweizer Datenschutzgesetz (DSG) und KI: Konkrete Anforderungen für die Schweiz

Obwohl die Schweiz keine spezifische KI-Gesetzgebung analog zum EU AI Act hat, ist das revidierte Schweizer Datenschutzgesetz (DSG), das am 1. September 2023 in Kraft getreten ist, auf KI-gestützte Datenbearbeitungen direkt anwendbar. Der Eidgenössische Datenschutz- und Öffentlichkeitsbeauftragte (EDÖB) betonte bereits im Mai 2025, dass die gesetzlichen Vorgaben bereits bei der Entwicklung und dem Einsatz von KI-Anwendungen zu beachten sind. Dies unterstreicht die Notwendigkeit für Schweizer Unternehmen, das DSG proaktiv auf ihre KI-Nutzung zu adaptieren.

Wichtige Aspekte für Schweizer Unternehmen sind vielfältig: Unternehmen müssen betroffene Personen transparent über den Einsatz von KI, den Zweck, die Funktionsweise und die verwendeten Datenquellen informieren. Diese Transparenzpflicht ist grundlegend und erfordert eine klare Kommunikation. Des Weiteren sieht das DSG vor, dass automatisierte Einzelentscheidungen von einem Menschen überprüft werden können. Dies ist ein wichtiges Recht der Betroffenen, das bei der Implementierung von KI-Systemen berücksichtigt werden muss. Nutzer intelligenter Sprachmodelle haben zudem ein gesetzliches Recht zu erfahren, ob sie mit einer Maschine sprechen, was die Offenlegung von KI-Interaktionen zur Pflicht macht.

Bei KI-gestützten Datenbearbeitungen mit hohen Risiken für die Rechte und Freiheiten Betroffener ist eine Datenschutz-Folgenabschätzung (DSFA) Pflicht. Dies ähnelt den Anforderungen für Hochrisiko-KI-Systeme im EU AI Act und verlangt eine detaillierte Analyse und Dokumentation der potenziellen Auswirkungen auf den Datenschutz. Zudem sind auch nach Schweizer DSG bestimmte KI-basierte Datenbearbeitungen, die auf eine Aushöhlung der Privatsphäre abzielen, datenschutzrechtlich verboten. Dies betrifft beispielsweise flächendeckende Gesichtserkennung in Echtzeit oder Social Scoring. Hier zeigt sich eine klare Übereinstimmung der Grundprinzipien zwischen dem EU AI Act und dem DSG.

Eine EY-Analyse von März 2026 zeigt, dass sich ein Großteil der Schweizer Unternehmen bei der produktiven KI-Nutzung auf Modelle großer US-Anbieter stützt. Dies wirft Fragen bezüglich digitaler Souveränität und der Kontrolle über Datenstandorte auf, die im Kontext des DSG und der internationalen Datentransfers zunehmend an Bedeutung gewinnen. Schweizer Unternehmen sollten ihre Abhängigkeiten von ausländischen Anbietern kritisch prüfen und gegebenenfalls Strategien zur Datensouveränität entwickeln.

Change Management: Der Mensch im Mittelpunkt der KI-Einführung

Neben der regulatorischen Compliance ist effektives Change Management bei der KI-Einführung ein entscheidender Erfolgsfaktor. Studien zeigen, dass der Widerstand von Mitarbeitern gegen KI signifikant sein kann. Eine Studie von Plotdesk (Januar 2026) ergab, dass 45 Prozent der CEOs von Mitarbeiter-Widerständen gegen KI berichten und 31 Prozent der Mitarbeiter, bei der Gen Z sogar 41 Prozent, die KI-Strategie ihres Unternehmens aktiv "sabotieren". Gleichzeitig sind 65 Prozent der Mitarbeiter begeistert, KI bei der Arbeit zu nutzen, wenn diese richtig eingeführt wird. Dies verdeutlicht das Dilemma: Die Technologie ist potenziell hochproduktiv, aber nur mit der richtigen Einbindung der Menschen.

Die häufigste Sorge ist die Angst vor Arbeitsplatzverlust. Diese wird durch fehlende Transparenz und Kommunikation noch verstärkt. Eine Studie von risControl (April 2026) stellte fest, dass KI die Arbeitswelt grundlegend verändert und vor allem komplexe, geistige Tätigkeiten in Bereichen wie IT, Ingenieurwesen, Recht und Finanzen betroffen sind, wobei in Österreich rund 16 Prozent der Tätigkeiten potenziell automatisierbar sind. Unternehmen müssen diese Ängste ernst nehmen und aktiv kommunizieren, wie sich Rollen verändern und welche neuen Möglichkeiten sich ergeben.

Eng damit verbunden ist die Kompetenzangst und Überforderung. Mitarbeiter fühlen sich oft nicht ausreichend auf den Umgang mit neuen KI-Tools vorbereitet. Eine McKinsey-Studie ("HR-Monitor 2026") zeigt, dass in Deutschland die regelmäßige Nutzung von KI-Tools von 19 Prozent auf 38 Prozent innerhalb eines Jahres gestiegen ist, aber nur 28 Prozent der Unternehmen formale KI-Trainings anbieten. Dies verdeutlicht die Diskrepanz zwischen Nutzung und Befähigung und unterstreicht die "Kompetenzpflicht" des AI Act. Investitionen in gezielte Schulungen sind hier keine Option, sondern eine Notwendigkeit.

KI verändert nicht nur Prozesse, sondern auch Rollen, Verantwortlichkeiten und die Zusammenarbeit. Führungskräfte müssen lernen, wie sie Mitarbeiter bei diesem Wandel begleiten und Rahmenbedingungen für die Zusammenarbeit mit KI schaffen können. Ein strukturiertes 8-Schritte-Framework für erfolgreiche KI-Adoption, das Kommunikation, Schulungen und "Champions-Programme" umfasst, wird empfohlen. Frühzeitige Einbindung der Mitarbeiter, transparente Kommunikation über Nutzen und Veränderungen sowie die Fokussierung auf den Entlastungsnutzen von KI sind entscheidend, um Akzeptanz zu schaffen und Widerstände abzubauen.

KI-Sicherheit und Datengovernance: Schutz vor Risiken wie Shadow AI

Mit der zunehmenden Integration von KI in Unternehmensprozesse steigen auch die Risiken in den Bereichen Datensicherheit und Datenschutz. Ein wesentliches Problem ist die sogenannte "Shadow AI". Ähnlich wie "Schatten-IT" bezeichnet "Shadow AI" die unautorisierte Nutzung von KI-Tools durch Mitarbeiter, beispielsweise private ChatGPT-Accounts für Firmendaten. Dies führt zu massiven Sicherheitslücken, Compliance-Verstößen und einem unkontrollierten Zugriff auf sensible Informationen. Eine klare KI-Richtlinie, die Bereitstellung offizieller, sicherer Unternehmenstools und eine zentrale Governance-Strategie sind hier essenziell, um diese Risiken zu minimieren.

Unternehmen legen zudem großen Wert auf datenschutzkonforme KI-Systeme und sichere Cloud-Infrastrukturen. Der Trend geht zur "Geopatriation", also der Verlagerung von Daten und Workloads weg von globalen Hyperscalern in souveräne oder regionale Clouds. Diese Strategie zielt darauf ab, die Kontrolle über sensible Unternehmensdaten und KI-Modelle zu behalten und die Einhaltung lokaler Datenschutzbestimmungen zu gewährleisten.

KI-Tools selbst können zu Einfallstoren für Supply-Chain-Angriffe werden. Ein aktueller Vorfall vom April 2026, bei dem ein KI-Tool eines Drittanbieters (Context.ai) kompromittiert wurde, um über einen Mitarbeiter auf das System von Vercel zuzugreifen und so eine weitreichende Sicherheitslücke im weit verbreiteten Next.js-Framework zu schaffen, zeigt die Brisanz. Dies verdeutlicht, dass eine tiefe Transparenz über Abhängigkeiten und eine robuste AI Security Platforms über den gesamten Lebenszyklus der KI-Anwendungen hinweg erforderlich sind. Das BSI warnte zudem im April 2026, dass KI-gestützte Systeme Sicherheitslücken bald in großem Maßstab aufspüren könnten, was Unternehmen zum Umdenken im Schwachstellenmanagement zwingt.

Ein weiteres Fundament für erfolgreiche KI-Projekte ist die Datenqualität. Eine hohe Datenqualität ist die Grundvoraussetzung für aussagekräftige und zuverlässige KI-Ergebnisse. Schlechte Datenqualität kann Unternehmen im Durchschnitt 12,9 Millionen US-Dollar pro Jahr kosten. Investitionen in Datenhygiene und -management sind daher nicht optional, sondern direkt wertschöpfend.

Praktische Auswirkungen auf Fachbereiche: Vom Controlling bis zur HR

Die regulatorischen und organisatorischen Herausforderungen wirken sich konkret auf verschiedene Unternehmensbereiche aus und erfordern spezifische Anpassungen.

Im Bereich Finance und Controlling wird KI-Compliance zu einem internen Kontrollthema. CFOs müssen Budgets für Governance, Dokumentation und Zertifizierung einplanen. Es entstehen neue Rollen wie der "AI-Controller", der KI-Agenten im Controlling entwirft und überwacht, sowie der "Data Steward", der als Garant für saubere Stammdaten fungiert. KI-gestützte Tools helfen Finanzteams, präzisere Prognosen zu erstellen, komplexe Szenarien durchzuspielen und Reporting-Zeiten signifikant zu reduzieren. Ein Konsumgüterunternehmen konnte beispielsweise die Reporting-Zeiten um 30 Prozent senken. Die Automatisierung repetitiver Aufgaben ermöglicht es Finanzexperten, sich auf strategische Analysen zu konzentrieren.

In der Personalabteilung (HR) fallen KI-gestützte Bewerberauswahl, automatisierte Lebenslauf-Screenings und KI-basierte Leistungsbewertungen unter die Kategorie der Hochrisiko-KI-Systeme des EU AI Act. Dies bedeutet, dass strenge Auflagen eingehalten werden müssen. Unternehmen müssen die Diskriminierungsfreiheit der Systeme sicherstellen und die Transparenz über die Funktionsweise der KI gewährleisten, um Voreingenommenheit oder "Bias" zu vermeiden. Die manuelle Überprüfbarkeit von automatisierten Entscheidungen ist hier von entscheidender Bedeutung, wie es auch das Schweizer DSG vorsieht.

Im Operations und Kundenservice können Chatbots und KI-Assistenten die Effizienz erheblich steigern. Es ist jedoch zwingend erforderlich, dass diese Systeme klar als solche erkennbar sind und den Nutzern mitteilen, dass sie mit einer Maschine interagieren. KI-gestützte Workflow-Automatisierung kann repetitive Aufgaben reduzieren und Kapazitätsgrenzen adressieren, birgt aber auch Risiken bei unzureichender Governance. Die korrekte Implementierung und Überwachung sind entscheidend, um Fehler und unerwünschte Ergebnisse zu vermeiden.

Praktische Handlungsempfehlungen für Unternehmen

Um den neuen Anforderungen gerecht zu werden und die Chancen der KI verantwortungsvoll zu nutzen, empfiehlt Kapitel H folgende konkrete Schritte:

1. Integriertes Compliance-Framework entwickeln: Führen Sie eine detaillierte Bestandsaufnahme Ihrer aktuellen und geplanten KI-Anwendungen durch. Identifizieren Sie, welche Systeme unter den EU AI Act (insbesondere Hochrisiko-Kategorien) fallen oder relevante Datenbearbeitungen nach DSG darstellen. Erstellen Sie ein kohärentes Compliance-Framework, das beide Gesetze berücksichtigt. 2. Proaktives Risikomanagement etablieren: Implementieren Sie einen systematischen Prozess zur Identifizierung, Bewertung und Minderung von KI-Risiken. Dies umfasst technische Risiken (z.B. Fehleranfälligkeit, Cybersicherheit), rechtliche Risiken (z.B. Diskriminierung, Datenschutzverletzungen) und ethische Risiken. Eine Datenschutz-Folgenabschätzung (DSFA) ist bei entsprechenden Risiken unerlässlich. 3. Umfassende Mitarbeiterschulung durchführen: Erfüllen Sie die "KI-Kompetenzpflicht" durch regelmäßige und dokumentierte Schulungen für alle Mitarbeiter, die mit KI-Systemen arbeiten. Fördern Sie ein grundlegendes Verständnis für KI, ihre Funktionsweise, ihre Grenzen und die Bedeutung von Datenschutz und Ethik. Dies schafft nicht nur Compliance, sondern auch Akzeptanz. 4. Klare Governance-Strukturen schaffen: Entwickeln Sie interne KI-Richtlinien, die den Einsatz von KI-Tools im Unternehmen regeln. Etablieren Sie Prozesse zur Genehmigung und Überwachung neuer KI-Anwendungen, um "Shadow AI" zu unterbinden. Benennen Sie klare Verantwortlichkeiten für KI-Governance und Compliance. 5. Datengovernance sicherstellen: Investieren Sie in Datenqualität und -management. KI-Systeme sind nur so gut wie die Daten, mit denen sie trainiert werden. Sorgen Sie für saubere, repräsentative und datenschutzkonforme Datensätze. Überprüfen Sie regelmäßig die Herkunft und Qualität Ihrer Trainingsdaten. 6. Change Management priorisieren: Planen Sie die Einführung von KI-Technologien als Change-Management-Projekt. Binden Sie Mitarbeiter frühzeitig ein, kommunizieren Sie transparent über die Vorteile und die Veränderungen, die KI mit sich bringt. Adressieren Sie Ängste vor Jobverlust oder Überforderung proaktiv durch Umschulungsangebote und neue Rollenbilder. 7. Digitale Souveränität prüfen: Analysieren Sie die Abhängigkeiten von externen KI-Anbietern und prüfen Sie Strategien zur Gewährleistung digitaler Souveränität, insbesondere im Hinblick auf Datenstandorte und die Kontrolle über Ihre Daten.

Kritische Einordnung aus Kapitel-H-Sicht

Die aktuellen Entwicklungen rund um den EU AI Act und das Schweizer DSG zeigen deutlich: Die Zeit des "Trial and Error" in der KI-Implementierung ist vorbei. Unternehmen, insbesondere der Mittelstand im DACH-Raum, können es sich nicht leisten, diese regulatorischen Rahmenbedingungen zu ignorieren. Wir beobachten oft eine Überbetonung der technologischen Aspekte der KI und eine Vernachlässigung der organisatorischen, rechtlichen und menschlichen Dimensionen. Dieser Ansatz ist kurzsichtig und gefährlich.

Aus unserer Sicht ist es entscheidend, eine realistische und pragmatische Perspektive einzunehmen. KI ist kein Allheilmittel, aber ein mächtiges Werkzeug, das unter klaren Rahmenbedingungen enorme Mehrwerte schaffen kann. Der Hype um "General AI" lenkt oft von den tatsächlichen Herausforderungen und den konkreten Anwendungsmöglichkeiten ab. Es geht darum, KI gezielt für spezifische Geschäftsprobleme einzusetzen und dabei die Compliance-Vorgaben von Anfang an zu integrieren, nicht nachträglich aufzusetzen.

Die hohe Bußgeldandrohung des EU AI Act und die strengen Anforderungen des DSG sind keine leeren Drohungen. Sie zwingen Unternehmen zu einer Professionalisierung im Umgang mit KI. Dies ist keine Belastung, sondern eine Chance: Wer jetzt seine Hausaufgaben macht, schafft Vertrauen, minimiert Risiken und positioniert sich als Vorreiter in der verantwortungsvollen KI-Nutzung. Wer zögert, riskiert nicht nur finanzielle Strafen, sondern auch einen Reputationsverlust und den Anschluss an eine sich rasant entwickelnde Arbeitswelt.

Fazit: Jetzt handeln für eine KI-gestützte Zukunft

Der DACH-Raum steht 2026 an einem kritischen Wendepunkt bei der KI-Adoption. Die Tage der reinen Experimente sind vorbei; es geht um die operative Umsetzung mit messbarem ROI und gleichzeitiger Einhaltung strenger regulatorischer Vorgaben. Während deutsche und österreichische Unternehmen vor allem die Compliance mit dem EU AI Act sicherstellen müssen, sind Schweizer Unternehmen gefordert, das bereits anwendbare, technologieneutrale DSG umfassend auf ihre KI-Nutzung zu adaptieren.

Der Erfolg wird maßgeblich davon abhängen, ob Unternehmen eine integrierte KI-Strategie entwickeln, die technische Implementierung, rechtliche Compliance (insbesondere EU AI Act und DSG), robuste Datensicherheit und ein proaktives Change Management miteinander verbindet. Dies erfordert nicht nur Investitionen in Technologie, sondern vor allem in die Befähigung der Mitarbeiter, die Neudefinition von Rollen und die Schaffung einer vertrauensvollen Governance-Struktur für den verantwortungsvollen Einsatz von KI. Nur so können die enormen Potenziale der KI zur Effizienzsteigerung, Kostenreduktion und Innovationsförderung voll ausgeschöpft werden, ohne dabei die Wettbewerbsfähigkeit und das Vertrauen von Kunden und Mitarbeitern zu gefährden. Unternehmen, die jetzt nicht handeln, riskieren nicht nur hohe Bußgelder, sondern auch den Verlust des Anschlusses in einer zunehmend KI-getriebenen Arbeitswelt. Handeln Sie jetzt und gestalten Sie die Zukunft Ihres Unternehmens aktiv mit.

Häufige Fragen

Welche Teile des EU AI Act sind bereits anwendbar?

Seit dem 2. Februar 2025 gelten das Verbot bestimmter manipulativer oder risikoreicher KI-Praktiken sowie die sogenannte KI-Kompetenzpflicht. Unternehmen müssen sicherstellen, dass Mitarbeiter, die mit KI arbeiten, entsprechend geschult sind und keine verbotenen Systeme einsetzen.

Was bedeutet 'Hochrisiko-KI-System' und wann sind die Pflichten dafür relevant?

Hochrisiko-KI-Systeme sind Anwendungen, die ein erhebliches Potenzial haben, die Gesundheit, Sicherheit oder Grundrechte von Personen zu beeinträchtigen, beispielsweise in HR, Kreditvergabe oder kritischen Infrastrukturen. Die umfassenden Pflichten hierfür werden ab dem 2. August 2026 wirksam und erfordern strenge Anforderungen an Risikomanagement, Datenqualität und Transparenz.

Wie wirkt sich das Schweizer Datenschutzgesetz (DSG) auf KI-Anwendungen aus?

Das revidierte DSG ist seit dem 1. September 2023 direkt auf KI-gestützte Datenbearbeitungen anwendbar. Es fordert Transparenzpflichten, das Recht auf menschliche Überprüfung bei automatisierten Einzelentscheidungen und eine Datenschutz-Folgenabschätzung bei hohem Risiko. Bestimmte privacy-verletzende KI-Praktiken sind auch nach DSG verboten.

Warum ist Change Management so wichtig bei der KI-Einführung?

Mitarbeiter zeigen oft Widerstand oder Angst vor Arbeitsplatzverlust und Überforderung durch KI. Effektives Change Management mit transparenter Kommunikation, frühzeitiger Einbindung und gezielten Schulungen ist entscheidend, um Akzeptanz zu schaffen, Ängste abzubauen und die Mitarbeiter als Partner im Digitalisierungsprozess zu gewinnen. Ohne dies scheitern viele KI-Projekte.

Was ist 'Shadow AI' und wie können Unternehmen dem begegnen?

'Shadow AI' bezeichnet die unautorisierte Nutzung von KI-Tools durch Mitarbeiter, oft mit privaten Accounts, was zu Sicherheitslücken und Compliance-Verstößen führt. Unternehmen sollten klare KI-Richtlinien einführen, sichere, offizielle Tools bereitstellen und eine zentrale Governance-Strategie etablieren, um die Kontrolle über Daten und KI-Nutzung zu behalten.

Bereit für Ihre KI-Transformation?

Lassen Sie uns in einem unverbindlichen Erstgespräch herausfinden, wie wir Ihr Unternehmen unterstützen können.

Erstgespräch vereinbaren →