Das Gesetz über künstliche Intelligenz (KI-Gesetz) der Europäischen Union ist eine wegweisende Verordnung, die die ethische und sichere Entwicklung, Einführung und Nutzung von KI-Technologien gewährleisten soll. Während sich Organisationen auf der ganzen Welt mit den Auswirkungen auseinandersetzen, ist es für Unternehmen entscheidend, die wichtigsten Bestimmungen und den Zeitplan zu verstehen, um konform und wettbewerbsfähig zu bleiben.
Dieser Artikel untersucht, wie sich das KI-Gesetz auf Schlüsselsektoren wie Finanzen, Technologie und HR auswirkt, und hebt kritische Termine hervor, auf die Sie sich vorbereiten müssen.
Das EU-KI-Gesetz verstehen
Das KI-Gesetz kategorisiert KI-Systeme auf der Grundlage ihres potenziellen Risikos und definiert Regeln und Anforderungen für jede Kategorie:
- Inakzeptables Risiko: KI-Systeme, die eine klare Bedrohung für die Sicherheit oder die Grundrechte darstellen, wie z.B. Social Scoring durch Regierungen, sind verboten.
- Hohes Risiko: Systeme, die in kritischen Bereichen wie Personalbeschaffung, Finanzdienstleistungen und Gesundheitswesen eingesetzt werden, unterliegen strengen Anforderungen, einschließlich Risikobewertungen, Transparenz und menschlicher Aufsicht.
- Begrenztes Risiko: KI-Systeme mit minimalen Risiken, wie z.B. Chatbots, müssen die grundlegenden Transparenzanforderungen erfüllen
- Minimales Risiko: Die meisten KI-Anwendungen für Verbraucher fallen in diese Kategorie und unterliegen keinen besonderen Anforderungen.
Für Unternehmen hat die Einstufung als hohes Risiko erhebliche Auswirkungen, da sie strenge Compliance-Maßnahmen erfordert.
Wichtige Daten
1. August 2024
Das AI-Gesetz ist in Kraft getreten und markiert den Beginn seiner schrittweisen Umsetzung.
2. Februar 2025
Ich bin der Inhalt der Timeline-Karte. Sie können mich jederzeit ändern. Klicken Sie hier, um diesen Text zu bearbeiten.
2. August 2025
Die Verpflichtungen für Anbieter von GPAI-Modellen (General Purpose AI) beginnen, ebenso wie die Anforderungen an die Mitgliedstaaten, die zuständigen nationalen Behörden zu benennen und Regeln für Sanktionen und Geldbußen festzulegen.
2. Februar 2026
Frist für die Kommission zur Vorlage von Leitlinien für die praktische Umsetzung der Regeln für KI-Systeme mit hohem Risiko, einschließlich eines Überwachungsplans nach dem Inverkehrbringen.
2. August 2026
Die meisten Bestimmungen des KI-Gesetzes, einschließlich derjenigen, die sich auf hochriskante KI-Systeme beziehen, treten vollständig in Kraft.
2. August 2027
Die Verpflichtungen für Hochrisikosysteme gelten für Produkte, die bereits einer Konformitätsbewertung durch Dritte unterzogen werden müssen. Dazu gehören Produkte wie Spielzeug, Funkgeräte, In-vitro-Medizinprodukte und landwirtschaftliche Fahrzeuge. GPAI-Systeme, die vor dem 2. August 2025 auf den Markt gebracht werden, fallen unter die Bestimmungen des Gesetzes.
31. Dezember 2030
KI-Systeme, die Bestandteile der in Anhang X aufgeführten IT-Großsysteme sind und die vor dem 2. August 2027 in Verkehr gebracht oder in Betrieb genommen wurden, müssen mit dem Gesetz in Einklang gebracht werden.
Was bedeutet das für Ihr Unternehmen?
1. Regulatorische Herausforderungen und Compliance
Das KI-Gesetz führt strenge Compliance-Anforderungen ein, insbesondere für Anwendungen mit hohem Risiko. Unternehmen müssen robuste Governance-Rahmenwerke entwickeln, um diese zu erfüllen:
- Daten-Transparenz: Sicherstellen, dass KI-Systeme auf vielfältigen und unvoreingenommenen Datensätzen trainiert werden.
- Rechenschaftspflicht: Dokumentation und Prüfpfade für KI-Entscheidungen.
- Menschliche Aufsicht: Einrichtung von Mechanismen für menschliches Eingreifen, wenn nötig.
Die Nichteinhaltung kann zu erheblichen Strafen von bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes führen, je nachdem, welcher Betrag höher ist. Für global tätige Unternehmen ist die Abstimmung von KI-Strategien über die verschiedenen Gerichtsbarkeiten hinweg entscheidend, um diese komplexe Regulierungslandschaft zu meistern.
2. Finanzdienstleistungen
Finanzinstitute, die KI für die Kreditwürdigkeitsprüfung, die Betrugserkennung oder die Anlageberatung nutzen, müssen mit einer verschärften Kontrolle rechnen. Das KI-Gesetz verlangt:
- Umfassende Risikobewertungen, um potenzielle Verzerrungen in Algorithmen zu erkennen.
- Transparente Kommunikation der Rolle von KI bei der Entscheidungsfindung, insbesondere bei kundenorientierten Anwendungen.
- Verbesserte Cybersicherheitsmaßnahmen, um die mit automatisierten Systemen verbundenen Risiken zu mindern.
Um wettbewerbsfähig zu bleiben, müssen Unternehmen ein Gleichgewicht zwischen Innovation und Einhaltung von Vorschriften finden und sicherstellen, dass KI-Tools einen Mehrwert bieten, ohne ethische Standards zu gefährden.
3. Technologie Sektor
Die Technologiebranche, die das Rückgrat der KI-Entwicklung bildet, muss sich an strengere Design- und Einsatzstandards anpassen. Die wichtigsten Auswirkungen sind:
- Erhöhte Kosten für die Entwicklung von KI-Systemen mit hohem Risiko, da die Einhaltung der Anforderungen des KI-Gesetzes umfangreiche Tests und Dokumentationen erfordert.
- Stärkere Betonung der Erklärbarkeit und Interpretierbarkeit von KI-Modellen, um sicherzustellen, dass die Beteiligten verstehen, wie Entscheidungen getroffen werden.
- Zusammenarbeit mit den Regulierungsbehörden, um Richtlinien zu verfeinern und Unklarheiten im Gesetz zu beseitigen.
4. Personalwesen
KI-gestützte Tools für die Rekrutierung, Überwachung von Mitarbeitern und Leistungsbewertung werden im Rahmen des Gesetzes als hochriskant eingestuft. Viele Unternehmen verwenden Screening-Tools von Dritten, die KI-Analysen enthalten. Allerdings wissen viele Unternehmen möglicherweise nicht genau, wie diese Tools funktionieren. Wenn ein Mitarbeiter nachweisen kann, dass er infolge der Verwendung dieser KI-Tools belästigt oder misshandelt wurde, wäre das Unternehmen – und nicht der Anbieter des Tools – einem möglichen Rechtsstreit ausgesetzt. Hinzu kommt, dass alle KI-Tools, die zur Überwachung des Mitarbeiterverhaltens eingesetzt werden, selbst solche, die scheinbar so harmlos sind wie die Zeiterfassung, wahrscheinlich unter die Kontrolle der bestehenden Vorschriften fallen würden.
Arbeitgeber müssen:
- Führen Sie regelmäßige Audits durch, um sicherzustellen, dass die KI-Systeme keine Diskriminierung aufrechterhalten.
- Geben Sie Bewerbern und Mitarbeitern klare Informationen über die Rolle von KI in Entscheidungsprozessen.
- Implementieren Sie Prozesse für die menschliche Aufsicht, um KI-gesteuerte Entscheidungen zu überprüfen und in Frage zu stellen.
Schritte zur Vorbereitung auf den EU AI Act
- Führen Sie eine KI-Bestandsaufnahme durch: Identifizieren Sie alle im Einsatz befindlichen KI-Systeme und bewerten Sie ihre Klassifizierung gemäß dem KI-Gesetz.
- Stärken Sie die Governance: Richten Sie funktionsübergreifende Teams ein, um die Einhaltung der KI-Richtlinien zu überwachen, und beziehen Sie rechtliche, technische und operative Interessenvertreter ein.
- Aufsicht auf Vorstandsebene: KI-Governance wird aufgrund des hohen Risikos der Nichteinhaltung ein Thema für den Vorstand sein, und die Aufsicht auf Vorstandsebene ist unerlässlich.
- Ziehen Sie Experten hinzu: Lassen Sie sich von AI-Ethikberatern und Rechtsberatern beraten, um die Bestimmungen des Gesetzes effektiv auszulegen und anzuwenden.
- Investieren Sie in Schulungen: Klären Sie Ihre Mitarbeiter über die Auswirkungen des KI-Gesetzes auf und fördern Sie eine Kultur der ethischen Nutzung von KI.
- Verfolgen Sie die Entwicklungen: Bleiben Sie auf dem Laufenden über die Aktualisierungen des Gesetzes und der damit verbundenen Vorschriften, um Änderungen zu antizipieren und sich darauf einzustellen.
Die EU wird Anfang August 2026 eine Datenbank mit Hochrisikosystemen einrichten. Ein weiterer vorbereitender Schritt in Bezug auf das KI-Inventar ist die spezifische Überprüfung und Kategorisierung aller im Einsatz befindlichen Hochrisikosysteme und die Zusammenarbeit mit den Anbietern, um zu verstehen, wie sie auf die Verpflichtungen des Gesetzes reagieren wollen.
Die Beschaffung von KI-Tools im Allgemeinen sollte ebenfalls überprüft werden, und es sollten bereits lange vor der vollständigen Umsetzung des Gesetzes Standards eingeführt werden. Darin könnten zum Beispiel spezielle Prüfungsanforderungen für KI-Toolsvon Drittanbietern festgelegt werden.
Ein weiterer Punkt ist, dass die EU zwar über ein eigenes Gesetz verfügt, es aber auch grenzüberschreitende Probleme geben wird, da andere Länder ihre eigenen regulatorischen Anforderungen festlegen, und natürlich ist eine vollständige Angleichung unwahrscheinlich. Die Überprüfung durch mehrere Gerichtsbarkeiten ist ein Problem.
Fazit
Das KI-Gesetz stellt einen tiefgreifenden Wandel in der Regulierung von KI dar und hat weitreichende Auswirkungen auf Unternehmen aller Branchen. Wenn Unternehmen die Anforderungen des Gesetzes verstehen und sich proaktiv darauf vorbereiten, können sie nicht nur Risiken minimieren, sondern sich auch als Vorreiter bei der ethischen Einführung von KI positionieren. Da die wichtigsten Termine näher rücken, ist es jetzt an der Zeit zu handeln.
Quelle: https://artificialintelligenceact.eu/
Um zu besprechen, wie Sie Ihr Unternehmen zukunftssicher machen können, wenden Sie sich bitte an Adriaan Hugo, Managing Director, in unserer Beratungspraxis für Veränderungen