Das Gesetz über künstliche Intelligenz (KI-Gesetz) der Europäischen Union ist eine wegweisende Verordnung, die die ethische und sichere Entwicklung, Einführung und Nutzung von KI-Technologien gewährleisten soll. Während sich Organisationen auf der ganzen Welt mit den Auswirkungen auseinandersetzen, ist es für Unternehmen entscheidend, die wichtigsten Bestimmungen und den Zeitplan zu verstehen, um konform und wettbewerbsfähig zu bleiben.
Dieser Artikel untersucht, wie sich das KI-Gesetz auf Schlüsselsektoren wie Finanzen, Technologie und HR auswirkt, und hebt kritische Termine hervor, auf die Sie sich vorbereiten müssen.
Das EU-KI-Gesetz verstehen
Das KI-Gesetz kategorisiert KI-Systeme auf der Grundlage ihres potenziellen Risikos und definiert Regeln und Anforderungen für jede Kategorie:
- Inakzeptables Risiko: KI-Systeme, die eine klare Bedrohung für die Sicherheit oder die Grundrechte darstellen, wie z.B. Social Scoring durch Regierungen, sind verboten.
- Hohes Risiko: Systeme, die in kritischen Bereichen wie Personalbeschaffung, Finanzdienstleistungen und Gesundheitswesen eingesetzt werden, unterliegen strengen Anforderungen, einschließlich Risikobewertungen, Transparenz und menschlicher Aufsicht.
- Begrenztes Risiko: KI-Systeme mit minimalen Risiken, wie z.B. Chatbots, müssen die grundlegenden Transparenzanforderungen erfüllen
- Minimales Risiko: Die meisten KI-Anwendungen für Verbraucher fallen in diese Kategorie und unterliegen keinen besonderen Anforderungen.
Für Unternehmen hat die Einstufung als hohes Risiko erhebliche Auswirkungen, da sie strenge Compliance-Maßnahmen erfordert.
Wichtige Daten
1 August 2024
The AI Act entered into force, marking the beginning of its phased implementation.
2 February 2025
Prohibitions on certain AI systems deemed to pose unacceptable risks became applicable.
2 August 2025
Obligations for providers of General Purpose AI (GPAI) models commence, alongside requirements for Member States to designate national competent authorities and establish rules for penalties and fines.
2 February 2026
Deadline for Commission to provide guidelines specifying the practical implementation of Rules for High-Risk AI Systems, including post-market monitoring plan.
2 August 2026
The majority of the AI Act’s provisions, including those related to high-risk AI systems, come into full effect.
2 August 2027
Obligations on high-risk systems apply to products already required to undergo third-party conformity assessments. This includes products such as toys, radio equipment, in-vitro medical devices, and agricultural vehicles. GPAI systems placed on the market before 2 August 2025 become subject to the Act’s provisions.
31 December 2030
AI systems that are components of the large-scale IT systems listed in Annex X that have been placed on the market or put into service before 2 August 2027 must be brought into compliance with the Act.
Was bedeutet das für Ihr Unternehmen?
1. Regulatorische Herausforderungen und Compliance
Das KI-Gesetz führt strenge Compliance-Anforderungen ein, insbesondere für Anwendungen mit hohem Risiko. Unternehmen müssen robuste Governance-Rahmenwerke entwickeln, um diese zu erfüllen:
- Daten-Transparenz: Sicherstellen, dass KI-Systeme auf vielfältigen und unvoreingenommenen Datensätzen trainiert werden.
- Rechenschaftspflicht: Dokumentation und Prüfpfade für KI-Entscheidungen.
- Menschliche Aufsicht: Einrichtung von Mechanismen für menschliches Eingreifen, wenn nötig.
Die Nichteinhaltung kann zu erheblichen Strafen von bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes führen, je nachdem, welcher Betrag höher ist. Für global tätige Unternehmen ist die Abstimmung von KI-Strategien über die verschiedenen Gerichtsbarkeiten hinweg entscheidend, um diese komplexe Regulierungslandschaft zu meistern.
2. Finanzdienstleistungen
Finanzinstitute, die KI für die Kreditwürdigkeitsprüfung, die Betrugserkennung oder die Anlageberatung nutzen, müssen mit einer verschärften Kontrolle rechnen. Das KI-Gesetz verlangt:
- Umfassende Risikobewertungen, um potenzielle Verzerrungen in Algorithmen zu erkennen.
- Transparente Kommunikation der Rolle von KI bei der Entscheidungsfindung, insbesondere bei kundenorientierten Anwendungen.
- Verbesserte Cybersicherheitsmaßnahmen, um die mit automatisierten Systemen verbundenen Risiken zu mindern.
Um wettbewerbsfähig zu bleiben, müssen Unternehmen ein Gleichgewicht zwischen Innovation und Einhaltung von Vorschriften finden und sicherstellen, dass KI-Tools einen Mehrwert bieten, ohne ethische Standards zu gefährden.
3. Technologie Sektor
Die Technologiebranche, die das Rückgrat der KI-Entwicklung bildet, muss sich an strengere Design- und Einsatzstandards anpassen. Die wichtigsten Auswirkungen sind:
- Erhöhte Kosten für die Entwicklung von KI-Systemen mit hohem Risiko, da die Einhaltung der Anforderungen des KI-Gesetzes umfangreiche Tests und Dokumentationen erfordert.
- Stärkere Betonung der Erklärbarkeit und Interpretierbarkeit von KI-Modellen, um sicherzustellen, dass die Beteiligten verstehen, wie Entscheidungen getroffen werden.
- Zusammenarbeit mit den Regulierungsbehörden, um Richtlinien zu verfeinern und Unklarheiten im Gesetz zu beseitigen.
4. Personalwesen
KI-gestützte Tools für die Rekrutierung, Überwachung von Mitarbeitern und Leistungsbewertung werden im Rahmen des Gesetzes als hochriskant eingestuft. Viele Unternehmen verwenden Screening-Tools von Dritten, die KI-Analysen enthalten. Allerdings wissen viele Unternehmen möglicherweise nicht genau, wie diese Tools funktionieren. Wenn ein Mitarbeiter nachweisen kann, dass er infolge der Verwendung dieser KI-Tools belästigt oder misshandelt wurde, wäre das Unternehmen – und nicht der Anbieter des Tools – einem möglichen Rechtsstreit ausgesetzt. Hinzu kommt, dass alle KI-Tools, die zur Überwachung des Mitarbeiterverhaltens eingesetzt werden, selbst solche, die scheinbar so harmlos sind wie die Zeiterfassung, wahrscheinlich unter die Kontrolle der bestehenden Vorschriften fallen würden.
Arbeitgeber müssen:
- Führen Sie regelmäßige Audits durch, um sicherzustellen, dass die KI-Systeme keine Diskriminierung aufrechterhalten.
- Geben Sie Bewerbern und Mitarbeitern klare Informationen über die Rolle von KI in Entscheidungsprozessen.
- Implementieren Sie Prozesse für die menschliche Aufsicht, um KI-gesteuerte Entscheidungen zu überprüfen und in Frage zu stellen.
Schritte zur Vorbereitung auf den EU AI Act
- Führen Sie eine KI-Bestandsaufnahme durch: Identifizieren Sie alle im Einsatz befindlichen KI-Systeme und bewerten Sie ihre Klassifizierung gemäß dem KI-Gesetz.
- Stärken Sie die Governance: Richten Sie funktionsübergreifende Teams ein, um die Einhaltung der KI-Richtlinien zu überwachen, und beziehen Sie rechtliche, technische und operative Interessenvertreter ein.
- Aufsicht auf Vorstandsebene: KI-Governance wird aufgrund des hohen Risikos der Nichteinhaltung ein Thema für den Vorstand sein, und die Aufsicht auf Vorstandsebene ist unerlässlich.
- Ziehen Sie Experten hinzu: Lassen Sie sich von AI-Ethikberatern und Rechtsberatern beraten, um die Bestimmungen des Gesetzes effektiv auszulegen und anzuwenden.
- Investieren Sie in Schulungen: Klären Sie Ihre Mitarbeiter über die Auswirkungen des KI-Gesetzes auf und fördern Sie eine Kultur der ethischen Nutzung von KI.
- Verfolgen Sie die Entwicklungen: Bleiben Sie auf dem Laufenden über die Aktualisierungen des Gesetzes und der damit verbundenen Vorschriften, um Änderungen zu antizipieren und sich darauf einzustellen.
Die EU wird Anfang August 2026 eine Datenbank mit Hochrisikosystemen einrichten. Ein weiterer vorbereitender Schritt in Bezug auf das KI-Inventar ist die spezifische Überprüfung und Kategorisierung aller im Einsatz befindlichen Hochrisikosysteme und die Zusammenarbeit mit den Anbietern, um zu verstehen, wie sie auf die Verpflichtungen des Gesetzes reagieren wollen.
Die Beschaffung von KI-Tools im Allgemeinen sollte ebenfalls überprüft werden, und es sollten bereits lange vor der vollständigen Umsetzung des Gesetzes Standards eingeführt werden. Darin könnten zum Beispiel spezielle Prüfungsanforderungen für KI-Toolsvon Drittanbietern festgelegt werden.
Ein weiterer Punkt ist, dass die EU zwar über ein eigenes Gesetz verfügt, es aber auch grenzüberschreitende Probleme geben wird, da andere Länder ihre eigenen regulatorischen Anforderungen festlegen, und natürlich ist eine vollständige Angleichung unwahrscheinlich. Die Überprüfung durch mehrere Gerichtsbarkeiten ist ein Problem.
Fazit
Das KI-Gesetz stellt einen tiefgreifenden Wandel in der Regulierung von KI dar und hat weitreichende Auswirkungen auf Unternehmen aller Branchen. Wenn Unternehmen die Anforderungen des Gesetzes verstehen und sich proaktiv darauf vorbereiten, können sie nicht nur Risiken minimieren, sondern sich auch als Vorreiter bei der ethischen Einführung von KI positionieren. Da die wichtigsten Termine näher rücken, ist es jetzt an der Zeit zu handeln.
Quelle: https://artificialintelligenceact.eu/