Was regelt der EU AI Act?
Die Europäische Union hat den AI Act eingeführt, um potenzielle Risiken im Zusammenhang mit dem Einsatz von KI zu minimieren. Bedenken bestehen beispielsweise dahingehend, dass KI-Systeme diskriminieren oder Entscheidungen treffen könnten, die ethische Grundsätze verletzen. Der EU AI Act verfolgt daher einen risikobasierten Ansatz, der KI-Anwendungen in verschiedene Risikoklassen einteilt und entsprechende Anforderungen stellt.
Dieser Ansatz bietet eine Struktur, die sowohl Sicherheit als auch Innovation fördern soll. Während KI-Technologien enormes Potenzial zur Verbesserung von Effizienz, Produktivität und Kundenservice bieten, ist es ebenso wichtig, dass ihre Nutzung verantwortungsvoll erfolgt. Hier setzt der EU AI Act an, indem er eine Balance zwischen technologischem Fortschritt und der Minimierung potenzieller negativer Auswirkungen schafft.
Risikoklassifizierung von KI-Systemen
Der EU AI Act unterscheidet zwischen vier Risikoklassen:
- Unannehmbares Risiko: KI-Systeme, die gegen ethische Grundsätze verstoßen, wie Social-Scoring-Systeme, sind verboten. Diese Systeme bergen ein hohes Risiko für Grundrechte und gesellschaftliche Werte und sind daher nicht zulässig.
- Hohes Risiko: Anwendungen, die signifikante Auswirkungen auf Gesundheit, Sicherheit oder Grundrechte haben, unterliegen strengen Anforderungen. Beispiele sind KI-Systeme in Bereichen wie Gesundheitswesen, Bildung oder Strafverfolgung. Diese Systeme müssen strenge technische und organisatorische Maßnahmen erfüllen, um ihre Sicherheit und Zuverlässigkeit zu gewährleisten.
- Begrenztes Risiko: Systeme mit geringem Risiko, wie Chatbots, müssen Transparenzpflichten erfüllen. Nutzer müssen darüber informiert werden, dass sie mit einer KI interagieren, um Missverständnisse zu vermeiden.
- Minimales Risiko: Anwendungen wie Spamfilter, die kaum Risiken bergen, unterliegen keinen spezifischen Anforderungen. Hier empfiehlt der AI Act jedoch freiwillige Verhaltenskodizes, um den verantwortungsvollen Einsatz zu fördern.
Diese Differenzierung erleichtert es Unternehmen, die für sie relevanten Vorschriften zu identifizieren und umzusetzen. Gleichzeitig wird sichergestellt, dass die Regulierung nicht innovationshemmend wirkt.
Pflichten für Unternehmen
Unternehmen, die KI-Systeme entwickeln oder nutzen, müssen je nach Risikoklasse verschiedene Verpflichtungen erfüllen:
- Anbieter: Unternehmen, die KI-Systeme entwickeln oder unter eigenem Namen vermarkten, müssen sicherstellen, dass ihre Systeme den festgelegten Anforderungen entsprechen. Dies umfasst unter anderem die Durchführung von Risikobewertungen und die Bereitstellung detaillierter technischer Dokumentationen.
- Betreiber: Unternehmen, die KI-Systeme in ihren Prozessen einsetzen, sind dafür verantwortlich, diese gemäß den Vorgaben zu nutzen und regelmäßig zu überwachen. Dazu gehört auch die Schulung von Mitarbeitern im sicheren Umgang mit KI-Systemen.
- Produkthersteller: Hersteller, die KI als Bestandteil ihrer Produkte integrieren, müssen die Konformität des gesamten Produkts sicherstellen. Dies ist besonders relevant in Branchen wie der Automobil- oder Medizintechnik.
Besonders für Hochrisiko-KI-Systeme sind umfangreiche Compliance-Maßnahmen erforderlich, darunter strenge Qualitäts- und Transparenzanforderungen sowie regelmäßige Überprüfungen. Diese Maßnahmen sollen sicherstellen, dass die Systeme zuverlässig und sicher funktionieren.
Übergangsfristen und Handlungsbedarf
Obwohl der AI Act am 1. August 2024 in Kraft getreten ist, gelten für bestimmte Bestimmungen Übergangsfristen. So sind beispielsweise KI-Anwendungen mit unannehmbarem Risiko seit dem 2. Februar 2025 verboten. Für Hochrisiko-KI-Systeme treten die entsprechenden Regelungen am 2. August 2026 in Kraft.
Dennoch sollten Unternehmen bereits jetzt aktiv werden, um die notwendigen Anpassungen vorzunehmen. Dazu gehört die Identifikation von betroffenen KI-Systemen, die Durchführung von Risikobewertungen sowie die Implementierung geeigneter Compliance-Maßnahmen.
Pflicht zur Kompetenzvermittlung
Laut Artikel 4 des AI Acts sind Unternehmen bis zum 2. Februar 2025 dazu verpflichtet, alle Mitarbeiter, die an der Entwicklung, Implementierung oder Nutzung von KI-Systemen beteiligt sind, umfassend zu schulen. Diese Schulungen sind unabhängig von der Risikoklassifizierung der Systeme und sollen sicherstellen, dass alle Mitarbeitenden über die technischen Grundlagen, potenzielle Risiken sowie die sichere und ethische Nutzung von KI-Systemen aufgeklärt werden.
Unternehmen müssen Schulungsprogramme entwickeln und praxisnahe Trainings durchführen, die speziell auf die jeweilige Rolle der Mitarbeitenden zugeschnitten sind. Zu den zentralen Inhalten gehören Best Practices zur Nutzung von KI, insbesondere bei Anwendungen mit hoher Verantwortung, sowie regelmäßige Auffrischungen, um sicherzustellen, dass die Mitarbeitenden stets auf dem neuesten Stand der Technik und der Vorschriften bleiben.
Diese Maßnahmen dienen nicht nur der Erfüllung gesetzlicher Anforderungen, sondern tragen auch entscheidend zur verantwortungsvollen Nutzung von KI-Technologien bei. Durch die regelmäßige Umsetzung solcher Programme wird langfristige Nachhaltigkeit gewährleistet und ein sicherer Umgang mit KI-Systemen gefördert.