Was Unternehmen jetzt über verantwortungsvolle KI-Nutzung wissen und tun müssen

Der EU AI Act: Neue Regeln für Künstliche Intelligenz in Europa

SAI Schulung EU AI Act 1920x1080px web

Lesezeit: 4 Minuten

Die rasante Entwicklung der Künstlichen Intelligenz (KI) bietet Unternehmen immense Chancen, stellt sie jedoch auch vor neue regulatorische Herausforderungen. Mit dem Inkrafttreten des Artificial Intelligence Act (AI Act) der Europäischen Union am 1. August 2024 sind klare Rahmenbedingungen geschaffen worden, um vertrauenswürdige und verantwortungsvolle KI-Innovationen in Europa zu fördern. Für Unternehmen, insbesondere in der Pharmaindustrie, ist es essenziell, die Anforderungen des AI Acts zu verstehen und umzusetzen, um Compliance sicherzustellen und Wettbewerbsvorteile zu nutzen.

Was regelt der EU AI Act?

Die Europäische Union hat den AI Act eingeführt, um potenzielle Risiken im Zusammenhang mit dem Einsatz von KI zu minimieren. Bedenken bestehen beispielsweise dahingehend, dass KI-Systeme diskriminieren oder Entscheidungen treffen könnten, die ethische Grundsätze verletzen. Der EU AI Act verfolgt daher einen risikobasierten Ansatz, der KI-Anwendungen in verschiedene Risikoklassen einteilt und entsprechende Anforderungen stellt.

Dieser Ansatz bietet eine Struktur, die sowohl Sicherheit als auch Innovation fördern soll. Während KI-Technologien enormes Potenzial zur Verbesserung von Effizienz, Produktivität und Kundenservice bieten, ist es ebenso wichtig, dass ihre Nutzung verantwortungsvoll erfolgt. Hier setzt der EU AI Act an, indem er eine Balance zwischen technologischem Fortschritt und der Minimierung potenzieller negativer Auswirkungen schafft.

Risikoklassifizierung von KI-Systemen

Der EU AI Act unterscheidet zwischen vier Risikoklassen:

  1. Unannehmbares Risiko: KI-Systeme, die gegen ethische Grundsätze verstoßen, wie Social-Scoring-Systeme, sind verboten. Diese Systeme bergen ein hohes Risiko für Grundrechte und gesellschaftliche Werte und sind daher nicht zulässig.
  2. Hohes Risiko: Anwendungen, die signifikante Auswirkungen auf Gesundheit, Sicherheit oder Grundrechte haben, unterliegen strengen Anforderungen. Beispiele sind KI-Systeme in Bereichen wie Gesundheitswesen, Bildung oder Strafverfolgung. Diese Systeme müssen strenge technische und organisatorische Maßnahmen erfüllen, um ihre Sicherheit und Zuverlässigkeit zu gewährleisten.
  3. Begrenztes Risiko: Systeme mit geringem Risiko, wie Chatbots, müssen Transparenzpflichten erfüllen. Nutzer müssen darüber informiert werden, dass sie mit einer KI interagieren, um Missverständnisse zu vermeiden.
  4. Minimales Risiko: Anwendungen wie Spamfilter, die kaum Risiken bergen, unterliegen keinen spezifischen Anforderungen. Hier empfiehlt der AI Act jedoch freiwillige Verhaltenskodizes, um den verantwortungsvollen Einsatz zu fördern.

Diese Differenzierung erleichtert es Unternehmen, die für sie relevanten Vorschriften zu identifizieren und umzusetzen. Gleichzeitig wird sichergestellt, dass die Regulierung nicht innovationshemmend wirkt.

Pflichten für Unternehmen

Unternehmen, die KI-Systeme entwickeln oder nutzen, müssen je nach Risikoklasse verschiedene Verpflichtungen erfüllen:

  • Anbieter: Unternehmen, die KI-Systeme entwickeln oder unter eigenem Namen vermarkten, müssen sicherstellen, dass ihre Systeme den festgelegten Anforderungen entsprechen. Dies umfasst unter anderem die Durchführung von Risikobewertungen und die Bereitstellung detaillierter technischer Dokumentationen.
  • Betreiber: Unternehmen, die KI-Systeme in ihren Prozessen einsetzen, sind dafür verantwortlich, diese gemäß den Vorgaben zu nutzen und regelmäßig zu überwachen. Dazu gehört auch die Schulung von Mitarbeitern im sicheren Umgang mit KI-Systemen.
  • Produkthersteller: Hersteller, die KI als Bestandteil ihrer Produkte integrieren, müssen die Konformität des gesamten Produkts sicherstellen. Dies ist besonders relevant in Branchen wie der Automobil- oder Medizintechnik.

Besonders für Hochrisiko-KI-Systeme sind umfangreiche Compliance-Maßnahmen erforderlich, darunter strenge Qualitäts- und Transparenzanforderungen sowie regelmäßige Überprüfungen. Diese Maßnahmen sollen sicherstellen, dass die Systeme zuverlässig und sicher funktionieren.

Übergangsfristen und Handlungsbedarf

Obwohl der AI Act am 1. August 2024 in Kraft getreten ist, gelten für bestimmte Bestimmungen Übergangsfristen. So sind beispielsweise KI-Anwendungen mit unannehmbarem Risiko seit dem 2. Februar 2025 verboten. Für Hochrisiko-KI-Systeme treten die entsprechenden Regelungen am 2. August 2026 in Kraft.

Dennoch sollten Unternehmen bereits jetzt aktiv werden, um die notwendigen Anpassungen vorzunehmen. Dazu gehört die Identifikation von betroffenen KI-Systemen, die Durchführung von Risikobewertungen sowie die Implementierung geeigneter Compliance-Maßnahmen.

Pflicht zur Kompetenzvermittlung

Laut Artikel 4 des AI Acts sind Unternehmen bis zum 2. Februar 2025 dazu verpflichtet, alle Mitarbeiter, die an der Entwicklung, Implementierung oder Nutzung von KI-Systemen beteiligt sind, umfassend zu schulen. Diese Schulungen sind unabhängig von der Risikoklassifizierung der Systeme und sollen sicherstellen, dass alle Mitarbeitenden über die technischen Grundlagen, potenzielle Risiken sowie die sichere und ethische Nutzung von KI-Systemen aufgeklärt werden.

Unternehmen müssen Schulungsprogramme entwickeln und praxisnahe Trainings durchführen, die speziell auf die jeweilige Rolle der Mitarbeitenden zugeschnitten sind. Zu den zentralen Inhalten gehören Best Practices zur Nutzung von KI, insbesondere bei Anwendungen mit hoher Verantwortung, sowie regelmäßige Auffrischungen, um sicherzustellen, dass die Mitarbeitenden stets auf dem neuesten Stand der Technik und der Vorschriften bleiben.

Diese Maßnahmen dienen nicht nur der Erfüllung gesetzlicher Anforderungen, sondern tragen auch entscheidend zur verantwortungsvollen Nutzung von KI-Technologien bei. Durch die regelmäßige Umsetzung solcher Programme wird langfristige Nachhaltigkeit gewährleistet und ein sicherer Umgang mit KI-Systemen gefördert.

Schulungsangebot von Smile AI

Um Unternehmen bei der Umsetzung der Anforderungen des AI Acts zu unterstützen, bietet Smile AI praxisorientierte Schulungen an. Diese Schulungen vermitteln die wesentlichen Inhalte des AI Acts und zeigen konkrete Schritte zur Compliance-Umsetzung auf. Unternehmen profitieren von branchenspezifischen Beispielen und erhalten wertvolle Hinweise zur praktischen Anwendung der neuen Vorschriften.

Durch die Teilnahme an den Schulungen stellen Unternehmen sicher, dass ihre Mitarbeiter bestens auf die Anforderungen des AI Acts vorbereitet sind und die Compliance-Vorgaben fristgerecht erfüllen.

» Schulung buchen

Summary

  • Ziel des EU AI Act: Innovation in der Künstlichen Intelligenz fördern und gleichzeitig Sicherheit und ethische Grundsätze gewährleisten.
  • Risikobasierter Ansatz: KI-Systeme werden in vier Risikoklassen eingeteilt (unannehmbar, hoch, begrenzt, minimal), mit jeweils spezifischen Anforderungen.
  • Klare Verantwortlichkeiten: Der AI Act definiert klare Pflichten für Anbieter, Betreiber und Hersteller von KI-Systemen.
  • Schulungspflicht: Bis zum 2. Februar 2025 müssen Unternehmen alle Mitarbeiter schulen, die mit KI-Systemen arbeiten.
  • Frühzeitige Vorbereitung: Unternehmen sollten sich jetzt mit dem AI Act auseinandersetzen und notwendige Maßnahmen umsetzen.
  • Schulungsangebote: Angebote wie die von Smile AI unterstützen Unternehmen bei der Schulung ihrer Mitarbeiter und der Umsetzung des AI Acts.

Kim tmp

Du möchtest mehr Informationen zu diesem Thema?

Dann wende Dich direkt an Kim Lander, Head of E-Commerce & Business Development:

Mail: kim.lander@smileai.de
Mobil: +49 177 1946883
Sind wir schon auf LinkedIn vernetzt?

oder wende Dich gerne an unser Team.

Das Smile AI Team kontaktieren

Smile AI GmbH
Sonnenstraße 14
80331 München
Telefon +49 89 242156500

info@smileai.de