Home / Glossar-Begriff / EU AI Act

EU AI Act

Der EU AI Act ist ein Gesetzesvorschlag der EU zur Regulierung von Künstlicher Intelligenz basierend auf einem risikobasierten Ansatz.

Einleitung und Hintergrund

Der EU AI Act ist der erste umfassende Gesetzesentwurf zur Regulierung von Künstlicher Intelligenz (KI) auf internationaler Ebene. Er wurde von der Europäischen Kommission im April 2021 vorgeschlagen und zielt darauf ab, eine vertrauenswürdige, sichere und menschenzentrierte Entwicklung und Nutzung von KI-Systemen innerhalb der Europäischen Union sicherzustellen. Der Rechtsrahmen basiert auf einem risikobasierten Ansatz, bei dem KI-Systeme in verschiedene Risikokategorien eingeteilt werden – von unannehmbar bis minimal.

Ziele und Motivation des EU AI Acts

Die primären Ziele des Gesetzes sind:

  • Die Förderung von Innovation durch klare Regeln
  • Die Gewährleistung der Sicherheit und Grundrechte von Bürger:innen
  • Die Schaffung eines einheitlichen europäischen Marktes für KI
  • Die Sicherstellung der Transparenz und Nachvollziehbarkeit von KI-Systemen

Der Entwurf des EU AI Acts orientiert sich stark an bestehenden Regularien wie der Datenschutz-Grundverordnung (DSGVO) und ergänzt diese um KI-spezifische Aspekte.

Zentrale Prinzipien des Gesetzes

Das Herzstück des EU AI Acts ist der risikobasierte Ansatz. Anstatt jede KI-Anwendung gleich zu behandeln, unterscheidet der Gesetzesentwurf zwischen verschiedenen Risikostufen. Je höher das Risiko, das ein KI-System für die Gesellschaft oder Einzelpersonen darstellt, desto strenger sind die regulatorischen Anforderungen.

4 Kategorien der Risiken

Die zentrale Struktur des EU AI Acts ist die Einteilung von KI-Systemen in vier Risikoklassen:

1. Unannehmbares Risiko

KI-Systeme, die als Bedrohung für Sicherheit, Lebensgrundlagen oder Rechte gelten, werden vollständig verboten. Dazu gehören etwa soziale Bewertungssysteme oder KI-gestützte Manipulation von Verhalten.

2. Hohes Risiko

Dazu zählen Systeme in sicherheitskritischen Bereichen wie Gesundheitswesen, Verkehr, Bildung oder Strafverfolgung. Sie unterliegen strengen Anforderungen wie Dokumentationspflichten, Transparenz, menschlicher Aufsicht und Risikomanagement.

3. Begrenztes Risiko

Hierzu zählen z. B. Chatbots oder emotionserkennende Systeme. Diese Systeme müssen bestimmte Transparenzanforderungen erfüllen, etwa Hinweise darauf, dass Nutzer mit einer KI interagieren.

4. Minimales oder kein Risiko

Die große Mehrheit der KI-Anwendungen fällt in diese Kategorie. Für diese Systeme sind keine besonderen Anforderungen vorgesehen.

Pflichten für Anbieter und Betreiber

Der EU AI Act legt umfangreiche Pflichten für Anbieter (Hersteller) und Betreiber (Anwender) von KI-Systemen fest. Dazu gehören unter anderem:

  • Risikobewertungen und Konformitätsbewertungen vor dem Inverkehrbringen
  • Transparente Dokumentation und Bereitstellung von Informationen
  • Einrichtung von Überwachungssystemen und Verfahren zur Fehlerbehebung
  • Verpflichtung zur Registrierung bestimmter KI-Systeme in einer EU-weiten Datenbank

Durchsetzung und Sanktionen

Zur Durchsetzung des Gesetzes sind nationale Marktüberwachungsbehörden vorgesehen, ergänzt durch eine zentrale europäische KI-Behörde. Verstöße gegen den EU AI Act können mit empfindlichen Geldbußen geahndet werden – vergleichbar mit denen der DSGVO. Die Maximalstrafe beträgt bis zu 30 Millionen Euro oder 6 Prozent des weltweiten Jahresumsatzes eines Unternehmens.

Kritik und Herausforderungen

Der EU AI Act wird international beachtet, aber auch kritisch hinterfragt. Kritisiert wird unter anderem:

  • Mögliche Innovationshemmnisse für kleinere Unternehmen und Start-ups
  • Die hohe Komplexität und Bürokratie für Hochrisiko-Systeme
  • Unklare Definitionen und Abgrenzungen von KI und Risiko-Kategorien

Gleichzeitig wird der EU AI Act als richtungsweisender Schritt begrüßt, der globale Standards setzen könnte – ähnlich wie die DSGVO im Datenschutz.

Ausblick und aktueller Stand

Im März 2024 wurde der EU AI Act vom Europäischen Parlament final verabschiedet. Nach Inkrafttreten beginnt eine Übergangsphase von mehreren Jahren, in der Unternehmen und Behörden Zeit zur Umsetzung der Vorschriften erhalten. Erste Teile treten bereits 2025 in Kraft, die vollständige Gültigkeit wird für 2026 erwartet.

Fazit

Der EU AI Act markiert einen Meilenstein in der weltweiten KI-Regulierung. Er soll den Spagat schaffen zwischen Förderung von Innovation und Schutz grundlegender Rechte. Für Unternehmen bedeutet das: sorgfältige Analyse ihrer KI-Systeme, Compliance-Maßnahmen und gegebenenfalls strategische Anpassung ihrer Produkte und Dienstleistungen an den neuen Rechtsrahmen.

Weiteres IT-Wissen in unserem Blog

News

Gib hier deine Überschrift ein

12systems

Sie möchten ein Beratungsgespräch?