Das neue KI-Gesetz

Das Europäische Parlament hat am 14. Juni 2023 mit eindeutiger Mehrheit eine neue Verordnung zur künstlichen Intelligenz, den AI Act, beschlossen. Die Verordnung soll frühestens 2026 in Kraft treten. Die Künstliche Intelligenz (KI) oder englisch Artificial Intelligence, kurz AI, erfasst immer mehr Bereiche des täglichen Lebens.

KI kann in vielen Bereichen nützlich sein und Unterstützung bieten. Gefahren bestehen jedoch in der Manipulation von außen und im Missbrauch des Datenschutzes.

Das neue KI-Gesetz

Inhalte des neuen KI-Gesetzes

Das neue KI-Gesetz (AI Act) der Europäischen Union ist das weltweit erste umfassende Regelwerk zur Künstlichen Intelligenz. Es trat am 1. August 2024 in Kraft, wobei die Bestimmungen stufenweise in den nächsten Jahren wirksam werden. Ziel ist es, die Risiken von KI zu mindern, Innovationen zu fördern und die Grundrechte der Bürger zu schützen.

Download: AI Act der Europäischen Union –  Regeln für vertrauenswürdige KI   – PDF

Die zentralen Inhalte lassen sich wie folgt zusammenfassen:

  1. Risikobasierter Ansatz:

Das Gesetz klassifiziert KI-Systeme nach ihrem Risikopotenzial in vier Kategorien, wobei jede Kategorie unterschiedliche Anforderungen und Pflichten mit sich bringt:

  • Unannehmbares Risiko: KI-Systeme, die als gefährlich für die Grundrechte und EU-Werte eingestuft werden, sind verboten. Dazu gehören beispielsweise:
  • Systeme zur Manipulation menschlichen Verhaltens durch unterschwellige Techniken.
  • Systeme zur Ausnutzung von Schwächen bestimmter Personengruppen (z.B. aufgrund von Alter oder Behinderung).
  • Social Scoring Systeme, die die Vertrauenswürdigkeit von Personen anhand ihres sozialen Verhaltens bewerten und zu ungerechtfertigten Nachteilen führen können.
  • Biometrische Fernidentifizierung in Echtzeit im öffentlichen Raum (mit Ausnahmen für Strafverfolgungszwecke unter strengen Auflagen).
  • Hohes Risiko: KI-Systeme in diesem Bereich werden als potenziell schädlich eingestuft und unterliegen strengen Anforderungen, bevor sie in Verkehr gebracht oder in Betrieb genommen werden dürfen. Dazu gehören KI-Systeme in folgenden Bereichen:
  • Kritische Infrastruktur (z.B. Energie, Verkehr).
  • Bildung und Berufsbildung.
  • Beschäftigung, Personalmanagement und Zugang zu Selbstständigkeit.
  • Wesentliche private und öffentliche Dienstleistungen (z.B. Gesundheitswesen, Bankwesen).
  • Strafverfolgung.
  • Migrations-, Asyl- und Grenzkontrollmanagement.
  • Justizverwaltung und demokratische Prozesse (z.B. Beeinflussung von Wahlen).
  • Für diese Systeme gelten Anforderungen hinsichtlich:
  • Risikomanagementsysteme.
  • Datenqualität für Training, Validierung und Testen.
  • Technische Dokumentation.
  • Transparenz und Information der Nutzer.
  • Menschliche Aufsicht.
  • Genauigkeit, Robustheit und Cybersicherheit.
  • Begrenztes Risiko: Für KI-Systeme mit begrenztem Risiko gelten spezifische Transparenzpflichten. Nutzer müssen beispielsweise informiert werden, wenn sie mit einem KI-System interagieren (z.B. bei Chatbots) oder wenn Inhalte KI-generiert wurden (z.B. Deepfakes). Dazu gehören auch biometrische Kategorisierungssysteme und Emotionserkennungssysteme.
  • Minimales oder kein Risiko: Die meisten KI-Systeme fallen in diese Kategorie und unterliegen keinen spezifischen Anforderungen des KI-Gesetzes. Beispiele hierfür sind KI-gestützte Spamfilter oder Videospiele. Es wird jedoch betont, dass auch diese Systeme sicher sein müssen.
  1. Allgemeine Grundsätze:

Das KI-Gesetz basiert auf mehreren Grundprinzipien, darunter:

  • Schutz der Grundrechte.
  • Sicherheit und Wirksamkeit von KI-Systemen.
  • Technische Robustheit und Genauigkeit.
  • Transparenz.
  • Menschliche Aufsicht.
  • Rechenschaftspflicht.
  1. Governance und Durchsetzung:
  • Es wird ein Europäisches KI-Amt eingerichtet, um die einheitliche Anwendung des Gesetzes zu gewährleisten.
  • Die Mitgliedstaaten benennen nationale Aufsichtsbehörden.
  • Verstöße gegen das Gesetz können mit erheblichen Geldbußen geahndet werden (bis zu 7 % des weltweiten Jahresumsatzes oder 35 Millionen Euro für Verstöße gegen verbotene Praktiken).
  1. Förderung von Innovation:
  • Das Gesetz sieht Maßnahmen zur Unterstützung von KI-Innovationen und zur Förderung von KI-Kompetenzen vor, insbesondere für kleine und mittlere Unternehmen (KMU).
  • Es werden regulierte Sandkästen eingerichtet, um die Entwicklung und Erprobung innovativer KI-Systeme unter kontrollierten Bedingungen zu ermöglichen.
  1. KI-Modelle mit allgemeinem Verwendungszweck (GPAI):
  • Für leistungsstarke GPAI-Modelle mit systemischem Risiko gelten zusätzliche Anforderungen hinsichtlich Modellbewertung, Risikomanagement und Transparenz.

Das KI-Gesetz ist ein komplexes und sich entwickelndes Rechtsgebiet. Die hier gegebenen Informationen bieten einen Überblick über die wichtigsten Inhalte. Für detailliertere Informationen und die spezifischen Anforderungen für bestimmte KI-Systeme ist es ratsam, die offiziellen Dokumente und Leitlinien der Europäischen Union zu konsultieren.

KI-Systeme und ihre Risiken

Das Gesetz will KI-Systeme nach den Risiken ihrer Anwendungszwecke einstufen und sieht vier verschiedene Risiken vor:

  • risikoarme Systeme
  • begrenzt riskante Systeme
  • Hochrisiko-Systeme
  • Verbotene Systeme mit unannehmbarem Risiko

Anwendungen, die sich zur Unterdrückung von Menschen eignen, sollen verboten werden. Das betrifft auf biometrischen Daten basierende Überwachungssysteme wie Gesichtserkennung in Echtzeit, Social-Scoring-Systeme und automatisierte Erkennung von Emotionen.

Tipp: Strengere Transparenzanforderungen gelten künftig für ChatGPT und andere Chatbots. Inhalte, die mit KI erzeugt wurden, müssen entsprechend gekennzeichnet werden. Die Verantwortlichen müssen der Generierung rechtswidriger Inhalte vorbeugen.

Hier ist eine Tabelle, die verschiedene Arten von KI-Systemen und ihre potenziellen Risiken zusammenfasst. Die Tabelle ist nach Anwendungsbereichen und den damit verbundenen Hauptgefahren strukturiert:

KI-System (Anwendungsbeispiel)
Hauptrisiken
Betroffene Grundrechte (beispielhaft)
Mögliche Schutzmaßnahmen/Überlegungen
Automatisierte Entscheidungsfindung (z.B. Kreditscoring, Bewerbungsfilter)
Diskriminierung aufgrund von Bias in den Trainingsdaten, mangelnde Transparenz und Erklärbarkeit der Entscheidungen, Fehler in der Algorithmusentwicklung, soziale Ungleichheit.
Gleichheitsgrundsatz (Art. 3 GG), Recht auf freie Entfaltung der Persönlichkeit (Art. 2 GG), Menschenwürde (Art. 1 GG).
Sorgfältige Datenkuratierung, Entwicklung fairer Algorithmen, Transparenzforderungen (XAI), menschliche Überprüfungsmöglichkeiten, Antidiskriminierungsgesetze.
Gesichtserkennung und biometrische Überwachung
Verletzung der Privatsphäre und informationellen Selbstbestimmung, Potenzial für Massenüberwachung und staatlichen Missbrauch, Fehleranfälligkeit mit möglichen Falschidentifikationen, "Chilling Effect" auf die Meinungsfreiheit.
Recht auf informationelle Selbstbestimmung (Art. 2 i.V.m. Art. 1 GG), Recht auf freie Entfaltung der Persönlichkeit (Art. 2 GG), Meinungsfreiheit (Art. 5 GG).
Strenge gesetzliche Regulierung, Zweckbindung der Datenerfassung, Transparenz über den Einsatz, hohe Genauigkeitsanforderungen, unabhängige Aufsicht, Recht auf Widerspruch und Löschung.
Sprachmodelle und Content-Generierung (z.B. Chatbots, Textgeneratoren)
Verbreitung von Desinformation und Fake News, Manipulation von Meinungen, Urheberrechtsverletzungen, Erzeugung von Hassreden oder schädlichen Inhalten, Verlust des menschlichen Kontakts und der Empathie.
Meinungsfreiheit (Art. 5 GG) (im negativen Sinne durch Manipulation), Menschenwürde (Art. 1 GG) (durch Verbreitung von Hassreden).
Kennzeichnungspflichten für KI-generierte Inhalte, Entwicklung von Mechanismen zur Erkennung und Filterung schädlicher Inhalte, Förderung von Medienkompetenz, ethische Richtlinien für die Entwicklung und den Einsatz.
Autonome Systeme (z.B. selbstfahrende Autos, Robotik)
Sicherheitsrisiken durch Fehlfunktionen oder unvorhergesehene Situationen, ethische Dilemmata in Entscheidungssituationen (z.B. "Trolley-Problem"), Verlust von Arbeitsplätzen, Haftungsfragen.
Recht auf Leben und körperliche Unversehrtheit (Art. 2 Abs. 2 GG), Menschenwürde (Art. 1 GG).
Strenge Sicherheitsstandards und Testverfahren, klare ethische Richtlinien für Entscheidungsfindung, transparente Verantwortlichkeiten und Haftungsregelungen, soziale Absicherung für Arbeitsplatzverluste.
Empfehlungssysteme (z.B. Social Media, Online-Shops)
Filterblasen und Echokammern, Manipulation des Konsumverhaltens, Verstärkung von Vorurteilen, Einschränkung der Meinungsvielfalt.
Meinungsfreiheit (Art. 5 GG), Recht auf freie Entfaltung der Persönlichkeit (Art. 2 GG).
Transparenz über die Funktionsweise der Algorithmen, Möglichkeit zur Personalisierung und Deaktivierung, Förderung einer vielfältigen Informationsauswahl, Medienkompetenz.
KI in der Strafverfolgung (z.B. Predictive Policing)
Gefahr algorithmischer Vorurteile und Diskriminierung bestimmter Bevölkerungsgruppen, Verletzung der Unschuldsvermutung, Intransparenz der Entscheidungen.
Gleichheitsgrundsatz (Art. 3 GG), Recht auf ein faires Verfahren (Art. 2 Abs. 1 i.V.m. Art. 20 Abs. 3 GG), Menschenwürde (Art. 1 GG).
Strenge Auflagen für den Einsatz, transparente Algorithmen, menschliche Überprüfung der Ergebnisse, Fokus auf evidenzbasierte Daten ohne Bias, Verbot automatisierter Verurteilungen.

Wichtige Anmerkungen:

  • Komplexität: Die Risiken sind oft miteinander verbunden und können sich gegenseitig verstärken.
  • Kontextabhängigkeit: Die konkreten Risiken hängen stark vom jeweiligen Anwendungsfall und dem Kontext des Einsatzes ab.
  • Dynamik: Die Technologie entwickelt sich rasant weiter, wodurch ständig neue Risiken entstehen können.
  • Abwägung: Der Einsatz von KI birgt nicht nur Risiken, sondern auch erhebliche Chancen. Es gilt, eineBalance zwischen Innovation und dem Schutz der Grundrechte zu finden.

Diese Tabelle bietet einen ersten Überblick. Für eine detailliertere Analyse müssten die spezifischen Charakteristika und der Einsatzkontext des jeweiligen KI-Systems genauer betrachtet werden. Lassen Sie mich wissen, wenn Sie einen bestimmten Bereich oder ein spezifisches KI-System genauer beleuchten möchten!

Ethische Richtlinien für vertrauensvolle KI

Der AI Act ist nicht die erste Regelung für die Anwendung von Künstlicher Intelligenz. Bereits im Juni 2019 hat die EU ethische Richtlinien zur Definition von vertrauensvoller KI festgelegt. Anhand eines zehnseitigen Fragenkatalogs können Unternehmen prüfen, wie sie vertrauensvolle KI etablieren können.

Im Mittelpunkt stehen

  • Grundwerte
  • Sicherheit und Robustheit
  • Menschenzentriertheit
  • Transparenz
  • Qualität und Leistung
  • Minimierung von Ungleichheit und Vorurteilen
  • Nachhaltigkeit
  • soziale und ökonomische Faktoren

Das neue KI-Gesetz

Quelle: https://trustyour.ai/2022/03/kriterien-fuer-vertrauensvolle-ki/

Einsatz von KI und Schutz der Grundrechte

Eine Reihe von KI-Systemen haben das Potenzial, Grund- und Menschenrechte zu verletzen. Um das zu vermeiden, müssen die Systeme sicher sein und die Grundrechte sowie die Werte der EU achten. Das neue Gesetz sieht auch klare Regelungen für die Rechtssicherheit bei der Investition in KI vor.

Für rechtskonforme KI-Anwendungen soll ein einheitlicher europäischer Binnenmarkt geschaffen werden. Weiterhin sollen die Durchsetzung des geltenden Rechtes und die Steuerungsmöglichkeiten des KI-Marktes gestärkt werden. Das neue Gesetz soll die Datenschutz-Grundverordnung (DSGVO) von Deutschland ergänzen. Es ist bindend für alle EU-Mitgliedsstaaten.

Vermeidung von Überregulierung

Verbandschef Achim Berg vom Digitalverband Bitkom spricht sich für das neue Gesetz aus, doch gleichzeitig warnt er vor einer Überregulierung. Als Hochrisiko-Anwendungen sollen nach seiner Ansicht nur Systeme eingestuft werden, die tatsächlich eine Gefahr darstellen. Er fordert auch eine klare Definition von Künstlicher Intelligenz, um nicht jegliche Software oder statistischen Systeme regulatorisch zu erfassen.

Gefahr von KI-Oasen außerhalb der EU

Das KI-Gesetz fordert von Unternehmen mit Sitz der EU, innerhalb des Rahmenwerks zu agieren. Die Gefahr der Entwicklung von KI-Oasen außerhalb der EU wird mit diesem Gesetz jedoch nicht unterdrückt. Da in Ländern außerhalb der EU die unethische Nutzung von KI nicht verboten ist, bleibt die Gefahr von Cyberkriminalität weiterhin bestehen.

weiterführende Links:

arbeitsrechthaberei.de: (Stand 30.05.2025) KI im Arbeitsrecht – Zwischen Innovation und Regulierung
techmeetslegal.at: (Stand 30.05.2025) Kriterien für vertrauensvolle AI
andreasbrandhorst.de (Stand 18.11.2022) Künstliche Intelligenz und Kunst
gallio.pro (Stand 07.05.205) EU-Gesetz über künstliche Intelligenz wird mit Leben erfüllt

Bildquelle: depositphotos.com