Regulierungen für künstliche Intelligenz in der EU

Der AI Act: Eine Diskussion über neue KI-Gesetze in der Europäischen Union

Die Europäische Union (EU) steht kurz davor, eine bahnbrechende Gesetzgebung zu implementieren, die die weltweit erste ihrer Art sein wird – den AI Act. Dieser Gesetzesentwurf zielt darauf ab, die Verwendung von künstlicher Intelligenz (KI) zu regulieren und einen rechtlichen Rahmen für ihre Anwendung zu schaffen. In diesem Artikel gehen wir auf die Details dieses Gesetzesvorschlags ein und diskutieren seine potenziellen Auswirkungen.

european parliament building
Image by wirestock on Freepik

Künstliche Intelligenz: Eine kurze Einführung

Künstliche Intelligenz ist eine Technologie, die die Fähigkeit von Maschinen widerspiegelt, menschenähnliche Eigenschaften wie logisches Denken, Lernen, Planen und Kreativität zu imitieren. Sie hat das Potenzial, viele Aspekte unserer Gesellschaft zu verändern, von der Art und Weise, wie wir arbeiten und lernen, bis hin zu unserer Interaktion mit der Welt um uns herum.

KI wird bereits in vielen Bereichen eingesetzt, von der Sprachsteuerung auf unseren Smartphones bis hin zu komplexen Algorithmen, die große Datenmengen analysieren und Muster erkennen, die für den menschlichen Verstand unsichtbar wären. Einige der bekanntesten Beispiele für künstliche Intelligenz sind ChatGPT, ein von Open AI entwickeltes Textgenerierungstool, und DALL-E, ein Bildgenerator, der auf der Grundlage von Textbeschreibungen Bilder erstellt.

Der AI Act: Ein Überblick

Der AI Act ist ein Gesetzesvorschlag der EU, der darauf abzielt, einen rechtlichen Rahmen für die Nutzung und Entwicklung von KI zu schaffen. Der Vorschlag folgt einem risikobasierten Ansatz und legt Verpflichtungen für Anbieter und Nutzer von KI-Systemen fest, die sich nach dem von der KI ausgehenden Risiko richten.

Der Gesetzesvorschlag unterteilt KI-Systeme in verschiedene Risikoklassen, von Systemen mit “unzumutbarem Risiko”, die verboten werden sollen, bis hin zu Systemen mit “begrenztem Risiko”, für die minimale Transparenzanforderungen gelten sollen.

Unzumutbares Risiko: Verbotene KI-Anwendungen

Laut dem AI Act stellen bestimmte KI-Systeme ein unzumutbares Risiko dar und sollen daher verboten werden. Dazu gehören KI-Systeme, die als Bedrohung für Menschen gelten, wie etwa solche, die kognitive Verhaltensmanipulation von Personen oder bestimmten gefährdeten Gruppen fördern, oder solche, die zur Klassifizierung von Menschen auf der Grundlage von Verhalten, sozioökonomischem Status und persönlichen Merkmalen (so genanntes “soziales Scoring”) eingesetzt werden.

Hochrisiko-KI-Systeme: Besondere Anforderungen

KI-Systeme, die ein hohes Risiko für die Gesundheit und Sicherheit oder die Grundrechte der Menschen darstellen, werden als Hochrisiko-KI-Systeme eingestuft. Diese Systeme müssen bestimmten Anforderungen genügen, bevor sie auf den Markt gebracht werden können.

Zu den Hochrisiko-KI-Systemen gehören solche, die in bestimmten Produkten verwendet werden, die unter die Produktsicherheitsvorschriften der EU fallen, wie zum Beispiel Spielzeug, Luftfahrzeuge, Fahrzeuge, medizinische Geräte und Aufzüge.

Generative KI: Zusätzliche Transparenzanforderungen

Generative KI-Systeme, wie zum Beispiel ChatGPT, müssen gemäß dem AI Act zusätzliche Transparenzanforderungen erfüllen. Dazu gehört unter anderem die Offenlegung, dass der Inhalt von KI generiert wurde, und die Gestaltung des Modells, um zu verhindern, dass es illegale Inhalte erzeugt.

Begrenztes Risiko: Minimale Transparenzanforderungen

KI-Systeme, die ein begrenztes Risiko darstellen, sollten gemäß dem AI Act minimale Transparenzanforderungen erfüllen. Diese Anforderungen sollen es den Nutzern ermöglichen, fundierte Entscheidungen zu treffen. Nutzer sollten darauf hingewiesen werden, wenn sie mit KI interagieren, insbesondere bei KI-Systemen, die Bild-, Audio- oder Videoinhalte erzeugen oder manipulieren.

Innovation fördern, Rechte schützen

Der AI Act zielt darauf ab, sowohl Innovation als auch den Schutz der Rechte der Bürger zu fördern. Aus diesem Grund schlägt der Gesetzesvorschlag Ausnahmen für Forschungsaktivitäten und KI-Komponenten vor, die unter Open-Source-Lizenzen stehen. Außerdem sieht der Gesetzesvorschlag vor, dass Bürger das Recht haben sollten, Beschwerden über KI-Systeme einzureichen und Erklärungen für Entscheidungen zu erhalten, die auf risikoreichen KI-Systemen basieren und ihre Rechte erheblich beeinträchtigen könnten.

Überwachung der Einhaltung des AI Act

Um die Einhaltung des AI Act zu überwachen, schlägt der Gesetzesvorschlag die Einrichtung einer EU-Behörde für künstliche Intelligenz vor. Diese Behörde wäre mit der Überwachung der Umsetzung des KI-Regelwerks betraut.

Nächste Schritte

Bevor die Verhandlungen mit dem Rat über die endgültige Form des Gesetzes beginnen können, muss der Entwurf des Verhandlungsmandats vom gesamten Parlament gebilligt werden.
Die Abstimmung wird für die Sitzung vom 12. bis 15. Juni erwartet.

Schlussfolgerung

Der AI Act ist ein wichtiger Schritt in Richtung einer regulierten Nutzung von KI in der EU. Der Gesetzesvorschlag zielt darauf ab, sowohl Innovation als auch den Schutz der Grundrechte zu fördern und gleichzeitig das Risiko zu minimieren, das von KI-Systemen ausgeht. Es bleibt abzuwarten, wie der endgültige Text des Gesetzes aussehen wird und wie er in der Praxis umgesetzt wird. Was jedoch klar ist, ist, dass die Regulierung von KI ein wichtiges Thema für die nahe Zukunft ist und bleibt.