AI ACT der EU tritt zum August in Kraft
Am 12. Juli 2024 wurde der AI ACT der EU, das Gesetz zu der Künstlichen Intelligenz, im Amtsblatt der EU veröffentlicht. Damit tritt es automatisch in Kraft, und zwar zum 1. August 2024.
Was steht denn nun abschließend im AI ACT der EU?
Sie finden HIER die komplette Veröffentlichung des AI ACTs im Amtsblatt der EU. In Kürze fasst unser Text einiges daraus zusammen.
AI Content muss als solcher erkennbar sein
Die Anbieter von KI-Systemen, einschließlich KI-Systemen für allgemeine Zwecke, die synthetische Audio-, Bild-, Video- oder Textinhalte erzeugen, stellen sicher, dass die Ausgaben des KI-Systems in einem maschinenlesbaren Format gekennzeichnet sind und als künstlich erzeugt oder manipuliert erkannt werden können.
Der Begriff synthetische Inhalte bezeichnet synthetische oder künstliche Inhalte, die von generativer künstlicher Intelligenz (KI) oder lernenden Algorithmen geschaffen werden, an deren konkretem Entstehungsprozess kein Mensch mehr beteiligt ist. Es ist davon auszugehen, dass dies eine Vielzahl der bereits bekannten generativen AI Tools betrifft wie Chat GPT sowie die AI basierten Übersetzungssysteme und auch die generativen AI Tools für die Ausgabe von Video und Audio Dateien.
Keinerlei Auflagen für Open-Source AI Anwendung
Ein solches AI Tool ist beispielsweise StyleGan von Nvidida. Und genau für dieses AI Tool besteht keine Verpflichtung zur Kennzeichnung oder Transparenz des AI generierten Inhalts. Denn Nvidia hat den zugehörigen Quellcode bereits 2019 als Open Source offengelegt, dieser Code kann über GIT HUB von allen eingesehen und genutzt werden. Gemäß Artikel 2.12 des AI-Acts sind Open-Source-KI-Systeme im Regelfall von den Regularien des AI ACTS ausgenommen. Dies gilt jedoch nicht, wenn es sich um Hochrisiko-KI-Systeme oder verbotene AI-Praktiken handelt.
Was sind verbotene AI Systeme und AI Praktiken?
Vereinfacht lässt sich sagen, dass die EU AI Anwendungen mit einem Verbot für die EU belegt, die (verdeckt) manipulierend, diskriminierend wirken oder persönliche Daten abgreifen wie Gesichtserfassung im öffentlichen Raum oder Emotionen in Schule, Ausbildung und am Arbeitsplatz. Eine biometrische Kategorisierung ist nicht erlaubt, ebenso wenig ein Social Scoring, also die Auswertung von sozialem Verhalten.
Ein Verbot eines AI-Systems setzt nicht voraus, dass einer betroffenen Person oder Personengruppe tatsächlich oder wahrscheinlich erheblicher Schaden zugefügt wird. Nach dem AI ACT der EU ist eine „hinreichende“ („reasonably“) Wahrscheinlichkeit eines Schadenseintritts das Maß für ein Verbot einer AI Anwendung (siehe Artikel 5 AI ACT der EU).
High-Risk AI-Modelle – welches AI Modell zählt dazu?
Je höher die Risikoeinstufung von KI-Systemen ist als sogenanntes AI High-Risk Modell, desto höher sind die Anforderungen an die Transparenz über die AI Anwendung und insbesondere die Risiko- und Cybersicherheit. Welche AI Anwendung als High-Risk AI-Modell eingestuft werden wird, ist noch immer offen.
Laut AI ACT lässt sich die EU noch Zeit bis zum 2. Februar 2026, um die Leitlinien für die praktische Umsetzung festzulegen (siehe Artikel 6 im AI ACT der EU). Bis dahin soll auch eine umfassende Liste praktischer Beispiele für Anwendungsfälle von KI-Systemen vorliegen, die mit einem hohen Risiko behaftet sind und auch von AI-Systemen, die kein hohes Risiko darstellen.
AI Sandboxen der EU – sichere AI Anwendung?
Immerhin sieht der AI ACT auch eine reelle Anwendung von AI in der EU vor: Tests unter realen Bedingungen für AI-Systeme sollen in der sogenannten AI Sandbox erfolgen. Gemeint ist eine regulatorische Sandbox. Unternehmen und Startups melden Tests für ihre AI Anwendungen für eine AI Sandbox der EU an. Innovation soll im Bereich der künstlichen Intelligenz (KI) in der gesamten EU mit den Sandboxen gefördert werden, ist die Intention des EU Parlaments.
Für die EU Mitgliedstaaten ist es verpflichtend, dass ihre zuständigen Behörden mindestens eine AI-Sandbox auf nationaler Ebene einrichten. Bis zum 2. August 2026 muss jeder EU Mitgliedstaat eine AI Sandbox betriebsbereit vorhalten.
De facto handelt es sich um eine Überwachung von neuen AI Anwendungen. Eine regulatorische Sandbox ist ein Instrument, das Unternehmen die Möglichkeit gibt, neue und innovative Produkte, Dienstleistungen oder Unternehmen unter realen Bedingungen zu erproben - unter der Aufsicht einer AI Regulierungsbehörde der EU. Laut AI ACT ermöglichen und fördern die AI Sandboxen die Instrumente und Infrastrukturen für die Prüfung, das Benchmarking, die Bewertung und die Erläuterung von Dimensionen von KI-Systemen. Als relevant sieht der AI ACT die Regulierung für Genauigkeit, Robustheit und Cybersicherheit, sowie von Maßnahmen zur Abschwächung von Risiken für die Grundrechte und die Gesellschaft als Ganzes.
In der Sandbox erzeugte personenbezogene Daten können nicht außerhalb der Sandbox weitergegeben werden. Alle im Rahmen der Sandbox verarbeiteten personenbezogenen Daten – z. B. für das Training der AI Anwendung - werden von der EU geschützt und gelöscht, sobald die Teilnahme an der Sandbox beendet ist oder die Aufbewahrungsfrist für die personenbezogenen Daten abgelaufen ist.
AI ACT der EU: zum 1. August 2024 in Kraft
Der AI ACT tritt 20 Tage nach der Veröffentlichung im Amtsblatt der Europäischen Union in Kraft, also zum 1. August 2024.
Bei Verstößen gegen den AI ACT drohen Unternehmen hohe Geldbußen.
AI Anwendungen und AI Tools sind auch für Sie ein Thema?
Wir verfügen über sehr viel Expertise zu Erfindungen mit AI Anwendungen. Nehmen Sie gerne unverbindlich und kostenfrei Kontakt zu unserer Kanzlei Köllner & Partner auf, telefonisch unter +49 (0)69 69 59 60-0 oder unter info@kollner.eu.