Das EU-Gesetz folgt einem risikobasierten Ansatz:
- Minimales Risiko
Die große Mehrheit der KI-Systeme fällt in die Kategorie des minimalen Risikos. Anwendungen wie KI-gestützte Empfehlungssysteme oder Spam-Filter werden keinen Verpflichtungen unterliegen, da diese Systeme nur ein minimales oder gar kein Risiko für die Rechte oder die Sicherheit der Bevölkerung darstellen. Auf freiwilliger Basis können sich Unternehmen jedoch zu zusätzlichen Verhaltenskodizes für diese KI-Systeme verpflichten. - Hohes Risiko
KI-Systeme, die als risikoreich eingestuft werden, müssen strenge Anforderungen erfüllen: Systeme zur Risikominderung, Qualitätstandards für Datensätze, Protokollierung von Aktivitäten, Dokumentationspflicht, klare Benutzerinformationen, menschliche Aufsicht und ein hohes Maß an Robustheit, Genauigkeit und Cybersicherheit. Regulatorische Sandkästen sollen die Entwicklung von konformen KI-Systemen erleichtern. Beispiele für solche risikoreichen KI-Systeme sind Anwendungen in kritischen Infrastrukturen, in medizinischen Geräten, zur Zulassung zu Bildungseinrichtungen, zur Rekrutierung von Personen, in der Strafverfolgung, bei Grenzkontrollen, zur Rechtspflege oder in demokratischen Prozessen. Darüber hinaus gelten biometrische Identifizierungs-, Kategorisierungs- und Emotionserkennungssysteme ebenfalls als hochriskant. - Unannehmbares Risiko
KI-Systeme, die eine eindeutige Bedrohung für die Grundrechte der Menschen darstellen, werden verboten. Dazu gehören KI-Systeme oder -Anwendungen, die das menschliche Verhalten manipulieren, die ein "Social Scoring" ermöglichen sowie bestimmte Anwendungen der vorausschauenden Polizeiarbeit. Darüber hinaus werden einige Anwendungen biometrischer Systeme verboten, z. B. Systeme zur Erkennung von Emotionen am Arbeitsplatz und einige Systeme zur Kategorisierung von Personen oder zur biometrischen Fernidentifizierung in Echtzeit zu Strafverfolgungszwecken in öffentlich Räumen (mit engen Ausnahmen).
Transparenz
Beim Einsatz von KI-Systemen wie Chatbots sollen die Nutzenden informiert werden, dass sie mit einer Maschine interagieren. Deep Fakes und andere KI-generierte Inhalte müssen als solche gekennzeichnet sowie die Verwendung von biometrischen Kategorisierungs- oder Emotionserkennungssystemen ausgeweisen werden. Darüber hinaus müssen die Anbieter ihre Systeme so gestalten, dass synthetische Audio-, Video-, Text- und Bildinhalte in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkannt werden können.
KI-Systeme mit allgemeinem Verwendungszweck
Mit dem KI-Gesetz werden spezielle Vorschriften für KI-Modelle gemacht, die für zahlreiche verschiedene Zwecke verwendet werden können (general purpose AI) und in anderen KI-Systemen zum Einsatz kommen können, die als Hochrisiko-System eingestuft werden. Für sehr leistungsfähige Modelle, die systemische Risiken darstellen könnten, wird es daher zusätzliche verbindliche Verpflichtungen in Bezug auf das Risikomanagement und die Überwachung schwerwiegender Vorfälle sowie die Durchführung von Modellevaluierungen und Tests geben.
Die neuen Verpflichtungen werden durch Verhaltenskodizes operationalisiert, die von der Industrie, der Wissenschaft, der Zivilgesellschaft und anderen Interessengruppen zusammen mit der Kommission entwickelt werden.
Neues Office für Künstliche Intelligenz
Auf nationaler Ebene werden die zuständigen nationalen Marktaufsichtsbehörden die Umsetzung der neuen Vorschriften überwachen. Die Koordinierung auf europäischer Ebene wird durch ein neues europäisches KI-Office innerhalb der Europäischen Kommission sichergestellt. Das neue Office für Künstliche Intelligenz wird auch die Umsetzung und Durchsetzung der neuen Vorschriften für allgemeine KI-Modelle überwachen.
Nächste Schritte
Die politische Einigung muss nun noch vom Europäischen Parlament und vom Rat formell genehmigt werden.
Nach der Verabschiedung des KI-Gesetzes wird es eine Übergangszeit geben, bevor die Verordnung anwendbar wird. Um diese Zeit zu überbrücken, wird die Kommission einen KI-Pakt ins Leben rufen. Er wird KI-Entwickler aus Europa und der ganzen Welt zusammenbringen, die sich auf freiwilliger Basis verpflichten, die wichtigsten Verpflichtungen des KI-Gesetzes bereits im Vorfeld umzusetzen.
Internationale Ebene
Um Regeln für vertrauenswürdige KI auf internationaler Ebene zu fördern, wird die Europäische Union weiterhin in Foren wie der G7, der OECD, dem Europarat, der G20 und der UNO mitarbeiten.
Zum Nachlesen
- Europäische Kommission: Künstliche Intelligenz – Exzellenz und Vertrauen
- Europäische Kommission (09.12.2023): Commission welcomes political agreement on Artificial Intelligence Act
- Rat der EU (09.12.2023): Artificial intelligence act: Council and Parliament strike a deal on the first rules for AI in the world