Worum geht es?
Europa hat nun erstmals eine unionsweite Verordnung zur Regulierung von künstlicher Intelligenz („AI Act“) entwickelt und damit den Versuch unternommen, die Sicherheit und das Vertrauen der Bürgerinnen und Bürger der EU zu gewährleisten und gleichzeitig das Potenzial dieser Technologie nutzbar zu machen. Europa soll damit letztlich Zentrum und Vorreiter für vertrauenswürdige KI werden.
Der AI Act verfolgt einen risikobasierten Ansatz, der – je nach Risikostufe eines KI-Systems – unterschiedlich strenge Compliance-Vorgaben vorsieht. KI-Systeme, deren Einsatz mit einem inakzeptablen Risiko einhergeht, werden vom AI Act vollständig verboten (verbotene KI-Praktiken). Der Einsatz bestimmter KI-Systeme, die ein erhebliches Risiko einer Beeinträchtigung der Gesundheit, Sicherheit oder Grundrechte natürlicher Personen bergen, ist demgegenüber erlaubt, wird jedoch nur unter strengen Compliance-Voraussetzungen und Sicherheitsmaßnahmen ermöglicht (Hochrisiko-KI-Systeme). Daneben existieren KI-Systeme, die lediglich Transparenzrisiken bergen – etwa, wenn ein Chatbot eine direkte Interaktion zwischen KI und Mensch ermöglicht oder wenn KI-Output als sog. Deepfake nicht mehr als künstlich erzeugt erkennbar ist. Diese KI-Systeme unterliegen lediglich eingeschränkten Pflichten nach dem AI Act, welche diese „Transparenzlücke“ schließen sollen. Diese umfassen insbesondere die Information über die KI-Interaktion sowie die Kennzeichnung von KI-generierten Inhalten. Durch ethische und technische Standards soll der AI Act nun eine rechtliche Grundlage für den verantwortungsvollen Einsatz von KI schaffen.