Alle News & Events anzeigen
19.11.2025

KI-Flash: Agentic AI – Chancen und Grenzen steigender Autonomie

Nachdem wir in unserem letzten KI-Flash über die neue Orientierungshilfe der DSK zu RAG-basierten KI-Systemen berichtet haben, möchten wir Ihnen auch künftig in regelmäßigen Abständen rechtliche Impulse zu aktuellen Entwicklungen geben. 

 

Heutiges Thema: Agentic AI – Chancen und Grenzen steigender Autonomie  

 

Unternehmen sehen sich mit einem immer größeren Druck zur Innovation und Effizienzsteigerung konfrontiert. Globale Abhängigkeiten, schwankende Märkte und auch der Mangel an qualifizierten Fachkräften machen eine kontinuierliche Optimierung von Prozessen unverzichtbar. In diesem Umfeld rückt auch der Einsatz von künstlicher Intelligenz (KI) zunehmend in den Vordergrund. Besonders im Fokus stehen derzeit sogenannte KI-Agenten – also Systeme, die eigenständig Entscheidungen treffen und Aufgaben ausführen können, ohne auf direkte menschliche Eingaben angewiesen zu sein. Die Technologie gilt als nächster Schritt in der Automatisierung und verspricht nicht nur Produktivitätsgewinne, sondern auch eine höhere Anpassungsfähigkeit und Widerstandsfähigkeit in komplexen Betriebsabläufen.

Der Einsatz von KI-Agenten wirft jedoch nicht nur technologische, sondern insbesondere auch rechtliche Fragen auf. Mit der europäischen KI-Verordnung (KI-VO) gilt seit August 2024 (mit weiteren zeitlichen Staffelungen) ein verbindlicher Rechtsrahmen für die Entwicklung und Nutzung von KI-Systemen. Unternehmen müssen daher insbesondere prüfen, ob ihre Agenten-Systeme unter diese regulatorischen Anforderungen fallen und welche Pflichten hieraus resultieren. Hinzu kommen u.a. Datenschutz-, Haftungs- und Zurechnungsaspekte. 

Wir möchten den vorliegenden KI-Flash nutzen, um die vorgenannten Fragen in einen ersten systematischen Kontext zu setzen. Für weitere Einblicke in die Thematik werben wir sodann ausdrücklich für unsere dazugehörige Veranstaltung (mehr Informationen). Wir freuen uns auf Ihre Teilnahme!

 

 

Unklarheiten bei der Begriffsbestimmung

Bereits die Frage, was überhaupt als „KI-Agent“ zu verstehen ist, kann zu praktischen Schwierigkeiten führen. Die Begriffe KI-Agent, KI-Assistent oder – etwas technischer – KI-gestützte Workflows sind in der betrieblichen Praxis weit verbreitet, werden jedoch häufig unscharf oder gar synonym verwendet. Eine gesetzliche Definition der vorgenannten Begriffe existiert bislang nicht. Auch die KI-VO verwendet sie nicht explizit; dort wird lediglich in Art. 3 Abs. 1 KI-VO der Begriff des KI-Systems verwendet. Hiernach handelt es sich bei einem KI-System um

„ein maschinengestütztes System, das für einen in unterschiedlichem Grade autonomen Betrieb ausgelegt ist und das nach seiner Betriebsaufnahme anpassungsfähig sein kann und das aus den erhaltenen Eingaben für explizite oder implizite Ziele ableitet, wie Ausgaben wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die physische oder virtuelle Umgebungen beeinflussen können“

Für eine konsistente Bewertung der unterschiedlichen Automatisierungsstufen sollte jedoch eine funktionale Unterscheidung getroffen werden. Die nachfolgende Abgrenzung erfolgt daher anhand einer praxisorientierten Auslegung, die sich an Autonomiegrad, Zielverfolgung und Systemintegration orientiert:

  • Ein KI-Assistent oder auch ein KI-gestützterWorkflow sollen hiernach als reaktive, eingebettete Funktionen innerhalb bestehender Software verstanden werden, die den Nutzer bei konkreten Aufgaben unterstützen, jedoch keine eigenen Ziele verfolgen und nicht selbstständig agieren. Typische Beispiele sind Textvorschläge oder einfache Chatfunktionen. Rechtlich sind diese Funktionen oft Teil eines KI-Systems, aber nicht zwingend selbst als solches einzustufen.
  • Ein KI-Agent hingegen handelt autonom, trifft eigenständig Entscheidungen und kann Aufgaben initiieren, priorisieren und über mehrere Schritte hinweg verfolgen – auch ohne direkte Nutzereingabe. Er kann mit anderen Systemen interagieren und erfüllt regelmäßig selbst die Merkmale eines KI-Systems im Sinne der KI-VO.

Zusammenfassend: Assistenten und Workflows sind unterstützende Funktionen innerhalb einer Software und meist ohne eigene Zielverfolgung, während Agenten häufig eigenständige Systeme mit Entscheidungs- und Handlungskompetenz darstellen. Die Unterscheidung ist sowohl technisch als auch rechtlich relevant.

Beispiel: In der Microsoft-365-Copilot-Umgebung gibt es zwei Typen von (dort so bezeichneten) Agenten – jeweils mit unterschiedlichem Funktionsumfang und Autonomiegrad:

1. Copilot Agent Builder (ehemals „AgentBuilder“)

  • Charakteristik: Einfach erstellbare, regelbasierte Agenten für standardisierte Aufgaben wie Onboarding, FAQ-Beantwortung oder einfache Informationsabfragen.
  • Funktionsweise: Reaktiv – sie antworten auf Nutzereingaben basierend auf vordefinierten Wissensquellen (z. B. SharePoint, interne Dokumente). Keine eigenständige Zielverfolgung oder komplexe Workflow-Steuerung.
  • Autonomiegrad: Niedrig. Keine selbstständige Prozessausführung, keine externe Systemintegration.
  • Regulatorische Einordnung: In der Regel kein eigenständiges KI-System im Sinne der KI-VO, sondern eingebettete Komponenten innerhalb des übergeordneten KI-Systems „Microsoft Copilot“.

 

2. Copilot Studio Agents

  • Charakteristik: Hochgradig anpassbare Agenten, die über Low-Code/Pro-Code erstellt werden und komplexe Aufgaben übernehmen können.
  • Funktionsweise: Unterstützt die Integration externer Dienste (bspw. über APIs), Multi-Step-Workflows, Event-Trigger und teilweise autonome Prozessausführung.
  • Autonomiegrad: Mittel bis hoch. Sie Können insbesondere eigenständig Workflows starten und orchestrieren.
  • Regulatorische Einordnung: Copilot Studio Agents erfüllen regelmäßig die Kriterien eines KI-Systems nach der KI-VO, da sie nicht mehr „nur“ Komponente des Systems „Microsoft Copilot“ sind.

 

Im Rahmen unseres o.g. Webinars wird Frau Dr. Sara Jourdan (CEO & Co-founder, Genow GmbH) einen technischen Blick auf Agentensysteme werfen und hierbei die unterschiedlichen technischen Ansätze und Architekturen aufzeigen. 

 

KI-Agenten und Risikoklassen

Die Risikoklassifizierung eines KI-Agenten nach der KI-VO hängt maßgeblich vom konkreten Einsatzbereich und den damit verbundenen Risiken ab. Die KI-VO unterscheidet zwischen verbotenen, Hochrisiko-, und KI-Systemen mit Transparenzpflichten. Während verbotene KI-Praktiken in Art. 5 KI-VO abgebildet werden (dies betrifft bspw. die Emotionserkennung am Arbeitsplatz), hat die Einstufung als Hochrisiko-KI-System anhand der in Anhang I und III der KI-VO aufgeführten Anwendungsfälle zu erfolgen. KI-Agenten, die beispielsweise sicherheitsrelevante Aufgaben übernehmen und Entscheidungen mit erheblichen Auswirkungen auf Personen treffen (bspw. im Kontext von Medizinprodukten) oder in kritischen Infrastrukturen eingesetzt werden, können als Hochrisiko-KI-Systeme eingestuft werden. Ein weiterer, praxisrelevanter Hochrisiko-Bereich ist etwa der Einsatz von KI-Agenten im HR-Bereich, bspw. zur eigenständigen Bewertung und Auswahl von eingehenden Bewerbungen, wobei die konkrete Einordnung natürlich immer am Einzelfall zu erfolgen hat.

In diesen Fällen gelten umfangreiche Anforderungen, etwa zur technischen Dokumentation, zur Transparenz, zur menschlichen Aufsicht und zur regelmäßigen Überprüfung. Für KI-Agenten die demgegenüber außerhalb des Hochrisikobereichs gelten weniger strenge, aber dennoch relevante Pflichten, wie Kennzeichnung und grundlegende Transparenz. 

Unternehmen müssen daher für jeden KI-Agenten, der die Qualität eines KI-Systems erreicht, eine individuelle Risikobewertung vornehmen und die daraus resultierenden regulatorischen Anforderungen umsetzen. Dies setzt neben dem Bewusstsein über die rechtlichen Anforderungen eine praktisch umsetzbare Vorgehensweise zur Prüfung und Freigabe entsprechender Agenten voraus. Wie eine solche Vorgehensweise aussehen könnte, möchten wir in unserem o.g. Webinar aufzeigen.

 

 

Automatisierung und Datenschutz

Der Einsatz von KI-Agenten berührt auch zentrale Datenschutzfragen, da diese Systeme eigenständig personenbezogene Daten verarbeiten und ggf. sogar Entscheidungen treffen können. Nach der DS-GVO bleibt jedoch das Unternehmen Verantwortlicher für die Datenverarbeitung, auch wenn ein KI-Agent agiert. Unternehmen müssen daher sicherstellen, dass alle datenschutzrechtlichen Vorgaben eingehalten werden.

KI-Agenten können personenbezogene Daten verarbeiten und hierbei automatisierte Entscheidungen treffen. Als Beispiel können intelligente Chatbots auf B2C-Online-Plattformen genannt werden. Eine entsprechende Vorgehensweise ist jedoch nur dann zulässig, sofern die Voraussetzungen des Art. 22 DS-GVO erfüllt sind. Automatisierte Einzelentscheidungen mit rechtlicher Wirkung sind hiernach grundsätzlich verboten, es sei denn, eine Einwilligung, eine spezifische gesetzliche Grundlage oder ein Vertrag liegt vor, der diese Vorgehensweise zulässt. In solchen Fällen sind jedoch Schutzmaßnahmen wie menschliche Eingriffsmöglichkeiten und Anfechtungsrechte für betroffene Personen zwingend erforderlich.

Auch Transparenz ist entscheidend: Unternehmen müssen Betroffene klar über den Einsatz von KI-Agenten, die verarbeiteten Daten und die Entscheidungslogik informieren. Bei hohem Risiko – etwa bei sensiblen Daten oder bei Profilbildung – ist zudem eine Datenschutz-Folgenabschätzung nach Art. 35 DS-GVO erforderlich. Ergänzend sind technische und organisatorische Maßnahmen wie Zugriffsbeschränkungen, Verschlüsselung und kontinuierliches Monitoring umzusetzen, um Datenschutzverstöße zu verhindern.

 

Haben wir Ihr Interesse geweckt? 

Melden Sie sich gerne zu unserem interdisziplinären Webinar am Dienstag, den 25. November 2025 an, und lassen Sie sich einen weiteren spannenden digitalen bite, praktisch und kompakt in Ihrer Mittagspause näherbringen. Wir freuen uns auf Ihre Teilnahme!

 

Digital Bites

    Teilen

  • LinkedIn
  • XING