Suchergebnisse für
Personen
Markus von Fuchs ist im Bereich des gewerblichen Rechtsschutzes, insbesondere im Wettbewerbs-, Patent- und Markenrecht sowie im Know-how-Schutz tätig. Er berät Unternehmen bei der Absicherung und wirtschaftlichen Verwertung geistigen Eigentums, zum Beispiel durch Lizenz-, Vertriebs-, F&E- sowie Kooperationsverträge. Ein weiterer Schwerpunkt liegt in der gerichtlichen und außergerichtlichen Verteidigung von geistigen Schutzrechten durch einstweilige Verfügungsverfahren und Hauptsacheklagen, durch Grenzbeschlagnahmeverfahren sowie durch Einleitung und Begleitung strafrechtlicher Maßnahmen bei Produkt- und Markenpiraterie und bei Verletzung von Betriebs- und Geschäftsgeheimnissen. Darüber hinaus berät Markus von Fuchs viele Unternehmen bei der Entwicklung und Einführung neuer Technologien und Geschäftsmodelle. Über besondere Branchenerfahrungen verfügt Markus von Fuchs in der optischen und medizintechnischen Industrie.
Dr. Oliver Hornung berät nationale und internationale IT-Dienstleister und Anwender, und zwar bei der rechtlichen Strukturierung und Verhandlung von IT-, Projekt- und Outsourcingverträgen, sowie in Fragen des Urheberrechts und der Lizenzierung. Er ist dabei auch regelmäßig in notleidenden Projekten (Konfliktbewältigung) tätig und betreut Mandanten in Schlichtungs- und Schiedsverfahren und widrigenfalls in gerichtlichen Auseinandersetzungen.
Das regulatorische Umfeld für die Nutzung von Daten und entsprechenden Technologien ist komplex und ständig kommen neue Rechtsakte der Europäischen Kommission hinzu. In diesem dynamischen Umfeld berät Dr. Oliver Hornung seine Mandanten zu allen Rechtsfragen, insbesondere mit Fokus KI-Compliance, Data Act, NIS-2, Cyber-Security, Cloud Computing und Datenrecht.
Ein weiterer Schwerpunkt der anwaltlichen Beratung sind der Datenschutz im Fokus auf Digital Health und die Digital Decade der EU. Falls erforderlich, verteidigt Dr. Oliver Hornung und sein Team die Rechte seiner Mandanten gegenüber Aufsichtsbehörden oder vor Gericht.
Schließlich betreut Dr. Oliver Hornung Start-ups in allen Fragen rund um das IT-Recht und das Datenschutzrecht. Neben seiner umfangreichen praktischen Arbeit ist Dr. Oliver Hornung auch ein häufig gefragter Vortragender im Datenschutzrecht und IT-Recht.
Norbert Klingner ist auf nationale und internationale Film- / TV- und Werbefilmproduktion, -finanzierung, -versicherung und -vertrieb spezialisiert. Er vertritt namhafte Produzenten, Verleiher, Weltvertriebe und Filmfinanziers. Seine Expertise reicht damit in der Verhandlung und Vertragsgestaltung vom Beginn der Stoffentwicklung über sämtliche Fragen im Zusammenhang mit der Produktion und deren Finanzierung bis hin zur strategisch richtigen Auswertung und Lizensierung. Eine Auswahl von Filmproduktionen, an denen Herr Klingner mitgewirkt hat, finden Sie auf der Internet Movie Database IMDb.
Franziska Ladiges berät Mandanten in allen Fragen des IT- und Datenschutzrechts. Aufgrund von Secondments und langjähriger Erfahrung, verfügt sie über vertiefte Kenntnisse im Datenschutz. In diesem Bereich unterstützt sie Unternehmen (von Kleinunternehmen bis zu börsennotierten Unternehmen) aus verschiedenen Branchen bei der Einführung einer Datenschutz-Compliance. Zudem berät sie zu verschiedenen Einzelfragen aus dem Bereich Datenschutz, unter anderem Auftragsverarbeitung, Betroffenenrechte oder im internationalen Datentransfer. Schließlich führt sie regelmäßig Datenschutz-Quickchecks bei Unternehmen vor Ort durch.
Darüber hinaus verfügt Franziska Ladiges über Erfahrung bei der Gestaltung von Verträgen, welche die Softwareerstellung, -nutzung oder -übertragung regeln. Weiterhin gestaltet und prüft sie AGB (sowohl Einkauf als auch Verkauf und Internet-Plattformen) oder berät bei dem Aufbau von Online-Shops und Internetplattformen. Häufig vertritt sie ihre Mandanten vor staatlichen Gerichten bei Vertragsstreitigkeiten oder datenschutzrechtlichen Angelegenheiten.
Dr. Andreas Peschel-Mehner begleitet seit Beginn des Internets alle Formen des Digital Business, von Start-ups über Multichannel-Angebote bis zu internationalen Internet-Konzernen. Im Mittelpunkt der Beratung stehen alle hierfür relevanten rechtlichen Bereiche, insbesondere Datenschutz- und Nutzungskonzepte, AGB und Verbraucherschutz, Compliance, Werbe-, Gewinnspiel- und Wettbewerbsrecht und andere mehr.
Ein weiterer Schwerpunkt der anwaltlichen Beratung von Dr. Andreas Peschel-Mehner ist das Medien- und Entertainmentrecht, insbesondere sämtliche Belange der Film- und Fernsehbranche. Im Fokus stehen hier alle Aspekte der Finanzierung und weltweiten Auswertung der Produktionen sowie der Rechteerwerb. Einen besonderen Ausschnitt stellen dabei die digitalen Medien dar, sowohl hinsichtlich der Veränderung der Nutzungskonzepte und Erlösströme als auch die Begleitung von Video-On-Demand Plattformen. Einen Auszug der von ihm betreuten Film- und Serien-Projekte finden Sie hier auf der Internet Movie Database IMDb.
Er berät außerdem seit jeher nationale und internationale Computer-Game Publisher und Studios und seit einigen Jahren die Esport-Branche.
Ein wichtiges Querschnittsthema ist für ihn inzwischen in seiner Beratung die Entwicklung und der Einsatz von KI-Technologien geworden.
News
Influencer-Marketing: Wofür hafte ich als Unternehmen, wenn die von mir beauftragte Influencerin rechtswidrige Inhalte veröffentlicht?
Der Einsatz von Influencerinnen und Influencern zählt zum gängigen Marketing-Mix von Wirtschaftsunternehmen. Durch Einblicke in ihr Privatleben wirken sie nahbar und die von ihnen ausgesprochenen Produktempfehlungen dadurch für viele authentisch und besonders glaubwürdig. Influencer-Marketing hat Potenzial, die Verkaufszahlen eines Produkts oder einer Dienstleistung spürbar zu steigern.
Doch wer haftet, wenn der in Auftrag gegebene Content, den der Influencer produziert und veröffentlicht hat, rechtswidrig ist? Das Oberlandesgericht Köln musste sich im Zusammenhang mit der Bewerbung eines Arzneimittels erneut mit dieser Frage auseinandersetzen (Urteil vom 11.09.2025, Az. 6 U 118/24), die auch uns in unserer Praxis regelmäßig beschäftigt.
Das Urteil zeigt deutlich, dass Unternehmen bei Influencer-Marketing-Kampagnen nicht nur die kreative Gestaltung im Blick haben sollten, sondern auch die rechtlichen Rahmenbedingungen. Denn die Rechtsprechung nimmt die beauftragenden Unternehmen immer mehr mit in die Haftung und sieht in den Influencern regelmäßig „Beauftragte“ des jeweiligen Unternehmens im wettbewerbsrechtlichen Sinne, § 8 Abs. 2 Gesetz gegen den unlauteren Wettbewerb (UWG).
Für Heilmittelwerbung (für Arzneimittel & Co.) gelten zum Schutz der Verbraucherinnen und Verbraucher zudem besonders strenge Anforderungen. Hintergrund ist, dass irreführende Werbung in diesem Bereich besonders gravierende Folgen haben kann. Das gilt insbesondere, wenn sie – wie hier – durch eine „bekannte Person“ (siehe § 11 Abs. 1 Nr. 2 Heilmittelwerbegesetz, hier bereits bei 130.000 Followern bejaht) ausgesprochen wird und wenn diese Empfehlungen den Arzneimittelverbrauch fördern könnten. Aus Sicht des Gerichts gilt keine starre Grenze für die Bekanntheit. Entscheidend sei vielmehr, ob die Zielgruppe die Person als „bekannt“ wahrnimmt und ihr vertraut.
Influencer und Influencerinnen sind sich der rechtlichen Voraussetzungen bei Erstellung ihrer Werbeinhalte möglicherweise nicht bewusst. In dem zu entscheidenden Fall fehlte bspw. die gesetzlich vorgeschriebene Einblendung „Zu Risiken und Nebenwirkungen …“. Diese gelte, für Werbetreibende möglicherweise überraschend, auch für sog. Short-Content in audio-visuellen Medien wie Instagram-Beiträge. Eine Verlinkung des Pflichttexts reiche hier nicht aus.
Praxistipp: Beauftragt ein Unternehmen daher eine Influencerin mit der Bewerbung seines Produkts, sollte es ihr hinreichende Vorgaben zur Gestaltung der zu produzierenden Inhalte machen. Unsere Erfahrung zeigt, dass vor allem detaillierte vertragliche Regelungen die Unternehmen absichern. Wird das Unternehmen dann aufgrund der Influencer-Werbung von einem Wettbewerber oder bspw. der Verbraucherschutzzentrale in Anspruch genommen, kann es auf vertraglicher Grundlage zumindest bei dem Influencer oder der Influencerin Regress nehmen. Gelten in Ihrer Branche besondere regulatorische Vorgaben? Informieren Sie die Influencer über rechtliche Vorgaben, die für die Bewerbung Ihrer Produkte gelten. Zu Risiken und Nebenwirkungen …beim Influencer-Marketing helfen wir Ihnen gern.
Chancen, Risiken und Nebenwirkungen beim Influencer-Marketing: Was alle Beteiligten zur Risikovermeidung in Sachen Haftung für Influencer-Beiträge, insbesondere in sensiblen Bereichen wie der Arzneimittelwerbung, beachten sollten, lesen Sie im heutigen Rechtsprechungs-Update.
Digital Omnibus – Teil des neuen Digitalpakets der Europäischen Kommission
Die EU Kommission hat kürzlich ein neues Digitalpaket verabschiedet. Das Digitalpaket soll Unternehmen in der EU – von Start-ups bis zu Industriebetrieben – helfen, Compliance- und Verwaltungsaufwand zu reduzieren, um sich stärker auf Innovation und Wachstum zu konzentrieren. Im Zentrum des Pakets steht die Omnibus-Verordnung („Digital Omnibus“), die vor allem Regeln für Künstliche Intelligenz, Cybersicherheit und Daten vereinfachen soll. Wir geben nachfolgend einen Überblick über die relevantesten Regeln und Änderungen.
Nachdem zahlreiche Digitalverordnungen der EU im Rahmen der Digital Decade in den vergangenen Jahren schrittweise in Kraft getreten sind und teilweise schon Anwendung finden (eine Übersicht über den Status der Gesetze finden Sie auf unserer Digital Decade Landingpage), möchte die EU in eine Konsolidierungs- und Vereinfachungsphase übertreten – vor allem wohl auch auf Druck der Industrie hin, die sich dem zunehmend erheblichen Compliance-Aufwand und teilweise sich überschneidenden Pflichten gegenübersieht. Das Paket soll nun genau hier ansetzen und bestehende Vorschriften besser aufeinander abstimmen, Doppelanforderungen reduzieren und die Anwendung und Umsetzung für Unternehmen praxistauglicher gestalten.
Ergänzt wird der Digital Omnibus, der vor allem eine Konsolidierung der Vorschriften zu Künstlicher Intelligenz, Cybersicherheit und Daten vorsieht, durch die Data Union Strategy, die den Zugang zu hochwertigen Daten für KI erleichtern soll, sowie durch die European Business Wallets, die Unternehmen eine einzige digitale Identität zur Verfügung stellen.
Nachfolgend möchten wir einen ersten Überblick über die Änderungen des Digital Omnibus aufzeigen:
Was sind die wesentlichen Änderungen beim EU-Datenrecht?
Mit dem Digital Omnibus verfolgt die EU eine konsolidierte Weiterentwicklung des Datenrechts. Ziel sind eine Vereinfachung der Regelungen, die Reduzierung administrativer Lasten und ein klarerer Rahmen für datengestützte Innovation. Im Mittelpunkt stehen Anpassungen am Data Act und punktuelle Änderungen an der DSGVO – alle Datenregeln sollen in diesen beiden Hauptgesetzen konsolidiert werden.
Für den Data Act sind die folgenden Anpassungen vorgesehen:
- Konsolidierung früherer Rechtsakte: Mehrere bisher nebeneinander bestehende Rechtsakte, darunter die Open Data Directive, die Free Flow of Non-Personal Data Regulation und der Data Governance Act, sollen in den Data Act integriert werden, um ein einheitliches Regelwerk für nicht-personenbezogene Daten zu schaffen.
- Datenintermediationsdienste: Die verpflichtende Registrierung sowie das EU-Label für Datenintermediäre sollen entfallen, sodass der regulatorische Rahmen insgesamt deutlich verschlankt wird. Neue Vermittlungsmodelle sollen schneller und mit weniger Formalitäten angeboten werden können, da die Markteintrittshürden sinken.
- Datenaltruismus: Der rechtliche Rahmen für gemeinwohlorientiertes Datenteilen wird vereinfacht, damit bisherige komplexe Strukturen und Anforderungen reduziert werden. Organisationen sollen Daten leichter für Forschungs-, Gesundheits- oder Nachhaltigkeitszwecke bereitstellen können, ohne umfangreiche administrative Prozesse erfüllen zu müssen.
- Datenbestände des öffentlichen Sektors: Die bestehenden Vorgaben zu öffentlichen Datenbeständen sollen zusammengeführt und vereinheitlicht werden, um bestehende Fragmentierungen zu beseitigen. Unternehmen sollen einfacher nachvollziehen können, welche öffentlichen Daten unter welchen Bedingungen genutzt werden können, um Innovation im Binnenmarkt zu stärken.
- Business-to-Government-Zugänge (B2G): Der Zugriff staatlicher Stellen auf Unternehmensdaten soll klar auf echte Not- und Krisenlagen wie Naturkatastrophen oder Pandemien begrenzt werden. Unternehmen sollen außerhalb solcher Situationen keinen zusätzlichen oder unklaren Offenlegungspflichten unterliegen.
- Entlastung durch Bürokratieabbau und Harmonisierung: Der regulatorische Rahmen in den Bereichen Daten, Datenschutz, Cybersicherheit und KI soll bereinigt und harmonisiert werden, indem Meldesysteme zentralisiert und Informationspflichten reduziert werden.
Folgende Änderungen sind beim Anwendungsbereich der Cloud-Switching-Pflichten vorgesehen:
Der Omnibus-Vorschlag nimmt eine gezielte Neuausrichtung des Anwendungsbereichs der Cloud-Switching-Regeln des Data Act vor. Das Grundprinzip der leichteren Wechselbarkeit zwischen Cloud-, Edge- und Datenverarbeitungsdiensten bleibt bestehen, wird aber präziser gefasst und auf eine stärker verhältnismäßige und risikobasierte Grundlage gestellt. Nachfolgend die wichtigsten Anpassungen im Überblick:
- Einschränkung des Anwendungsbereichs für KMU und Kleinstunternehmen: Die Wechselpflichten sollen nur noch gelten, sofern sie für diese Anbieter technisch realisierbar und wirtschaftlich zumutbar sind. Damit sollen kleinere Marktteilnehmer von unverhältnismäßigen regulatorischen Anforderungen entlastet werden.
- Ausnahme kundenspezifischer Datenverarbeitungsdienste: Individuell entwickelte Datenverarbeitungslösungen, die ausschließlich für einen einzelnen Kunden bereitgestellt werden, sollen nicht mehr den vollen Cloud-Switching-Pflichten unterliegen. Hintergrund ist, dass Interoperabilität und standardisierte Datenportabilität bei solchen maßgeschneiderten Architekturen häufig weder technisch sinnvoll noch praktikabel umsetzbar sind.
- Betonung technischer und wirtschaftlicher Machbarkeit des Switchings: Der Omnibus präzisiert, dass die Anforderungen nur dann gelten sollen, wenn sie mit vertretbarem Aufwand erfüllt werden können. Diese Klarstellung reduziert bestehende Rechtsunsicherheiten und verhindert, dass Anbieter in Situationen geraten, in denen die Einhaltung faktisch unmöglich oder unverhältnismäßig teuer wäre.
- Stärkung bestehender Industriestandards: Die Reform stellt klar, dass Dienstanbieter keine neuen proprietären Schnittstellen entwickeln müssen. Die Verwendung branchenüblicher Datenformate und Protokolle soll genügen, um die Anforderungen zu erfüllen. Dies verringert insbesondere für kleinere Anbieter Entwicklungsaufwand und Integrationskosten.
- Weiterhin nutzerfreundlicher Wechselrahmen: Die EU hält am Ziel fest, Wechselkosten zu reduzieren und Nutzerinnen und Nutzern echte Anbieterwechselmöglichkeiten einzuräumen. Gleichzeitig soll die Reform sicherstellen, dass spezialisierte oder kleinere Anbieter nicht durch übermäßige Compliance-Lasten verdrängt werden.
Insgesamt soll ein stärker differenzierter, verhältnismäßiger und risikobasierter Wechselrahmen entstehen. Das Cloud-Switching-Regime des Data Act bleibt funktional erhalten, konzentriert sich künftig aber klarer auf standardisierbare Services und auf Anbieter, für die die Umsetzung der Pflichten realistisch und wirtschaftlich vertretbar ist.
Für die DSGVO und die Regeln für Cookies sind folgende Anpassungen vorgesehen:
- Neuer Ansatz für Cookie-Banner und Consent-Management: Bisher basierte die Regulierung auf einem zweigeteilten Modell: Der Zugriff auf Endgeräte fiel unter die ePrivacy-Richtlinie, während die anschließende Verarbeitung personenbezogener Daten der DSGVO unterlag. Der neue Vorschlag der Kommission beendet dieses Dualsystem. Künftig werden Cookies und vergleichbare Tracking-Technologien vollständig in die DSGVO integriert, sodass ein harmonisierter Rechtsrahmen mit gemeinsamen Grundsätzen, Durchsetzungsmechanismen und Sanktionen gilt.
Die Kommission erkennt dabei ein bestehendes Problem: Consent-Management funktioniert in der Praxis häufig schlecht. Nutzer werden mit komplexen Pop-ups konfrontiert, viele klicken reflexartig auf „Zustimmen“, ohne sich zu informieren – das entspricht kaum einer informierten Einwilligung wie ursprünglich vom Gesetzgeber vorgesehen. Ziel der Reform ist es daher, die Einwilligung wieder zu einer funktionalen und glaubwürdigen Rechtsgrundlage zu machen. Der Vorschlag schreibt unter anderem vor, dass Cookie-Banner eine echte „Ein-Klick-Option“ zur Ablehnung aller nicht essenziellen Cookies bieten müssen – sichtbar, gleichwertig und ebenso leicht erreichbar wie die Option „Alle akzeptieren“. Eine Ablehnung muss mindestens sechs Monate lang gelten.
- Zentrales System für Datenschutzpräferenzen: Noch weitreichender sind die geplanten Regeln zu technischen Präferenzsignalen: Nutzer sollen Datenschutzentscheidungen einmalig (z. B. im Browser oder Betriebssystem) festlegen können. Websites und Apps müssen diese maschinenlesbaren Signale künftig automatisch respektieren. Unternehmen müssen ihre Consent-Mechanismen deshalb technisch so gestalten, dass diese Standards verarbeitet werden können.
- Differenzierung zwischen risikoreichem Tracking und risikoarmen Nutzungen: Der Vorschlag führt eine „Whitelist“ bestimmter, datenschutzfreundlicher Nutzungsarten ein, beispielsweise für statistische Auswertungen oder aggregierte Reichweitenmessungen. Wenn die festgelegten Bedingungen erfüllt sind, dürfen Unternehmen Gerätedaten für eng definierte Zwecke ohne Einwilligung und ohne Cookie-Banner verarbeiten. Für Unternehmen, die primär Performance-Analysen oder Serviceoptimierungen durchführen, bedeutet dies weniger Banner, geringeren Compliance-Aufwand und ein nutzerfreundlicheres Erlebnis.
- Strengere Durchsetzung, aber mehr Rechtssicherheit: Durch die Integration in die DSGVO unterliegen Verstöße gegen Regeln zum Endgerätezugriff künftig unmittelbar dem bestehenden Sanktionsrahmen. Gleichzeitig soll die Reform die Rechtssicherheit erhöhen, indem sie Fragmentierung reduziert und Schutzstandards präzisiert.
- Präzisierungen zur Definition personenbezogener Daten: Der Vorschlag setzt aktuelle EuGH-Rechtsprechung um. Daten gelten für einen Empfänger nicht als personenbezogen, wenn dieser realistischerweise keine Möglichkeit zur Re-Identifizierung hat. Der ursprüngliche Verantwortliche, der pseudonymisiert hat, behält jedoch vollständig die Pflichten aus der DSGVO.
- Technische Leitlinien per Durchführungsrechtsakten: Die Kommission erhält die Befugnis, technische Kriterien und Methoden für Pseudonymisierung und die Bewertung von Re-Identifizierungsrisiken festzulegen. Damit sollen Unternehmen künftig über klarere Bewertungsmaßstäbe und praktische Orientierung verfügen.
- Änderungen in der DSGVO: Der „Digitale Omnibus“ verändert die Grundstruktur der DSGVO nicht, sondern adressiert konkret identifizierte Problemfelder:
- Innovation und KI: Der Vorschlag stellt klar, dass die Entwicklung und der Betrieb von KI-Systemen und Modellen auf die Rechtsgrundlage des „berechtigten Interesses“ gestützt werden können, solange die Verarbeitung alle Anforderungen der DSGVO erfüllt und nicht durch andere EU- oder nationale Vorschriften untersagt oder an eine Einwilligung geknüpft ist. o Wenn besondere Kategorien personenbezogener Daten lediglich vereinzelt in Trainings- oder Testdatensätzen auftreten und nicht Gegenstand der Sammlung sind, wird eine enge Ausnahme vom üblichen Verarbeitungsverbot eingeführt. Verantwortliche müssen angemessene Schutzmaßnahmen über den gesamten KI-Lebenszyklus hinweg umsetzen, solche Daten entfernen, sobald sie identifiziert werden, und sicherstellen, dass sie weder zur Ableitung von Ergebnissen genutzt noch Dritten zugänglich gemacht werden. Betroffene behalten ein uneingeschränktes Widerspruchsrecht gegen die Verarbeitung ihrer personenbezogenen Daten für diese KI-Zwecke.
- Vereinfachung alltäglicher Compliance-Pflichten: Informationspflichten entfallen, wenn berechtigte Gründe dafür sprechen, dass betroffene Personen die Informationen bereits besitzen und die Verarbeitung kein hohes Risiko darstellt. Davon profitieren vor allem kleinere Unternehmen mit begrenzter Datennutzung.
Zudem wird das Auskunftsrecht vor missbräuchlicher Nutzung geschützt: Verantwortliche können auf offensichtlich unberechtigte Anfragen mit Ablehnung oder einer angemessenen Gebühr reagieren; die Anforderungen an den Missbrauchsnachweis werden gesenkt.
- Datenschutz-Folgenabschätzungen werden durch EU-weit einheitliche Listen harmonisiert – sowohl für Verarbeitungstypen, die stets eine DSFA erfordern, als auch für solche, die keine benötigen. Dies wird ergänzt durch eine einheitliche Methodologie und Vorlage.
Meldungen von Datenschutzverletzungen an Aufsichtsbehörden werden künftig an die Schwelle des „hohen Risikos“ angeglichen – dieselbe Schwelle, ab der bereits eine Benachrichtigung der betroffenen Personen erforderlich ist. Die Meldung erfolgt zentral über eine gemeinsame Anlaufstelle, die mit anderen digitalen und cybersicherheitsbezogenen Regelwerken verknüpft ist. Für Unternehmen bedeutet dies weniger Meldungen mit geringem Nutzen, eine besser kalkulierbare Risikobewertung sowie einen effizienteren Austausch mit den Aufsichtsbehörden.
- Innovation und KI: Der Vorschlag stellt klar, dass die Entwicklung und der Betrieb von KI-Systemen und Modellen auf die Rechtsgrundlage des „berechtigten Interesses“ gestützt werden können, solange die Verarbeitung alle Anforderungen der DSGVO erfüllt und nicht durch andere EU- oder nationale Vorschriften untersagt oder an eine Einwilligung geknüpft ist. o Wenn besondere Kategorien personenbezogener Daten lediglich vereinzelt in Trainings- oder Testdatensätzen auftreten und nicht Gegenstand der Sammlung sind, wird eine enge Ausnahme vom üblichen Verarbeitungsverbot eingeführt. Verantwortliche müssen angemessene Schutzmaßnahmen über den gesamten KI-Lebenszyklus hinweg umsetzen, solche Daten entfernen, sobald sie identifiziert werden, und sicherstellen, dass sie weder zur Ableitung von Ergebnissen genutzt noch Dritten zugänglich gemacht werden. Betroffene behalten ein uneingeschränktes Widerspruchsrecht gegen die Verarbeitung ihrer personenbezogenen Daten für diese KI-Zwecke.
Was bedeutet das für Unternehmen? - Für viele Unternehmen wird auf den ersten Blick vor allem die Aussicht auf weniger und vereinfachte Cookie-Banner im Vordergrund stehen. Tatsächlich geht die Reform jedoch deutlich weiter: Jeder gerätebasierte Datenzugriff wird in das einheitliche DSGVO-Regelwerk integriert – ergänzt durch zentrale Präferenzsignale, eine Whitelist für risikoarme Verarbeitungen und höhere Anforderungen an die Gestaltung von Einwilligungen. Gleichzeitig beseitigt der Gesetzgeber langjährige Unklarheiten, etwa zu pseudonymisierten Daten, KI-Training, Auskunftsersuchen, Informationspflichten, DSFAs sowie Meldepflichten bei Datenschutzverletzungen und schafft Strukturen für künftige technische Leitlinien. In der Praxis werden insbesondere diejenigen Unternehmen profitieren, die frühzeitig ihre Cookie- und Tracking-Praktiken an der neuen Whitelist ausrichten, Consent-Flows entlang von „Ein-Klick“-Entscheidungen und zentralen Signalen neu gestalten und KI- sowie Analyseprojekte auf Basis des präzisierten Rahmens zu berechtigtem Interesse und Pseudonymisierung entwickeln. Sie können die angekündigten Vereinfachungen am effektivsten nutzen und gleichzeitig vermeiden, zum Testobjekt für das verschärfte Durchsetzungsmodell zu werden.
Welche Änderungen bringt der Digital Omnibus im Bereich Cybersicherheitsrecht mit sich?
Vereinfachte Meldung von Cybersicherheitsvorfällen: Nach derzeitiger Rechtslage haben Unternehmen im Zuge eines Cybersicherheitsvorfalls verschiedene gesetzliche Meldepflichten nach unterschiedlichen Rechtsakten nebeneinander zu erfüllen (beispielsweise Art. 32 DSGVO, Art. 23 NIS-2-Richtlinie, Art. 14 CRA sowie viele weitere sektorspezifische Meldepflichten wie Art. 73 KI-VO für Hochrisiko-KI-Systeme, Art. 19 DORA im Finanzbereich usw.). Jede dieser Meldeverpflichtungen unterliegt abweichenden inhaltlichen Anforderungen, unterschiedlichen Meldefristen und richtet sich an jeweils unterschiedliche Stellen. Der Vorschlag der EU-Kommission soll die Meldungserstellung im Cybersicherheitsrecht vereinfachen und in einer einheitlichen Anlaufstelle bei der Europäischen Agentur für Cybersicherheit (ENISA) zusammenführen. Bei der ENISA soll dafür ein zentrales Meldeportal eingerichtet werden, in dem betroffene Unternehmen die verpflichtenden Meldungen bei Cybersicherheitsvorfällen gesammelt vornehmen können. Diese werden dann von der ENISA zentral verarbeitet und an die jeweils zuständigen Behörden weitergeleitet. Ermöglicht werden soll auch ein Austausch der jeweils gemeldeten Informationen zwischen den Behörden. Zur Umsetzung der Änderungen soll dabei die nach Art. 16 CRA angelegte Meldeplattform für Schwachstellen genutzt werden. Die EU-Kommission rechnet damit, dass die jährlichen Kosten im Zusammenhang mit der Meldung von Cybersicherheitsvorfällen dadurch um bis zu 50 % gesenkt werden können.
Ausdrücklich adressiert werden in dem Entwurf der Kommission bisher insbesondere die bestehenden Meldepflichten nach NIS-2, DSGVO, eIDAS-VO, DORA sowie die RCE-CER-Richtlinie. Die inhaltlichen Anforderungen an die einzelnen Meldepflichten und die hierfür jeweils zuständige Aufsichtsbehörde bleiben hingegen von den Änderungsvorschlägen weitestgehend unberührt. In einzelnen Punkten enthält der Vorschlag jedoch auch inhaltliche Stellschrauben. So soll etwa die Frist für Meldungen von Datenschutzvorfällen in Art. 33 DSGVO auf 96 Stunden erhöht werden und zukünftig nur noch bei Verletzungen mit hohem Betroffenenrisiko in Betracht kommen.
Was sind die wesentlichen Änderungen im Bereich Künstliche Intelligenz und dem AI Act?
Der AI Act trat im August 2024 in Kraft und findet stufenweise Anwendung: Einige Vorschriften, wie bestimmte Verbote, Anforderungen zur KI-Kompetenz und Regeln für General-Purpose-KI-Modelle, gelten bereits. Die restlichen Bestimmungen sollen ab dem 2. August 2026 verbindlich werden.Die Europäische Kommission hat im Rahmen der Stakeholder-Konsultationen 2025 mehrere Herausforderungen identifiziert und schlägt nun folgende Anpassungen vor:
- Neuer Zeitplan für Hochrisiko-KI-Systeme: Die Anwendung der Regeln wird an die Verfügbarkeit von Standards und Unterstützungsinstrumenten gekoppelt. Nach Bestätigung der Kommission, dass diese ausreichend verfügbar sind, treten die Regeln nach einer Übergangsfrist in Kraft.
- Annex III KI-Systeme: 6 Monate nach der Entscheidung der Kommission oder spätestens bis 2. Dezember 2027.
- Annex I Systeme: 12 Monate nach der Entscheidung oder spätestens bis 2. August 2028.
- KI-Kompetenz: Die Verpflichtung der Unternehmen, ein angemessenes Niveau an KI-Kompetenz sicherzustellen, entfällt. Stattdessen sollen Kommission und Mitgliedstaaten Anbieter und Anwender ermutigen, ausreichende KI-Kompetenz bereitzustellen.
- Verarbeitung besonderer Kategorien personenbezogener Daten: Anbieter und Anwender von KI-Systemen dürfen besondere Kategorien personenbezogener Daten für Bias-Erkennung und -Korrektur verarbeiten, sofern geeignete Schutzmaßnahmen eingehalten werden.
- Registrierung von Hochrisiko-KI-Systemen: Systeme, die in Hochrisikobereichen für Aufgaben genutzt werden, die selbst nicht als Hochrisiko gelten, müssen nicht mehr registriert werden.
- Erweiterung der Nutzung von KI-Regulierungs-Sandboxes und Real-World-Tests: Ab 2028 soll unter anderem eine EU-weite Regulierungs-Sandbox eingerichtet werden.
- Abschaffung der Vorschrift eines harmonisierten Post-Market-Monitoring-Plans.
- Ausweitung vereinfachter Compliance-Regelungen auf kleine Mid-Cap-Unternehmen (KMUs): Für SMCs sollen bspw. vereinfachte Regeln für die erforderliche technische Dokumentation für KI-Systeme gelten.
- Zentralisierung der Aufsicht über KI-Systeme auf Basis von General-Purpose-Modellen: Die Aufsicht wird beim AI Office gebündelt, um Governance-Fragmente zu reduzieren. Auch KI in sehr großen Online-Plattformen und Suchmaschinen wird auf EU-Ebene überwacht.
- Klarstellung des Zusammenspiels mit anderen EU-Rechtsvorschriften: Verfahren werden vereinfacht, um die rechtzeitige Verfügbarkeit von Konformitätsbewertungsstellen zu gewährleisten.
Böse Überraschungen bei vermeintlichen Vertretungsrechten zwischen Ehegatten / eingetragenen Lebenspartnern
In der Beratungspraxis begegnet man immer wieder der Annahme, Ehepartner / eingetragene Lebenspartner dürften umfassend füreinander Entscheidungen treffen, wenn der andere durch Krankheit oder Unfall handlungsunfähig wird.
Dem ist nicht so, was zu bösen Überraschungen führen kann.
Zum 1. Januar 2023 wurde im Zuge der Reform des Betreuungsrechts erstmals das sog. Ehegatten-Notvertretungsrecht (§ 1358 BGB) eingeführt. Zuvor war eine gesetzliche Vertretungsbefugnis nur im Umfang der Geschäfte zur Deckung des Lebensbedarfs (§ 1357 Abs. 1 BGB) vorgesehen. Dies ermöglichte es, vereinfacht gesagt, „im Rahmen des Wocheneinkaufs“ auch den anderen Ehegatten zu vertreten. Eine weitergehende Berechtigung bestand jedoch nicht.
Auch mit der Einführung des Ehegatten-Notvertretungsrechts hat sich dies nicht wesentlich und nur im Rahmen der Gesundheitssorge geändert. Im Einzelnen:
„Kann ein Ehegatte aufgrund von Bewusstlosigkeit oder Krankheit seine Angelegenheiten der Gesundheitssorge rechtlich nicht besorgen“, so darf der andere Ehegatte (§ 1358 Abs. 1 BGB) für einen Zeitraum von maximal sechs Monaten im Wesentlichen:
- in Untersuchungen, Heilbehandlungen und ärztliche Eingriffe einwilligen oder diese ablehnen (mit Einschränkungen des § 1358 Abs. 6 i.V.m. § 1829 BGB),
- Behandlungs-/Krankenhausverträge oder Verträge über eilige Rehabilitationsmaßnahmen abschließen und durchsetzen,
- in begrenztem Umfang über freiheitsentziehende Maßnahmen (etwa Bettgitter) entscheiden und
- Ansprüche gegenüber Dritten (z.B. Sozialleistungsträger) aufgrund der Krankheit geltend machen.
Es gilt für diesen Zeitraum auch eine Entbindung von der ärztlichen Schweigepflicht gegenüber dem Ehegatten.
Der Ehegatte/ Lebenspartner hat dabei das Vertretungsrecht nach den Wünschen oder dem mutmaßlichen Willen des Erkrankten auszuüben.
Dieses Notvertretungsrecht gilt jedoch nicht, wenn die Partner getrennt sind oder eine Vorsorgevollmacht erteilt wurde, die die genannte Rechte umfasst oder wenn eine Betreuung mit diesem Aufgabenbereich eingerichtet ist. Allerdings kann der Vertretung gegenüber dem Ehegatten vorab widersprochen oder diese Entscheidung im Zentralen Vorsorgeregister eingetragen werden. In einigen Fällen ist weiterhin die Genehmigung des Betreuungsgerichts erforderlich.
Zur Ausübung des Notvertretungsrechts muss zusätzlich ein Arzt das Vorliegen der Voraussetzungen schriftlich bestätigen (vgl. § 1358 Abs. 4 BGB).
Die Ausführungen machen deutlich, dass eine Vertretung in (anderen), v.a. finanziellen Angelegenheiten, nicht erfasst ist.
Eine umfassende Vertretungsmöglichkeit für den Ehegatten kann nur erreicht werden, indem dieser bereits vor dem Notfall ausdrücklich bevollmächtigt wird. Regelmäßig empfiehlt sich hierzu neben der Bankvollmacht die Erteilung einer Vorsorgevollmacht, um die Handlungsfähigkeit des Ehegatten / Lebenspartners sicherzustellen. Weitere wichtige Informationen finden sie hier.
In der Vorsorgevollmacht, idealerweise auch in Kombination mit einer Patientenverfügung, kann umfassend und ausführlich geregelt werden, welche Rechte dem Partner (oder auch einem Dritten) im Vorsorgefall zustehen sollen und welche Behandlung (oder Nicht-Behandlung) man sich wünscht.
Gerne beraten wir Sie zur Frage des Notvertretungsrechts sowie bei Fragen zur Vorsorgevollmacht und Patientenverfügung umfassend.
Auswahlverfahren mit Bereichsausnahme in Sachsen – Qualität und Resilienz im Fokus
Die jüngste Vergabeentscheidung des Rettungszweckverbands „Südwestsachsen“ (RettZV SWS) für neun Rettungswachen im Vogtlandkreis und Landkreis Zwickau (2026–2033) markiert einen Meilenstein: Seit Jahren von GWB-Ausschreibungen wurde erstmals auf eine klassische Ausschreibung verzichtet. In Abstimmung mit den Kassen (Kostenträger) wurde ein verwaltungsrechtliches Auswahlverfahren genutzt. Grundlage hierfür ist die Änderung des Sächsischen Rettungsdienstgesetzes (SächsBRKG). Dieses hat ermöglicht, die Bereichsausnahme Gefahrenabwehr anzuwenden.
Statt starrer Preisangebote standen bei der Auswahl Qualität und Resilienz (49 %) sowie Wirtschaftlichkeit (51 %) im Mittelpunkt. Bewertet wurden unter anderem Konzepte für Katastrophenschutz, Massenanfall von Verletzten, Schulsanitätsdienst, Jugendarbeit und Hygiene. Die Wirtschaftlichkeit wurde anhand von Personalsicherung und Sonderleistungen wie Bergwacht und Rettungshundestaffel beurteilt – jedoch ohne verbindliche Kalkulationen.
Diese Entwicklung bestätigt die Linie von SKW Schwarz: Langfristige Preiskalkulationen im Rettungsdienst sind angesichts Fachkräftemangel, Tarifsteigerungen, anziehender Inflation und sich wandelnder Anforderungen nicht nachhaltig. Stattdessen müssen Vergabeverfahren die Leistungsfähigkeit, Qualität und Resilienz des Bevölkerungsschutzes in den Mittelpunkt stellen. Dass kein Geld verschleudert wird, stellen die Verhandlungen zwischen Träger und Kassen, unterstützt durch die Leistungserbringer sicher.
Das neue Verfahren ermöglicht eine flexible, jährliche Planung und ein permanentes Controlling statt langfristiger Risikoaufschläge. Es gibt Anreize für Qualität und Ehrenamt im Bevölkerungsschutz. Sonderkündigungsrechte und Prüfungen durch den Rettungszweckverband sorgen für zusätzliche Sicherheit.
Unsere Empfehlung: Die Finanzierung und Vergabe im Rettungsdienst sollten sich an regionalen Strukturen und an der tatsächlichen Leistungsfähigkeit orientieren – nicht an Kosten über viele Jahre. Nur so bleibt der Rettungsdienst krisenfest, qualitätsorientiert, wirtschaftlich und zukunftssicher.
Wie sich die aktuell anstehende Reform der Notfallversorgung auf Bundesebene auf die Refinanzierung von Rettungsdienst und Bevölkerungsschutz auswirkt, bleibt ein großes Fragezeichen, v.a. für die Refinanzierung.
Auch dazu diskutieren wir im DVNWforum am 25.02.2026 in Berlin (mehr Informationen).
>> Zum Beitrag in der Freien Presse <<
>> Zum Rettungszweckverband “Südwestsachsen”<<
Fachbeitrag im Deutschen AnwaltSpiegel: Geografische Herkunftsangaben in der Werbung
Geografische Herkunftsangaben genießen hohes Vertrauen bei Verbraucherinnen und Verbrauchern – gleichzeitig sind sie rechtlich anspruchsvoll. In ihrem aktuellen Beitrag im Deutschen AnwaltSpiegel gibt Margret Knitter, LL.M., einen kompakten Überblick über die zentralen Anforderungen an die Werbung mit geografischen Angaben, den Schutz von Herkunftsbezeichnungen und die neuesten Entwicklungen auf EU-Ebene, insbesondere im Lebensmittel- und Markenschutzrecht.
Der Artikel beleuchtet unter anderem:
- wann geografische Bezeichnungen als Marken geschützt werden können – und wann nicht,
- welche Anforderungen gelten, um Irreführung zu vermeiden,
- den unionsrechtlichen Schutz von g.U., g.g.A. und g.t.S.,
- sowie die kommende Ausweitung des Herkunftsschutzes auf handwerkliche und industrielle Erzeugnisse.
Hier geht’s zum vollständigen Beitrag.
KI-Flash: Agentic AI – Chancen und Grenzen steigender Autonomie
Nachdem wir in unserem letzten KI-Flash über die neue Orientierungshilfe der DSK zu RAG-basierten KI-Systemen berichtet haben, möchten wir Ihnen auch künftig in regelmäßigen Abständen rechtliche Impulse zu aktuellen Entwicklungen geben.
Heutiges Thema: Agentic AI – Chancen und Grenzen steigender Autonomie
Unternehmen sehen sich mit einem immer größeren Druck zur Innovation und Effizienzsteigerung konfrontiert. Globale Abhängigkeiten, schwankende Märkte und auch der Mangel an qualifizierten Fachkräften machen eine kontinuierliche Optimierung von Prozessen unverzichtbar. In diesem Umfeld rückt auch der Einsatz von künstlicher Intelligenz (KI) zunehmend in den Vordergrund. Besonders im Fokus stehen derzeit sogenannte KI-Agenten – also Systeme, die eigenständig Entscheidungen treffen und Aufgaben ausführen können, ohne auf direkte menschliche Eingaben angewiesen zu sein. Die Technologie gilt als nächster Schritt in der Automatisierung und verspricht nicht nur Produktivitätsgewinne, sondern auch eine höhere Anpassungsfähigkeit und Widerstandsfähigkeit in komplexen Betriebsabläufen.
Der Einsatz von KI-Agenten wirft jedoch nicht nur technologische, sondern insbesondere auch rechtliche Fragen auf. Mit der europäischen KI-Verordnung (KI-VO) gilt seit August 2024 (mit weiteren zeitlichen Staffelungen) ein verbindlicher Rechtsrahmen für die Entwicklung und Nutzung von KI-Systemen. Unternehmen müssen daher insbesondere prüfen, ob ihre Agenten-Systeme unter diese regulatorischen Anforderungen fallen und welche Pflichten hieraus resultieren. Hinzu kommen u.a. Datenschutz-, Haftungs- und Zurechnungsaspekte.
Wir möchten den vorliegenden KI-Flash nutzen, um die vorgenannten Fragen in einen ersten systematischen Kontext zu setzen. Für weitere Einblicke in die Thematik werben wir sodann ausdrücklich für unsere dazugehörige Veranstaltung (mehr Informationen). Wir freuen uns auf Ihre Teilnahme!
Unklarheiten bei der Begriffsbestimmung
Bereits die Frage, was überhaupt als „KI-Agent“ zu verstehen ist, kann zu praktischen Schwierigkeiten führen. Die Begriffe KI-Agent, KI-Assistent oder – etwas technischer – KI-gestützte Workflows sind in der betrieblichen Praxis weit verbreitet, werden jedoch häufig unscharf oder gar synonym verwendet. Eine gesetzliche Definition der vorgenannten Begriffe existiert bislang nicht. Auch die KI-VO verwendet sie nicht explizit; dort wird lediglich in Art. 3 Abs. 1 KI-VO der Begriff des KI-Systems verwendet. Hiernach handelt es sich bei einem KI-System um
„ein maschinengestütztes System, das für einen in unterschiedlichem Grade autonomen Betrieb ausgelegt ist und das nach seiner Betriebsaufnahme anpassungsfähig sein kann und das aus den erhaltenen Eingaben für explizite oder implizite Ziele ableitet, wie Ausgaben wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die physische oder virtuelle Umgebungen beeinflussen können“
Für eine konsistente Bewertung der unterschiedlichen Automatisierungsstufen sollte jedoch eine funktionale Unterscheidung getroffen werden. Die nachfolgende Abgrenzung erfolgt daher anhand einer praxisorientierten Auslegung, die sich an Autonomiegrad, Zielverfolgung und Systemintegration orientiert:
- Ein KI-Assistent oder auch ein KI-gestützterWorkflow sollen hiernach als reaktive, eingebettete Funktionen innerhalb bestehender Software verstanden werden, die den Nutzer bei konkreten Aufgaben unterstützen, jedoch keine eigenen Ziele verfolgen und nicht selbstständig agieren. Typische Beispiele sind Textvorschläge oder einfache Chatfunktionen. Rechtlich sind diese Funktionen oft Teil eines KI-Systems, aber nicht zwingend selbst als solches einzustufen.
- Ein KI-Agent hingegen handelt autonom, trifft eigenständig Entscheidungen und kann Aufgaben initiieren, priorisieren und über mehrere Schritte hinweg verfolgen – auch ohne direkte Nutzereingabe. Er kann mit anderen Systemen interagieren und erfüllt regelmäßig selbst die Merkmale eines KI-Systems im Sinne der KI-VO.
Zusammenfassend: Assistenten und Workflows sind unterstützende Funktionen innerhalb einer Software und meist ohne eigene Zielverfolgung, während Agenten häufig eigenständige Systeme mit Entscheidungs- und Handlungskompetenz darstellen. Die Unterscheidung ist sowohl technisch als auch rechtlich relevant.
Beispiel: In der Microsoft-365-Copilot-Umgebung gibt es zwei Typen von (dort so bezeichneten) Agenten – jeweils mit unterschiedlichem Funktionsumfang und Autonomiegrad:
1. Copilot Agent Builder (ehemals „AgentBuilder“)
- Charakteristik: Einfach erstellbare, regelbasierte Agenten für standardisierte Aufgaben wie Onboarding, FAQ-Beantwortung oder einfache Informationsabfragen.
- Funktionsweise: Reaktiv – sie antworten auf Nutzereingaben basierend auf vordefinierten Wissensquellen (z. B. SharePoint, interne Dokumente). Keine eigenständige Zielverfolgung oder komplexe Workflow-Steuerung.
- Autonomiegrad: Niedrig. Keine selbstständige Prozessausführung, keine externe Systemintegration.
- Regulatorische Einordnung: In der Regel kein eigenständiges KI-System im Sinne der KI-VO, sondern eingebettete Komponenten innerhalb des übergeordneten KI-Systems „Microsoft Copilot“.
2. Copilot Studio Agents
- Charakteristik: Hochgradig anpassbare Agenten, die über Low-Code/Pro-Code erstellt werden und komplexe Aufgaben übernehmen können.
- Funktionsweise: Unterstützt die Integration externer Dienste (bspw. über APIs), Multi-Step-Workflows, Event-Trigger und teilweise autonome Prozessausführung.
- Autonomiegrad: Mittel bis hoch. Sie Können insbesondere eigenständig Workflows starten und orchestrieren.
- Regulatorische Einordnung: Copilot Studio Agents erfüllen regelmäßig die Kriterien eines KI-Systems nach der KI-VO, da sie nicht mehr „nur“ Komponente des Systems „Microsoft Copilot“ sind.
Im Rahmen unseres o.g. Webinars wird Frau Dr. Sara Jourdan (CEO & Co-founder, Genow GmbH) einen technischen Blick auf Agentensysteme werfen und hierbei die unterschiedlichen technischen Ansätze und Architekturen aufzeigen.
KI-Agenten und Risikoklassen
Die Risikoklassifizierung eines KI-Agenten nach der KI-VO hängt maßgeblich vom konkreten Einsatzbereich und den damit verbundenen Risiken ab. Die KI-VO unterscheidet zwischen verbotenen, Hochrisiko-, und KI-Systemen mit Transparenzpflichten. Während verbotene KI-Praktiken in Art. 5 KI-VO abgebildet werden (dies betrifft bspw. die Emotionserkennung am Arbeitsplatz), hat die Einstufung als Hochrisiko-KI-System anhand der in Anhang I und III der KI-VO aufgeführten Anwendungsfälle zu erfolgen. KI-Agenten, die beispielsweise sicherheitsrelevante Aufgaben übernehmen und Entscheidungen mit erheblichen Auswirkungen auf Personen treffen (bspw. im Kontext von Medizinprodukten) oder in kritischen Infrastrukturen eingesetzt werden, können als Hochrisiko-KI-Systeme eingestuft werden. Ein weiterer, praxisrelevanter Hochrisiko-Bereich ist etwa der Einsatz von KI-Agenten im HR-Bereich, bspw. zur eigenständigen Bewertung und Auswahl von eingehenden Bewerbungen, wobei die konkrete Einordnung natürlich immer am Einzelfall zu erfolgen hat.
In diesen Fällen gelten umfangreiche Anforderungen, etwa zur technischen Dokumentation, zur Transparenz, zur menschlichen Aufsicht und zur regelmäßigen Überprüfung. Für KI-Agenten die demgegenüber außerhalb des Hochrisikobereichs gelten weniger strenge, aber dennoch relevante Pflichten, wie Kennzeichnung und grundlegende Transparenz.
Unternehmen müssen daher für jeden KI-Agenten, der die Qualität eines KI-Systems erreicht, eine individuelle Risikobewertung vornehmen und die daraus resultierenden regulatorischen Anforderungen umsetzen. Dies setzt neben dem Bewusstsein über die rechtlichen Anforderungen eine praktisch umsetzbare Vorgehensweise zur Prüfung und Freigabe entsprechender Agenten voraus. Wie eine solche Vorgehensweise aussehen könnte, möchten wir in unserem o.g. Webinar aufzeigen.
Automatisierung und Datenschutz
Der Einsatz von KI-Agenten berührt auch zentrale Datenschutzfragen, da diese Systeme eigenständig personenbezogene Daten verarbeiten und ggf. sogar Entscheidungen treffen können. Nach der DS-GVO bleibt jedoch das Unternehmen Verantwortlicher für die Datenverarbeitung, auch wenn ein KI-Agent agiert. Unternehmen müssen daher sicherstellen, dass alle datenschutzrechtlichen Vorgaben eingehalten werden.
KI-Agenten können personenbezogene Daten verarbeiten und hierbei automatisierte Entscheidungen treffen. Als Beispiel können intelligente Chatbots auf B2C-Online-Plattformen genannt werden. Eine entsprechende Vorgehensweise ist jedoch nur dann zulässig, sofern die Voraussetzungen des Art. 22 DS-GVO erfüllt sind. Automatisierte Einzelentscheidungen mit rechtlicher Wirkung sind hiernach grundsätzlich verboten, es sei denn, eine Einwilligung, eine spezifische gesetzliche Grundlage oder ein Vertrag liegt vor, der diese Vorgehensweise zulässt. In solchen Fällen sind jedoch Schutzmaßnahmen wie menschliche Eingriffsmöglichkeiten und Anfechtungsrechte für betroffene Personen zwingend erforderlich.
Auch Transparenz ist entscheidend: Unternehmen müssen Betroffene klar über den Einsatz von KI-Agenten, die verarbeiteten Daten und die Entscheidungslogik informieren. Bei hohem Risiko – etwa bei sensiblen Daten oder bei Profilbildung – ist zudem eine Datenschutz-Folgenabschätzung nach Art. 35 DS-GVO erforderlich. Ergänzend sind technische und organisatorische Maßnahmen wie Zugriffsbeschränkungen, Verschlüsselung und kontinuierliches Monitoring umzusetzen, um Datenschutzverstöße zu verhindern.
Haben wir Ihr Interesse geweckt?
Melden Sie sich gerne zu unserem interdisziplinären Webinar am Dienstag, den 25. November 2025 an, und lassen Sie sich einen weiteren spannenden digitalen bite, praktisch und kompakt in Ihrer Mittagspause näherbringen. Wir freuen uns auf Ihre Teilnahme!
Digital Bites
- Agentic AI – Chancen und Grenzen steigender Automatisierung
- am Dienstag, 25. November 2025, 12:30 Uhr – 13:30 Uhr, über MS-Teams
- >>Weiterführende Informationen hier<<
Bundestag beschließt NIS-2-Umsetzungsgesetz – Unternehmen sollten spätestens jetzt NIS-2-compliant werden
Das deutsche NIS-2-Umsetzungsgesetz ist gestern am 13.11.2025 – endlich! – vom Bundestag beschlossen worden (s. hier). Im nächsten Schritt wird sich der Bundesrat mit dem Gesetz befassen. Mit der Verkündung im Bundesgesetzblatt und dem Inkrafttreten des Gesetzes ist spätestens (!) Anfang 2026 zu rechnen.
Unternehmen, die sich bislang darauf verlassen haben, dass der deutsche Gesetzgeber den Gesetzgebungsprozess nur schleppend (und im Übrigen europarechtswidrig) vorangetrieben hat, sollten sich also spätestens jetzt mit NIS-2 auseinandersetzen und in die Umsetzung einsteigen.
Mit unserem Team, das in den vergangenen Monaten zahlreiche NIS-2-Umsetzungsprojekte begleitet hat, stehen wir Unternehmen zu allen Rechtsfragen zur IT-Sicherheit zur Verfügung. Wir verfügen zudem über ein Netzwerk von technischen Dienstleistern, mit denen wir bei Bedarf Ihr NIS-2 Projekt interdisziplinär begleiten und umsetzen. Gerne verweisen wir auch auf unser umfassendes Whitepaper, welches hier abrufbar ist: s. hier.
Drei Punkte, auf die wir Unternehmen nochmal hinweisen möchten:
- Unternehmen müssen selbst prüfen, ob sie von dem Gesetz betroffen sind. Die konkrete Anwendbarkeitsprüfung ist eine Rechtsfrage. Anders, als man dies landläufig schon gehört hat, wird das BSI auch keine Liste mit den betroffenen Unternehmen veröffentlichen. Das ist elementar für die richtige Entscheidung und Enthaftung der Geschäftsleitung. Als erste Einordnung kann unser NIS-2-Betroffenheitstool dienen, welches hier abrufbar ist: s. hier.
- Es gibt keine Übergangsfristen. Mit Inkrafttreten des Gesetzes gelten alle Pflichten, insbesondere zur Umsetzung der Cyber-Risikomanagementmaßnahmen, zur Registrierung beim BSI und zur Meldung von relevanten Sicherheitsvorfällen gegenüber Behörden und anderen Stellen.
- Selbst wenn Ihr Unternehmen nicht direkt unter die NIS2-Regeln fällt, ist die Wahrscheinlichkeit erheblich gestiegen, dass einer oder mehrere Ihrer Kunden darunterfallen und daher von allen Lieferanten verlangen (müssen), dass sie dokumentieren können, ihren Teil der Cyberresilienz zu erfüllen. Die wenigsten Unternehmen sind auf solche Anfragen bereits vorbereitet, obwohl sie für die Wettbewerbsfähigkeit sehr wichtig sind.
Für weitere Informationen sprechen Sie unser Team jederzeit gerne an.
Künstliche Intelligenz im Wandel: Wie Deutschland im internationalen Vergleich aufgestellt ist
Wie gehen unterschiedliche Länder mit den Chancen und Risiken von Künstlicher Intelligenz um? Der neue Lexology Guide „Panoramic Next: Artificial Intelligence“ gibt einen globalen Überblick und zeigt, wie sich die rechtlichen Rahmenbedingungen weltweit entwickeln.
Unsere Experten Moritz Mehner und Dr. Christoph Krück haben darin die Perspektive für Deutschland übernommen. Sie analysieren, wie der EU AI Act, nationale Initiativen wie das geplante KI Marktüberwachungsgesetz (KIMÜG) sowie Fragen zu Datenschutz und Ethik das regulatorische Umfeld prägen und welche Chancen sich daraus für Innovation und Wirtschaft ergeben.
Besonders spannend ist der internationale Vergleich: Der Guide beleuchtet die Entwicklungen in Ländern wie den USA, China, Japan, Indien, Frankreich, Belgien und der Schweiz. So wird deutlich, wie unterschiedlich Staaten weltweit auf das Thema Künstliche Intelligenz reagieren und wo Deutschland im globalen Kontext steht.
Mit ihrer Mitwirkung an dieser internationalen Publikation unterstreicht SKW Schwarz ihre führende Rolle an der Schnittstelle von Recht, Technologie und Innovation. Wir unterstützen Unternehmen dabei, Künstliche Intelligenz rechtssicher, verantwortungsvoll und zukunftsorientiert einzusetzen, im Einklang mit europäischen und internationalen Standards.
Der vollständige Guide ist auf der Website von Lexology verfügbar.
Vergabewende für mehr Resilienz: René M. Kieselmann im Interview mit Wohlfahrt Intern
Wie kann das Vergaberecht dazu beitragen, die Notfallversorgung in Deutschland krisenfester zu machen?
Unser Partner und Fachanwalt für Vergaberecht René M. Kieselmann spricht in der Wohlfahrt intern über die Notwendigkeit einer „Vergabewende“ im Rettungsdienst.
Er fordert, Ausschreibungen stärker auf Qualität, Krisenfestigkeit und gesellschaftliche Resilienz auszurichten – und nicht allein auf den Preis. Dieser wird durch andere Strukturen (z.B. Budgetverhandlungen mit Krankenkassen) kontrolliert. Besonders im Fokus steht die Rolle freigemeinnütziger Hilfsorganisationen, deren Strukturen entscheidend für den Bevölkerungsschutz sind – wobei auch „private“ Anbieter Positives für Ehrenamt und Katastrophenschutz leisten können.
„Ausschreibungen im Rettungsdienst, die sich ausschließlich am Preis orientieren, müssen weg“, so Kieselmann. „Wir brauchen ein System, das die Gesellschaft widerstandsfähiger gegen Krisen macht.“
Das vollständige Interview finden Abonnenten von Wohlfahrt intern hier und als Auszug in PDF-Format mit freundlicher Genehmigung von Wohlfahrt intern hier.
"Wann muss ich Trennungsunterhalt zahlen?" – Christoph Meyer als WiWo Coach
In der Rubrik „WiWo Coach“ beantwortet ein Expertenteam der WirtschaftsWoche regelmäßig Fragen von Leserinnen und Lesern zu Geldanlage, Vorsorge, Steuern, Recht und Karriere.
In der aktuellen Ausgabe geht Christoph Meyer, Rechtsanwalt und Partner bei SKW Schwarz, der Frage nach, wann man Trennungsunterhalt zahlen muss.
Anhand eines konkreten Leserfalls erklärt Christoph Meyer, dass Ehegatten nach einer Trennung grundsätzlich Trennungsunterhalt zahlen, wenn ein Einkommensunterschied besteht. Maßstab ist der Lebensstandard während der Ehe und der Halbteilungsgrundsatz.
Zum vollständigen Beitrag in der WirtschaftsWoche:
Wann muss ich Trennungsunterhalt zahlen? (wiwo.de)
LG München I: Kein Schadensersatz aus DSGVO bei widersprüchlichem Verhalten des Nutzers
Das LG München I hat am 27. August 2025, Az. 33 O 635/25, ein interessantes Urteil zu einer Schadensersatzforderung nach Art. 82 DSGVO getroffen.
Das LG München I hat die Klage eines Nutzers einer amerikanischen Social Media Plattform u.a. abgewiesen, weil er sich widersprüchlich verhalten habe.
Der Kläger hat aus der EU heraus eine amerikanische Social Media Plattform genutzt und dann im Rahmen seines Klagevortrags u.a. mit einer rechtswidrigen Übertragung seiner personenbezogenen Daten in die USA argumentiert (vgl. Rdnr. 43 ff).
Nach Auffassung des Gerichts handelt entgegen Treu und Glauben, wer einerseits den Kommunikationsdienst eines Anbieters in Kenntnis des behaupteten Rechtsverstoßes nutzt und andererseits den Anbieter gerade für das Anbieten (des Kommunikationsdienstes) auf Schadensersatz in Anspruch nimmt.
Hintergrund
Nach Art. 82 Abs. 1 DSGVO kann grundsätzlich jede Person, der wegen eines Verstoßes gegen die DSGVO ein materieller oder immaterieller Schaden entstanden ist, Schadenersatz von dem Verantwortlichen und/oder vom dem Auftragsverarbeiter verlangen. Ein Schadensersatz kann dem Grunde nach gegeben sein, wenn die Datenverarbeitung rechtswidrig ist (hier: die Übermittlung von personenbezogenen Daten aus der EU heraus in die USA ohne Einhaltung der Anforderungen an eine internationale Datenübermittlung nach den Art. 44 ff DSGVO).
Am 16. Juli 2020 erklärte der EuGH in der Rs. Schrems II den EU-U.S. Privacy Shield für ungültig. Bis zum Inkrafttreten des EU-U.S. Data Privacy Framework am 11. Juli 2023 konnten daher keine Daten auf Grundlage des Art. 45 Abs. 1 DSGVO in die USA übermittelt werden.
Nach Auffassung des Klägers waren Datenübermittlungen von einer europäischen Tochter an die U.S.-amerikanische Konzernmuttergesellschaft in diesem Zeitraum (2020 bis 2023) daher rechtswidrig. Aufgrund der Zugriffsmöglichkeit von U.S.-amerikanischen Behörden auf die übermittelten Daten habe der Kläger einen erheblichen Kontrollverlust erlitten und daraus resultierend einen Schaden iSd Art. 82 DSGVO.
Kernaussagen
- Keine Rechtswidrigkeit der Datenübermittlung in Drittland bei Standardvertragsklauseln
Eine Datenübermittlung in ein Drittland kann auch ohne Angemessenheitsbeschluss im Sinne des Art. 45 DSGVO rechtmäßig sein, wenn zwischen dem Verantwortlichen/Auftragsverarbeiter und dem Empfänger Standardvertragsklauseln vereinbart sind und wirksame Rechtsbehelfe zur Verfügung stehen (Art. 46 Abs. 1, Abs. 2 lit. c DSGVO).
- Kein Anspruch auf eine Verarbeitung von personenbezogenen Daten nur in Europa
Soziale Netzwerke, die „global konzipiert“ sind (vgl. Rdnr. 41), setzen technisch einen internationalen Austausch von personenbezogenen Daten voraus.
Einem Nutzer einer solcher Plattformen ist dieser Umstand hinlänglich bekannt. Es besteht auch kein Anspruch gegen die Betreiberin eines solchen Netzwerks, den Dienst als „rein europäische[…] Plattform[en]“ zu betreiben:
„Die unternehmerische Entscheidung …, ein weltweites Netzwerk anzubieten […] und Daten in den USA zu verarbeiten, ist von den Nutzern, die sich freiwillig für eine entsprechende Nutzung entscheiden, hinzunehmen.“
- Kein Schadensersatz bei widersprüchlichem Nutzerverhalten
Zuletzt kann nach Auffassung des Gerichts einen Schadensersatzanspruch nicht geltend machen, wer bewusst eine weltweit agierende amerikanische Social Media Plattform nutzt, obwohl allgemein bekannt ist, dass dabei Daten in die USA übermittelt werden und U.S.-amerikanische Geheimdienste auf diese Daten unter Umständen zugreifen können. Ein solches Vorgehen verstoße gegen das Gebot von Treu und Glauben.
Ausblick
Das Urteil des LG München I ist zu begrüßen.
Mit dem Urteil erteilt das LG München I den „massenhaft[…]“ auftretenden, „weitgehend aus Textbausteinen bestehenden Klagen“ auf Schadensersatz aus Art. 82 DSGVO, bei denen bereits die tatsächliche Beeinträchtigung zweifelhaft ist und der Nutzer / Kläger sich widersprüchlich verhält, etwa indem dieser trotz behauptet schwerer Beeinträchtigung weiter einen anderen Dienst desselben Anbieters nutzt, eine klare Absage.
KI-Flash: Neue Orientierungshilfe der DSK zu RAG-basierten KI-Systemen
Nachdem wir in unserem letzten KI-Flash über die aktuellen FAQ der EU-Kommission zur Umsetzung der KI-Verordnung berichtet haben, möchten wir Ihnen auch künftig in regelmäßigen Abständen rechtliche Impulse zu aktuellen Entwicklungen geben.
Heutiges Thema: Neue Orientierungshilfe der DSK zu RAG-basierten KI-Systemen
Am 17. Oktober 2025 hat die Datenschutzkonferenz (DSK) eine neue Orientierungshilfe (OH) zu den datenschutzrechtlichen Anforderungen beim Einsatz generativer KI-Systeme mit Retrieval Augmented Generation (RAG) veröffentlicht. Das Dokument richtet sich insbesondere an Unternehmen und öffentliche Stellen, die solche Systeme bereits nutzen oder deren Einsatz planen. Es beleuchtet sowohl die technischen Grundlagen als auch die datenschutzrechtlichen Implikationen und gibt konkrete Empfehlungen für die Praxis. Da RAG-basierte Systeme zunehmend in verschiedenen Branchen eingesetzt werden, wurde diesem Themenfeld nun ein eigener KI-Flash gewidmet.
Technischer Hintergrund
Retrieval Augmented Generation (RAG) bezeichnet ein technisches Konzept zur Verbesserung des Outputs generativer KI-Systeme, insbesondere großer Sprachmodelle (Large Language Models, LLMs). Ziel ist es, die Qualität, Genauigkeit und Nachvollziehbarkeit der generierten Inhalte zu erhöhen, indem ausgewählte Wissensquellen in den Verarbeitungsschritt des KI-Systems eingebunden werden. Ein RAG-System besteht – vereinfacht dargestellt – aus zwei funktional getrennten, aber eng verzahnten Hauptkomponenten:
Retriever: Diese Komponente identifiziert und extrahiert kontextrelevante Informationen aus einer externen Wissensquelle (z. B. Vektordatenbank, Dokumentenspeicher). Die Auswahl erfolgt typischerweise auf Basis semantischer Ähnlichkeit zur Nutzeranfrage – die DSK stellt hierbei auf die semantische Nähe durch die Distanz von Vektorrepräsentationen im Einbettungsraum ab. Diese Vektorrepräsentationen entstehen durch sogenannte Embeddings, also mathematische Abbildungen von Texten in einen Vektorraum, die semantische Ähnlichkeiten zwischen Textabschnitten rechnerisch erfassbar machen. Die eingebundenen Datenquellen können strukturierte oder unstrukturierte Inhalte enthalten, deren datenschutzrechtliche Bewertung – bei personenbezogenen Daten – gesondert erfolgen muss.
- LLM-Komponente (generative KI-Modelle): Das Sprachmodell verarbeitet die vom Retriever bereitgestellten Inhalte und generiert darauf basierend eine Antwort. Die Ausgabe beruht somit nicht ausschließlich auf dem jeweiligen „Modellwissen“, sondern auf explizit eingebundenen, aktuellen und kontextbezogenen Informationen. Dies erhöht die Nachvollziehbarkeit der Ergebnisse, kann aber auch zu einer komplexeren Datenverarbeitung führen, insbesondere, da das Output durch die Kombination von externen Daten und modell-internem Wissen beeinflusst wird.
Die Architektur von RAG kann u.a. dazu beitragen, typische Schwächen generativer KI-Systeme – insbesondere die Tendenz zu „Halluzinationen“ – zu reduzieren und die Ausgaben besser nachvollziehbar zu gestalten. RAG-Systeme werden daher zunehmend in Unternehmen und Behörden eingesetzt, sowohl intern als auch extern. Sie unterstützen u.a. bei:
- der Informationsrecherche,
- der automatisierten Kundenkommunikation, sowie
- datenintensiven Bereichen wie Forschung und Entwicklung.
Durch die Einbindung unternehmensspezifischer Wissensquellen ermöglichen sie eine kontextbezogene und effiziente Bearbeitung komplexer Aufgaben. Die DSK hebt in ihrer OH explizit hervor, dass RAG-Systeme zur digitalen Souveränität beitragen können, etwa durch lokalen Betrieb (On-Premise) und geringere Abhängigkeit von Cloud-Anbietern.
Datenschutzrechtliche Herausforderungen
RAG-Systeme sind aus datenschutzrechtlicher Sicht dennoch differenziert zu betrachten. Zwar bieten sie Potenzial zur Verbesserung der Datenverarbeitung, gleichzeitig entstehen nach Ansicht der DSK jedoch neue Herausforderungen:
- Doppelte Datenverarbeitung: Personenbezogene Daten können sowohl im Retriever (z. B. durch eingebundene Dokumente) als auch „in“ der LLM-Komponente verarbeitet werden. Dies erhöht die Komplexität der datenschutzrechtlichen Bewertung.
- Transparenz und Zweckbindung: Die modulare Architektur erschwert die klare Zuordnung von Zwecken sowie die transparente Information der Betroffenen, da die Herkunft und Bedeutung der Embeddings sowie die genaue Entstehung des Outputs nach Ansicht der DSK oft nicht nachvollziehbar sind.
- Betroffenenrechte: Dynamisch generierte Inhalte können die Umsetzung von Auskunfts-, Berichtigungs- oder Löschrechten erschweren. Betroffenenrechte sind jedoch stets in allen Komponenten des RAG-Systems umzusetzen.
- Rechtswidriges Training: Die datenschutzrechtliche Bewertung eines RAG-Systems muss sowohl das RAG-Subsystem als auch das zugrunde liegende Sprachmodell (LLM) umfassen. Ein rechtswidrig trainiertes Modell bleibt auch dann rechtwidrig, wenn es im Rahmen eines RAG-Systems eingesetzt wird. Die Einbindung externer Datenquellen kann die Qualität der Ausgaben verbessern, hebt jedoch die Anforderungen an das Basismodell nicht auf (wir hatten zum Meinungsbild des EDSA bereits berichtet).
- Pflege der Datenquellen: Die Aktualisierung und Qualitätssicherung der eingebundenen Inhalte liegt in der Verantwortung des jeweiligen Betreibers und ist essenziell für die Verlässlichkeit der Ausgaben.
Datenschutzfreundliche Potenziale
Die DSK nennt jedoch auch einige Vorteile, die sich positiv auf die Datenschutzkonformität auswirken können. RAG
- ermöglicht erhöhte Genauigkeit und Nachvollziehbarkeit durch Zugriff auf überprüfbare Datenquellen.
- verringert Halluzinationen, da die generierten Inhalte auf reale, kontextbezogene Informationen gestützt werden.
- ermöglicht einen datenschutzfreundlicheren Betrieb, insbesondere bei lokalem Hosting (On-Premise).
- reduziert den Trainingsdatenbedarf, insbesondere im Vergleich zu Fine-Tuning-Ansätzen, da die RAG-Methode auf eine dynamische Anreicherung statt dauerhafte Modellanpassung setzt.
- fördert digitale Souveränität, da Unternehmen eigene Datenquellen nutzen und sich bspw. von großen Cloud-Anbietern unabhängig machen können.
Unternehmen und Behörden, die RAG-Systeme einsetzen oder deren Einsatz planen, sollten gezielt Maßnahmen ergreifen, um die datenschutzrechtlichen Anforderungen zu erfüllen und die Potenziale der Technologie verantwortungsvoll zu nutzen. Die DSK empfiehlt insbesondere:
- Durchführung einer Datenschutz-Folgenabschätzung gemäß Art. 35 DSGVO, unter Berücksichtigung aller Komponenten des RAG-Systems (Retriever, Vektordatenbank, LLM).
- Klare Zweckdefinition und Zwecktrennung für die eingebundenen Datenquellen, insbesondere bei personenbezogenen Daten in Referenzdokumenten.
- Aktualisierung und Pflege der Dokumentation, z. B. des Verzeichnisses von Verarbeitungstätigkeiten, inklusive Beschreibung der erweiterten Anfrage und Datenflüsse.
- Implementierung technischer und organisatorischer Schutzmaßnahmen, etwa Mandantentrennung, Rechte- und Rollenkonzepte sowie Zugriffsbeschränkungen auf die Vektordatenbank.
- Sicherstellung der Rechtskonformität der eingesetzten KI-Modelle, insbesondere hinsichtlich des Trainingsdatensatzes und der Einhaltung aller DSGVO-Grundsätze.
- Etablierung von Kontrollmechanismen zur Qualitätssicherung, z. B. durch Systemprompts zur Quellenbindung, regelmäßige Prüfung der Referenzdokumente und Monitoring der KI-Ausgaben.
- Schulung der Mitarbeitenden, insbesondere zu den datenschutzrechtlichen Besonderheiten von RAG-Systemen und zur sicheren Nutzung der Systeme im jeweiligen Anwendungskontext.
Praxishinweis
Der Einsatz von RAG-Systemen bietet Unternehmen und öffentlichen Stellen erhebliche Potenziale – insbesondere hinsichtlich Effizienz, Genauigkeit und digitaler Souveränität. Gleichzeitig verlangt die komplexe Architektur solcher Systeme eine sorgfältige datenschutzrechtliche Bewertung. Entscheidend ist, dass die Einbindung externer Datenquellen nicht als Freifahrtschein für die Nutzung generativer KI-Systeme verstanden werden darf. Vielmehr müssen alle Komponenten – vom Retriever bis zum LLM selbst – in die datenschutzrechtliche Analyse einbezogen werden, einschließlich der Referenzdokumente, der Vektordatenbank und des Embedding-Modells. Unsere Expert:innen bei SKW Schwarz unterstützen Sie gerne jederzeit bei der datenschutzkonformen Bewertung und Implementierung von RAG-Systemen.
KI-Flash: FAQ der Europäischen Kommission zu praxisrelevanten Fragen bei der Anwendung und Umsetzung der KI-Verordnung
Nachdem wir in unserem letzten KI-Flash über die stufenweise Anwendbarkeit der KI-Verordnung berichtet haben, möchten wir Ihnen auch künftig in regelmäßigen Abständen rechtliche Impulse zu aktuellen Entwicklungen geben.
Heutiges Thema: Neues FAQ der Europäischen Kommission zu praxisrelevanten Fragen zur Anwendung und Umsetzung der KI-Verordnung
Die KI-Verordnung ist am 1. August 2024 in Kraft getreten und sieht eine schrittweise Umsetzung ihrer Regelungen vor. Während Regelungen zur KI-Kompetenz sowie zu GPAIM bereits heute anwendbar sind, folgen ab August 2026 weitere Regelungen zur Transparenz sowie zu Hochrisiko-KI-Systemen. Im Oktober 2025 wurde nun das sog. AI Act Service Desk inkl. einer FAQ-Sektion von der Europäischen Kommission veröffentlicht. Ziel der Veröffentlichung ist es, Unternehmen bei der praktischen Umsetzung und Einordnung des Regelwerks zu unterstützen.
Überblick zu den Kerninhalten des FAQ
Das FAQ basiert direkt auf Anfragen von Unternehmen, Verbänden und weiteren Stakeholdern, sodass eine Vielzahl an Fragen abgedeckt wird, die in der Praxis regelmäßig aufkommen. Das Dokument ist als ein dynamisches Nachschlagewerk zu verstehen, das von der EU-Kommission kontinuierlich aktualisiert wird.
Das FAQ enthält insbesondere Ausführungen zu folgenden Themen:
- Allgemeine Fragen zur Verordnung: Was ist die KI-Verordnung und welche Ziele werden mit ihr verfolgt?
- Anwendungsbereich und Zeitplan: Welche Pflichten gelten ab wann (z.B. Hochrisiko-KI-Systeme, Transparenzpflichten, etc.)?
- Risikoklassifizierung von KI-Systemen: Was sind verbotene KI-Praktiken und wann unterfällt ein KI-System einem hohen Risiko?
- Unterscheidung zwischen KI-System und KI-Modell: Was ist ein KI-Modell, wann ist es als GPAIM zu klassifizieren und wann fällt es einem systemischen Risiko?
- Rollen der KI-Verordnung: Wer ist Anbieter und wer ist Betreiber, und wie können sich die Rollen bei der Modifizierung eines KI-Modells verändern?
- Praktische Hinweise für Unternehmen: Was erwartet die EU-Kommission im ersten Jahr vor der Durchsetzung der KI-Verordnung von Unternehmen?
Alles in allem bietet das FAQ eine umfassende Orientierungshilfe dafür, wie sich die EU-Kommission zu den einzelnen Fragestellungen und Pflichten der KI-Verordnung positioniert — ohne hierbei jedoch jede einzelne Verpflichtung im Detail zu behandeln.
Praktische Auswirkungen
Die Veröffentlichung des FAQ zeigt, dass die EU-Kommission bemüht ist, Unternehmen frühzeitig und umfassend bei der Umsetzung der KI-Verordnung zu unterstützen. Unternehmen sollten die Ausführungen daher sehr ernst nehmen – insbesondere, da das FAQ den offiziellen Standpunkt der EU-Kommission zu einer Vielzahl praxisrelevanter Fragestellungen widerspiegelt. Das FAQ kann und wird perspektivisch von nationalen Marktüberwachungsbehörden (insbesondere der Bundesnetzagentur) herangezogen — jedenfalls als Auslegungshilfe. Unternehmen, die aktuell in die Umsetzung der KI-Verordnung einsteigen, sind somit gut beraten, sich eng an den im FAQ dargestellten Praxisfragen auszurichten.
SKW Schwarz unterstützt Sie gerne bei der Prüfung und Umsetzung der erforderlichen Maßnahmen. Wir werden in künftigen KI-Flashs ausgewählte Fragestellungen der KI-Verordnung im Detail aufgreifen, um Ihnen möglichst frühzeitig eine erste Einordnung zu ermöglichen.
Beitrag in der GRUR-Prax: Privilegierung von Kooperationsapotheken auf Cannabis-Telemedizin-Plattform verletzt Apothekenwahlrecht
In der aktuellen Ausgabe der GRUR-Prax (19/2025) beleuchtet Margret Knitter, Rechtsanwältin und Partnerin bei SKW Schwarz, eine richtungsweisende Entscheidung des OLG Frankfurt a. M. vom 14.8.2025 – 6 W 108/25, zur Gestaltung von Telemedizin-Plattformen im Bereich medizinischer Cannabisprodukte.
Das Gericht setzte sich mit der Frage auseinander, ob bestimmte Strukturen und Abläufe auf digitalen Plattformen das freie Apothekenwahlrecht von Patientinnen und Patienten beeinträchtigen können – insbesondere, wenn Kooperationsapotheken des Plattformbetreibers bevorzugt werden.
Der Beitrag zeigt die rechtlichen Grenzen wirtschaftlicher Kooperationen zwischen Plattformen und Apotheken auf und verdeutlicht, welche Anforderungen an transparente, diskriminierungsfreie Bestellprozesse zu stellen sind.
Mit ihrer Analyse ordnet Margret Knitter die Entscheidung praxisnah ein und gibt Hinweise, welche Gestaltungen im Bereich der Telemedizin und des digitalen Arzneimittelvertriebs künftig rechtssicher umgesetzt werden können.
Den vollständigen Artikel finden Sie in:
Margret Knitter, „Privilegierung von Kooperationsapotheken auf Cannabis-Telemedizin-Plattform verletzt freies Apothekenwahlrecht“, GRUR-Prax 2025, Heft 19, S. 682–683.
Zum Artikel auf beck-online
Data Act in Kraft: Neues Whitepaper von ITK Engineering & SKW Schwarz
ITK Engineering und SKW Schwarz haben gemeinsam das zweite Whitepaper zum Data Act veröffentlicht. Seit dem 12. September 2025 gelten die neuen EU-Vorgaben – mit umfangreichen Pflichten, aber auch Chancen für Unternehmen, die vernetzte Produkte anbieten oder datenbasierte Geschäftsmodelle nutzen. Das Whitepaper zeigt, wie Organisationen regulatorische Anforderungen erfüllen und daraus Innovation sowie Wettbewerbsvorteile erzielen können. Im Fokus stehen praktische Handlungspfade, Compliance-Tipps und erprobte Governance-Frameworks.
Jetzt kostenfrei das neue Whitepaper herunterladen – verfügbar über die ITK-Website!
Wer tiefer eintauchen möchte, findet im ersten Whitepaper (“Data Act – Die EU revolutioniert den Datenmarkt”) die wichtigsten Grundlagen zum Inkrafttreten. Zusammen geben beide Publikationen wertvolle Orientierung für eine nachhaltige Datenstrategie. (Kostenfreier Download über die ITK-Website.)
Online-Banking-Missbrauch im Zusammenhang mit Verkauf bei „Kleinanzeigen“: OLG Schleswig-Holstein weist Berufung zurück
Das Schleswig-Holsteinische Oberlandesgericht hat mit Beschluss vom 29. September 2025 – 5 U 27/25 die Berufung eines Bankkunden zurückgewiesen, der von seinem Zahlungsdienstleister eine Erstattung nach unautorisierten Kreditkartenzahlungen begehrte. Dem Verfahren lag derselbe Sachverhalt zugrunde, über den ich bereits in meinem Blogbeitrag vom 05.02.2025 zur Klagabweisung durch das Landgericht Itzehoe berichtet habe (Urteil vom 28. Januar 2025 – 7 O 114/24; abrufbar unter https://www.skwschwarz.de/news/keine-uberwachungspflicht-fur-banken-aktuelles-urteil-des-lg-itzehoe-im-kontext-von-online-banking-missbrauchsfallen).
1. Grobe Fahrlässigkeit des Kunden
Der Senat bestätigt die Einschätzung der Vorinstanz, dass der Kläger in mehrfacher Hinsicht grob fahrlässig gehandelt habe. Maßgeblich sei insbesondere gewesen, dass er einem außerhalb des Kommunikationssystems von Kleinanzeigen versandten Link folgte und dort persönliche Kreditkartendaten eingab, obwohl er sich in der Rolle des Zahlungsempfängers befand. Bereits dies hätte den Verdacht eines Betrugs nahegelegt.
Hinzu trat die Registrierung seiner Kreditkarte im S-ID-Check-Verfahren mittels Face-ID/PushTAN. Der Kläger ignorierte dabei nach Auffassung des Gerichts eindeutige Hinweise, die auf die missbräuchliche Nutzung seiner Daten hindeuteten. Die Preisgabe sensibler Authentifizierungsmerkmale unter diesen Umständen stelle einen objektiv schwerwiegenden und subjektiv nicht entschuldbaren Verstoß gegen die Sorgfaltspflichten nach § 675l Abs. 1 BGB sowie gegen die einschlägigen vertraglichen Online-Banking-Bedingungen dar.
2. Kein Ausschluss der Haftung nach § 675v Abs. 4 BGB
Der Senat verneinte zudem einen Haftungsausschluss nach § 675v Abs. 4 Nr. 1 BGB. Entgegen der Auffassung des Klägers habe die Sparkasse eine starke Kundenauthentifizierung bei der Transaktion verlangt. Diese erfolgte – unionsrechtskonform – auf der Grundlage einer Zwei-Faktor-Authentifizierung mit den Kategorien Wissen (Online-Banking-Zugangsdaten), Besitz (Kreditkartendaten) und Inhärenz (Face-ID). Damit war die Voraussetzung für einen Haftungsausschluss nicht erfüllt. Den Vortrag des Klägers, wonach zwischen den Parteien streitig war, inwieweit bei der bloßen Anmeldung für das Online-Banking eine starke Kundenauthentifizierung verlangt worden sei, hielt der Senat für nicht entscheidungserheblich und ließ ihn daher unberücksichtigt.
3. Kein Mitverschulden der Bank
Schließlich lehnte das Oberlandesgericht auch eine Anspruchskürzung wegen Mitverschuldens der Beklagten nach § 254 BGB ab. Weder habe es Anhaltspunkte für eine mangelhafte Systemsicherheit gegeben, noch sei eine vertragliche Schutz- oder Warnpflicht verletzt worden. Nach der ständigen Rechtsprechung des Bundesgerichtshofs bestehen Warnpflichten von Kreditinstituten nur in Ausnahmefällen, etwa bei objektiv evidenten Verdachtsmomenten für eine Fremdschädigung. Ein solcher Ausnahmefall habe hier nicht vorgelegen.
Fazit
Mit seinem Beschluss bestätigt das Schleswig-Holsteinische Oberlandesgericht die bereits erstinstanzlich vertretene Auffassung, dass das Verhalten des Klägers als grob fahrlässig einzustufen ist und damit seine Erstattungsansprüche ausschließt. Die Entscheidung unterstreicht, dass Bankkunden bei der Preisgabe von Sicherheitsmerkmalen ein hohes Maß an Eigenverantwortung trifft, während Kreditinstitute nicht verpflichtet sind, jeden verdächtigen Zahlungsvorgang im Einzelfall zu hinterfragen.
Von Bedeutung ist ferner, dass der Senat die streitige Behauptung des Klägers, dass bei der bloßen Anmeldung für das Online-Banking eine starke Kundenauthentifizierung verlangt worden sei, für nicht entscheidungserheblich hielt und daher unberücksichtigt ließ (vgl. zur diesbezüglichen Diskussion OLG Dresden, Urt. v. 05.05.2025 – 8 U 1482/24, BKR 2025, 850 m. Anm. von mir, sowie jüngst BGH, Urt. v. 22.07.2025 – XI ZR 107/24, BKR 2025, 843).
Private Clients Forum 2025: SKW Schwarz Experten zu Nachfolgeplanung und Testamentsgestaltung
Am 18. und 19. September 2025 fand in Frankfurt das Private Clients Forum 2025 des FORUM Instituts in Kooperation mit der FAZ (Skyloft) statt. Im Fokus standen die Themen „Family Office“ und „Vermögensnachfolge“. Die Fachtagung richtet sich an vermögende Privatpersonen, Unternehmerfamilien, Family Offices und Stiftungen und bot Gelegenheit, tiefgehende Einblicke und Best-Practice-Empfehlungen führender Expertinnen und Experten zu erhalten.
Auch in diesem Jahr waren unsere Experten Christoph Meyer und Dr. Gerd Seeliger, Partner bei SKW Schwarz, wieder als Referenten vertreten und gaben praxisnahe Einblicke in zwei zentrale Fragestellungen der privaten Vermögensplanung.
Christoph Meyer: Die Liechtensteiner Stiftung als sicherer Hafen
Christoph Meyer, Partner bei SKW Schwarz, beleuchtete die Rolle der Liechtensteiner Stiftung in der Nachfolgeplanung. Ausgangspunkt sei oft die Sorge um politische und steuerliche Unsicherheiten in Deutschland. Liechtenstein biete Stabilität, Rechtssicherheit, Flexibilität und ein dienstleistungsorientiertes Umfeld. Die Stiftung sei das zentrale Instrument: „Sie ist einfach zu errichten, erfordert vergleichsweise geringe Kosten und bietet vielfältige Gestaltungsmöglichkeiten.“
Dr. Gerd Seeliger: Fallstricke bei der Testamentsgestaltung vermeiden
Dr. Gerd Seeliger, Partner, Rechtsanwalt, Steuerberater und Mediator bei SKW Schwarz in München, zeigte, wie wichtig frühzeitige und fachkundige Nachlassplanung ist. Ein eigenhändiges Testament müsse handschriftlich verfasst sein – „nur die Unterschrift reicht nicht aus“. Unklare Formulierungen und übersehene Pflichtteilsansprüche führten häufig zu Konflikten. Bei Unternehmensanteilen sollten Testament und Gesellschaftervertrag zwingend aufeinander abgestimmt sein; steuerliche Aspekte seien mitzudenken und Freibeträge optimal zu nutzen.
Fazit: Das Private Clients Forum 2025 war eine Fachtagung für vermögende Privatpersonen, Unternehmerfamilien, Family Offices und Stiftungen – mit praxisnahen Impulsen zur rechtssicheren Gestaltung von Nachfolge und Vermögen.
Mehr über die Inhalte lesen Sie in der Frankfurter Allgemeine Zeitung online unter Link.
https://www.faz.net/asv/private-clients-forum-2025/verstaendigung-ueber-generationen-110710647.html













































