Suchergebnisse für
Personen
Markus von Fuchs ist im Bereich des gewerblichen Rechtsschutzes, insbesondere im Wettbewerbs-, Patent- und Markenrecht sowie im Know-how-Schutz tätig. Er berät Unternehmen bei der Absicherung und wirtschaftlichen Verwertung geistigen Eigentums, zum Beispiel durch Lizenz-, Vertriebs-, F&E- sowie Kooperationsverträge. Ein weiterer Schwerpunkt liegt in der gerichtlichen und außergerichtlichen Verteidigung von geistigen Schutzrechten durch einstweilige Verfügungsverfahren und Hauptsacheklagen, durch Grenzbeschlagnahmeverfahren sowie durch Einleitung und Begleitung strafrechtlicher Maßnahmen bei Produkt- und Markenpiraterie und bei Verletzung von Betriebs- und Geschäftsgeheimnissen. Darüber hinaus berät Markus von Fuchs viele Unternehmen bei der Entwicklung und Einführung neuer Technologien und Geschäftsmodelle. Über besondere Branchenerfahrungen verfügt Markus von Fuchs in der optischen und medizintechnischen Industrie.
Dr. Oliver Hornung berät nationale und internationale IT-Dienstleister und Anwender, und zwar bei der rechtlichen Strukturierung und Verhandlung von IT-, Projekt- und Outsourcingverträgen, sowie in Fragen des Urheberrechts und der Lizenzierung. Er ist dabei auch regelmäßig in notleidenden Projekten (Konfliktbewältigung) tätig und betreut Mandanten in Schlichtungs- und Schiedsverfahren und widrigenfalls in gerichtlichen Auseinandersetzungen.
Das regulatorische Umfeld für die Nutzung von Daten und entsprechenden Technologien ist komplex und ständig kommen neue Rechtsakte der Europäischen Kommission hinzu. In diesem dynamischen Umfeld berät Dr. Oliver Hornung seine Mandanten zu allen Rechtsfragen, insbesondere mit Fokus KI-Compliance, Data Act, NIS-2, Cyber-Security, Cloud Computing und Datenrecht.
Ein weiterer Schwerpunkt der anwaltlichen Beratung sind der Datenschutz im Fokus auf Digital Health und die Digital Decade der EU. Falls erforderlich, verteidigt Dr. Oliver Hornung und sein Team die Rechte seiner Mandanten gegenüber Aufsichtsbehörden oder vor Gericht.
Schließlich betreut Dr. Oliver Hornung Start-ups in allen Fragen rund um das IT-Recht und das Datenschutzrecht. Neben seiner umfangreichen praktischen Arbeit ist Dr. Oliver Hornung auch ein häufig gefragter Vortragender im Datenschutzrecht und IT-Recht.
Norbert Klingner ist auf nationale und internationale Film- / TV- und Werbefilmproduktion, -finanzierung, -versicherung und -vertrieb spezialisiert. Er vertritt namhafte Produzenten, Verleiher, Weltvertriebe und Filmfinanziers. Seine Expertise reicht damit in der Verhandlung und Vertragsgestaltung vom Beginn der Stoffentwicklung über sämtliche Fragen im Zusammenhang mit der Produktion und deren Finanzierung bis hin zur strategisch richtigen Auswertung und Lizensierung. Eine Auswahl von Filmproduktionen, an denen Herr Klingner mitgewirkt hat, finden Sie auf der Internet Movie Database IMDb.
Franziska Ladiges berät Mandanten in allen Fragen des IT- und Datenschutzrechts. Aufgrund von Secondments und langjähriger Erfahrung, verfügt sie über vertiefte Kenntnisse im Datenschutz. In diesem Bereich unterstützt sie Unternehmen (von Kleinunternehmen bis zu börsennotierten Unternehmen) aus verschiedenen Branchen bei der Einführung einer Datenschutz-Compliance. Zudem berät sie zu verschiedenen Einzelfragen aus dem Bereich Datenschutz, unter anderem Auftragsverarbeitung, Betroffenenrechte oder im internationalen Datentransfer. Schließlich führt sie regelmäßig Datenschutz-Quickchecks bei Unternehmen vor Ort durch.
Darüber hinaus verfügt Franziska Ladiges über Erfahrung bei der Gestaltung von Verträgen, welche die Softwareerstellung, -nutzung oder -übertragung regeln. Weiterhin gestaltet und prüft sie AGB (sowohl Einkauf als auch Verkauf und Internet-Plattformen) oder berät bei dem Aufbau von Online-Shops und Internetplattformen. Häufig vertritt sie ihre Mandanten vor staatlichen Gerichten bei Vertragsstreitigkeiten oder datenschutzrechtlichen Angelegenheiten.
Dr. Andreas Peschel-Mehner begleitet seit Beginn des Internets alle Formen des Digital Business, von Start-ups über Multichannel-Angebote bis zu internationalen Internet-Konzernen. Im Mittelpunkt der Beratung stehen alle hierfür relevanten rechtlichen Bereiche, insbesondere Datenschutz- und Nutzungskonzepte, AGB und Verbraucherschutz, Compliance, Werbe-, Gewinnspiel- und Wettbewerbsrecht und andere mehr.
Ein weiterer Schwerpunkt der anwaltlichen Beratung von Dr. Andreas Peschel-Mehner ist das Medien- und Entertainmentrecht, insbesondere sämtliche Belange der Film- und Fernsehbranche. Im Fokus stehen hier alle Aspekte der Finanzierung und weltweiten Auswertung der Produktionen sowie der Rechteerwerb. Einen besonderen Ausschnitt stellen dabei die digitalen Medien dar, sowohl hinsichtlich der Veränderung der Nutzungskonzepte und Erlösströme als auch die Begleitung von Video-On-Demand Plattformen. Einen Auszug der von ihm betreuten Film- und Serien-Projekte finden Sie hier auf der Internet Movie Database IMDb.
Er berät außerdem seit jeher nationale und internationale Computer-Game Publisher und Studios und seit einigen Jahren die Esport-Branche.
Ein wichtiges Querschnittsthema ist für ihn inzwischen in seiner Beratung die Entwicklung und der Einsatz von KI-Technologien geworden.
News
Auswahlverfahren mit Bereichsausnahme in Sachsen – Qualität und Resilienz im Fokus
Die jüngste Vergabeentscheidung des Rettungszweckverbands „Südwestsachsen“ (RettZV SWS) für neun Rettungswachen im Vogtlandkreis und Landkreis Zwickau (2026–2033) markiert einen Meilenstein: Seit Jahren von GWB-Ausschreibungen wurde erstmals auf eine klassische Ausschreibung verzichtet. In Abstimmung mit den Kassen (Kostenträger) wurde ein verwaltungsrechtliches Auswahlverfahren genutzt. Grundlage hierfür ist die Änderung des Sächsischen Rettungsdienstgesetzes (SächsBRKG). Dieses hat ermöglicht, die Bereichsausnahme Gefahrenabwehr anzuwenden.
Statt starrer Preisangebote standen bei der Auswahl Qualität und Resilienz (49 %) sowie Wirtschaftlichkeit (51 %) im Mittelpunkt. Bewertet wurden unter anderem Konzepte für Katastrophenschutz, Massenanfall von Verletzten, Schulsanitätsdienst, Jugendarbeit und Hygiene. Die Wirtschaftlichkeit wurde anhand von Personalsicherung und Sonderleistungen wie Bergwacht und Rettungshundestaffel beurteilt – jedoch ohne verbindliche Kalkulationen.
Diese Entwicklung bestätigt die Linie von SKW Schwarz: Langfristige Preiskalkulationen im Rettungsdienst sind angesichts Fachkräftemangel, Tarifsteigerungen, anziehender Inflation und sich wandelnder Anforderungen nicht nachhaltig. Stattdessen müssen Vergabeverfahren die Leistungsfähigkeit, Qualität und Resilienz des Bevölkerungsschutzes in den Mittelpunkt stellen. Dass kein Geld verschleudert wird, stellen die Verhandlungen zwischen Träger und Kassen, unterstützt durch die Leistungserbringer sicher.
Das neue Verfahren ermöglicht eine flexible, jährliche Planung und ein permanentes Controlling statt langfristiger Risikoaufschläge. Es gibt Anreize für Qualität und Ehrenamt im Bevölkerungsschutz. Sonderkündigungsrechte und Prüfungen durch den Rettungszweckverband sorgen für zusätzliche Sicherheit.
Unsere Empfehlung: Die Finanzierung und Vergabe im Rettungsdienst sollten sich an regionalen Strukturen und an der tatsächlichen Leistungsfähigkeit orientieren – nicht an Kosten über viele Jahre. Nur so bleibt der Rettungsdienst krisenfest, qualitätsorientiert, wirtschaftlich und zukunftssicher.
Wie sich die aktuell anstehende Reform der Notfallversorgung auf Bundesebene auf die Refinanzierung von Rettungsdienst und Bevölkerungsschutz auswirkt, bleibt ein großes Fragezeichen, v.a. für die Refinanzierung.
Auch dazu diskutieren wir im DVNWforum am 25.02.2026 in Berlin (mehr Informationen).
>> Zum Beitrag in der Freien Presse <<
>> Zum Rettungszweckverband “Südwestsachsen”<<
Fachbeitrag im Deutschen AnwaltSpiegel: Geografische Herkunftsangaben in der Werbung
Geografische Herkunftsangaben genießen hohes Vertrauen bei Verbraucherinnen und Verbrauchern – gleichzeitig sind sie rechtlich anspruchsvoll. In ihrem aktuellen Beitrag im Deutschen AnwaltSpiegel gibt Margret Knitter, LL.M., einen kompakten Überblick über die zentralen Anforderungen an die Werbung mit geografischen Angaben, den Schutz von Herkunftsbezeichnungen und die neuesten Entwicklungen auf EU-Ebene, insbesondere im Lebensmittel- und Markenschutzrecht.
Der Artikel beleuchtet unter anderem:
- wann geografische Bezeichnungen als Marken geschützt werden können – und wann nicht,
- welche Anforderungen gelten, um Irreführung zu vermeiden,
- den unionsrechtlichen Schutz von g.U., g.g.A. und g.t.S.,
- sowie die kommende Ausweitung des Herkunftsschutzes auf handwerkliche und industrielle Erzeugnisse.
Hier geht’s zum vollständigen Beitrag.
KI-Flash: Agentic AI – Chancen und Grenzen steigender Autonomie
Nachdem wir in unserem letzten KI-Flash über die neue Orientierungshilfe der DSK zu RAG-basierten KI-Systemen berichtet haben, möchten wir Ihnen auch künftig in regelmäßigen Abständen rechtliche Impulse zu aktuellen Entwicklungen geben.
Heutiges Thema: Agentic AI – Chancen und Grenzen steigender Autonomie
Unternehmen sehen sich mit einem immer größeren Druck zur Innovation und Effizienzsteigerung konfrontiert. Globale Abhängigkeiten, schwankende Märkte und auch der Mangel an qualifizierten Fachkräften machen eine kontinuierliche Optimierung von Prozessen unverzichtbar. In diesem Umfeld rückt auch der Einsatz von künstlicher Intelligenz (KI) zunehmend in den Vordergrund. Besonders im Fokus stehen derzeit sogenannte KI-Agenten – also Systeme, die eigenständig Entscheidungen treffen und Aufgaben ausführen können, ohne auf direkte menschliche Eingaben angewiesen zu sein. Die Technologie gilt als nächster Schritt in der Automatisierung und verspricht nicht nur Produktivitätsgewinne, sondern auch eine höhere Anpassungsfähigkeit und Widerstandsfähigkeit in komplexen Betriebsabläufen.
Der Einsatz von KI-Agenten wirft jedoch nicht nur technologische, sondern insbesondere auch rechtliche Fragen auf. Mit der europäischen KI-Verordnung (KI-VO) gilt seit August 2024 (mit weiteren zeitlichen Staffelungen) ein verbindlicher Rechtsrahmen für die Entwicklung und Nutzung von KI-Systemen. Unternehmen müssen daher insbesondere prüfen, ob ihre Agenten-Systeme unter diese regulatorischen Anforderungen fallen und welche Pflichten hieraus resultieren. Hinzu kommen u.a. Datenschutz-, Haftungs- und Zurechnungsaspekte.
Wir möchten den vorliegenden KI-Flash nutzen, um die vorgenannten Fragen in einen ersten systematischen Kontext zu setzen. Für weitere Einblicke in die Thematik werben wir sodann ausdrücklich für unsere dazugehörige Veranstaltung (mehr Informationen). Wir freuen uns auf Ihre Teilnahme!
Unklarheiten bei der Begriffsbestimmung
Bereits die Frage, was überhaupt als „KI-Agent“ zu verstehen ist, kann zu praktischen Schwierigkeiten führen. Die Begriffe KI-Agent, KI-Assistent oder – etwas technischer – KI-gestützte Workflows sind in der betrieblichen Praxis weit verbreitet, werden jedoch häufig unscharf oder gar synonym verwendet. Eine gesetzliche Definition der vorgenannten Begriffe existiert bislang nicht. Auch die KI-VO verwendet sie nicht explizit; dort wird lediglich in Art. 3 Abs. 1 KI-VO der Begriff des KI-Systems verwendet. Hiernach handelt es sich bei einem KI-System um
„ein maschinengestütztes System, das für einen in unterschiedlichem Grade autonomen Betrieb ausgelegt ist und das nach seiner Betriebsaufnahme anpassungsfähig sein kann und das aus den erhaltenen Eingaben für explizite oder implizite Ziele ableitet, wie Ausgaben wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die physische oder virtuelle Umgebungen beeinflussen können“
Für eine konsistente Bewertung der unterschiedlichen Automatisierungsstufen sollte jedoch eine funktionale Unterscheidung getroffen werden. Die nachfolgende Abgrenzung erfolgt daher anhand einer praxisorientierten Auslegung, die sich an Autonomiegrad, Zielverfolgung und Systemintegration orientiert:
- Ein KI-Assistent oder auch ein KI-gestützterWorkflow sollen hiernach als reaktive, eingebettete Funktionen innerhalb bestehender Software verstanden werden, die den Nutzer bei konkreten Aufgaben unterstützen, jedoch keine eigenen Ziele verfolgen und nicht selbstständig agieren. Typische Beispiele sind Textvorschläge oder einfache Chatfunktionen. Rechtlich sind diese Funktionen oft Teil eines KI-Systems, aber nicht zwingend selbst als solches einzustufen.
- Ein KI-Agent hingegen handelt autonom, trifft eigenständig Entscheidungen und kann Aufgaben initiieren, priorisieren und über mehrere Schritte hinweg verfolgen – auch ohne direkte Nutzereingabe. Er kann mit anderen Systemen interagieren und erfüllt regelmäßig selbst die Merkmale eines KI-Systems im Sinne der KI-VO.
Zusammenfassend: Assistenten und Workflows sind unterstützende Funktionen innerhalb einer Software und meist ohne eigene Zielverfolgung, während Agenten häufig eigenständige Systeme mit Entscheidungs- und Handlungskompetenz darstellen. Die Unterscheidung ist sowohl technisch als auch rechtlich relevant.
Beispiel: In der Microsoft-365-Copilot-Umgebung gibt es zwei Typen von (dort so bezeichneten) Agenten – jeweils mit unterschiedlichem Funktionsumfang und Autonomiegrad:
1. Copilot Agent Builder (ehemals „AgentBuilder“)
- Charakteristik: Einfach erstellbare, regelbasierte Agenten für standardisierte Aufgaben wie Onboarding, FAQ-Beantwortung oder einfache Informationsabfragen.
- Funktionsweise: Reaktiv – sie antworten auf Nutzereingaben basierend auf vordefinierten Wissensquellen (z. B. SharePoint, interne Dokumente). Keine eigenständige Zielverfolgung oder komplexe Workflow-Steuerung.
- Autonomiegrad: Niedrig. Keine selbstständige Prozessausführung, keine externe Systemintegration.
- Regulatorische Einordnung: In der Regel kein eigenständiges KI-System im Sinne der KI-VO, sondern eingebettete Komponenten innerhalb des übergeordneten KI-Systems „Microsoft Copilot“.
2. Copilot Studio Agents
- Charakteristik: Hochgradig anpassbare Agenten, die über Low-Code/Pro-Code erstellt werden und komplexe Aufgaben übernehmen können.
- Funktionsweise: Unterstützt die Integration externer Dienste (bspw. über APIs), Multi-Step-Workflows, Event-Trigger und teilweise autonome Prozessausführung.
- Autonomiegrad: Mittel bis hoch. Sie Können insbesondere eigenständig Workflows starten und orchestrieren.
- Regulatorische Einordnung: Copilot Studio Agents erfüllen regelmäßig die Kriterien eines KI-Systems nach der KI-VO, da sie nicht mehr „nur“ Komponente des Systems „Microsoft Copilot“ sind.
Im Rahmen unseres o.g. Webinars wird Frau Dr. Sara Jourdan (CEO & Co-founder, Genow GmbH) einen technischen Blick auf Agentensysteme werfen und hierbei die unterschiedlichen technischen Ansätze und Architekturen aufzeigen.
KI-Agenten und Risikoklassen
Die Risikoklassifizierung eines KI-Agenten nach der KI-VO hängt maßgeblich vom konkreten Einsatzbereich und den damit verbundenen Risiken ab. Die KI-VO unterscheidet zwischen verbotenen, Hochrisiko-, und KI-Systemen mit Transparenzpflichten. Während verbotene KI-Praktiken in Art. 5 KI-VO abgebildet werden (dies betrifft bspw. die Emotionserkennung am Arbeitsplatz), hat die Einstufung als Hochrisiko-KI-System anhand der in Anhang I und III der KI-VO aufgeführten Anwendungsfälle zu erfolgen. KI-Agenten, die beispielsweise sicherheitsrelevante Aufgaben übernehmen und Entscheidungen mit erheblichen Auswirkungen auf Personen treffen (bspw. im Kontext von Medizinprodukten) oder in kritischen Infrastrukturen eingesetzt werden, können als Hochrisiko-KI-Systeme eingestuft werden. Ein weiterer, praxisrelevanter Hochrisiko-Bereich ist etwa der Einsatz von KI-Agenten im HR-Bereich, bspw. zur eigenständigen Bewertung und Auswahl von eingehenden Bewerbungen, wobei die konkrete Einordnung natürlich immer am Einzelfall zu erfolgen hat.
In diesen Fällen gelten umfangreiche Anforderungen, etwa zur technischen Dokumentation, zur Transparenz, zur menschlichen Aufsicht und zur regelmäßigen Überprüfung. Für KI-Agenten die demgegenüber außerhalb des Hochrisikobereichs gelten weniger strenge, aber dennoch relevante Pflichten, wie Kennzeichnung und grundlegende Transparenz.
Unternehmen müssen daher für jeden KI-Agenten, der die Qualität eines KI-Systems erreicht, eine individuelle Risikobewertung vornehmen und die daraus resultierenden regulatorischen Anforderungen umsetzen. Dies setzt neben dem Bewusstsein über die rechtlichen Anforderungen eine praktisch umsetzbare Vorgehensweise zur Prüfung und Freigabe entsprechender Agenten voraus. Wie eine solche Vorgehensweise aussehen könnte, möchten wir in unserem o.g. Webinar aufzeigen.
Automatisierung und Datenschutz
Der Einsatz von KI-Agenten berührt auch zentrale Datenschutzfragen, da diese Systeme eigenständig personenbezogene Daten verarbeiten und ggf. sogar Entscheidungen treffen können. Nach der DS-GVO bleibt jedoch das Unternehmen Verantwortlicher für die Datenverarbeitung, auch wenn ein KI-Agent agiert. Unternehmen müssen daher sicherstellen, dass alle datenschutzrechtlichen Vorgaben eingehalten werden.
KI-Agenten können personenbezogene Daten verarbeiten und hierbei automatisierte Entscheidungen treffen. Als Beispiel können intelligente Chatbots auf B2C-Online-Plattformen genannt werden. Eine entsprechende Vorgehensweise ist jedoch nur dann zulässig, sofern die Voraussetzungen des Art. 22 DS-GVO erfüllt sind. Automatisierte Einzelentscheidungen mit rechtlicher Wirkung sind hiernach grundsätzlich verboten, es sei denn, eine Einwilligung, eine spezifische gesetzliche Grundlage oder ein Vertrag liegt vor, der diese Vorgehensweise zulässt. In solchen Fällen sind jedoch Schutzmaßnahmen wie menschliche Eingriffsmöglichkeiten und Anfechtungsrechte für betroffene Personen zwingend erforderlich.
Auch Transparenz ist entscheidend: Unternehmen müssen Betroffene klar über den Einsatz von KI-Agenten, die verarbeiteten Daten und die Entscheidungslogik informieren. Bei hohem Risiko – etwa bei sensiblen Daten oder bei Profilbildung – ist zudem eine Datenschutz-Folgenabschätzung nach Art. 35 DS-GVO erforderlich. Ergänzend sind technische und organisatorische Maßnahmen wie Zugriffsbeschränkungen, Verschlüsselung und kontinuierliches Monitoring umzusetzen, um Datenschutzverstöße zu verhindern.
Haben wir Ihr Interesse geweckt?
Melden Sie sich gerne zu unserem interdisziplinären Webinar am Dienstag, den 25. November 2025 an, und lassen Sie sich einen weiteren spannenden digitalen bite, praktisch und kompakt in Ihrer Mittagspause näherbringen. Wir freuen uns auf Ihre Teilnahme!
Digital Bites
- Agentic AI – Chancen und Grenzen steigender Automatisierung
- am Dienstag, 25. November 2025, 12:30 Uhr – 13:30 Uhr, über MS-Teams
- >>Weiterführende Informationen hier<<
Bundestag beschließt NIS-2-Umsetzungsgesetz – Unternehmen sollten spätestens jetzt NIS-2-compliant werden
Das deutsche NIS-2-Umsetzungsgesetz ist gestern am 13.11.2025 – endlich! – vom Bundestag beschlossen worden (s. hier). Im nächsten Schritt wird sich der Bundesrat mit dem Gesetz befassen. Mit der Verkündung im Bundesgesetzblatt und dem Inkrafttreten des Gesetzes ist spätestens (!) Anfang 2026 zu rechnen.
Unternehmen, die sich bislang darauf verlassen haben, dass der deutsche Gesetzgeber den Gesetzgebungsprozess nur schleppend (und im Übrigen europarechtswidrig) vorangetrieben hat, sollten sich also spätestens jetzt mit NIS-2 auseinandersetzen und in die Umsetzung einsteigen.
Mit unserem Team, das in den vergangenen Monaten zahlreiche NIS-2-Umsetzungsprojekte begleitet hat, stehen wir Unternehmen zu allen Rechtsfragen zur IT-Sicherheit zur Verfügung. Wir verfügen zudem über ein Netzwerk von technischen Dienstleistern, mit denen wir bei Bedarf Ihr NIS-2 Projekt interdisziplinär begleiten und umsetzen. Gerne verweisen wir auch auf unser umfassendes Whitepaper, welches hier abrufbar ist: s. hier.
Drei Punkte, auf die wir Unternehmen nochmal hinweisen möchten:
- Unternehmen müssen selbst prüfen, ob sie von dem Gesetz betroffen sind. Die konkrete Anwendbarkeitsprüfung ist eine Rechtsfrage. Anders, als man dies landläufig schon gehört hat, wird das BSI auch keine Liste mit den betroffenen Unternehmen veröffentlichen. Das ist elementar für die richtige Entscheidung und Enthaftung der Geschäftsleitung. Als erste Einordnung kann unser NIS-2-Betroffenheitstool dienen, welches hier abrufbar ist: s. hier.
- Es gibt keine Übergangsfristen. Mit Inkrafttreten des Gesetzes gelten alle Pflichten, insbesondere zur Umsetzung der Cyber-Risikomanagementmaßnahmen, zur Registrierung beim BSI und zur Meldung von relevanten Sicherheitsvorfällen gegenüber Behörden und anderen Stellen.
- Selbst wenn Ihr Unternehmen nicht direkt unter die NIS2-Regeln fällt, ist die Wahrscheinlichkeit erheblich gestiegen, dass einer oder mehrere Ihrer Kunden darunterfallen und daher von allen Lieferanten verlangen (müssen), dass sie dokumentieren können, ihren Teil der Cyberresilienz zu erfüllen. Die wenigsten Unternehmen sind auf solche Anfragen bereits vorbereitet, obwohl sie für die Wettbewerbsfähigkeit sehr wichtig sind.
Für weitere Informationen sprechen Sie unser Team jederzeit gerne an.
Künstliche Intelligenz im Wandel: Wie Deutschland im internationalen Vergleich aufgestellt ist
Wie gehen unterschiedliche Länder mit den Chancen und Risiken von Künstlicher Intelligenz um? Der neue Lexology Guide „Panoramic Next: Artificial Intelligence“ gibt einen globalen Überblick und zeigt, wie sich die rechtlichen Rahmenbedingungen weltweit entwickeln.
Unsere Experten Moritz Mehner und Dr. Christoph Krück haben darin die Perspektive für Deutschland übernommen. Sie analysieren, wie der EU AI Act, nationale Initiativen wie das geplante KI Marktüberwachungsgesetz (KIMÜG) sowie Fragen zu Datenschutz und Ethik das regulatorische Umfeld prägen und welche Chancen sich daraus für Innovation und Wirtschaft ergeben.
Besonders spannend ist der internationale Vergleich: Der Guide beleuchtet die Entwicklungen in Ländern wie den USA, China, Japan, Indien, Frankreich, Belgien und der Schweiz. So wird deutlich, wie unterschiedlich Staaten weltweit auf das Thema Künstliche Intelligenz reagieren und wo Deutschland im globalen Kontext steht.
Mit ihrer Mitwirkung an dieser internationalen Publikation unterstreicht SKW Schwarz ihre führende Rolle an der Schnittstelle von Recht, Technologie und Innovation. Wir unterstützen Unternehmen dabei, Künstliche Intelligenz rechtssicher, verantwortungsvoll und zukunftsorientiert einzusetzen, im Einklang mit europäischen und internationalen Standards.
Der vollständige Guide ist auf der Website von Lexology verfügbar.
Vergabewende für mehr Resilienz: René M. Kieselmann im Interview mit Wohlfahrt Intern
Wie kann das Vergaberecht dazu beitragen, die Notfallversorgung in Deutschland krisenfester zu machen?
Unser Partner und Fachanwalt für Vergaberecht René M. Kieselmann spricht in der Wohlfahrt intern über die Notwendigkeit einer „Vergabewende“ im Rettungsdienst.
Er fordert, Ausschreibungen stärker auf Qualität, Krisenfestigkeit und gesellschaftliche Resilienz auszurichten – und nicht allein auf den Preis. Dieser wird durch andere Strukturen (z.B. Budgetverhandlungen mit Krankenkassen) kontrolliert. Besonders im Fokus steht die Rolle freigemeinnütziger Hilfsorganisationen, deren Strukturen entscheidend für den Bevölkerungsschutz sind – wobei auch „private“ Anbieter Positives für Ehrenamt und Katastrophenschutz leisten können.
„Ausschreibungen im Rettungsdienst, die sich ausschließlich am Preis orientieren, müssen weg“, so Kieselmann. „Wir brauchen ein System, das die Gesellschaft widerstandsfähiger gegen Krisen macht.“
Das vollständige Interview finden Abonnenten von Wohlfahrt intern hier und als Auszug in PDF-Format mit freundlicher Genehmigung von Wohlfahrt intern hier.
"Wann muss ich Trennungsunterhalt zahlen?" – Christoph Meyer als WiWo Coach
In der Rubrik „WiWo Coach“ beantwortet ein Expertenteam der WirtschaftsWoche regelmäßig Fragen von Leserinnen und Lesern zu Geldanlage, Vorsorge, Steuern, Recht und Karriere.
In der aktuellen Ausgabe geht Christoph Meyer, Rechtsanwalt und Partner bei SKW Schwarz, der Frage nach, wann man Trennungsunterhalt zahlen muss.
Anhand eines konkreten Leserfalls erklärt Christoph Meyer, dass Ehegatten nach einer Trennung grundsätzlich Trennungsunterhalt zahlen, wenn ein Einkommensunterschied besteht. Maßstab ist der Lebensstandard während der Ehe und der Halbteilungsgrundsatz.
Zum vollständigen Beitrag in der WirtschaftsWoche:
Wann muss ich Trennungsunterhalt zahlen? (wiwo.de)
LG München I: Kein Schadensersatz aus DSGVO bei widersprüchlichem Verhalten des Nutzers
Das LG München I hat am 27. August 2025, Az. 33 O 635/25, ein interessantes Urteil zu einer Schadensersatzforderung nach Art. 82 DSGVO getroffen.
Das LG München I hat die Klage eines Nutzers einer amerikanischen Social Media Plattform u.a. abgewiesen, weil er sich widersprüchlich verhalten habe.
Der Kläger hat aus der EU heraus eine amerikanische Social Media Plattform genutzt und dann im Rahmen seines Klagevortrags u.a. mit einer rechtswidrigen Übertragung seiner personenbezogenen Daten in die USA argumentiert (vgl. Rdnr. 43 ff).
Nach Auffassung des Gerichts handelt entgegen Treu und Glauben, wer einerseits den Kommunikationsdienst eines Anbieters in Kenntnis des behaupteten Rechtsverstoßes nutzt und andererseits den Anbieter gerade für das Anbieten (des Kommunikationsdienstes) auf Schadensersatz in Anspruch nimmt.
Hintergrund
Nach Art. 82 Abs. 1 DSGVO kann grundsätzlich jede Person, der wegen eines Verstoßes gegen die DSGVO ein materieller oder immaterieller Schaden entstanden ist, Schadenersatz von dem Verantwortlichen und/oder vom dem Auftragsverarbeiter verlangen. Ein Schadensersatz kann dem Grunde nach gegeben sein, wenn die Datenverarbeitung rechtswidrig ist (hier: die Übermittlung von personenbezogenen Daten aus der EU heraus in die USA ohne Einhaltung der Anforderungen an eine internationale Datenübermittlung nach den Art. 44 ff DSGVO).
Am 16. Juli 2020 erklärte der EuGH in der Rs. Schrems II den EU-U.S. Privacy Shield für ungültig. Bis zum Inkrafttreten des EU-U.S. Data Privacy Framework am 11. Juli 2023 konnten daher keine Daten auf Grundlage des Art. 45 Abs. 1 DSGVO in die USA übermittelt werden.
Nach Auffassung des Klägers waren Datenübermittlungen von einer europäischen Tochter an die U.S.-amerikanische Konzernmuttergesellschaft in diesem Zeitraum (2020 bis 2023) daher rechtswidrig. Aufgrund der Zugriffsmöglichkeit von U.S.-amerikanischen Behörden auf die übermittelten Daten habe der Kläger einen erheblichen Kontrollverlust erlitten und daraus resultierend einen Schaden iSd Art. 82 DSGVO.
Kernaussagen
- Keine Rechtswidrigkeit der Datenübermittlung in Drittland bei Standardvertragsklauseln
Eine Datenübermittlung in ein Drittland kann auch ohne Angemessenheitsbeschluss im Sinne des Art. 45 DSGVO rechtmäßig sein, wenn zwischen dem Verantwortlichen/Auftragsverarbeiter und dem Empfänger Standardvertragsklauseln vereinbart sind und wirksame Rechtsbehelfe zur Verfügung stehen (Art. 46 Abs. 1, Abs. 2 lit. c DSGVO).
- Kein Anspruch auf eine Verarbeitung von personenbezogenen Daten nur in Europa
Soziale Netzwerke, die „global konzipiert“ sind (vgl. Rdnr. 41), setzen technisch einen internationalen Austausch von personenbezogenen Daten voraus.
Einem Nutzer einer solcher Plattformen ist dieser Umstand hinlänglich bekannt. Es besteht auch kein Anspruch gegen die Betreiberin eines solchen Netzwerks, den Dienst als „rein europäische[…] Plattform[en]“ zu betreiben:
„Die unternehmerische Entscheidung …, ein weltweites Netzwerk anzubieten […] und Daten in den USA zu verarbeiten, ist von den Nutzern, die sich freiwillig für eine entsprechende Nutzung entscheiden, hinzunehmen.“
- Kein Schadensersatz bei widersprüchlichem Nutzerverhalten
Zuletzt kann nach Auffassung des Gerichts einen Schadensersatzanspruch nicht geltend machen, wer bewusst eine weltweit agierende amerikanische Social Media Plattform nutzt, obwohl allgemein bekannt ist, dass dabei Daten in die USA übermittelt werden und U.S.-amerikanische Geheimdienste auf diese Daten unter Umständen zugreifen können. Ein solches Vorgehen verstoße gegen das Gebot von Treu und Glauben.
Ausblick
Das Urteil des LG München I ist zu begrüßen.
Mit dem Urteil erteilt das LG München I den „massenhaft[…]“ auftretenden, „weitgehend aus Textbausteinen bestehenden Klagen“ auf Schadensersatz aus Art. 82 DSGVO, bei denen bereits die tatsächliche Beeinträchtigung zweifelhaft ist und der Nutzer / Kläger sich widersprüchlich verhält, etwa indem dieser trotz behauptet schwerer Beeinträchtigung weiter einen anderen Dienst desselben Anbieters nutzt, eine klare Absage.
KI-Flash: Neue Orientierungshilfe der DSK zu RAG-basierten KI-Systemen
Nachdem wir in unserem letzten KI-Flash über die aktuellen FAQ der EU-Kommission zur Umsetzung der KI-Verordnung berichtet haben, möchten wir Ihnen auch künftig in regelmäßigen Abständen rechtliche Impulse zu aktuellen Entwicklungen geben.
Heutiges Thema: Neue Orientierungshilfe der DSK zu RAG-basierten KI-Systemen
Am 17. Oktober 2025 hat die Datenschutzkonferenz (DSK) eine neue Orientierungshilfe (OH) zu den datenschutzrechtlichen Anforderungen beim Einsatz generativer KI-Systeme mit Retrieval Augmented Generation (RAG) veröffentlicht. Das Dokument richtet sich insbesondere an Unternehmen und öffentliche Stellen, die solche Systeme bereits nutzen oder deren Einsatz planen. Es beleuchtet sowohl die technischen Grundlagen als auch die datenschutzrechtlichen Implikationen und gibt konkrete Empfehlungen für die Praxis. Da RAG-basierte Systeme zunehmend in verschiedenen Branchen eingesetzt werden, wurde diesem Themenfeld nun ein eigener KI-Flash gewidmet.
Technischer Hintergrund
Retrieval Augmented Generation (RAG) bezeichnet ein technisches Konzept zur Verbesserung des Outputs generativer KI-Systeme, insbesondere großer Sprachmodelle (Large Language Models, LLMs). Ziel ist es, die Qualität, Genauigkeit und Nachvollziehbarkeit der generierten Inhalte zu erhöhen, indem ausgewählte Wissensquellen in den Verarbeitungsschritt des KI-Systems eingebunden werden. Ein RAG-System besteht – vereinfacht dargestellt – aus zwei funktional getrennten, aber eng verzahnten Hauptkomponenten:
Retriever: Diese Komponente identifiziert und extrahiert kontextrelevante Informationen aus einer externen Wissensquelle (z. B. Vektordatenbank, Dokumentenspeicher). Die Auswahl erfolgt typischerweise auf Basis semantischer Ähnlichkeit zur Nutzeranfrage – die DSK stellt hierbei auf die semantische Nähe durch die Distanz von Vektorrepräsentationen im Einbettungsraum ab. Diese Vektorrepräsentationen entstehen durch sogenannte Embeddings, also mathematische Abbildungen von Texten in einen Vektorraum, die semantische Ähnlichkeiten zwischen Textabschnitten rechnerisch erfassbar machen. Die eingebundenen Datenquellen können strukturierte oder unstrukturierte Inhalte enthalten, deren datenschutzrechtliche Bewertung – bei personenbezogenen Daten – gesondert erfolgen muss.
- LLM-Komponente (generative KI-Modelle): Das Sprachmodell verarbeitet die vom Retriever bereitgestellten Inhalte und generiert darauf basierend eine Antwort. Die Ausgabe beruht somit nicht ausschließlich auf dem jeweiligen „Modellwissen“, sondern auf explizit eingebundenen, aktuellen und kontextbezogenen Informationen. Dies erhöht die Nachvollziehbarkeit der Ergebnisse, kann aber auch zu einer komplexeren Datenverarbeitung führen, insbesondere, da das Output durch die Kombination von externen Daten und modell-internem Wissen beeinflusst wird.
Die Architektur von RAG kann u.a. dazu beitragen, typische Schwächen generativer KI-Systeme – insbesondere die Tendenz zu „Halluzinationen“ – zu reduzieren und die Ausgaben besser nachvollziehbar zu gestalten. RAG-Systeme werden daher zunehmend in Unternehmen und Behörden eingesetzt, sowohl intern als auch extern. Sie unterstützen u.a. bei:
- der Informationsrecherche,
- der automatisierten Kundenkommunikation, sowie
- datenintensiven Bereichen wie Forschung und Entwicklung.
Durch die Einbindung unternehmensspezifischer Wissensquellen ermöglichen sie eine kontextbezogene und effiziente Bearbeitung komplexer Aufgaben. Die DSK hebt in ihrer OH explizit hervor, dass RAG-Systeme zur digitalen Souveränität beitragen können, etwa durch lokalen Betrieb (On-Premise) und geringere Abhängigkeit von Cloud-Anbietern.
Datenschutzrechtliche Herausforderungen
RAG-Systeme sind aus datenschutzrechtlicher Sicht dennoch differenziert zu betrachten. Zwar bieten sie Potenzial zur Verbesserung der Datenverarbeitung, gleichzeitig entstehen nach Ansicht der DSK jedoch neue Herausforderungen:
- Doppelte Datenverarbeitung: Personenbezogene Daten können sowohl im Retriever (z. B. durch eingebundene Dokumente) als auch „in“ der LLM-Komponente verarbeitet werden. Dies erhöht die Komplexität der datenschutzrechtlichen Bewertung.
- Transparenz und Zweckbindung: Die modulare Architektur erschwert die klare Zuordnung von Zwecken sowie die transparente Information der Betroffenen, da die Herkunft und Bedeutung der Embeddings sowie die genaue Entstehung des Outputs nach Ansicht der DSK oft nicht nachvollziehbar sind.
- Betroffenenrechte: Dynamisch generierte Inhalte können die Umsetzung von Auskunfts-, Berichtigungs- oder Löschrechten erschweren. Betroffenenrechte sind jedoch stets in allen Komponenten des RAG-Systems umzusetzen.
- Rechtswidriges Training: Die datenschutzrechtliche Bewertung eines RAG-Systems muss sowohl das RAG-Subsystem als auch das zugrunde liegende Sprachmodell (LLM) umfassen. Ein rechtswidrig trainiertes Modell bleibt auch dann rechtwidrig, wenn es im Rahmen eines RAG-Systems eingesetzt wird. Die Einbindung externer Datenquellen kann die Qualität der Ausgaben verbessern, hebt jedoch die Anforderungen an das Basismodell nicht auf (wir hatten zum Meinungsbild des EDSA bereits berichtet).
- Pflege der Datenquellen: Die Aktualisierung und Qualitätssicherung der eingebundenen Inhalte liegt in der Verantwortung des jeweiligen Betreibers und ist essenziell für die Verlässlichkeit der Ausgaben.
Datenschutzfreundliche Potenziale
Die DSK nennt jedoch auch einige Vorteile, die sich positiv auf die Datenschutzkonformität auswirken können. RAG
- ermöglicht erhöhte Genauigkeit und Nachvollziehbarkeit durch Zugriff auf überprüfbare Datenquellen.
- verringert Halluzinationen, da die generierten Inhalte auf reale, kontextbezogene Informationen gestützt werden.
- ermöglicht einen datenschutzfreundlicheren Betrieb, insbesondere bei lokalem Hosting (On-Premise).
- reduziert den Trainingsdatenbedarf, insbesondere im Vergleich zu Fine-Tuning-Ansätzen, da die RAG-Methode auf eine dynamische Anreicherung statt dauerhafte Modellanpassung setzt.
- fördert digitale Souveränität, da Unternehmen eigene Datenquellen nutzen und sich bspw. von großen Cloud-Anbietern unabhängig machen können.
Unternehmen und Behörden, die RAG-Systeme einsetzen oder deren Einsatz planen, sollten gezielt Maßnahmen ergreifen, um die datenschutzrechtlichen Anforderungen zu erfüllen und die Potenziale der Technologie verantwortungsvoll zu nutzen. Die DSK empfiehlt insbesondere:
- Durchführung einer Datenschutz-Folgenabschätzung gemäß Art. 35 DSGVO, unter Berücksichtigung aller Komponenten des RAG-Systems (Retriever, Vektordatenbank, LLM).
- Klare Zweckdefinition und Zwecktrennung für die eingebundenen Datenquellen, insbesondere bei personenbezogenen Daten in Referenzdokumenten.
- Aktualisierung und Pflege der Dokumentation, z. B. des Verzeichnisses von Verarbeitungstätigkeiten, inklusive Beschreibung der erweiterten Anfrage und Datenflüsse.
- Implementierung technischer und organisatorischer Schutzmaßnahmen, etwa Mandantentrennung, Rechte- und Rollenkonzepte sowie Zugriffsbeschränkungen auf die Vektordatenbank.
- Sicherstellung der Rechtskonformität der eingesetzten KI-Modelle, insbesondere hinsichtlich des Trainingsdatensatzes und der Einhaltung aller DSGVO-Grundsätze.
- Etablierung von Kontrollmechanismen zur Qualitätssicherung, z. B. durch Systemprompts zur Quellenbindung, regelmäßige Prüfung der Referenzdokumente und Monitoring der KI-Ausgaben.
- Schulung der Mitarbeitenden, insbesondere zu den datenschutzrechtlichen Besonderheiten von RAG-Systemen und zur sicheren Nutzung der Systeme im jeweiligen Anwendungskontext.
Praxishinweis
Der Einsatz von RAG-Systemen bietet Unternehmen und öffentlichen Stellen erhebliche Potenziale – insbesondere hinsichtlich Effizienz, Genauigkeit und digitaler Souveränität. Gleichzeitig verlangt die komplexe Architektur solcher Systeme eine sorgfältige datenschutzrechtliche Bewertung. Entscheidend ist, dass die Einbindung externer Datenquellen nicht als Freifahrtschein für die Nutzung generativer KI-Systeme verstanden werden darf. Vielmehr müssen alle Komponenten – vom Retriever bis zum LLM selbst – in die datenschutzrechtliche Analyse einbezogen werden, einschließlich der Referenzdokumente, der Vektordatenbank und des Embedding-Modells. Unsere Expert:innen bei SKW Schwarz unterstützen Sie gerne jederzeit bei der datenschutzkonformen Bewertung und Implementierung von RAG-Systemen.
KI-Flash: FAQ der Europäischen Kommission zu praxisrelevanten Fragen bei der Anwendung und Umsetzung der KI-Verordnung
Nachdem wir in unserem letzten KI-Flash über die stufenweise Anwendbarkeit der KI-Verordnung berichtet haben, möchten wir Ihnen auch künftig in regelmäßigen Abständen rechtliche Impulse zu aktuellen Entwicklungen geben.
Heutiges Thema: Neues FAQ der Europäischen Kommission zu praxisrelevanten Fragen zur Anwendung und Umsetzung der KI-Verordnung
Die KI-Verordnung ist am 1. August 2024 in Kraft getreten und sieht eine schrittweise Umsetzung ihrer Regelungen vor. Während Regelungen zur KI-Kompetenz sowie zu GPAIM bereits heute anwendbar sind, folgen ab August 2026 weitere Regelungen zur Transparenz sowie zu Hochrisiko-KI-Systemen. Im Oktober 2025 wurde nun das sog. AI Act Service Desk inkl. einer FAQ-Sektion von der Europäischen Kommission veröffentlicht. Ziel der Veröffentlichung ist es, Unternehmen bei der praktischen Umsetzung und Einordnung des Regelwerks zu unterstützen.
Überblick zu den Kerninhalten des FAQ
Das FAQ basiert direkt auf Anfragen von Unternehmen, Verbänden und weiteren Stakeholdern, sodass eine Vielzahl an Fragen abgedeckt wird, die in der Praxis regelmäßig aufkommen. Das Dokument ist als ein dynamisches Nachschlagewerk zu verstehen, das von der EU-Kommission kontinuierlich aktualisiert wird.
Das FAQ enthält insbesondere Ausführungen zu folgenden Themen:
- Allgemeine Fragen zur Verordnung: Was ist die KI-Verordnung und welche Ziele werden mit ihr verfolgt?
- Anwendungsbereich und Zeitplan: Welche Pflichten gelten ab wann (z.B. Hochrisiko-KI-Systeme, Transparenzpflichten, etc.)?
- Risikoklassifizierung von KI-Systemen: Was sind verbotene KI-Praktiken und wann unterfällt ein KI-System einem hohen Risiko?
- Unterscheidung zwischen KI-System und KI-Modell: Was ist ein KI-Modell, wann ist es als GPAIM zu klassifizieren und wann fällt es einem systemischen Risiko?
- Rollen der KI-Verordnung: Wer ist Anbieter und wer ist Betreiber, und wie können sich die Rollen bei der Modifizierung eines KI-Modells verändern?
- Praktische Hinweise für Unternehmen: Was erwartet die EU-Kommission im ersten Jahr vor der Durchsetzung der KI-Verordnung von Unternehmen?
Alles in allem bietet das FAQ eine umfassende Orientierungshilfe dafür, wie sich die EU-Kommission zu den einzelnen Fragestellungen und Pflichten der KI-Verordnung positioniert — ohne hierbei jedoch jede einzelne Verpflichtung im Detail zu behandeln.
Praktische Auswirkungen
Die Veröffentlichung des FAQ zeigt, dass die EU-Kommission bemüht ist, Unternehmen frühzeitig und umfassend bei der Umsetzung der KI-Verordnung zu unterstützen. Unternehmen sollten die Ausführungen daher sehr ernst nehmen – insbesondere, da das FAQ den offiziellen Standpunkt der EU-Kommission zu einer Vielzahl praxisrelevanter Fragestellungen widerspiegelt. Das FAQ kann und wird perspektivisch von nationalen Marktüberwachungsbehörden (insbesondere der Bundesnetzagentur) herangezogen — jedenfalls als Auslegungshilfe. Unternehmen, die aktuell in die Umsetzung der KI-Verordnung einsteigen, sind somit gut beraten, sich eng an den im FAQ dargestellten Praxisfragen auszurichten.
SKW Schwarz unterstützt Sie gerne bei der Prüfung und Umsetzung der erforderlichen Maßnahmen. Wir werden in künftigen KI-Flashs ausgewählte Fragestellungen der KI-Verordnung im Detail aufgreifen, um Ihnen möglichst frühzeitig eine erste Einordnung zu ermöglichen.
Beitrag in der GRUR-Prax: Privilegierung von Kooperationsapotheken auf Cannabis-Telemedizin-Plattform verletzt Apothekenwahlrecht
In der aktuellen Ausgabe der GRUR-Prax (19/2025) beleuchtet Margret Knitter, Rechtsanwältin und Partnerin bei SKW Schwarz, eine richtungsweisende Entscheidung des OLG Frankfurt a. M. vom 14.8.2025 – 6 W 108/25, zur Gestaltung von Telemedizin-Plattformen im Bereich medizinischer Cannabisprodukte.
Das Gericht setzte sich mit der Frage auseinander, ob bestimmte Strukturen und Abläufe auf digitalen Plattformen das freie Apothekenwahlrecht von Patientinnen und Patienten beeinträchtigen können – insbesondere, wenn Kooperationsapotheken des Plattformbetreibers bevorzugt werden.
Der Beitrag zeigt die rechtlichen Grenzen wirtschaftlicher Kooperationen zwischen Plattformen und Apotheken auf und verdeutlicht, welche Anforderungen an transparente, diskriminierungsfreie Bestellprozesse zu stellen sind.
Mit ihrer Analyse ordnet Margret Knitter die Entscheidung praxisnah ein und gibt Hinweise, welche Gestaltungen im Bereich der Telemedizin und des digitalen Arzneimittelvertriebs künftig rechtssicher umgesetzt werden können.
Den vollständigen Artikel finden Sie in:
Margret Knitter, „Privilegierung von Kooperationsapotheken auf Cannabis-Telemedizin-Plattform verletzt freies Apothekenwahlrecht“, GRUR-Prax 2025, Heft 19, S. 682–683.
Zum Artikel auf beck-online
Data Act in Kraft: Neues Whitepaper von ITK Engineering & SKW Schwarz
ITK Engineering und SKW Schwarz haben gemeinsam das zweite Whitepaper zum Data Act veröffentlicht. Seit dem 12. September 2025 gelten die neuen EU-Vorgaben – mit umfangreichen Pflichten, aber auch Chancen für Unternehmen, die vernetzte Produkte anbieten oder datenbasierte Geschäftsmodelle nutzen. Das Whitepaper zeigt, wie Organisationen regulatorische Anforderungen erfüllen und daraus Innovation sowie Wettbewerbsvorteile erzielen können. Im Fokus stehen praktische Handlungspfade, Compliance-Tipps und erprobte Governance-Frameworks.
Jetzt kostenfrei das neue Whitepaper herunterladen – verfügbar über die ITK-Website!
Wer tiefer eintauchen möchte, findet im ersten Whitepaper (“Data Act – Die EU revolutioniert den Datenmarkt”) die wichtigsten Grundlagen zum Inkrafttreten. Zusammen geben beide Publikationen wertvolle Orientierung für eine nachhaltige Datenstrategie. (Kostenfreier Download über die ITK-Website.)
Online-Banking-Missbrauch im Zusammenhang mit Verkauf bei „Kleinanzeigen“: OLG Schleswig-Holstein weist Berufung zurück
Das Schleswig-Holsteinische Oberlandesgericht hat mit Beschluss vom 29. September 2025 – 5 U 27/25 die Berufung eines Bankkunden zurückgewiesen, der von seinem Zahlungsdienstleister eine Erstattung nach unautorisierten Kreditkartenzahlungen begehrte. Dem Verfahren lag derselbe Sachverhalt zugrunde, über den ich bereits in meinem Blogbeitrag vom 05.02.2025 zur Klagabweisung durch das Landgericht Itzehoe berichtet habe (Urteil vom 28. Januar 2025 – 7 O 114/24; abrufbar unter https://www.skwschwarz.de/news/keine-uberwachungspflicht-fur-banken-aktuelles-urteil-des-lg-itzehoe-im-kontext-von-online-banking-missbrauchsfallen).
1. Grobe Fahrlässigkeit des Kunden
Der Senat bestätigt die Einschätzung der Vorinstanz, dass der Kläger in mehrfacher Hinsicht grob fahrlässig gehandelt habe. Maßgeblich sei insbesondere gewesen, dass er einem außerhalb des Kommunikationssystems von Kleinanzeigen versandten Link folgte und dort persönliche Kreditkartendaten eingab, obwohl er sich in der Rolle des Zahlungsempfängers befand. Bereits dies hätte den Verdacht eines Betrugs nahegelegt.
Hinzu trat die Registrierung seiner Kreditkarte im S-ID-Check-Verfahren mittels Face-ID/PushTAN. Der Kläger ignorierte dabei nach Auffassung des Gerichts eindeutige Hinweise, die auf die missbräuchliche Nutzung seiner Daten hindeuteten. Die Preisgabe sensibler Authentifizierungsmerkmale unter diesen Umständen stelle einen objektiv schwerwiegenden und subjektiv nicht entschuldbaren Verstoß gegen die Sorgfaltspflichten nach § 675l Abs. 1 BGB sowie gegen die einschlägigen vertraglichen Online-Banking-Bedingungen dar.
2. Kein Ausschluss der Haftung nach § 675v Abs. 4 BGB
Der Senat verneinte zudem einen Haftungsausschluss nach § 675v Abs. 4 Nr. 1 BGB. Entgegen der Auffassung des Klägers habe die Sparkasse eine starke Kundenauthentifizierung bei der Transaktion verlangt. Diese erfolgte – unionsrechtskonform – auf der Grundlage einer Zwei-Faktor-Authentifizierung mit den Kategorien Wissen (Online-Banking-Zugangsdaten), Besitz (Kreditkartendaten) und Inhärenz (Face-ID). Damit war die Voraussetzung für einen Haftungsausschluss nicht erfüllt. Den Vortrag des Klägers, wonach zwischen den Parteien streitig war, inwieweit bei der bloßen Anmeldung für das Online-Banking eine starke Kundenauthentifizierung verlangt worden sei, hielt der Senat für nicht entscheidungserheblich und ließ ihn daher unberücksichtigt.
3. Kein Mitverschulden der Bank
Schließlich lehnte das Oberlandesgericht auch eine Anspruchskürzung wegen Mitverschuldens der Beklagten nach § 254 BGB ab. Weder habe es Anhaltspunkte für eine mangelhafte Systemsicherheit gegeben, noch sei eine vertragliche Schutz- oder Warnpflicht verletzt worden. Nach der ständigen Rechtsprechung des Bundesgerichtshofs bestehen Warnpflichten von Kreditinstituten nur in Ausnahmefällen, etwa bei objektiv evidenten Verdachtsmomenten für eine Fremdschädigung. Ein solcher Ausnahmefall habe hier nicht vorgelegen.
Fazit
Mit seinem Beschluss bestätigt das Schleswig-Holsteinische Oberlandesgericht die bereits erstinstanzlich vertretene Auffassung, dass das Verhalten des Klägers als grob fahrlässig einzustufen ist und damit seine Erstattungsansprüche ausschließt. Die Entscheidung unterstreicht, dass Bankkunden bei der Preisgabe von Sicherheitsmerkmalen ein hohes Maß an Eigenverantwortung trifft, während Kreditinstitute nicht verpflichtet sind, jeden verdächtigen Zahlungsvorgang im Einzelfall zu hinterfragen.
Von Bedeutung ist ferner, dass der Senat die streitige Behauptung des Klägers, dass bei der bloßen Anmeldung für das Online-Banking eine starke Kundenauthentifizierung verlangt worden sei, für nicht entscheidungserheblich hielt und daher unberücksichtigt ließ (vgl. zur diesbezüglichen Diskussion OLG Dresden, Urt. v. 05.05.2025 – 8 U 1482/24, BKR 2025, 850 m. Anm. von mir, sowie jüngst BGH, Urt. v. 22.07.2025 – XI ZR 107/24, BKR 2025, 843).
Private Clients Forum 2025: SKW Schwarz Experten zu Nachfolgeplanung und Testamentsgestaltung
Am 18. und 19. September 2025 fand in Frankfurt das Private Clients Forum 2025 des FORUM Instituts in Kooperation mit der FAZ (Skyloft) statt. Im Fokus standen die Themen „Family Office“ und „Vermögensnachfolge“. Die Fachtagung richtet sich an vermögende Privatpersonen, Unternehmerfamilien, Family Offices und Stiftungen und bot Gelegenheit, tiefgehende Einblicke und Best-Practice-Empfehlungen führender Expertinnen und Experten zu erhalten.
Auch in diesem Jahr waren unsere Experten Christoph Meyer und Dr. Gerd Seeliger, Partner bei SKW Schwarz, wieder als Referenten vertreten und gaben praxisnahe Einblicke in zwei zentrale Fragestellungen der privaten Vermögensplanung.
Christoph Meyer: Die Liechtensteiner Stiftung als sicherer Hafen
Christoph Meyer, Partner bei SKW Schwarz, beleuchtete die Rolle der Liechtensteiner Stiftung in der Nachfolgeplanung. Ausgangspunkt sei oft die Sorge um politische und steuerliche Unsicherheiten in Deutschland. Liechtenstein biete Stabilität, Rechtssicherheit, Flexibilität und ein dienstleistungsorientiertes Umfeld. Die Stiftung sei das zentrale Instrument: „Sie ist einfach zu errichten, erfordert vergleichsweise geringe Kosten und bietet vielfältige Gestaltungsmöglichkeiten.“
Dr. Gerd Seeliger: Fallstricke bei der Testamentsgestaltung vermeiden
Dr. Gerd Seeliger, Partner, Rechtsanwalt, Steuerberater und Mediator bei SKW Schwarz in München, zeigte, wie wichtig frühzeitige und fachkundige Nachlassplanung ist. Ein eigenhändiges Testament müsse handschriftlich verfasst sein – „nur die Unterschrift reicht nicht aus“. Unklare Formulierungen und übersehene Pflichtteilsansprüche führten häufig zu Konflikten. Bei Unternehmensanteilen sollten Testament und Gesellschaftervertrag zwingend aufeinander abgestimmt sein; steuerliche Aspekte seien mitzudenken und Freibeträge optimal zu nutzen.
Fazit: Das Private Clients Forum 2025 war eine Fachtagung für vermögende Privatpersonen, Unternehmerfamilien, Family Offices und Stiftungen – mit praxisnahen Impulsen zur rechtssicheren Gestaltung von Nachfolge und Vermögen.
Mehr über die Inhalte lesen Sie in der Frankfurter Allgemeine Zeitung online unter Link.
https://www.faz.net/asv/private-clients-forum-2025/verstaendigung-ueber-generationen-110710647.html
Produkthaftung und Künstliche Intelligenz
Die Neuregelung des Produkthaftungsrechts im Lichte des Regierungsentwurfs vom 11. September 2025
Am 8. Dezember 2024 ist die Richtlinie (EU) 2024/2853 über die Haftung für fehlerhafte Produkte (ProdHaftRL) in Kraft getreten, die die fast 40 Jahre alte Richtlinie 85/374/EWG, auf der auch das Produkthaftungsgesetz (ProdHaftG) beruht, ersetzt hat. Bereits am 11. September 2025 – und damit vergleichsweise früh – hat nun das Bundesministerium der Justiz und für Verbraucherschutz den Referentenentwurf zur Umsetzung der ProdHaftRL vorgelegt (ProdHaftG-E). Das Gesetz soll mit Ablauf der Umsetzungsfrist am 9. Dezember 2026 in Kraft treten.
Hintergrund der umfassenden Modernisierung des Produkthaftungsrechts sind unter anderem die Entwicklungen im Zusammenhang mit neuen Technologien, einschließlich künstlicher Intelligenz (KI). So hätten sich in der Anwendung des bisherigen Produkthaftungsrechts Inkonsistenzen und Rechtsunsicherheiten in Bezug auf die Auslegung des „Produkt“-Begriffs ergeben. Zudem gestaltet sich die Geltendmachung von Schadensersatzansprüchen für Geschädigte angesichts einer zunehmenden technischen Komplexität der Produkte oft schwierig.
Mit dem ProdHaftG-E soll jetzt der Spagat zwischen einerseits der Förderung der Entwicklung neuer Technologien und andererseits der Gewährleistung effektiven Rechtsschutzes für Geschädigte gelingen. Ein wesentliches Element hierzu ist die Einbeziehung von Software – und damit auch von KI-Systemen – in den Anwendungsbereich des ProdHaftG. Für Unternehmen stellt sich vor diesem Hintergrund die Frage: Wen trifft die Verantwortlichkeit für „mangelhafte“ Software – den Hersteller oder einen anderen Akteur entlang der Wertschöpfungskette? Welche Pflichten treffen die Marktteilnehmer und wie können sie sich gegen Haftungsrisiken absichern?
Im Folgenden werden die wesentlichen Änderungen im ProdHaftG nach dem Regierungsentwurf analysiert und die Konsequenzen aufgezeigt, die sich insbesondere für Unternehmen ergeben, die KI-Systeme entwickeln, vertreiben oder einsetzen.
Zur neuen ProdHaftRL hat SKW Schwarz bereits berichtet.
Zentrale Änderungen im Produkthaftungsrecht
Mit dem ProdHaftG-E ergeben sich im Vergleich zum bisherigen ProdHaftG einige Änderungen:
1) Software & KI-Systeme als Produkt
Software wird künftig unabhängig von der Art ihrer Bereitstellung oder Nutzung in die Produkthaftung einbezogen, das heißt unabhängig von ihrer Verkörperung oder Verbindung mit körperlichen Gegenständen und damit auch unabhängig davon, ob die Software „on-premise“ verwendet oder etwa über die Cloud abgerufen wird (§ 2 Nr. 3 ProdHaftG-E).
Auch KI-Systeme sollen damit unter den – technologieoffen zu verstehenden und bewusst nicht legaldefinierten – „Software“-Begriff fallen (vgl. Erwägungsgrund 13 der ProdHaftRL).
Eine Sonderrolle nimmt freie und Open-Source-Software ein: Sie ist grundsätzlich vom Anwendungsbereich des Produkthaftungsrechts ausgenommen (§ 2 Nr. 3 ProdHaftG-E, zweiter Halbsatz), jedoch nur, wenn sie außerhalb einer geschäftlichen Tätigkeit entwickelt oder bereitgestellt wird. Erfolgt die Bereitstellung dagegen für ein Entgelt oder personenbezogene Daten, die zu anderen Zwecken als ausschließlich zur Verbesserung der Sicherheit, Kompatibilität oder Interoperabilität der Software verwendet werden, liegt eine geschäftliche Tätigkeit vor und die Ausnahme greift nicht. Das bedeutet zugleich: Wird Open-Source-Software, die ursprünglich außerhalb einer geschäftlichen Tätigkeit bereitgestellt wurde, von einem Hersteller im Rahmen seiner Geschäftstätigkeit als Komponente in ein Produkt integriert, haftet dieser Hersteller für Schäden, die durch Fehler der Software verursacht werden – nicht jedoch der ursprüngliche Hersteller der Open-Source-Software (vgl. Erwägungsgründe 14 und 15 ProdHaftRL sowie Begr. RefE, S. 26).
2) Arten von ersatzfähigen Schäden
Neben Schäden infolge einer Tötung, Körper- oder Gesundheitsverletzung oder Sachbeschädigung werden künftig auch Schäden ersatzfähig sein, die dadurch entstehen, dass nicht beruflich verwendete Daten vernichtet oder beschädigt werden (§ 1 Abs. 1 Nr. 3 ProdHaftG-E). Im Umkehrschluss bedeutet das, dass Schäden an Daten, die – zumindest auch – für berufliche Zwecke verwendet werden, nicht nach dem ProdHaftG-E ersatzfähig sind (vgl. Erwägungsgrund 22 der ProdHaftRL).
Vom datenschutzrechtlichen Schadensersatzanspruch aus Art. 82 DSGVO unterscheidet sich der Anspruch aus § 1 ProdHaftG-E dadurch, dass letzterer keine datenschutzwidrige Verarbeitung personenbezogener Daten voraussetzt und den Hersteller (und nicht den datenschutzrechtlich Verantwortlichen) in die Pflicht nimmt.
3) Anpassung des Fehlerbegriffs
§ 7 S. 1 ProdHaftG-E normiert den Grundsatz, dass ein Produkt fehlerhaft ist, wenn es nicht die Sicherheit bietet, die gesetzlich vorgeschrieben ist oder die erwartet werden darf.
§ 7 S. 2 Nr. 1–8 ProdHaftG-E nennt als Umstände, die bei der Beurteilung der Fehlerhaftigkeit zu berücksichtigen sind, unter anderem den vernünftigerweise vorhersehbaren Gebrauch (Nr. 2), die Auswirkungen der Lernfähigkeit des Produkts (Nr. 3), Wechselwirkungen mit anderen Produkten (Nr. 4) sowie die Anforderungen an die Cybersicherheit (Nr. 5).
4) Erweiterung des Kreises der Haftungssubjekte
Zentrales Haftungssubjekt des ProdHaftG-E bleibt der Hersteller, einschließlich desjenigen, der als Hersteller auftritt (sog. Quasi-Hersteller). Insoweit entspricht die Legaldefinition in § 3 ProdHaftG-E im Kern der des Anbieters nach Art. 3 Nr. 3 KI-VO.
Im Übrigen sehen die §§ 10–13 ProdHaftG-E eine Haftungskaskade vor, die neben dem Hersteller (bzw. Anbieter) jedoch unter bestimmten Voraussetzungen auch Importeure, Beauftragte, Fulfilment-Dienstleister, Lieferanten sowie Anbieter einer Online-Plattform im Sinne des Art. 3 lit. i) DSA als Haftungssubjekte erfasst.
In diesem Zusammenhang ist zu beachten, dass bei Fehlern eines Produkts, die durch eine fehlerhafte Komponente verursacht werden, sowohl der Hersteller des Produkts als auch der Hersteller der Komponente haften können (§ 4 ProdHaftG-E). Komponenten sind auch
„verbundene Dienste“ wie der Temperaturüberwachungsdienst, der die Temperatur eines intelligenten Kühlschranks überwacht und reguliert (vgl. Erwägungsgrund 17 ProdHaftRL).
5) Verschiebung der Darlegungs- und Beweislast
§ 19 ProdHaftG-E sieht nach dem Vorbild der U.S.-amerikanischen „disclosure of evidence“ eine Regelung zur Offenlegung von Beweismitteln in Gerichtsverfahren vor. Dies soll dafür sorgen, dass Kläger und Beklagter über vergleichbares Wissen verfügen.
Zuletzt enthält § 20 ProdHaftG-E Vermutungen und Annahmen für das Vorliegen eines Fehlers sowie für dessen Ursächlichkeit für die eingetretene Verletzung eines Rechts oder Rechtsguts im Sinne von § 1 Abs. 1 ProdHaftG-E.
Auswirkungen für Unternehmen
Für Unternehmen, die KI-Systeme oder andere Software entwickeln oder vertreiben, ergibt sich aus dem ProdHaftG-E eine erhebliche Ausweitung der Haftungsrisiken, nicht zuletzt dadurch, dass die gesetzlichen Anforderungen und die faktische Möglichkeit zur Umsetzung dabei teilweise erheblich auseinanderfallen. Stellt das ProdHaftG-E etwa auf den „Stand der Wissenschaft und Technik“ ab (§ 9 Abs. 1 Nr. 3), setzt dies entsprechende Normen oder Standards voraus, die nicht nur eine faktische Hilfestellung bieten, sondern insbesondere auch eine Untergrenze definieren – jedoch sind diese flächendeckend schlicht nicht existent. So stehen Hersteller vor der Herausforderung, ohne entsprechende Leitplanken Produkte und Komponenten so zu konstruieren, dass „erwartbare“, „vernünftigerweise vorhersehbare“ oder auch – im Falle selbstständig lernender Produkte – „unerwartete“ negative Auswirkungen vermieden werden (§ 7 S. 2 Nr. 3 ProdHaftG-E).
Zudem können nunmehr neben Herstellern auch sonstige Akteure potenzielles Haftungssubjekt sein. Mit der in §§ 10–13 ProdHaftG-E vorgesehenen Haftungskaskade soll gewährleistet werden, dass Geschädigte stets einen Anspruchsgegner mit Sitz in der Europäischen Union haben, auch wenn der Hersteller selbst außerhalb der EU ansässig ist. So können auch Importeure und Beauftragte, Fulfilment-Dienstleister, Lieferanten sowie Anbieter von Online-Plattformen haftbar sein, sofern der in dieser (Liefer-)Kette jeweils vorgeschaltete Akteur mangels Sitzes in der EU nicht greifbar ist.
Andererseits bleibt es dabei, dass mit der Anknüpfung an bestimmte Rechte und Rechtsgüter in § 1 Abs. 1 ProdHaftG-E und insbesondere der Ausklammerung von reinen Vermögensschäden der Schutzbereich des Gesetzes weiterhin begrenzt ist.
Empfehlungen zur internen Umsetzung sowie Best Practices
Um Haftungsfälle zu vermeiden, empfiehlt sich die Umsetzung der folgenden allgemeinen sowie
Akteur-spezifischen Leitlinien. Insbesondere für den Hersteller als zentrales Haftungssubjekt des ProdHaftG-E besteht dabei ein umfassender Handlungsbedarf.
1) Akteur-übergreifende Empfehlungen
- Produkthaftpflichtversicherung: Unternehmen sollten prüfen, ob bestehende Versicherungen Schäden durch Software und KI-Systeme abdecken.
- Überprüfung von Vereinbarungen mit Dritten: Verträge etwa mit Lieferanten sind auf die Verteilung des Haftungsrisikos zu überprüfen. Ggf. sind Regressklauseln einzuführen.
- Compliance-Systeme: Anbieter müssen sicherstellen, dass ihre Systeme die gesetzlichen Anforderungen erfüllen und Risiken minimiert werden.
- Dokumentation, unter anderem der Lieferketten.
2) Für Hersteller
- Sicherheit-by-Design: Bei der Entwicklung eines Produkts sind relevante Sicherheitsaspekte, wie die sich durch den Gebrauch des Produkts, dessen Lernfähigkeit oder dessen Wechselwirkungen mit anderen Produkten ergebenden Risiken, zu berücksichtigen.
- Ferner ist – soweit möglich – kodifiziertes technisches Wissen in Gestalt harmonisierter Normen und Standards zu berücksichtigen, um einen Haftungsausschluss zu ermöglichen (§ 9 Abs. 1 Nr. 3 ProdHaftG-E).
- Dokumentation: Unabhängig von der Risikoklassifizierung des KI-Systems ist die Einhaltung der Anforderungen der KI-VO zu empfehlen, zumindest aber die lückenlose Aufzeichnung über die Entwicklung und ein „AI-Lifecycle-Management“, um im Haftungsverfahren dessen Fehlerfreiheit nachzuweisen bzw. die Vermutungen und Annahmen in § 20 ProdHaftG-E zu widerlegen; auch können Unternehmen dazu verpflichtet sein, die Funktionsweise des KI-Systems offenzulegen.
- Zudem sind insbesondere auch die Anforderungen an die Cybersecurity zu berücksichtigen (zum CRA und zur NIS-2-RL berichtete SKW Schwarz bereits hier und hier).
- Update-Management: Hersteller sollten in Verkehr gebrachte/in Betrieb genommene Produkte mit den erforderlichen Sicherheitsupdates versorgen (§ 9 Abs. 2 S. 2 ProdHaftG-E); hierzu sind entsprechende interne Prozesse zu etablieren.
3) Für Lieferanten und Anbieter einer Online-Plattform
- Informationsmanagement: Insbesondere Lieferanten sollten Lieferketten transparent dokumentieren und Systeme einrichten, um einem Gläubiger gegenüber auf Aufforderung innerhalb eines Monats einen vorrangig haftbaren Akteur nennen zu können (§ 12 Abs. 1 ProdHaftG-E). Gleiches gilt für Anbieter von Online-Plattformen, über die Verbraucher mit Unternehmern Verträge schließen können. Für sie gelten die Pflichten der Lieferanten entsprechend.
- Klare Kennzeichnung: Anbieter einer Online-Plattform sollten Produkte, die nicht vom Anbieter selbst oder von einem der Aufsicht des Anbieters unterstehenden Nutzer bereitgestellt werden, nach außen eindeutig erkennbar dem Hersteller oder Verkäufer zuordnen, um eine Eigenhaftung zu vermeiden (vgl. § 13 Nr. 2 ProdHaftG-E in Verbindung mit Art. 6 Abs. 3 DSA).
Fazit und Ausblick
Die Modernisierung des Produkthaftungsrechts markiert einen Wendepunkt im Umgang mit KI-Systemen. Erstmals wird Software umfassend als Produkt anerkannt, sodass auch KI-Anwendungen der Produkthaftung unterliegen. Zwar wird bis zum voraussichtlichen Inkrafttreten des Gesetzes noch etwas Zeit vergehen, jedoch sollten Unternehmen sich angesichts der erheblichen Ausweitung der Haftungsrisiken rechtzeitig auf die bevorstehenden Änderungen vorbereiten.













































