Die diesjährige Consumer Electronics Show (CES) 2026 in Las Vegas hat eindrucksvoll gezeigt, dass Künstliche Intelligenz eine neue Entwicklungsstufe erreicht und zunehmend den rein digitalen Raum verlässt. Aktuelle Entwicklungen in der Robotik zeigen, dass sogenannte Physical-AI-Systeme nicht mehr nur ihre Umgebung wahrnehmen, sondern eigenständig schlussfolgern, Entscheidungen treffen und physisch handeln. Humanoide Roboter entwickeln sich dabei von experimentellen Einzelanwendungen zu skalierbaren Plattformen, die in unterschiedlichen Umgebungen eingesetzt werden können und sich dynamisch an neue Situationen anpassen. Diese Verschiebung von aufgabenspezifischer Automatisierung hin zu adaptiven, lernfähigen Systemen beschleunigt den kommerziellen Einsatz erheblich – sei es in Industrie, Logistik, Service oder Arbeitsumgebungen. Für Unternehmen bedeutet dies jedoch nicht nur technologische Chancen, sondern auch eine neue regulatorische Komplexität: Wo KI körperlich agiert, Menschen begegnet und autonom reagiert, ergibt sich für Hersteller, Integratoren und Betreiber ein vielschichtiger regulatorischer Rahmen, der frühzeitig adressiert werden sollte.
Regulatorische Einordnung
Rechtlich existiert keine eigenständige Kategorie „humanoider Roboter“. Maßgeblich ist vielmehr eine funktionale Betrachtung entlang des Lebenszyklus: Entwicklung, Inverkehrbringen, Betrieb und Weiterentwicklung. Je nach Ausgestaltung greifen parallel Regelungen aus dem Produktsicherheitsrecht, der KI-Regulierung, Datenschutz, Cybersecurity sowie dem Haftungsrecht.
Produktsicherheit und Marktzugang
Humanoide Roboter sind regelmäßig als Maschinen einzuordnen und unterliegen damit den Anforderungen an Konformitätsbewertung und CE-Kennzeichnung. Mit der neuen EU-Maschinenverordnung (EU) 2023/1230 steigen insbesondere die Anforderungen an softwarebasierte Steuerungen und sicherheitsrelevante KI-Funktionen. Die Verordnung gilt ab 20. Januar 2027 (vollständiger Anwendungsbeginn). Zentrale Themen sind die sichere Mensch-Roboter-Interaktion, Notfallmechanismen sowie der Umgang mit autonomem und lernendem Verhalten.
KI-Regulierung nach dem EU AI Act
Der EU AI Act (VO (EU) 2024/1689) gilt für KI-Systeme, die in der EU in Verkehr gebracht oder genutzt werden, und knüpft nicht an die äußere Gestalt eines Roboters an, sondern an den jeweiligen Einsatzkontext. Humanoide Roboter können als Hochrisiko-KI-Systeme eingestuft werden, etwa bei Einsatz im Arbeitsumfeld, bei biometrischer Identifikation oder in sicherheitskritischen Bereichen. In diesen Fällen sind u. a. Risikomanagement, technische Dokumentation, Protokollierung, menschliche Aufsicht und ein Post-Market-Monitoring verpflichtend. Für Anwendungen mit einem geringen Risiko gelten lediglich eingegrenzte Transparenz- und Informationspflichten.
Datenschutz und Einsatz im Betrieb
Aufgrund ihrer Sensorik verarbeiten humanoide Roboter regelmäßig personenbezogene Daten, häufig auch Bild- und Audiodaten. Humanoide sind regelrechte „Datensauger“. Der Einsatz in öffentlich zugänglichen oder betrieblichen Räumen kann als Hochrisiko-Verarbeitung eine Datenschutz-Folgenabschätzung (Art. 35 DSGVO) erforderlich machen. Besonders sensibel ist der Einsatz in Betrieben (z.B. als „co-worker“, im Lager oder am Empfang), da hier Fragen der Überwachung, Leistungs- und Verhaltenskontrolle sowie der Mitbestimmung des Betriebsrats berührt werden.
Zugang und Nutzung von Daten
Sobald ein Humanoid- oder Robotik-Stack Geräte- oder Nutzungsdaten generiert – insbesondere im IoT-Kontext vernetzter Produkte und damit verbundener Dienste – können die materiellen Vorschriften des Data Act (VO (EU) 2023/2854) einschlägig sein. Der Data Act enthält Regelungen zur Interoperabilität, Datenportabilität und Vertragsgestaltung zwischen Anbietern, Kunden und Nutzern von Produkten die Daten enthalten oder Daten sammeln. Er ist seit 11. Januar 2024 in Kraft und gilt weitgehend seit 12. September 2025.
Cybersecurity und Updates
Als vernetzte Produkte mit digitalen Elementen fallen humanoide Roboter typischerweise unter den Cyber Resilience Act (VO (EU) 2024/2847). Der Cyber Resilience Act ist seit 10. Dezember 2024 in Kraft; die meisten Pflichten gelten zeitversetzt. Hersteller müssen sichere Update- und Patch-Prozesse, Schwachstellenmanagement sowie ein durchgängiges Sicherheitskonzept etablieren. Änderungen am KI-Modell oder an der Steuerungssoftware können haftungs- und sicherheitsrelevant sein.
Haftung
Mit der neuen EU-Produkthaftungsrichtlinie (EU) 2024/2853 wird die Haftung ausdrücklich auf Software und KI-Systeme ausgeweitet. Fehlerhaftes oder nicht hinreichend kontrolliertes KI-Verhalten kann zu einer Haftung entlang der gesamten Lieferkette führen. Dokumentation, Logging und klare Verantwortlichkeiten gewinnen dadurch erheblich an Bedeutung. Die neue Produkthaftungsrichtlinie muss auf nationaler Ebene bis zum 9. Dezember 2026 umgesetzt werden.
Das Wichtigste auf einen Blick
- Keine Sonderkategorie: Humanoide Roboter werden rechtlich funktional eingeordnet – nicht nach ihrer Erscheinung.
- CE bleibt zentral: Produktsicherheit und Konformitätsbewertung sind der regulatorische Einstiegspunkt.
- Use Case entscheidet: Ob der EU AI Act greift, hängt vom Einsatzkontext, nicht vom Robotertyp ab.
- Datenschutz ist kritisch: Kamera- und Audiofunktionen machen Privacy-by-Design zwingend erforderlich.
- Cybersecurity wird Pflicht: Updatepflichten und Vernetzung erhöhen die regulatorischen Anforderungen deutlich.
- Haftungsrisiken steigen: KI-spezifische Produkthaftung erfordert saubere Dokumentation und Governance.



