Das Gespräch zwischen dem KI-Unternehmer Leonard Schweding und dem IT-Experten Tom Lausen dreht sich um eine Frage, die 2026 plötzlich greifbar wird: Wer haftet, wenn Künstliche Intelligenz und Robotik im realen Raum Schäden verursachen? Denn KI ist längst nicht mehr nur Software – humanoide Roboter, autonome Fahrzeuge und vernetzte Maschinen agieren physisch in der Welt. Genau hier entscheidet Haftung über Tempo, Richtung und Akzeptanz des technologischen Wandels.
Warum Haftung jetzt zur Schlüsselfrage wird
Sobald KI-Systeme in Fabriken, Krankenhäusern, auf Straßen oder in Haushalten Aufgaben übernehmen, entsteht ein neues Risikoprofil: Schäden können nicht nur digital, sondern materiell auftreten. Die zentrale Frage lautet deshalb: Trägt der Hersteller die Verantwortung, der Betreiber – oder wandert ein Teil der Haftung vertraglich zum Nutzer? Diese Weichenstellung beeinflusst, ob sich nur wenige kapitalkräftige Konzerne den Markteintritt leisten können (weil sie hohe Haftungsrisiken absichern) oder ob ein breiter, innovativer Mittelstand entsteht.
Der europäische Rahmen: KI-Regulierung und Produkthaftung
Europa hat hierfür den regulatorischen Rahmen stark ausgebaut. Der EU AI Act ist am 1. August 2024 in Kraft getreten und führt stufenweise ab 2025/2026 Pflichten nach Risikoklassen ein – von Transparenzanforderungen über menschliche Aufsicht bis hin zu Verboten bestimmter Praktiken. Parallel dazu wurde die Produkthaftung modernisiert: Die neue EU-Produkthaftungsrichtlinie (2024/2853) bezieht ausdrücklich Software und KI-bezogene digitale Dienste ein. Mitgliedstaaten müssen sie bis Dezember 2026 in nationales Recht überführen. Zusammen schaffen diese Regeln mehr Klarheit, wer wann wofür einstehen muss – und erleichtern Geschädigten den Nachweis von Fehlern.
Praxisnah: Wenn autonome Systeme an Grenzen stoßen
Wie heikel Haftungsfragen sind, zeigen Vorfälle im Bereich autonomes Fahren. Nach dem schweren Unfall eines Cruise-Robotaxis 2023 in Kalifornien und mehreren Untersuchungen wurden Testprogramme teils eingeschränkt, Verantwortlichkeiten geprüft und Software nachgebessert. Auch 2026 verdeutlichen Einzelfälle mit Robotaxis, dass selbst fortschrittliche Systeme in ungewohnten Verkehrssituationen an Grenzen geraten können. Für Betreiber heißt das: Ohne robuste Risikobewertung, Logging, Redundanzen und klare Eskalationsprozesse (z. B. Remote-Übernahme oder sichere Minimalzustände) ist ein skalierter Einsatz kaum vertretbar – versicherungsrechtlich wie gesellschaftlich.
Humanoide Roboter: Vom Showcase zum Haftungsfall
Humanoide Roboter werden erschwinglicher und wandern von Laboren in reale Umgebungen. Ein prominentes Beispiel: der Unitree G1, der seit 2024 in einer Basisversion ab rund 13.500 US‑Dollar angeboten wird; EDU‑Varianten liegen deutlich höher. Je näher solche Maschinen an Menschen arbeiten – ob in Logistik, Pflege oder Service – desto wichtiger werden Haftungsdetails: Wer haftet bei unbeabsichtigten Kollisionen, falschen Greifbewegungen oder Software-Exploits? Betreiber sollten frühzeitig Versicherungen einbinden, Sicherheitsnormen (z. B. ISO/IEC für kollaborative Robotik) prüfen und vertraglich präzise Verantwortlichkeiten, Updatepflichten und Evidenzsicherung regeln.
Digitale ID, „Human Verification“ und der Alltag
Parallel verschiebt sich die Nachweisführung in Richtung digitaler Identitäten. In Großbritannien rollt die Regierung mit „GOV.UK One Login“ schrittweise einen Standardzugang für Online-Behördendienste aus; wichtig: Der Zugang ist nicht verpflichtend, es bleiben analoge/offline Wege bestehen. Auf großen Plattformen setzen sich Alters- und Identitätsprüfungen weiter durch – etwa per Video‑Selfie oder Ausweisdaten – um Bots zu bremsen und Jugendschutz sowie Rechtsdurchsetzung zu stärken. In der EU forciert der Digital Services Act Transparenz, Forscherzugang zu Plattformdaten und kindgerechte Schutzmaßnahmen. Für Unternehmen heißt das: Projekte mit KI‑Interaktion sollten früh klären, wann Identitäts- oder Altersnachweise wirklich nötig sind – und wie sich Datenschutz, Barrierefreiheit und analoge Alternativen gewährleisten lassen.
Was Unternehmen und Behörden jetzt konkret tun sollten
- Haftungslandkarte erstellen: Rollen (Hersteller, Integrator, Betreiber, Kunde) samt Pflichten, Freigaben und Versicherungen festhalten.
- Sichere Architektur: Technische und organisatorische Maßnahmen (Fail‑Safe, Not‑Aus, Rollen‑ und Rechtekonzepte, Härtung gegen Exploits) verbindlich machen.
- Governance & Nachvollziehbarkeit: Ereignis‑ und Entscheidungslogs, Datenhaltungsfristen, Model‑ und Software‑Stücklisten (SBOM/MBOM) definieren – für Audit und Forensik.
- Verträge präzisieren: Update‑/Upgrade‑Pflichten, Patch‑Zeitfenster, Monitoring, Service‑Level und Beweislastregeln eindeutig beschreiben.
- Risikoklassifizierung nach EU‑Recht: KI‑Systeme den AI‑Act‑Klassen zuordnen, Konformitätsbewertung planen und Kennzeichnungen/Transparenz umsetzen.
- Testen im Realbetrieb: Stufenweise Piloten mit menschlicher Aufsicht, definierter Eingreifschwelle und klarer Freigabematrix.
- Identitäts- und Altersprüfungen „privacy‑by‑design“: Nur wo nötig, mit klarer Rechtsgrundlage, Datenminimierung und analogen Alternativen.
- Schulung & Kultur: Teams zu Sicherheit, Bias, Human‑in‑the‑Loop und Vorfallmeldungen trainieren; Vorfälle als Lernchance behandeln.
Fazit
Die Debatte zeigt: Nicht die spektakulärste Roboter‑Demonstration entscheidet über den nächsten Produktivitäts‑Sprung, sondern verlässliche Haftungs‑ und Sicherheitskonzepte. Wer 2026 Haftung, Sicherheit und Identität proaktiv verzahnt – technisch, rechtlich und organisatorisch – baut Vertrauen auf, beschleunigt die Einführung und schützt Menschen wie Geschäftsmodelle gleichermaßen. Genau hier wird sich unterscheiden, wer KI und Robotik verantwortungsvoll skaliert – und wer auf Sicht fährt.

