03_Exoskelette

Wann haftet der Roboter?

Würden Sie einen Roboter in Ihrer Wohnung oder am Arbeitsplatz einsetzen? Oder ist Ihnen die Rechtslage noch zu unsicher, wenn Ihnen durch den Roboter ein Schaden entstünde?

Das kommt natürlich auf die konkrete Art des Roboters an und darauf, wie ich sein Gefährdungspotenzial im Einzelfall einschätzen würde. Ich wär sicherlich nicht der Erste, der sich ein vollständig autonomes Auto zulegen würde – aber nur wegen der Unberechenbarkeit jener Leute, die ihr Auto noch manuell steuern. Angenommen, der Einsatzbereich des Roboters wäre weniger anfällig für äußere Störfaktoren, dann hätte ich auch weniger Bedenken. Nehmen wir beispielsweise einen Roboter, der mir bei der Hausarbeit zur Hand geht. Was mir in diesem Bereich Sorgen bereiten würde ist weniger mein körperliches Wohlbefinden als vielmehr die Frage nach dem Eindringen des Roboters in meinen persönlichen Lebensbereich und seinem Umgang mit meinen privaten Daten. Eine Alexa würde ich mir ungern ins Schlafzimmer oder das Büro stellen.

Wo sehen Sie in Zukunft die größten rechtlichen Unsicherheiten und Gefahren für Menschen im Umgang mit Robotern?

Sofern wir von gesundheitlichen Gefahren sprechen, ist die berufsbedingte Zusammenarbeit von Menschen und Robotern mit Sicherheit ein Bereich, auf den es ein besonderes Augenmerk zu legen gilt. Die Interaktion erfolgt hier nahezu täglich und der Mensch kann sich dieser Situation nicht ohne Weiteres entziehen. Außerdem lässt sich ein Trend hin zur Kollaboration beobachten, das heißt einzelne Arbeitsprozesse erfolgen in zunehmend engerer, zeitlicher und räumlicher Nähe zwischen Mensch und Maschine, ohne strikte Trennung von Aufgaben- und Einsatzbereichen.

Braucht man ein eigenes Roboter-Recht oder genügen die bisherigen Gesetze?

Was die aktuell auf dem Markt befindlichen Technologien angeht, so lassen sich die meisten recht gut an der bestehenden Gesetzeslage messen. Das liegt unter anderem daran, dass die Interpretation von Gesetzestexten sich den gesellschaftlichen Gegebenheiten durchaus anpasst. Natürlich unterliegt die Auslegung von Begriffen aber bestimmten Grenzen. Zudem besteht die Gefahr, dass die Begriffe von Personen mit
unterschiedlich ausgeprägtem Technologieverständnis auch unterschiedlich definiert werden. Beispiel: Wann verhält sich ein Hersteller oder Anwender im Umgang mit neuartigen Systemen nun sorgfaltswidrig? In solchen Fällen könnte eine exakte Festlegung verbindlicher Standards für den Rechtsanwender hilfreich sein.

Kann ein Roboter schuldhaft handeln? Gab es bereits Rechtsfälle, in denen es um die „Schuld“ von Robotern ging beziehungsweise Menschen durch Roboter Schäden davongetragen haben?

In den USA hat es bereits einen tödlichen Unfall mit einem teilautonomen Fahrzeug gegeben, dessen Sensoren einen entgegenkommenden LKW vermutlich mit dem Himmel verwechselten. Trotzdem ist dies eine Frage, die bislang ganz überwiegend mit „Nein“ beantwortet wird, zumindest von Juristen. Grund hierfür ist, dass der Begriff der Schuld rechtlich stets mit einer persönlichen Vorwerfbarkeit einhergeht. Diese setzt die Fähigkeit zum Normverständnis und zur Selbstreflexion voraus. Maschinen wird bisher aber grundsätzlich abgesprochen, ihre Existenz in Relation zu einer Rechtsordnung zu begreifen. Zwar könnte man beim jeweils in die Maschine einprogrammierten Code auch von „Normen“, also Verhaltensvorgaben, sprechen. Es fehlt den Maschinen jedoch die Möglichkeit in Widerspruch zu dieser Programmierung zu handeln. Ihre Entscheidungen sind vollumfänglich durch Menschen determiniert.

Wie unterscheiden sich Roboter rechtlich von herkömmlichen Maschinen?

Durch ihren größeren Handlungs- und Entscheidungsspielraum. Es handelt sich bei Robotern nicht länger um Automaten, deren Aktionen immer eins zu eins auf die Befehle eines Menschen zurückgehen. Ihnen stehen Lösungswege für Probleme offen, die der Hersteller nicht alle im Einzelnen definiert haben muss. Diese Flexibilität geht freilich auch mit einer geringeren Vorhersehbarkeit potenzieller Verhaltensweisen einher. Rechtlich ist das ein Problem: Will man den durch den Roboter ausgelösten Schaden jemandem zurechnen, setzt das voraus, dass mit dem Schaden auch im Vorfeld gerechnet werden musste.

Wer haftet oder sollte haften, wenn programmierte Roboter Schäden verursachen – Hersteller, Betreiber oder gar der Besteller einer Roboter-Leistung?

Letztlich bleibt die Haftung eine Frage des Einzelfalls – auch wenn es um Roboter geht. In der Tat lässt sich aber ein Trend hin zur vermehrten Inanspruchnahme des Herstellers autonomer Systeme prognostizieren, weil dieser nach dem Produkthaftungsgesetz einer verschuldensunabhängigen Haftung unterliegt. Ihm muss allerdings immer noch nachgewiesen werden, dass er sich bei der Herstellung nicht am neuesten Stand von Wissenschaft und Technik orientiert hat.

Was bedeutet der zunehmende Einsatz von Robotern für den Arbeitsschutz – insbesondere im Kontext von Haftung und Verantwortung sowie in puncto Sicherheits- und Risikoverhalten der Beschäftigten?

Ziel der Digitalisierung und Automatisierung der Arbeitswelt ist neben der Ökonomisierung von Arbeitsprozessen auch die Verringerung der Unfallgefahren. Zunächst einmal sollte man deshalb stets im Blick behalten, dass dies auch viele Arbeitskräfte entbehrlich macht. Dort, wo diese Arbeitskräfte noch nicht vollständig aus dem Arbeitsprozess wegzudenken sind, gewinnen beispielsweise Überwachungs- und Wartungsarbeiten rund um die Aufgabenerledigung durch den Roboter an Bedeutung. Wenngleich also das Risiko für Arbeitsunfälle insgesamt sinken mag, so wird der auf den Einzelfall bezogene Arbeitsschutz wohl schwieriger zu behaupten sein. Denn im Schadensfall ist es schwerer nachzuweisen, wessen Verhalten maßgeblich war.

Welche Auswirkungen hat das immer intensivere Zusammenarbeiten mit Robotern für eine Fachkraft für Arbeitssicherheit? Was muss diese bei ihrer Arbeit besonders berücksichtigen – zum Beispiel bei einer Gefährdungsbeurteilung?

Größtes Risiko für Fehlabläufe ist und bleibt der Mensch. Das gilt insbesondere bei einem Ineinandergreifen maschineller und menschlicher Teilbeiträge zu einem Arbeitsergebnis. Denken wir nur einmal an sogenannte „Exoskelette“, die sich an individuelle Parameter des Bedieners anpassen und ihm so als verlängerter Arm dienen. Die Vereinbarkeit solcher adaptiver Systeme mit dem geltenden Recht hat Robotrecht bereits in Zusammenarbeit mit namhaften Projektpartnern wie der BAuA und Daimler untersucht. Je komplexer die Systeme sind, desto weniger kann ein computertechnisch kaum geschulter Anwender deren Funktionen nachvollziehen. Dieser muss bis zu einem bestimmten Grad also verstehen können, was der Roboter gerade macht. Primär muss man daher eine Integration der Maschine in die Arbeitsumgebung fordern, nicht eine Anpassung der Arbeitskraft an die technischen Gegebenheiten.

Wer ist für die Verkehrswege von Transport-Robotern auf dem Firmengelände verantwortlich?

In erster Linie der Arbeitgeber. Vergleicht man die Beteiligten miteinander, so hat er die besten Möglichkeiten für eine geeignete Einsatzumgebung zu sorgen. Andererseits sollen die Sensoren den Roboter ja gerade dazu befähigen, Kollisionen auszuweichen. In diesem Rahmen muss sich der Betriebsinhaber darauf verlassen können, dass ein System hält, was es verspricht.

Wie kann ein Betreiber sicherstellen, dass er beim Betrieb eines Roboters seiner Sorgfaltspflicht nachgekommen ist? Und wie kann ein Geschädigter beweisen, dass die gebotene Sorgfalt durch den Betreiber nicht erbracht wurde?

Die Betreiber robotischer Systeme sind gehalten, durchgeführte Sicherheitsmaßnahmen und Vorabeinschätzungen genauestens zu dokumentieren. Ich stelle mir für Roboter gerne eine standardmäßig verbaute Blackbox vor, wie wir sie heute schon aus Flugzeugen kennen. Ohne eine solche Blackbox wird es
der einzelne Geschädigte sehr schwer haben, ein Versagen von einer anderen als seiner eigenen Seite nachzuweisen. Eine umfassendere Dokumentation käme damit – sicherheitstechnisch –
allen Beteiligten zugute. Datenschutzrechtlich entstehen dadurch natürlich neue Probleme, die man mit den sicherheitstechnischen Vorteilen einer solchen Lösung abwägen müsste.

Ergibt eine Gefährdungshaftung in Zusammenhang mit Robotern Sinn? Wird sie Ihrer Meinung nach kommen?

Ein klassischer Fall der Gefährdungshaftung ist die Produkthaftung. Dabei muss kein Verschulden vorliegen, damit sich ein Anspruch auf Schadenersatz ergibt. Bei der Produkthaftung lässt sich dies darauf zurückführen, dass der Geschädigte keinen genauen Einblick
in die Fertigung von Robotern nehmen und dem Anspruchsgegner sein Verschulden deshalb auch kaum jemals nachweisen kann. Unter Juristen wird derzeit lebhaft über die Einführung einer Gefährdungshaftung für den Roboter-Betreiber diskutiert, weil diese sie zur Erzielung eigener wirtschaftlicher Gewinne einsetzen und allein zu diesem Zweck Personen in Kontakt mit Robotern bringen. Die Grundidee wäre damit eine andere als bei der Produkthaftung: Wer den kommerziellen Mehrwert aus der Benutzung von Robotern zieht, muss auch für die Schäden einstehen, die hierbei auftreten. Ich gehe davon aus, dass diese Lösung in Zukunft auch durch die Betreiber mitgetragen wird – denn die Gewinne durch den Robotereinsatz würden in jedem Fall die Kosten der Schadenshaftung weit übertreffen.

Werden Ihrer Meinung nach Roboter
in Zukunft strafrechtlich verantwortlich sein, also strafrechtliche Verantwortungsträger sein?

Dies würde ein grundsätzliches Umdenken in Sachen Strafbegründung erfordern. Die Gesellschaft müsste beginnen, Maschinen als uns emotional ebenbürtige „Wesen“ zu begreifen. Das rückt umso weiter in den Bereich des Möglichen, je ähnlicher uns Roboter in ihrer Erscheinungsform werden. Erfahrungen aus der Praxis zeigen, wie stark der Mensch dazu neigt, Computern, die soziales Verhalten imitieren, spiegelbildlich auch soziale Eigenschaften zuzuschreiben. Ein Bereich, in dem ich mir das vorstellen kann, ist der Einsatz von Pflegerobotern, die neben rein technischen Aufgaben auch die soziale Funktion des „Kümmerns“ erfüllen sollen. Rechtliche und ethische Konsequenzen des Einsatzes von autonomen Pflegesystemen hat Robotrecht vor drei Jahren in dem Verbundprojekt ALMA (Aging without Losing Mobility and Autonomy) untersucht. Bliebt nur die Frage, wie eine Bestrafung überhaupt aussehen könnte. Mit dem Einsperren in eine Zelle, bei einer Stunde Hofgang pro Tag, wird es kaum getan sein.

Vielen Dank für das Gespräch.

Das Interview führte Joerg Hensiek.


Die Forschungsstelle Robotrecht

Die Forschungsstelle „Robotrecht“ [FoRoRe] wurde 2010 an der Juristischen Fakultät der Universität Würzburg gegründet. Unter der Leitung von Prof. Dr. Dr. Eric Hilgendorf befasst sich ein mehrköpfiges Team mit den rechtlichen Herausforderungen, welche die technische Entwicklung im Bereich autonomer Systeme mit sich bringt.

Zu den Tätigkeitsfeldern von FoRoRe zählt unter anderem das durch die Deutschen Forschungsgemeinschaft geförderte Projekt „Robotik und Recht“. Dabei sollen in enger Kooperation zwischen Herstellern von Robotern und der Rechtswissenschaft sowie unter Einbeziehung von Philosophen, Soziologen, Psychologen und anderen Fachleuten die Robotik und die Entwicklung von Mensch-Maschine-Verbindungen rechtlich analysiert und begleitet werden.

Weitere Infos unter www.jura.uni-wuerzburg.de Einrichtungen Fakultäten Rechtswissenschaften Fakultät Forschungsprojekte Forschungsstelle RobotRecht

Aktuelle Ausgabe

Partnermagazine

Akademie

Partner