Was Juristen über Computer und Roboter denken

Juristen sind darauf ausgerichtet Problemfälle zu finden und zu lösen, und sind dabei in der Regel nicht innovativ tätig. In der realen Welt nehmen autonome Systeme zu, sprich die Maschine übernimmt teilweise die Verantwortung für Aktionen ohne menschliche Interaktion. Es handelt sich hier um eine weit verbreitet und sehr rasante Entwicklung.

Wie verhält es sich jetzt bei der Interaktion zwischen Mensch und Maschine? Beispielsweise wurde ein Arbeiter bei VW durch einen Roboter getötet. Wer haftet in solchen Fällen, der Programmierer? Es werden zunehmend auch große Erfolge im Bereich Prothetik verzeichnet. Diese werden in der Regel dann verwendet wenn durch Krankheit oder Unfall eine entsprechende Maßnahme sinnvoll erscheint. Was ist aber nun, wenn ein Mensch sich ein Bein Amputieren lassen möchte, um sich einen Prothese implantieren zu lassen damit er Vorteile dadurch erlangt (z.B. schneller laufen kann)

Eine weitere Herausforderung, Kollisionsvermeidung im Auto, grundsätzlich eine super Sache. Folgendes Szenario: 3 verletzte liegen auf einer Straße, ein Auto erkennt die Situation und weicht auf den Standstreifen aus, alles gut, 3 Menschen gerettet. Was aber wenn 3 Menschen verletzt auf der Straße liegen und einer lehnt an der Leitplanke auf dem Standstreifen. Jetzt muss das Auto entscheiden, nicht ausweichen und evtl. 3 Menschen töten oder ausweichen und ggf. einen Menschen gefährden. Wer entscheidet? der Entwickler? Der Mensch am Steuer?

Es wird aktuell daran geforscht, wie wir Beziehungen zu Robotern aufbauen. Es könnte sein, das Roboter uns in Zukunft pflegen. Wenn nun selbstlernende Systeme anfangen selbst zu lernen, dann werden diese sehr individuell werden, quasi ähnlich wie wir Menschen. Sie werden Beziehungen zu Menschen aufbauen und ggf. wichtiger, Menschen bauen Beziehungen zu Maschinen auf. Dürfen wir dann solchen Systemen den Stecker ziehen oder ist das dann Mord? Kann sich ein Programmierer damit rechtfertigen das spezielle Verhalten durch den Computer selbst gelernt wurden wenn es zu einem Fehlverhalten der Maschine kommt??

Wem gehören die Daten die eine Maschine bei solchen selbstlernenden Aktionen anlegt?? (in einer Beziehung vertraut man ggf. sensible Informationen der Maschine an)

Gibt es eine Mittäterschaft wenn Mensch und Maschine interagieren? Ich kann ganz gut programmieren glaube ich. Wenn ich nun meinen Roboter auf einen Banküberfall programmiere. Bin ich dann verantwortlich wenn er es wirklich macht? (war doch von mir nur ein Spaß)

Das klingt alles ganz schön wild und futuristisch. Ich glaube allerdings, dass wir nicht weit von solchen Szenarien entfernt sind. Es lohnt sich also schon jetzt den ein oder anderen Gedanken zu investieren. Besonders im Hinblick auf Geschäftsmodelle (legal oder illegal oder sollte ich besser sagen ethisch vertretbar oder nicht vertretbar), die aus solchen innovationen entstehen.