Wirtschaft

Ein Roboter. Foto: dpa

18.04.2019

Maschinen ins Gefängnis? Künstliche Intelligenz und das Recht

In Zukunft wird künstliche Intelligenz so alltäglich sein wie Strom und Telefon - ob autonomes Auto, Roboterchirurg oder denkende Industriemaschine. Doch was, wenn selbstständige Maschinen tödliche Fehler machen?

Wer einen anderen Menschen verletzt oder tötet, wird bestraft und haftet dafür. Ein uraltes Rechtsprinzip, das zumindest dem Grundsatz nach in allen menschlichen Gesellschaften gilt. Doch die Entwicklung und Verbreitung der künstlichen Intelligenz stellt die Justiz vor ein Problem: In Zukunft wird es schwere und tödliche Unfälle ohne menschliche Täter geben - verursacht von Maschinen.

Was klingt wie Science-Fiction, wird in Rechtswissenschaft und Politik ebenso diskutiert wie in Industriefirmen und Versicherungen. Fachleute sind sich einig, dass der Einsatz selbstfahrender Autos, intelligenter Industrieroboter und anderer eigenständig handelnder Maschinen in wenigen Jahrzehnten ebenso alltäglich sein wird wie heute Strom und Telefon.

Noch stehen hauptsächlich praktische Fragen des Zivilrechts im Vordergrund, vorrangig mit Blick auf ganz oder teilweise autonom fahrende Autos. "Damit hoch- und vollautomatisiertes Fahren von der Gesellschaft breit akzeptiert wird, muss immer aufklärbar sein, wer letztendlich die Verantwortung trägt", sagt Joachim Müller, Vorstand der Sachversicherung bei der Allianz Deutschland.

Im Straßenverkehrsgesetz ist zwar seit 2017 geregelt, welche Daten ein Auto speichern muss beziehungsweise darf. "Noch nicht geregelt ist jedoch die Frage, wie die im Gesetz Berechtigten technisch und organisatorisch Zugriff auf diese Daten erhalten können", sagt Müller.

"Diese Frage ist für Strafverfolgungsbehörden und Versicherer in gleichem Maße von Interesse", meint der Manager. "Hier stellt sich eine Vielzahl von Fragen: Müssen die Daten für alle Beteiligten zeitaufwendig im Autohaus ausgelesen werden? Wie wird sichergestellt, dass belastende Daten nicht vernichtet werden? Was passiert mit den Daten, wenn ein Fahrzeug verschrottet wird, und wer löscht die Daten im Falle der Veräußerung des Fahrzeugs?"

Die Allianz macht Druck, dass nicht die Hersteller allein die Verfügungsgewalt über Autodaten haben sollen: "Nach meiner Auffassung müssen die Daten in der Hand eines neutralen, unabhängigen Dritten - eines Datentreuhänders - sein, um allen Berechtigten unter den gleichen gesetzlichen Bedingungen Zugang zu diesen Daten zu ermöglichen", fordert Müller.

Doch der Aufstieg der Maschinen berührt auch das Strafrecht. Rechtswissenschaftler diskutieren bereits sehr weitgehende Fragen. Denn das Strafrecht basiert auf dem Grundgedanken der individuellen Schuld - doch auch die cleverste Maschine hat weder ein Bewusstsein noch ein Gewissen. "Ein Strafrecht, das auf Individuen ausgerichtet ist, tut sich schwer, mit der Entwicklung autonomer Maschinen und künstlicher Intelligenz mitzuhalten", sagt Susanne Beck, Inhaberin des Strafrechts-Lehrstuhls an der Universität Hannover.

"Im Strafrecht trägt derjenige, der eine Maschine bedient, in der Regel auch die Verantwortung", erläutert die Professorin. "Wenn Google mir etwas Falsches mitteilt und meine Entscheidung darauf gründet, bin ich verantwortlich."


Im Zivilrecht ist die Lage einfacher: "Der Halter eines Kfz trägt bereits heute auch die Verantwortung für Unfälle, an denen er selbst möglicherweise gar nicht beteiligt war", sagt Nicolas Woltmann, wissenschaftlicher Mitarbeiter der Forschungsstelle für Robotrecht an der Universität Würzburg. "Und zivilrechtlich haften kann auch ein Unternehmen."


Im Strafrecht ist beides nicht möglich: "Straftaten können nur Menschen begehen, nicht juristische Personen oder Maschinen", sagt Woltmann. Doch wäre die Bestrafung eines Menschen angemessen, wenn künstliche Intelligenz am Steuer denkt und lenkt? "Es ist gerade der Sinn dieser Maschinen, dass ich nicht mehr selbst agieren und entscheiden muss", sagt Beck. "Wenn ich aber als Fahrer umfassend strafrechtlich verantwortlich bleibe, brauche ich auch kein autonomes Fahrzeug, weil ich mich genauso konzentrieren muss, als ob ich das Fahrzeug selbst steuerte. Das halte ich für problematisch."

Deswegen gibt es in Ethik und Rechtswissenschaft die Diskussion um die sogenannte "meaningful control" - zu Deutsch "sinnvolle" oder auch "tatsächliche" Kontrolle. "Bevor man einen Menschen strafrechtlich zur Verantwortung zieht, muss man genau hinsehen, ob der Mensch überhaupt noch die Kontrolle über die Maschine ausgeübt hat", sagt Beck.

"Das kann eine Gesellschaft beunruhigen"


Die Folge: "Wahrscheinlich wird es in der Zukunft tatsächlich so sein, dass wir bei von Maschinen verursachten Unfällen in beträchtlichem Umfang auf Urteile verzichten müssen", meint die Rechtswissenschaftlerin. "Das kann eine Gesellschaft durchaus beunruhigen, wenn keine Strafen möglich sind." Ihr Vorschlag: "Dann muss man sehen, ob es nicht andere Lösungen gibt, beispielsweise Mediation oder einen Täter-Opfer-Ausgleich oder Lösungen in anderen Rechtsgebieten, etwa dem Zivilrecht."

Von einer grundlegenden Änderung des Strafrechts halten die meisten Fachleute nicht viel: "In der Rechtswissenschaft wird vorsichtig begonnen zu diskutieren, ob wir von dem Prinzip abrücken müssen, dass nur Menschen sich schuldhaft verhalten können", sagt Woltmann von der Würzburger Forschungsstelle Robotrecht. "Bei uns herrscht die Meinung vor, dass es beim derzeitigen Stand der technischen Entwicklung keinen Bedarf gibt, die bewährte Rechtslage über den Haufen zu werfen."


Es gebe aber in der Tat "einen Graubereich, bei dem wir nicht vorhersagen können, wie sich die Rechtsprechung in Zukunft entwickelt", sagt der Jurist. "Für die Gesellschaft insgesamt ist ein Graubereich vielleicht hinnehmbar, wenn im Rahmen des gesamtgesellschaftlichen Nutzens mit zunehmender Verbreitung des autonomen Fahrens die Zahl der Unfälle sinkt." Doch das wäre kein Trost für Unfallopfer und ihre Familien: "Auf individueller Ebene ist es aber sicher nicht befriedigend, wenn nach einem schweren Unfall die strafrechtliche Verantwortung nicht geklärt werden kann. Das ist ein Dilemma."(Carsten Hoefer, dpa)

Kommentare (0)

Es sind noch keine Kommentare vorhanden!
Die Frage der Woche

Ist das geplante Demokratiefördergesetz sinnvoll?

Unser Pro und Contra jede Woche neu
Diskutieren Sie mit!

Die Frage der Woche – Archiv
Vergabeplattform
Vergabeplattform

Staatsanzeiger eServices
die Vergabeplattform für öffentliche
Ausschreibungen und Aufträge Ausschreiber Bewerber

Jahresbeilage 2023

Nächster Erscheinungstermin:
29. November 2024

Weitere Infos unter Tel. 089 / 29 01 42 54 /56
oder
per Mail an anzeigen@bsz.de

Download der aktuellen Ausgabe vom 24.11.2023 (PDF, 19 MB)

E-Paper
Unser Bayern

Die kunst- und kulturhistorische Beilage der Bayerischen Staatszeitung

Abo Anmeldung

Benutzername

Kennwort

Bei Problemen: Tel. 089 – 290142-59 und -69 oder vertrieb@bsz.de.

Abo Anmeldung

Benutzername

Kennwort

Bei Problemen: Tel. 089 – 290142-59 und -69 oder vertrieb@bsz.de.