Politik

Für immer etwas anderes – oder irgendwann doch dasselbe? Eine junge Frau greift nach der Hand eines humanoiden Roboters. (Foto: dpa/Frank May)

31.03.2023

„Die Politik ist sich der Komplexität noch nicht bewusst“

Wolfgang Schröder, Wissenschaftsphilosoph an der Julius-Maximilians-Universität Würzburg, über ethische Herausforderungen beim Einsatz künstlicher Intelligenz

Zeitungssoftware, die redaktionelle Texte genau wie von menschlichen Journalist*innen erstellt; Autocomputer, die im Fall eines unvermeidbaren Unfalls entscheiden, welche Beteiligten verschont werden und welche nicht: Die künstliche Intelligenz entwickelt sich in atemberaubendem Tempo. Aber haben wir sie langfristig noch unter Kontrolle?

BSZ: Herr Schröder, wenn Studierende ihre Seminararbeiten abgeben: Vertrauen Sie denen noch, dass sie diese ohne Hilfe künstlicher Intelligenz geschrieben haben – oder prüfen Sie das inzwischen nach?
Wolfgang Schröder: Ich habe den Studierenden klar gesagt, was die Standards mit dieser neuen Situation sind. Wenn es Rechercheaufgaben oder sonstige Vorarbeiten gibt, dann können sie das gern mit ChatGPT und mit Suchmaschinen machen. Aber der Autor oder die Autorin des vorgelegten Textes muss der jeweilige Mensch sein. Und die Studierenden wissen, dass ich ihren Sprachstil in der Regel kenne und auf dieser Grundlage über ihre Texte sehr streng drüberschaue.

BSZ: In der wissenschaftlichen Publizistik mag das Konsens sein – aber was ist mit journalistischen Texten, die inzwischen auch von KI erstellt werden?
Schröder: Es ist zu vermuten, dass es speziell im Journalismus eine zunehmende Konkurrenzsituation zwischen Mensch und Maschine geben wird. Durch die Möglichkeit des Generierens redaktioneller Texte durch KI wird sich die Presselandschaft nachhaltig verändern.

BSZ: Wenn ein Text von einer Software erstellt wird – dann fällt doch auch das geistige Urheberrecht weg, oder?
Schröder: Nach deutschem Urheberrecht sind nur Erzeugnisse von Menschen urheberrechtlich geschützt. Auf dieser Grundlage muss auch gefragt werden, worauf das konkret beruht, was eine generative KI leistet. Womöglich gibt es da bereits Verletzungen des geistigen Urheberrechts – weil nicht transparent ist, welche Quellen dafür genutzt wurden. Hierin liegt eine neue interessante juristische Herausforderung.

BSZ: Also gilt der Satz der früheren Bundeskanzlerin Angela Merkel (CDU), die IT sei in vielen Punkten „Neuland“, mehr denn je?
Schröder: Was die juristischen Fragen betrifft: ja. ChatGPT an sich ist ja nicht so neu – sondern nur, dass es jetzt öffentlich zugänglich ist für die breite Masse. Die Leistungsfähigkeit von generativer KI hat sich in den vergangenen fünf, sechs Jahren immer weiter verbessert und nun muss man fragen, wie man das als Tool sinnvoll integrieren kann. Menschen sollen das nutzen und sich davon unterstützen lassen – aber es sollen nach Möglichkeit keine Menschen dadurch verdrängt werden in ihrer spezifisch humanen kreativen Leistungsfähigkeit.

BSZ: Beim bisher Angesprochenen geht es um rein intellektuelle Aspekte: Aber wenn Autofirmen KI entwickeln, die für einen selbstfahrenden Pkw im unvermeidbaren Unfall blitzschnell ausrechnet, welcher Fußgänger geopfert wird und welcher nicht – dann wird es zu einer Frage von Leben und Tod.
Schröder: Da muss man differenzieren. Es wäre grundrechtswidrig und rechtlich verboten, dass eine KI entscheidet, beispielsweise einen 80-jährigen Menschen anzufahren und dafür einen Teenager zu verschonen. Es darf keine Selektion von Menschen, keine Verrechnung von Opfern geben. Eher ist von einer Standardverteilung von Risiken auszugehen – und bei denen zählt jedes menschliche Leben gleich viel. Es wäre aus meiner Sicht nur zulässig, eine Software zu programmieren, die nach dem Prinzip Schadensminimierung und nach einer Gleichverteilung von Risiken funktioniert: also etwa einen reinen Sachschaden einem menschlichen Schaden vorzieht und keine Verkehrsteilnehmer vorab diskriminiert. Diesbezügliche Richtlinien gibt es in Deutschland bereits seit 2017 und daran müssen sich die Autohersteller auch halten.

BSZ Ist der Politik eigentlich in vollem Umfang bewusst, welche komplexen ethischen Fragestellungen da auf die Gesellschaft zukommen?
Schröder Wohl nicht, da muss sicher noch sehr viel mehr Aufklärungsarbeit geleistet werden. Die Politikerinnen und Politiker müssen bestmöglich informiert sein, worüber es da zu entscheiden gilt. Man kann ja nicht erwarten, dass jeder und jede Abgeordnete von vornherein mit diesen Themen vertraut ist. Daher sollte es dazu im Bundestag und in den Landtagen noch weitere Anhörungen mit Fachleuten geben. Aber auch bei der Bevölkerung insgesamt gibt es da noch großen informationellen Nachholbedarf.

BSZ: Und in Ihrer Zunft: Berücksichtigt Ihre Kollegenschaft aus den Ingenieurwissenschaften, dass nicht alles ethisch zulässig ist, nur weil es technisch machbar ist?
Schröder: Nach meinem Eindruck noch nicht alle in zureichender Weise, nein. Da gibt es sehr große Unterschiede – ethiksensible Leute, die wissen, dass sie mit den von ihnen konstruierten Dingen auch eine Verpflichtung und Verantwortung eingehen. Andere sehen Technik eher als neutral an und verlagern ethische Fragen in den Bereich der Technik-anwendung. Also ist auch in diesen Klärungspunkten noch mehr Dialog nötig. Informatik und Ethik müssen gerade bei den neuen Technologien noch besser integriert werden. Bislang herrschen vielerorts noch Klischees vor: Die Ethiker kämen sofort normativ daher, ohne Ahnung von der technischen Seite. Und umgekehrt dächten die Ethiker, die Techniker seien so von ihrer Erfindung eingenommen, dass sie sich um die Anwendung durch Dritte keine Gedanken machen. Über solche wechselseitigen Fehleinschätzungen müssen wir hinaus.

BSZ: In der von dramatischem Personalmangel gezeichneten Pflegebranche wird man sich damit nur kaum aufhalten können – wenn da nicht bald Roboter zum Einsatz kommen, werden Tausende Kranke, Alte und Behinderte künftig unversorgt bleiben.
Schröder: Bis zu einem bestimmten Grad wird es in Kliniken und Heimen auch zu einem Einsatz von Robotern kommen, ja kommen müssen. Ich hoffe aber, wir finden als Gesellschaft einen Konsens, bis zu welchem Grad das geschehen soll. Dass ein Roboter beispielsweise Assistenzfunktionen für das medizinische Personal ausübt oder beispielsweise Medikamente sortiert und Mahlzeiten serviert, wäre sicher unproblematisch. Welche Anwendungen darüber hinaus medizinisch und ethisch sinnvoll sind und welche Bereiche der Pflege durch Menschen vorbehalten bleiben sollen, müssen wir noch diskutieren.

BSZ: Die künstliche Intelligenz entwickelt sich in atemberaubendem Tempo: Könnten die Menschen irgendwann vor der Situation stehen, dass diese ein Bewusstsein entwickelt – und daraus abgeleitet Rechtsansprüche?
Schröder: Aus meiner Sicht wäre eine softwarebasierte maschinelle Imitation von Selbstbewusstsein für sich genommen noch kein hinreichendes Kriterium für volle Rechtssubjektivität. Allerdings wird verschiedentlich eine Teilrechtsfähigkeit intelligenter Software für vertretbar gehalten. Diskutiert wird ferner, inwieweit auch besonders humanoide Roboter bestimmte moralische Rechte (zum Beispiel auf Unversehrtheit und Unterlassung mutwilliger Beschädigung) haben können. Damit befasse ich selbst mich aktuell in meiner Forschung. Im Brennpunkt der Debatten stehen auch Haftungsfragen im Blick auf Schäden, die durch KI- oder Robotik-Systeme verursacht werden.

BSZ: Bekommt man da Schadensersatz?
Schröder: Die aktuelle Rechtslage ist so, dass man ein System nicht haftbar machen kann für irgendwelche Schäden. Ferner: Ob eine Maschine ihren Anspruch durchsetzen könnte, nicht gegen ihren Willen abgeschaltet zu werden – das müssen die Menschen entscheiden. Dass eine Maschine im juristisch strengen Sinn eigene Rechte geltend machen könnte, kann ich mir bislang nicht vorstellen.

BSZ: Vor 100 Jahren konnte sich aber auch niemand vorstellen, dass irgendwann einmal Tierrechte in die Verfassung aufgenommen werden.
Schröder: Das stimmt. Aber von einer vollen Rechtssubjektivität von Maschinen oder Software sind wir zum jetzigen Zeitpunkt noch meilenweit entfernt. Aus meiner Sicht sollte das auch so bleiben.

BSZ: Sie sind von Haus aus Theologe: Ist die Entwicklung bei der KI noch vereinbar mit dem biblischen Grundsatz, dass allein Gott Leben nach seinem Bilde schaffen darf – oder bewegen wir uns auf einen Zustand zu, bei dem sich der Mensch selbst zum Schöpfer ermächtigt?
Schröder: Der Mensch ist unter anderem mit eben dieser Fähigkeit, schöpferisch Dinge zu gestalten, von Gott ausgestattet worden; insofern gruselt mir davor nicht. Etwas herzustellen, was im Zweifel auch menschliches Gepräge hat – das lässt sich als Drang weit in die Geschichte der Menschheit zurückverfolgen. Es muss, wie ich finde, aber immer klar sein, dass es sich um Geräte handelt, denen man in ihrem Funktionieren nicht die gleichen Rechte zugesteht wie einem Menschen. (Interview: André Paul)

Kommentare (0)

Es sind noch keine Kommentare vorhanden!
Die Frage der Woche
Vergabeplattform
Vergabeplattform

Staatsanzeiger eServices
die Vergabeplattform für öffentliche
Ausschreibungen und Aufträge Ausschreiber Bewerber

Jahresbeilage 2023

Nächster Erscheinungstermin:
29. November 2024

Weitere Infos unter Tel. 089 / 29 01 42 54 /56
oder
per Mail an anzeigen@bsz.de

Download der aktuellen Ausgabe vom 24.11.2023 (PDF, 19 MB)

E-Paper
Unser Bayern

Die kunst- und kulturhistorische Beilage der Bayerischen Staatszeitung

Abo Anmeldung

Benutzername

Kennwort

Bei Problemen: Tel. 089 – 290142-59 und -69 oder vertrieb@bsz.de.

Abo Anmeldung

Benutzername

Kennwort

Bei Problemen: Tel. 089 – 290142-59 und -69 oder vertrieb@bsz.de.