Gibt es für Maschinen eine Moral?
Maschinen lösen sich vom Einfluss des Menschen: Das Töten im Krieg geschieht via Drohnen, Autos transportieren ihre Fahrgäste selbstfahrend durch den Straßenverkehr. Der Rechtsphilosoph Reinhard Merkel glaubt aber nicht, dass dies an der Verantwortung der Menschen etwas ändert.
Maschinen werden in unserer Gesellschaft zunehmend unabhängig von den Menschen, die sie bedienen. Sie werden programmiert und agieren selbst, ohne unmittelbar unter menschlicher Kontrolle zu stehen. Das beobachtet auch der Rechtsphilosoph Reinhard Merkel, der Mitglied im Deutschen Ethikrat ist. "Wir erleben derzeit einen Wandel des Autonomiebegriffs und wissen noch nicht, welche Konturen er annehmen wird", sagt er im Deutschlandradio Kultur.
Merkel geht auch auf maschinelle Fortschritte ein und gesteht zum Beispiel ein, dass ein autonomes Auto Unfälle vermeiden würde. In pucto Schnelligkeit seien uns Maschinen überlegen.
"Maschinen machen solche Irrtümer nicht"
Auch das Zugunglück, das sich im vergangenen Jahr im bayrischen Bad Aibling durch die Unaufmerksamkeit eines Fahrdienstleiters ereignete, zeige eine Überlegenheit der Maschinen gegenüber den Menschen. Der Mann war ablenkt, weil er ein Spiel auf seinem Smartphone spielte. Er stellte mehrere Signale falsch, zwei Züge stießen ineinander, zwölf Menschen starben. "Maschinen machen solche Irrtümer nicht, wie Menschen sie machen", sagt Merkel - betont aber auch:
"Andererseits ist das menschliche Gehirn in anderen Hinsichten ungeheuer viel leistungsfähiger als der allerbeste Computer. Und das betrifft vor allem moralische Entscheidungen."
Mit Blick auf die Frage, ob eine Maschine für geschehene Fehler und Katastrophen Verantwortung tragen könne, sagte der emeritierte Professor für Strafrecht, dass Sanktionen für Maschinen nicht möglich seien. Die Verantwortung trage der Mensch, der sie programmiert.
"Maschinen begehen keine Kriegsverbrechen, wenn sie richtig programmiert sind. In jedem Krieg, den wir bisher hatten, haben Menschen Verbrechen begangen."