Risikoreiche "Killer-Roboter"
Der Friedensforscher Otfried Nassauer befürwortet ein Verbot vollautonomer Waffensysteme. Darüber diskutieren Experten heute auf einer UN-Konferenz in Genf. Der Einsatz von "Killer-Robotern" passt Naussauer zufolge nicht zum derzeitigen Völkerrecht.
André Hatting: Heute geht in Genf eine Konferenz der Vereinten Nationen zu Ende, deren Thema nach Science Fiction klingt. Es geht um die Gefahr von Killerrobotern oder wissenschaftlich korrekt, tödliche autonome Waffensysteme. Bei bewaffneten Drohnen ist es ja so, dass immer noch ein Mensch am Steuerknüppel über Leben und Tod entscheidet, wenn auch Tausende Kilometer entfernt. Killerroboter würden als Waffe programmiert werden und dann allein arbeiten. Noch gibt es sie zwar nicht, aber Menschenrechtsorganisationen und Wissenschaftler schlagen trotzdem schon seit Langem Alarm. Am Telefon ist jetzt dazu Otfried Nassauer, Leiter des Informationszentrums für Transatlantische Sicherheit und Mitglied im Internationalen Komitee zur Kontrolle vollautonomer Waffensysteme. Guten Morgen, Herr Nassauer!
Otfried Nassauer: Schönen guten Morgen, Herr Hatting!
Hatting: Worauf könnte denn so ein Roboter programmiert werden?
Nassauer: Der kann auf Verschiedenes programmiert werden, zum Beispiel, dass er wie eine Drohne aus der Luft Ziele am Boden beschießt. Er kann aber auch darauf programmiert werden, dass beispielsweise ein automatisiertes Grenzschutzsystem entwickelt wird, das also dazu dient, eine Grenze zu überwachen. Das heißt, am Boden wird ein Fahrzeug entwickelt, das autonom Grenzen überwacht, und wenn einer illegal diese Grenze überschreitet, feststellen kann, ob das ein Mensch ist, kann versuchen, den zu stoppen mit Anruf und mit Warnschuss, aber er kann ihn auch bekämpfen. Das Gleiche kann ich in ein Kriegsfahrzeug einbauen, und bei Schiffen ist es ähnlich.
Hatting: Und wie könnte zum Beispiel so ein Grenzroboter, den Sie angesprochen haben, eine Katze von einem Menschen unterscheiden?
Nassauer: Ganz einfach über seine verschiedenen Sensoren und über die zu fordernden Reaktionen. Da kann man zum Beispiel Kameras verschiedener Art einbauen, da kann man beispielsweise Infrarotgläser und andere Sensoren einbauen. Das müssen Sie sich vorstellen wie noch ein bisschen weiterentwickelt das, was vorgestellt worden ist, nämlich ein erstes, praktisch selbstfahrendes Fahrzeug, das schon Fahrradfahrern ausweichen kann, Fußgängern ausweichen kann, Kindern ausweichen kann et cetera.
Schwierige Grenze zwischen Legalität und Illegalität
Hatting: Und kann so ein System auch spielend dann einen Feind von einem Freund unterscheiden, also einen legalen Grenzübertritt von einem illegalen?
Nassauer: Das wird schon schwieriger. Da ist die Frage, wie baut man entsprechende Abgrenzungen ein. Die Frage, ob das irrtumsfrei oder eben nicht irrtumsfrei passieren wird, das ist der Punkt, über den die Wissenschaft streitet, weil sie nämlich schlicht und einfach befürchtet, dass man nicht so gut programmieren kann. Dass das Ziel erreicht wird, dass der Roboter es besser macht als der Mensch, der ja im Straßenverkehr zum Beispiel oft die Unfallursache ist.
Hatting: Wie weit ist die Forschung aktuell eigentlich?
Nassauer: Zurzeit gibt es noch überhaupt keine letal bewaffneten autonomen Systeme. Wir sind auf dem Weg, halbautonome Systeme zu schaffen. Drohnen beispielsweise verlangen ja immer noch, dass ein Operateur irgendwo am Boden sitzt und dafür sorgt, dass das Ziel identifiziert und entschieden wird, ob das Ziel bekämpft wird. Dabei kann man auch schön sehen, an den zivilen Opfern, die entstehen, dass der Mensch auch irrt. Aber im Moment gibt es das noch nicht. Wir befinden uns in vielen Bereichen im Bereich der Grundlagenforschung und in einzelnen Bereichen auch im Bereich der Anwendungsforschung.
Hatting: Und wer forscht da überhaupt, oder in wessen Auftrag wird geforscht?
Nassauer: Ganz viel ist das in der Tat Militär- und Sicherheitsindustrie, aber es gibt natürlich auch Firmen, die im zivilen Bereich - ich erwähnte das selbstfahrende Auto - Anwendungen erforschen für die Robotik, die dann den Menschen als Akteur überflüssig machen könnten.
"Inhumane Waffen noch vor Einführung verbieten"
Hatting: Diese UN-Konferenz berät also über etwas, das es so noch nicht gibt. Sollte man trotzdem so schnell wie möglich vollautomatische Waffensysteme verbieten?
Nassauer: Ich halte die Idee im Grundsatz für gut, weil es ja tatsächlich ein Fortschritt wäre, wenn wir uns in der Menschheit mal darauf einigen könnten, dass besonders riskante Waffentechnologien verboten werden, bevor sie überhaupt eingeführt werden. Also, das wäre auch für besonders inhumane Waffensysteme wie zum Beispiel Atomwaffen eine Idee gewesen.
Von daher ist das erst mal eine richtige und vernünftige Idee, die auch eine gewisse Chance hat. Wir haben ja schon gesehen, dass es internationale Konventionen gibt wie zum Beispiel gegen Landminen und Streumunition, wo bestimmte Waffenkategorien deswegen verboten werden, weil sie zum Beispiel nicht zwischen zivilen und militärischen Zielen ausreichend unterscheiden können. Das könnte man hier auch bei den autonomen Systemen sich denken.
Hatting: Wer würde eigentlich völkerrechtlich dafür belangt werden können, wenn solch ein Roboter den Falschen erschießt? Das Land, in dessen Auftrag er arbeitet, oder die Firma, die ihn programmiert hat?
Nassauer: Das ist eine gute Frage. Auch das stellt sich also quasi als haftungsrechtliche Frage natürlich noch mal. Darüber weiß heute keiner Bescheid. Eigentlich kann man nur das Land, das diesen Roboter einsetzt, verantwortlich machen, und das Land kann versuchen, seinen Hersteller verantwortlich machen für den Fall, dass der tatsächlich was falsch programmiert hat.
"Gewaltige Veränderungen am Völkerrecht wären nötig"
Hatting: Müsste man dafür das Völkerrecht modernisieren, anpassen für so einen Fall?
Nassauer: Mit dem heutigen Völkerrecht würde das ganz, ganz schwer zusammenpassen, und in der Tat, es müsste gewaltige Änderungen am Völkerrecht geben, weil da ja immer davon ausgegangen wird, dass es verantwortliche Menschen gibt, die ich zum Beispiel vor den Internationalen Strafgerichtshof bestellen kann. Aber das ist hier bei einem Roboter natürlich nicht gegeben.
Hatting: Erwarten Sie eigentlich, dass heute auf der Ebene der Vereinten Nationen zumindest ein solches präventives Verbot beschlossen wird, also ein Verbot von einer Sache, die es noch gar nicht gibt?
Nassauer: Nein, keinesfalls. Denn die Konferenz, die in Genf im Moment stattfindet, ist ja eine allererste Expertenkonferenz, die sich klar machen sollen, was muss da eigentlich an Definitionen festgelegt werden? Wollen wir was verbieten, wollen wir doch gar nichts verbieten? Und insofern ist das eine Vorstufe für internationale Verhandlungen, die dann darauf folgen sollen. Und wenn man aus der Vergangenheit Schlussfolgerungen zieht, dann werden nicht alle Staaten mitziehen wollen, einen solchen Vertrag jetzt auszuarbeiten, weil es immer Staaten gibt, die sagen, nee, uns ist diese technologische Entwicklungslinie besonders wichtig, wir wollen nichts verbieten, was in der Zukunft noch mal nützlich werden könnte…
Hatting: Welche zum Beispiel?
USA setzen auf technologischen Fortschritt
Nassauer: In der Vergangenheit waren das relativ oft die Vereinigten Staaten von Amerika, weil das auch logisch ist, technisch führende Staaten, die auf dem Wege zu irgendeiner Fähigkeit schon besonders weit sind, die sind natürlich geneigter zu sagen, nee, nee, das lassen wir nicht verbieten, als diejenigen, die noch gar nicht angefangen haben.
Hatting: Otfried Nassauer, Leiter des Informationszentrums für Transatlantische Sicherheit und Mitglied im Internationalen Komitee zur Kontrolle vollautonomer Waffensysteme. Herzlichen Dank für das Gespräch!
Nassauer: Auf Wiederhören nach Berlin!
Äußerungen unserer Gesprächspartner geben deren eigene Auffassungen wieder. Deutschlandradio Kultur macht sich Äußerungen seiner Gesprächspartner in Interviews und Diskussionen nicht zu eigen.