Wenn Roboter über Leben und Tod entscheiden
Schon bald könnten militärische Kampfroboter selbständig handeln - also angreifen und töten. Der Physiker Jürgen Altmann meint: Solche Waffensysteme gehörten verboten. Denn sie könnten Zivilisten nicht von gegnerischen Kämpfern unterscheiden.
Frank Meyer: Seit drei Jahren bildet die amerikanische Luftwaffe mehr Piloten für unbemannte Drohnen aus als für klassische Kampfjets und Bomber. Die fliegenden Kampfroboter sind auf dem Vormarsch - wann ist es so weit, dass solche Kampfroboter in der Luft oder am Boden autonom handeln können, selbstständig schießen? Das ist jetzt unser Thema in unserer Serie zur Zukunft des Krieges. Wir reden gleich darüber mit dem Physiker Jürgen Altmann, vorher schauen wir uns an, welche Kriegsroboter es heute schon gibt und wie sie eingesetzt werden.
Christoph Sterz über die Kriegsroboter. Der Dortmunder Physiker Jürgen Altmann hat das International Committee for Robot Arms Control mitgegründet. Er ist jetzt für Deutschlandradio Kultur im Studio. Seien Sie willkommen, Herr Altmann!
Jürgen Altmann: Guten Tag!
Meyer: Amerikanische Militärs, die rechnen damit, dass Drohnen in 20 bis 30 Jahren schon selbstständig Angriffsziele wählen und Entscheidungen treffen können. Das heißt, an diesen autonomen Kampfrobotern, wo dann kein Mensch mehr aus der Ferne steuert, daran wird intensiv geforscht?
Altmann: Das ist in der Tat so, ja, und es hat auch eine gewisse militärische Logik. Wenn man denn zum Beispiel davon ausgeht, dass eine Kommunikationsverbindung mal gestört oder zerstört sein kann, dann könnte man sein eigenes Kampfsystem nicht mehr zum Angriff steuern, und man könnte dann entweder das "nutzlos" herumfliegen lassen oder nach Hause fliegen lassen automatisch, oder aber man versetzt es in die Lage, selbst dann Angriffe zu starten und Ziele auszusuchen.
Und das ist also der eine militärische Trend, der dort zu beobachten ist, und der zweite ist der, dass man gerne einen menschlichen Bediener, einen ganzen Schwarm, vielleicht fünf oder zehn, solcher Kampfsysteme auch auf Land steuern lassen möchte, und dann kann der Mensch nicht mehr bei jeder einzelnen Schieß- und Tötungsentscheidung dabei sein und zugucken und sagen, ja oder nein.
Der dritte Aspekt, der das Militär dahin drängen wird, autonomes Schießen einzuführen, ist, wenn man mal perspektivisch daran denkt, dass es nicht nur die USA, Großbritannien und Israel sind, die solche bewaffneten Flugzeuge haben, sondern perspektivisch auch viele andere Staaten, also die, mit denen sich vielleicht USA, Israel oder England dann im Krieg befinden könnten, dann ist eine Situation denkbar, wo sich Schwärme von solchen Kampfsystemen gegenseitig belauern - in einer Krise zum Beispiel, oder auch mitten im Krieg - und gucken, werde ich jetzt beschossen und muss ich ganz schnell zurückschießen, und da kann es um Zehntelsekunden gehen, wohingegen die Fernübertragung per Satellit und so weiter, und das Nachdenken eines menschlichen Bedieners im anderen Erdteil, soll ich jetzt das Ding schießen lassen oder nicht, das kann einige Sekunden dauern, und das kann zu spät sein, und man hätte sein eigenes System schon verloren. Also es gibt drei starke militärische Motive, die bisher ferngesteuerten Systeme so bald wie möglich in autonomen Schießmodus überzuführen.
Meyer: Und ein Grundmotiv, überhaupt solche Kampfroboter in die Armeen zu bringen, aufs Einsatzfeld zu bringen, ist ja sicherlich, dass die eigenen Soldaten dann weniger gefährdet sind, dass die Streitkräfte dann weniger Opfer haben und damit der Krieg auch zu Hause besser zu verkaufen ist.
Altmann: Das ist auf jeden Fall der Fall, das lässt sich schon jetzt beobachten, das ist ein Motiv, generell für unbemannte Kampfsysteme. Es gibt aber auch noch ein zweites Motiv, man kann dann Krieg oder kriegsähnliche Operationen leichter in anderen Ländern machen. Wenn Sie auf das Beispiel Pakistan und Drohnenangriffe, gezielte Tötungen der USA dort sehen - es ist überhaupt nicht vorstellbar, dass Pakistan erlauben würde, dass dort die USA mit Bodentruppen agieren, oder auch, dass sie mit bemannten Flugzeugen dort Ziele angreifen und beschießen, wohingegen diese Drohnenlösung, die ist irgendwie so ein bisschen weniger sichtbar und politisch nicht so deutlich, sodass es für Pakistan möglich ist, das dann zu schlucken, eine solche Art der Kriegführung in einem fremden Land.
Meyer: Die große Frage taucht ja nun auf, wenn man über autonome Kampfmaschinen nachdenkt: Wer trägt eigentlich die Verantwortung dafür, wenn so eine Maschine schießt, in einen Krieg eingreift, Menschen tötet? Es gibt einen Robotikforscher in Georgia, Ronald Arkin, der meint, dass autonome Kampfroboter sogar ethischer handeln könnten als Menschen, weil man sie ethisch programmieren könnte, und da sie keine Gefühle kennen wie Hass oder Rache, die sie zum überschreiten von Normen bringen könnten, handeln sie ethischer als Menschen. Was halten Sie von diesem Argument.
Altmann: Auf der Oberfläche klingt das zunächst ein bisschen logisch und überzeugend, man muss aber sehen, dass die Computer noch auf Jahrzehnte hin nicht in der Lage sein werden, solche Entscheidungen zu treffen in komplexen Kampfsituationen. Wenn man sich die heutigen Roboter anguckt, die also jetzt Rasen mähen oder staubsaugen, oder auch die, die es im Militärbereich schon gibt, das sind eben relativ noch primitive Intelligenzen, die an menschliche Gehirnleistung überhaupt nicht herankommen. Und das wird wie gesagt auf Jahrzehnte noch der Fall bleiben.
Was aber das Kriegsvölkerrecht verlangt, ist eine qualifizierte Entscheidung vor einem Angriff, erstens, ist mein Ziel ein legales, ein legitimes, sind es Kombattanten, die bekämpft werden, oder ist es ein ziviles Ziel, das darf nicht bekämpft werden, und zweitens, wenn nicht ganz vermieden werden kann, dass auch zivile Schäden nebenbei entstehen, dann muss eine Abwägung passieren, ist der Schaden unter den Zivilen gerechtfertigt, ist er proportional zu dem angestrebten militärischen Ziel.
Und eine solche Unterscheidung zwischen Kombattant und Nichtkombattant einerseits oder zwischen der Proportionalität des zu erwartenden zivilen Schadens in Bezug auf das militärische angestrebte Ziel, das ist in komplexen Situationen auf absehbare Zeit von Rechnern nicht zu leisten. Also von daher ist es ein bisschen spekulative Forschung, die Ron Arkin da betreibt, und man kann sich nicht darauf verlassen, dass das, woran er forscht, dass das in den nächsten 15 oder so Jahren umsetzbar ist.
Andererseits muss man befürchten, dass der militärische Druck, die drei Motive, die ich vorhin erwähnt habe, die Streitkräfte der entwickelnden Staaten erheblich früher dazu bringen wird, autonome Kampfsysteme einzuführen, also ihnen die Autorität zum selbstständigen Schießen zu geben, bevor sichergestellt ist, dass solche autonomen Computersysteme das Kriegsvölkerrecht einhalten können. Und um diese Gefahr zu vermeiden, ist, denke ich, eine besondere Verbotsregel im internationalen Recht nötig.
Meyer: Die Organisation Human Rights Watch hat gerade alle Staaten aufgefordert, Entwicklung, Produktion und Einsatz völlig autonomer Waffen völkerrechtlich bindend zu verbieten. Ist das auch Ihr Standpunkt, es müsste ein solches grundsätzliches Verbot für autonome Kampfroboter geben?
Altmann: Ja, und Human Rights Watch hat da im Grunde eine Forderung aufgenommen, die unser Committee for Robot Arms Control schon 2009 und 2010 aufgestellt hat. Wir hatten einen Expertenworkshop vor zwei Jahren in Berlin, wo fast alle, die international in diesem Bereich nachdenken oder geschrieben haben, versammelt waren, und das war eine der beiden Hauptforderungen: ein komplettes Verbot von autonomen Waffensystemen.
Meyer: Wenn Sie mit diesem Verbot schon länger in die Öffentlichkeit gegangen sind, welche Signale haben Sie bekommen aus der Politik, was für Chancen sehen Sie für solch ein Verbot?
Altmann: Es ist ganz interessant, man findet insbesondere auch unter Militärbefehlshabern auf der oberen Ebene ein erhebliches Verständnis für die Forderung, keine Automaten über Angriffe entscheiden zu lassen, weil sie eben auch der Meinung sind, dass die menschliche Urteilsfähigkeit erheblich besser ist und die Verantwortlichkeit bei Menschen bleiben soll für Angriffsentscheidungen, wenn sie denn überhaupt nötig sind.
Andererseits gibt es eben starken militärischen Druck in diese Richtung, und diese Meinungen bei manchen oberen Militärs werden sich wahrscheinlich nicht durchsetzen, wenn es nicht starken Druck aus der politischen Ebene und aus einer engagierten kritischen Öffentlichkeit geben wird.
Meyer: Wird es in Zukunft autonome Kampfroboter geben? Darüber haben wir mit dem Dortmunder Physiker Jürgen Altmann gesprochen, er ist Mitglied im International Committee for Robot Arms Control. Herr Altmann, vielen Dank für das Gespräch!
Altmann: Gerne!
Meyer: Und morgen setzen wir unsere Gesprächsreihe über die Zukunft des Krieges fort. Um 14:00 Uhr wird es morgen um den Kampf der Computer gehen, um Cyberwar und elektronische Kriegsführung.
Äußerungen unserer Gesprächspartner geben deren eigene Auffassungen wieder. Deutschlandradio macht sich Äußerungen seiner Gesprächspartner in Interviews und Diskussionen nicht zu eigen.
Christoph Sterz über die Kriegsroboter. Der Dortmunder Physiker Jürgen Altmann hat das International Committee for Robot Arms Control mitgegründet. Er ist jetzt für Deutschlandradio Kultur im Studio. Seien Sie willkommen, Herr Altmann!
Jürgen Altmann: Guten Tag!
Meyer: Amerikanische Militärs, die rechnen damit, dass Drohnen in 20 bis 30 Jahren schon selbstständig Angriffsziele wählen und Entscheidungen treffen können. Das heißt, an diesen autonomen Kampfrobotern, wo dann kein Mensch mehr aus der Ferne steuert, daran wird intensiv geforscht?
Altmann: Das ist in der Tat so, ja, und es hat auch eine gewisse militärische Logik. Wenn man denn zum Beispiel davon ausgeht, dass eine Kommunikationsverbindung mal gestört oder zerstört sein kann, dann könnte man sein eigenes Kampfsystem nicht mehr zum Angriff steuern, und man könnte dann entweder das "nutzlos" herumfliegen lassen oder nach Hause fliegen lassen automatisch, oder aber man versetzt es in die Lage, selbst dann Angriffe zu starten und Ziele auszusuchen.
Und das ist also der eine militärische Trend, der dort zu beobachten ist, und der zweite ist der, dass man gerne einen menschlichen Bediener, einen ganzen Schwarm, vielleicht fünf oder zehn, solcher Kampfsysteme auch auf Land steuern lassen möchte, und dann kann der Mensch nicht mehr bei jeder einzelnen Schieß- und Tötungsentscheidung dabei sein und zugucken und sagen, ja oder nein.
Der dritte Aspekt, der das Militär dahin drängen wird, autonomes Schießen einzuführen, ist, wenn man mal perspektivisch daran denkt, dass es nicht nur die USA, Großbritannien und Israel sind, die solche bewaffneten Flugzeuge haben, sondern perspektivisch auch viele andere Staaten, also die, mit denen sich vielleicht USA, Israel oder England dann im Krieg befinden könnten, dann ist eine Situation denkbar, wo sich Schwärme von solchen Kampfsystemen gegenseitig belauern - in einer Krise zum Beispiel, oder auch mitten im Krieg - und gucken, werde ich jetzt beschossen und muss ich ganz schnell zurückschießen, und da kann es um Zehntelsekunden gehen, wohingegen die Fernübertragung per Satellit und so weiter, und das Nachdenken eines menschlichen Bedieners im anderen Erdteil, soll ich jetzt das Ding schießen lassen oder nicht, das kann einige Sekunden dauern, und das kann zu spät sein, und man hätte sein eigenes System schon verloren. Also es gibt drei starke militärische Motive, die bisher ferngesteuerten Systeme so bald wie möglich in autonomen Schießmodus überzuführen.
Meyer: Und ein Grundmotiv, überhaupt solche Kampfroboter in die Armeen zu bringen, aufs Einsatzfeld zu bringen, ist ja sicherlich, dass die eigenen Soldaten dann weniger gefährdet sind, dass die Streitkräfte dann weniger Opfer haben und damit der Krieg auch zu Hause besser zu verkaufen ist.
Altmann: Das ist auf jeden Fall der Fall, das lässt sich schon jetzt beobachten, das ist ein Motiv, generell für unbemannte Kampfsysteme. Es gibt aber auch noch ein zweites Motiv, man kann dann Krieg oder kriegsähnliche Operationen leichter in anderen Ländern machen. Wenn Sie auf das Beispiel Pakistan und Drohnenangriffe, gezielte Tötungen der USA dort sehen - es ist überhaupt nicht vorstellbar, dass Pakistan erlauben würde, dass dort die USA mit Bodentruppen agieren, oder auch, dass sie mit bemannten Flugzeugen dort Ziele angreifen und beschießen, wohingegen diese Drohnenlösung, die ist irgendwie so ein bisschen weniger sichtbar und politisch nicht so deutlich, sodass es für Pakistan möglich ist, das dann zu schlucken, eine solche Art der Kriegführung in einem fremden Land.
Meyer: Die große Frage taucht ja nun auf, wenn man über autonome Kampfmaschinen nachdenkt: Wer trägt eigentlich die Verantwortung dafür, wenn so eine Maschine schießt, in einen Krieg eingreift, Menschen tötet? Es gibt einen Robotikforscher in Georgia, Ronald Arkin, der meint, dass autonome Kampfroboter sogar ethischer handeln könnten als Menschen, weil man sie ethisch programmieren könnte, und da sie keine Gefühle kennen wie Hass oder Rache, die sie zum überschreiten von Normen bringen könnten, handeln sie ethischer als Menschen. Was halten Sie von diesem Argument.
Altmann: Auf der Oberfläche klingt das zunächst ein bisschen logisch und überzeugend, man muss aber sehen, dass die Computer noch auf Jahrzehnte hin nicht in der Lage sein werden, solche Entscheidungen zu treffen in komplexen Kampfsituationen. Wenn man sich die heutigen Roboter anguckt, die also jetzt Rasen mähen oder staubsaugen, oder auch die, die es im Militärbereich schon gibt, das sind eben relativ noch primitive Intelligenzen, die an menschliche Gehirnleistung überhaupt nicht herankommen. Und das wird wie gesagt auf Jahrzehnte noch der Fall bleiben.
Was aber das Kriegsvölkerrecht verlangt, ist eine qualifizierte Entscheidung vor einem Angriff, erstens, ist mein Ziel ein legales, ein legitimes, sind es Kombattanten, die bekämpft werden, oder ist es ein ziviles Ziel, das darf nicht bekämpft werden, und zweitens, wenn nicht ganz vermieden werden kann, dass auch zivile Schäden nebenbei entstehen, dann muss eine Abwägung passieren, ist der Schaden unter den Zivilen gerechtfertigt, ist er proportional zu dem angestrebten militärischen Ziel.
Und eine solche Unterscheidung zwischen Kombattant und Nichtkombattant einerseits oder zwischen der Proportionalität des zu erwartenden zivilen Schadens in Bezug auf das militärische angestrebte Ziel, das ist in komplexen Situationen auf absehbare Zeit von Rechnern nicht zu leisten. Also von daher ist es ein bisschen spekulative Forschung, die Ron Arkin da betreibt, und man kann sich nicht darauf verlassen, dass das, woran er forscht, dass das in den nächsten 15 oder so Jahren umsetzbar ist.
Andererseits muss man befürchten, dass der militärische Druck, die drei Motive, die ich vorhin erwähnt habe, die Streitkräfte der entwickelnden Staaten erheblich früher dazu bringen wird, autonome Kampfsysteme einzuführen, also ihnen die Autorität zum selbstständigen Schießen zu geben, bevor sichergestellt ist, dass solche autonomen Computersysteme das Kriegsvölkerrecht einhalten können. Und um diese Gefahr zu vermeiden, ist, denke ich, eine besondere Verbotsregel im internationalen Recht nötig.
Meyer: Die Organisation Human Rights Watch hat gerade alle Staaten aufgefordert, Entwicklung, Produktion und Einsatz völlig autonomer Waffen völkerrechtlich bindend zu verbieten. Ist das auch Ihr Standpunkt, es müsste ein solches grundsätzliches Verbot für autonome Kampfroboter geben?
Altmann: Ja, und Human Rights Watch hat da im Grunde eine Forderung aufgenommen, die unser Committee for Robot Arms Control schon 2009 und 2010 aufgestellt hat. Wir hatten einen Expertenworkshop vor zwei Jahren in Berlin, wo fast alle, die international in diesem Bereich nachdenken oder geschrieben haben, versammelt waren, und das war eine der beiden Hauptforderungen: ein komplettes Verbot von autonomen Waffensystemen.
Meyer: Wenn Sie mit diesem Verbot schon länger in die Öffentlichkeit gegangen sind, welche Signale haben Sie bekommen aus der Politik, was für Chancen sehen Sie für solch ein Verbot?
Altmann: Es ist ganz interessant, man findet insbesondere auch unter Militärbefehlshabern auf der oberen Ebene ein erhebliches Verständnis für die Forderung, keine Automaten über Angriffe entscheiden zu lassen, weil sie eben auch der Meinung sind, dass die menschliche Urteilsfähigkeit erheblich besser ist und die Verantwortlichkeit bei Menschen bleiben soll für Angriffsentscheidungen, wenn sie denn überhaupt nötig sind.
Andererseits gibt es eben starken militärischen Druck in diese Richtung, und diese Meinungen bei manchen oberen Militärs werden sich wahrscheinlich nicht durchsetzen, wenn es nicht starken Druck aus der politischen Ebene und aus einer engagierten kritischen Öffentlichkeit geben wird.
Meyer: Wird es in Zukunft autonome Kampfroboter geben? Darüber haben wir mit dem Dortmunder Physiker Jürgen Altmann gesprochen, er ist Mitglied im International Committee for Robot Arms Control. Herr Altmann, vielen Dank für das Gespräch!
Altmann: Gerne!
Meyer: Und morgen setzen wir unsere Gesprächsreihe über die Zukunft des Krieges fort. Um 14:00 Uhr wird es morgen um den Kampf der Computer gehen, um Cyberwar und elektronische Kriegsführung.
Äußerungen unserer Gesprächspartner geben deren eigene Auffassungen wieder. Deutschlandradio macht sich Äußerungen seiner Gesprächspartner in Interviews und Diskussionen nicht zu eigen.