Auf dem Weg zum vollautomatischen Krieg
Entwickler forschen derzeit an Kampfdrohnen, die ihre Opfer vollautomatisch auswählen und töten. "Aus technikethischer Sicht stellen sich da sehr viele Fragen", meint der Wissenschaftler Karsten Weber: Wer bei Softwarefehlern die Verantwortung für missglückte Einsätze trage, sei umstritten.
Susanne Führer: Es ist ja viel von Drohnen die Rede in diesen Tagen, die Drohnen, die zurzeit den Bundesverteidigungsminister in Schwierigkeiten bringen, der Aufklärung dienen. Es gibt aber auch Kampfdrohnen, wie sie zum Beispiel die USA in ihrem sogenannten "Krieg gegen den Terror" hundertfach einsetzen. Den Befehl zur Exekution erteilt in diesem Fall ein Mensch – noch. Denn inzwischen wird an sogenannten "Killerrobotern" gearbeitet, die vollautomatisch ihre Opfer auswählen und töten.
Schöne neue Kriegswelt? Darüber spreche ich mit Professor Karsten Weber. Er lehrt Allgemeine Technikwissenschaften an der Brandenburgischen Technischen Universität Cottbus. Guten Tag, Herr Weber!
Karsten Weber: Guten Tag!
Führer: Mir wird ja ehrlich gesagt ganz mulmig bei der Vorstellung, dass Roboter über Tod und Leben von Menschen entscheiden. Warum wird dieses Kriegsgerät überhaupt entwickelt? Welche Vorteile bietet es?
Weber: Die derzeitigen Systeme bieten einfach den Vorteil, dass Menschen nicht so sehr in Gefahr geraten, vor allem natürlich die Soldaten. Das sieht man bei den Drohnen, die Sie in der Anmoderation genannt haben. Hier werden Drohnen zur Aufklärung benutzt, dann muss kein Pilot im Flugzeug sitzen und kann auch nicht verloren gehen. Sie werden eingesetzt, um auch Waffen, ja, auszuliefern, wie es so schön gesagt wird, also Raketen abzuschießen, Bomben abzuwerfen. Auch da kommen dann keine Piloten in Gefahr. Sie sind außerdem furchtbar viel billiger als große Flugzeuge beispielsweise. Also die militärischen Nutzungsweisen sind sehr stark dadurch geprägt: durch Risikovermeidung und Kosteneinsparungen.
Führer: Werden aber jetzt diese automatischen, autonomen Killerroboter schon eingesetzt, oder sind die schon zumindest einsatzbereit? Also, bisher ist es ja immer noch ein Mensch, der letzten Endes den Befehl gibt zum Töten.
Weber: Meines Wissens gibt es vollautonome Systeme derzeit nicht. Die Drohnen, die wir so im Fernsehen jetzt immer sehen, wenn es um die Problematik der Bundeswehr geht, werden ferngesteuert. Die Drohnen, die wir nicht so oft sehen, das sind dann eher Landfahrzeuge, die beispielsweise zur Entschärfung von Sprengfallen genutzt werden, sind ebenfalls ferngesteuert. Also, Systeme, die selbst entscheiden, was sie tun, gibt es derzeit nicht.
Führer: Aber es wird an ihnen gearbeitet?
Weber: Es wird an ihnen gearbeitet, denn es könnte die Kriegsführung aus Sicht der einsetzenden Partei durchaus erleichtern.
Führer: Warum?
Weber: Weil dann nicht hinter jeder Drohne eine Person stehen muss, und das würde wiederum zum Beispiel den Personalbedarf verringern, die Kosten verringern, Flexibilität erhöhen, die Einsatzstärke vielleicht auch vergrößern.
Führer: Wenn wir jetzt mal bei den Drohneneinsätzen der USA bleiben, da entscheidet ja erst der Präsident, also Barack Obama, wer getötet werden soll, und am Ende drückt dann ein Pilot auf den Knopf. Wenn jetzt so eine Drohne oder was für ein Roboter auch immer – es gibt ja, haben Sie gerade genannt, auch welche, die im Gelände unterwegs sind –, wenn der automatisch tötet, also ohne diesen Knopfdruck eines Menschen, wer trägt dann eigentlich die Verantwortung?
Weber: Das ist umstritten. Aus technikethischer Sicht stellen sich da natürlich sehr viele Fragen. Man könnte immer argumentieren, die Person, die den Einsatz letztendlich befiehlt, ist verantwortlich. Aber was ist, wenn zum Beispiel die Software in diesem System Fehler hat und damit Menschen getötet werden oder verletzt werden, die gar nicht das Ziel waren? Ist dann der Hersteller der Software verantwortlich, der Hersteller des Geräts, manchmal auch unterschiedliche Unternehmen? Das ist völlig ungeklärt und ist sicherlich auch ein wesentlicher Hinderungsgrund dafür, dass es diese Systeme zwar in Entwicklung gibt, aber noch nicht im Einsatz.
Führer: Also es werden ja schon jetzt bei diesen Kampfdrohneneinsätzen immer wieder unschuldige Zivilisten getötet, Hunderte sollen es ja schon sein. Wird das dann Ihrer Ansicht nach noch häufiger passieren vielleicht?
Weber: Damit wäre zu rechnen. Ich denke aber eben, dass dies auch aus Sicht der militärischen Einsatzplanung letztendlich nicht hinnehmbar ist und dass das eben ein wesentliches Argument gegen den Einsatz vollautonomer Drohnen sein wird, zumindest für eine ganze Weile.
Führer: Sein wird oder sein müsste?
Weber: Ja, also diejenigen, die ganz massiv gegen den Einsatz solcher Maschinen plädieren, sagen, es müsste verhindert werden. Die Wahrscheinlichkeit, dass man hier aber zu multilateralen oder internationalen Vereinbarungen der Waffenbeschränkung oder der Abrüstung kommt, die halte ich eher für gering.
Führer: Ich spreche im Deutschlandradio Kultur mit dem Technikwissenschaftler Karsten Weber über autonome Killerroboter. Wir haben es gerade schon angedeutet, Herr Weber, es gibt ja auch Roboter, die sich eben im Gelände bewegen, und es wird an welchen gearbeitet, die sich dort nicht nur bewegen, sondern eben auch vollautomatisch töten. Heißt das, es wäre dann auch irgendwann ein Krieg vorstellbar, in dem dann Menschen gegen Roboter kämpfen?
Weber: Na ja, aus Sicht derer, die heute angegriffen werden von einer Drohne, die weit über ihren Köpfen fliegt, stellt sich die Situation ja heute schon so dar als dass sie gegen Technik kämpfen und nicht mehr erkennen können, dass da in irgendeiner Weise noch ein Mensch beteiligt ist. Das kann man natürlich beliebig steigern und potenziell: ja. Also ich sehe kein grundsätzliches Hindernis gegen eine solche Art von Kriegführung.
Führer: Und irgendwann kämpfen dann Roboter gegen Roboter?
Weber: Auch. Aber letztendlich kann man den Nutzen aus einem zum Beispiel eroberten Gebiet nur dann ziehen, wenn dort Menschen sind. Krieg wird immer eine Auseinandersetzung sein, in der Menschen involviert sein werden.
Führer: Nun hat ja der UN-Sonderberichterstatter zu willkürlichen Hinrichtungen, Christof Heyns, gerade ein weltweites Moratorium dieser Killerroboter gefordert. "Todbringende autonome Roboter" nennt er die. Er befürchtet nämlich, dass Staaten dadurch leichter in den Krieg ziehen werden, eben wegen der Vorteile, die Sie vorhin genannt haben. Man riskiert nicht mehr das Leben der eigenen Soldaten. Teilen Sie diese Befürchtung?
Weber: Ich glaube, das sehen wir jetzt schon. Die USA hat Pakistan nicht den Krieg erklärt, im Gegenteil, das sind Verbündete. Trotzdem sterben dort ständig Menschen durch den Einsatz von Drohnen. Und häufig eben auch Zivilisten, die unbeteiligt sind. Daher scheint die Möglichkeit des Einsatzes solcher Technik die Bereitschaft zur Nutzung von kriegerischen Mitteln zu erhöhen.
Führer: Gilt das Völkerrecht dann auch für Roboter?
Weber: Das Völkerrecht gilt für die Befehlshaber. Maschinen sind nicht Subjekte und können daher auch nicht durchs Völkerrecht gedeckt sein. Wie soll ich sagen? - Sie sind keine Subjekte des Rechts, sie sind allenfalls Objekte des Rechtes, so wie Massenvernichtungswaffen, chemische Waffen, atomare Waffen beispielsweise.
Führer: Was hieße denn jetzt das Völkerrecht, angewendet auf die derzeitigen Drohneneinsätze der USA in Pakistan, Sie haben es angesprochen?
Weber: Da im Völkerrecht gefordert wird, dass Zivilisten geschont werden und auch zum Beispiel zivile Einrichtungen möglichst nicht zerstört werden sollten, scheint mir schon die Frage im Raum zu stehen, ob der Einsatz dieser Drohnen zumindest an den Grenzen, wenn nicht sogar über den Grenzen des Völkerrechts steht. Wenn das so wäre, dann müsste man eigentlich versuchen, über das Völkerrecht diesen Einsatz zu verhindern.
Führer: Die Menschenrechtsorganisationen kritisieren ja diese Entwicklung dieser autonomen Killerroboter, nennen wir sie mal weiterhin so, eben aus den Gründen, aus denen die Befürworter sie gut finden, weil die eben keine Emotionen haben, also sie haben keine Angst, keine Panik, aber sie haben eben auch kein Mitleid und sie können ja auch nicht abschätzen, also sie können ja nicht abwägen sozusagen, eine Risiko-, Nutzen-, Folgenabwägung. Und: Roboter sind offenbar auch nicht in der Lage zu erkennen, ob zum Beispiel ein Mensch verletzt ist, ein Soldat verletzt ist und damit kampfunfähig. Und damit müsste er ja nach dem Völkerrecht geschützt werden.
Weber: Hier reden wir definitiv noch über Science Fiction. Die Möglichkeiten, autonome System so zu bauen, dass sie überhaupt in die Lage kämen, solche Entscheidungen zu treffen, die sehe ich derzeit noch nicht. Im Übrigen machen auch Menschen bei solchen Fragen häufig Fehler, und das deutet schon darauf hin, dass es gar nicht so einfach ist, solche Entscheidungen zu treffen. Daher wird es auch nicht einfach sein, dies in Technik umzusetzen. Also ich sehe da im Moment das zwar als Möglichkeit, über die nachgedacht werden soll, aber noch nicht als reales Problem.
Führer: Aber so ein Moratorium, dass Christof Heyns gefordert hat, das würden Sie schon unterstützen?
Weber: Im Falle des Einsatzes von Drohnen, die auch wirklich Waffen zum Gegner tragen, die Bomben abwerfen, die Raketen abschießen, halte ich das durchaus für eine überlegenswerte Sache.
Führer: Denn eins kann man ja an dieser Entwicklung, glaube ich, schon beobachten. Also die scharfe Trennung von Krieg und Frieden, wie wir sie aus den vergangenen Jahrhunderten kennen, die hat sich ja jetzt schon aufgelöst. Sie haben das Beispiel Pakistan genannt. Also sowohl räumlich als auch zeitlich, die USA führen einen Krieg gegen den Terror, wo auch immer, gegen wen auch immer. Und ich hätte nun die Befürchtung, dass dieser Einsatz von autonomen Killerrobotern das Nebeneinander, oder man kann sogar sagen, das Ineinander von Krieg und Frieden noch weiter verstärkt.
Weber: Ja, sicherlich, wobei das kein wirklich neues Phänomen ist. Wir haben seit geraumer Zeit, spätestens eben mit dem Beginn des Kriegs gegen den Terror, das Phänomen, dass Gewalt zwischen Staaten oder Staaten gegen irreguläre Truppen ausgeübt wird, es aber keinen erklärten Krieg gibt. Also diese Zwischenzustände zwischen Frieden und Krieg, die scheinen stärker zu werden, viel zahlreicher zu werden. Und Drohnen könnten da noch eine verstärkende Wirkung haben.
Führer: Das sagt Professor Karsten Weber. Er lehrt Allgemeine Technikwissenschaften an der Brandenburgischen Technischen Universität Cottbus. Danke für das Gespräch, Herr Weber!
Weber: Ich habe zu danken, danke!
Äußerungen unserer Gesprächspartner geben deren eigene Auffassungen wieder. Deutschlandradio macht sich Äußerungen seiner Gesprächspartner in Interviews und Diskussionen nicht zu eigen.
Mehr zum Thema:
Drohnenkriege und das Ende der konventionellen Konfliktlösung
Der Philosoph und Komplexitätsforscher Klaus Mainzer über die Zukunft des Krieges (DLF)
Die Legitimation des Tötens im Zeitalter der Drohnen
Marc Lindemann: "Kann Töten erlaubt sein? Ein Soldat auf der Suche nach Antworten", Econ Verlag (DLF)
Schöne neue Kriegswelt? Darüber spreche ich mit Professor Karsten Weber. Er lehrt Allgemeine Technikwissenschaften an der Brandenburgischen Technischen Universität Cottbus. Guten Tag, Herr Weber!
Karsten Weber: Guten Tag!
Führer: Mir wird ja ehrlich gesagt ganz mulmig bei der Vorstellung, dass Roboter über Tod und Leben von Menschen entscheiden. Warum wird dieses Kriegsgerät überhaupt entwickelt? Welche Vorteile bietet es?
Weber: Die derzeitigen Systeme bieten einfach den Vorteil, dass Menschen nicht so sehr in Gefahr geraten, vor allem natürlich die Soldaten. Das sieht man bei den Drohnen, die Sie in der Anmoderation genannt haben. Hier werden Drohnen zur Aufklärung benutzt, dann muss kein Pilot im Flugzeug sitzen und kann auch nicht verloren gehen. Sie werden eingesetzt, um auch Waffen, ja, auszuliefern, wie es so schön gesagt wird, also Raketen abzuschießen, Bomben abzuwerfen. Auch da kommen dann keine Piloten in Gefahr. Sie sind außerdem furchtbar viel billiger als große Flugzeuge beispielsweise. Also die militärischen Nutzungsweisen sind sehr stark dadurch geprägt: durch Risikovermeidung und Kosteneinsparungen.
Führer: Werden aber jetzt diese automatischen, autonomen Killerroboter schon eingesetzt, oder sind die schon zumindest einsatzbereit? Also, bisher ist es ja immer noch ein Mensch, der letzten Endes den Befehl gibt zum Töten.
Weber: Meines Wissens gibt es vollautonome Systeme derzeit nicht. Die Drohnen, die wir so im Fernsehen jetzt immer sehen, wenn es um die Problematik der Bundeswehr geht, werden ferngesteuert. Die Drohnen, die wir nicht so oft sehen, das sind dann eher Landfahrzeuge, die beispielsweise zur Entschärfung von Sprengfallen genutzt werden, sind ebenfalls ferngesteuert. Also, Systeme, die selbst entscheiden, was sie tun, gibt es derzeit nicht.
Führer: Aber es wird an ihnen gearbeitet?
Weber: Es wird an ihnen gearbeitet, denn es könnte die Kriegsführung aus Sicht der einsetzenden Partei durchaus erleichtern.
Führer: Warum?
Weber: Weil dann nicht hinter jeder Drohne eine Person stehen muss, und das würde wiederum zum Beispiel den Personalbedarf verringern, die Kosten verringern, Flexibilität erhöhen, die Einsatzstärke vielleicht auch vergrößern.
Führer: Wenn wir jetzt mal bei den Drohneneinsätzen der USA bleiben, da entscheidet ja erst der Präsident, also Barack Obama, wer getötet werden soll, und am Ende drückt dann ein Pilot auf den Knopf. Wenn jetzt so eine Drohne oder was für ein Roboter auch immer – es gibt ja, haben Sie gerade genannt, auch welche, die im Gelände unterwegs sind –, wenn der automatisch tötet, also ohne diesen Knopfdruck eines Menschen, wer trägt dann eigentlich die Verantwortung?
Weber: Das ist umstritten. Aus technikethischer Sicht stellen sich da natürlich sehr viele Fragen. Man könnte immer argumentieren, die Person, die den Einsatz letztendlich befiehlt, ist verantwortlich. Aber was ist, wenn zum Beispiel die Software in diesem System Fehler hat und damit Menschen getötet werden oder verletzt werden, die gar nicht das Ziel waren? Ist dann der Hersteller der Software verantwortlich, der Hersteller des Geräts, manchmal auch unterschiedliche Unternehmen? Das ist völlig ungeklärt und ist sicherlich auch ein wesentlicher Hinderungsgrund dafür, dass es diese Systeme zwar in Entwicklung gibt, aber noch nicht im Einsatz.
Führer: Also es werden ja schon jetzt bei diesen Kampfdrohneneinsätzen immer wieder unschuldige Zivilisten getötet, Hunderte sollen es ja schon sein. Wird das dann Ihrer Ansicht nach noch häufiger passieren vielleicht?
Weber: Damit wäre zu rechnen. Ich denke aber eben, dass dies auch aus Sicht der militärischen Einsatzplanung letztendlich nicht hinnehmbar ist und dass das eben ein wesentliches Argument gegen den Einsatz vollautonomer Drohnen sein wird, zumindest für eine ganze Weile.
Führer: Sein wird oder sein müsste?
Weber: Ja, also diejenigen, die ganz massiv gegen den Einsatz solcher Maschinen plädieren, sagen, es müsste verhindert werden. Die Wahrscheinlichkeit, dass man hier aber zu multilateralen oder internationalen Vereinbarungen der Waffenbeschränkung oder der Abrüstung kommt, die halte ich eher für gering.
Führer: Ich spreche im Deutschlandradio Kultur mit dem Technikwissenschaftler Karsten Weber über autonome Killerroboter. Wir haben es gerade schon angedeutet, Herr Weber, es gibt ja auch Roboter, die sich eben im Gelände bewegen, und es wird an welchen gearbeitet, die sich dort nicht nur bewegen, sondern eben auch vollautomatisch töten. Heißt das, es wäre dann auch irgendwann ein Krieg vorstellbar, in dem dann Menschen gegen Roboter kämpfen?
Weber: Na ja, aus Sicht derer, die heute angegriffen werden von einer Drohne, die weit über ihren Köpfen fliegt, stellt sich die Situation ja heute schon so dar als dass sie gegen Technik kämpfen und nicht mehr erkennen können, dass da in irgendeiner Weise noch ein Mensch beteiligt ist. Das kann man natürlich beliebig steigern und potenziell: ja. Also ich sehe kein grundsätzliches Hindernis gegen eine solche Art von Kriegführung.
Führer: Und irgendwann kämpfen dann Roboter gegen Roboter?
Weber: Auch. Aber letztendlich kann man den Nutzen aus einem zum Beispiel eroberten Gebiet nur dann ziehen, wenn dort Menschen sind. Krieg wird immer eine Auseinandersetzung sein, in der Menschen involviert sein werden.
Führer: Nun hat ja der UN-Sonderberichterstatter zu willkürlichen Hinrichtungen, Christof Heyns, gerade ein weltweites Moratorium dieser Killerroboter gefordert. "Todbringende autonome Roboter" nennt er die. Er befürchtet nämlich, dass Staaten dadurch leichter in den Krieg ziehen werden, eben wegen der Vorteile, die Sie vorhin genannt haben. Man riskiert nicht mehr das Leben der eigenen Soldaten. Teilen Sie diese Befürchtung?
Weber: Ich glaube, das sehen wir jetzt schon. Die USA hat Pakistan nicht den Krieg erklärt, im Gegenteil, das sind Verbündete. Trotzdem sterben dort ständig Menschen durch den Einsatz von Drohnen. Und häufig eben auch Zivilisten, die unbeteiligt sind. Daher scheint die Möglichkeit des Einsatzes solcher Technik die Bereitschaft zur Nutzung von kriegerischen Mitteln zu erhöhen.
Führer: Gilt das Völkerrecht dann auch für Roboter?
Weber: Das Völkerrecht gilt für die Befehlshaber. Maschinen sind nicht Subjekte und können daher auch nicht durchs Völkerrecht gedeckt sein. Wie soll ich sagen? - Sie sind keine Subjekte des Rechts, sie sind allenfalls Objekte des Rechtes, so wie Massenvernichtungswaffen, chemische Waffen, atomare Waffen beispielsweise.
Führer: Was hieße denn jetzt das Völkerrecht, angewendet auf die derzeitigen Drohneneinsätze der USA in Pakistan, Sie haben es angesprochen?
Weber: Da im Völkerrecht gefordert wird, dass Zivilisten geschont werden und auch zum Beispiel zivile Einrichtungen möglichst nicht zerstört werden sollten, scheint mir schon die Frage im Raum zu stehen, ob der Einsatz dieser Drohnen zumindest an den Grenzen, wenn nicht sogar über den Grenzen des Völkerrechts steht. Wenn das so wäre, dann müsste man eigentlich versuchen, über das Völkerrecht diesen Einsatz zu verhindern.
Führer: Die Menschenrechtsorganisationen kritisieren ja diese Entwicklung dieser autonomen Killerroboter, nennen wir sie mal weiterhin so, eben aus den Gründen, aus denen die Befürworter sie gut finden, weil die eben keine Emotionen haben, also sie haben keine Angst, keine Panik, aber sie haben eben auch kein Mitleid und sie können ja auch nicht abschätzen, also sie können ja nicht abwägen sozusagen, eine Risiko-, Nutzen-, Folgenabwägung. Und: Roboter sind offenbar auch nicht in der Lage zu erkennen, ob zum Beispiel ein Mensch verletzt ist, ein Soldat verletzt ist und damit kampfunfähig. Und damit müsste er ja nach dem Völkerrecht geschützt werden.
Weber: Hier reden wir definitiv noch über Science Fiction. Die Möglichkeiten, autonome System so zu bauen, dass sie überhaupt in die Lage kämen, solche Entscheidungen zu treffen, die sehe ich derzeit noch nicht. Im Übrigen machen auch Menschen bei solchen Fragen häufig Fehler, und das deutet schon darauf hin, dass es gar nicht so einfach ist, solche Entscheidungen zu treffen. Daher wird es auch nicht einfach sein, dies in Technik umzusetzen. Also ich sehe da im Moment das zwar als Möglichkeit, über die nachgedacht werden soll, aber noch nicht als reales Problem.
Führer: Aber so ein Moratorium, dass Christof Heyns gefordert hat, das würden Sie schon unterstützen?
Weber: Im Falle des Einsatzes von Drohnen, die auch wirklich Waffen zum Gegner tragen, die Bomben abwerfen, die Raketen abschießen, halte ich das durchaus für eine überlegenswerte Sache.
Führer: Denn eins kann man ja an dieser Entwicklung, glaube ich, schon beobachten. Also die scharfe Trennung von Krieg und Frieden, wie wir sie aus den vergangenen Jahrhunderten kennen, die hat sich ja jetzt schon aufgelöst. Sie haben das Beispiel Pakistan genannt. Also sowohl räumlich als auch zeitlich, die USA führen einen Krieg gegen den Terror, wo auch immer, gegen wen auch immer. Und ich hätte nun die Befürchtung, dass dieser Einsatz von autonomen Killerrobotern das Nebeneinander, oder man kann sogar sagen, das Ineinander von Krieg und Frieden noch weiter verstärkt.
Weber: Ja, sicherlich, wobei das kein wirklich neues Phänomen ist. Wir haben seit geraumer Zeit, spätestens eben mit dem Beginn des Kriegs gegen den Terror, das Phänomen, dass Gewalt zwischen Staaten oder Staaten gegen irreguläre Truppen ausgeübt wird, es aber keinen erklärten Krieg gibt. Also diese Zwischenzustände zwischen Frieden und Krieg, die scheinen stärker zu werden, viel zahlreicher zu werden. Und Drohnen könnten da noch eine verstärkende Wirkung haben.
Führer: Das sagt Professor Karsten Weber. Er lehrt Allgemeine Technikwissenschaften an der Brandenburgischen Technischen Universität Cottbus. Danke für das Gespräch, Herr Weber!
Weber: Ich habe zu danken, danke!
Äußerungen unserer Gesprächspartner geben deren eigene Auffassungen wieder. Deutschlandradio macht sich Äußerungen seiner Gesprächspartner in Interviews und Diskussionen nicht zu eigen.
Drohnenkriege und das Ende der konventionellen Konfliktlösung
Der Philosoph und Komplexitätsforscher Klaus Mainzer über die Zukunft des Krieges (DLF)
Die Legitimation des Tötens im Zeitalter der Drohnen
Marc Lindemann: "Kann Töten erlaubt sein? Ein Soldat auf der Suche nach Antworten", Econ Verlag (DLF)