"Roboter fühlen nichts"
Autonome Waffensysteme und ihre Steuerung beschäftigen den visionären Robotik-Professor Ronald Arkin. Er glaubt, dass der Einsatz von Maschinen die "Kollateralschäden" in Kriegen verringern könnte. Der Philosoph Bernhard Koch gibt ihm teilweise recht, wendet aber ein, dass Roboter nicht zur Empathie fähig seien.
Frank Meyer: Autonome Kampfroboter – da werden viele an den Terminator aus den Arnold-Schwarzenegger-Filmen denken. Solche Terminators gibt es noch nicht, aber über Kampfroboter, die eigenständig handeln und Soldaten ersetzen könnten, über die wird schon diskutiert. Zum Beispiel gestern in Berlin bei einer Fortbildung für Bundeswehroffiziere und andere Interessierte. Mit dabei war Ronald Arkin, ein US-amerikanischer Professor für Robotik und Roboter-Ethik. Er ist einer der führenden Forscher, was autonome Waffensysteme und ihre ethische Steuerung angeht. Unser Reporter Philip Banse hat mit Ronald Arkin über seine Forschungen gesprochen.
Philip Banse: Ronald Arkin ist vorsichtig geworden. Spätestens seit der Informatiker am Georgia Institute of Technology vor sieben Jahren diesen Forschungsauftrag vom US-Verteidigungsministerium bekommen hat. Es geht um Roboter, die autonom schießen und töten können. Arkin soll erforschen, wie man diesen Maschinen beibringen kann, sich an menschliche moralische Vorgaben zu halten. Zeitungen schreiben, Arkin versuche, ungezügelten Kampfmaschinen ein künstliches Gewissen einzuprogrammieren. Das aber sei falsch, sagt Arkin.
Ronald Arkin: Gewissen ist ein vager Begriff, der Gefühle beschreibt. Roboter fühlen nichts. Sie können keine moralischen Überlegungen anstellen. Wir wollen das Gegenteil: Wir wollen die Handlungen von Robotern binden an Regeln und Normen, die Menschen diktieren. Alle moralischen Entscheidungen haben Menschen getroffen, basierend auf dem Kriegsrecht, und die werden vom Roboter nur ausgeführt.
Banse: Bisher habe er einen Proof of Concept, sagt Arkin, eine Software, die belegen soll, dass seine Vision im Prinzip machbar ist.
Arkin: Diese Roboter sind akzeptabel, wenn sie in ähnlichen Situationen besser sind als Soldaten. Diese Systeme werden nicht perfekt sein, sie werden Fehler machen, sie werden nicht 100 Prozent ethisch handeln. Aber wenn sie ethischer handeln können als Soldaten, wenn sie darauf verzichten können, auf Zivilisten zu schießen, wird es unterm Strich weniger zivile Opfer geben. Und das ist für mich eine Frage der Menschlichkeit.
Banse: Nicht nur im Irak haben Soldaten wiederholt unschuldige, unbewaffnete Zivilisten erschossen. Etwa, als sie Wohnungen durchsuchten oder Autos kontrollierten.
Arkin: Sie haben Angst, Sie sind ärgerlich, und das sehen wir jeden Tag in den Kriegsgebieten. Wie kann man diese Gefühle ausschalten, um rationale Entscheidungen zu treffen? Ein Roboter hat kein Recht auf Selbstverteidigung. Ich befürworte eine Strategie, die besagt: Ist nicht klar, ob es sich um Freund oder Feind oder Zivilist handelt, müssen mehr Informationen gesammelt werden.
Banse: Seine Modelle gingen daher davon aus, sagt Arkin, dass die Software nicht in unübersichtlichen Guerilla-Kriegen eingesetzt werde, sondern in Kriegen zwischen Staaten, wo Zivilisten leichter von Kämpfern zu unterscheiden seien. Doch was ist, wenn Kampfroboter trotzdem irrtümlich Zivilisten erschießen, Krankenhäuser bombardieren – wer ist dann schuld?
Arkin: Niemals die Maschine. In unserer Software übernimmt der Mensch die Verantwortung, bevor der Roboter eingesetzt wird. Der Mensch kennt den Kontext, kennt die Waffe und sagt vorher: Ich bin verantwortlich. Auf diesem Planeten gibt es keinen Roboter, der verantwortlich handeln kann. Und so was wird es in naher Zukunft auch nicht geben. Verantwortlich sind Menschen.
Banse: Längst seien solche autonomen Waffen im Einsatz. Kriegsschiffe schössen automatisch, wenn Überschallraketen sich näherten. Antipanzerminen explodierten von selbst, wenn sie bestimmte Erdschwingungen oder Wärmesignale registrierten. Autonome Waffen seien längst Realität, sagt Arkin. Und deswegen wäre es für Wissenschaftler unverantwortlich, nicht nach Wegen zu suchen, um diese Waffen in ihre Schranken zu weisen. Dennoch schließt Arkin ein Verbot tödlicher autonomer Roboter nicht aus, auch wenn er nicht weiß, wie es durchgesetzt werden soll. Die entscheidende Frage sei:
Arkin: Können wir Zivilisten helfen? Wenn wir das nicht können, wenn diese Waffen es für Zivilisten vielleicht sogar schlimmer machen, werde ich ein Verbot dieser Waffen unterschreiben. Aber wir haben Leute auf den Mond geschickt, wir haben Flugzeuge, Dinge, die sich viele Menschen vor 200 Jahren nicht einmal vorstellen konnten. Vielleicht können wir etwas Ähnliches in diesem Bereich machen und Krieg für Zivilisten weniger verheerend machen, als er derzeit ist.
Philip Banse: Ronald Arkin ist vorsichtig geworden. Spätestens seit der Informatiker am Georgia Institute of Technology vor sieben Jahren diesen Forschungsauftrag vom US-Verteidigungsministerium bekommen hat. Es geht um Roboter, die autonom schießen und töten können. Arkin soll erforschen, wie man diesen Maschinen beibringen kann, sich an menschliche moralische Vorgaben zu halten. Zeitungen schreiben, Arkin versuche, ungezügelten Kampfmaschinen ein künstliches Gewissen einzuprogrammieren. Das aber sei falsch, sagt Arkin.
Ronald Arkin: Gewissen ist ein vager Begriff, der Gefühle beschreibt. Roboter fühlen nichts. Sie können keine moralischen Überlegungen anstellen. Wir wollen das Gegenteil: Wir wollen die Handlungen von Robotern binden an Regeln und Normen, die Menschen diktieren. Alle moralischen Entscheidungen haben Menschen getroffen, basierend auf dem Kriegsrecht, und die werden vom Roboter nur ausgeführt.
Banse: Bisher habe er einen Proof of Concept, sagt Arkin, eine Software, die belegen soll, dass seine Vision im Prinzip machbar ist.
Arkin: Diese Roboter sind akzeptabel, wenn sie in ähnlichen Situationen besser sind als Soldaten. Diese Systeme werden nicht perfekt sein, sie werden Fehler machen, sie werden nicht 100 Prozent ethisch handeln. Aber wenn sie ethischer handeln können als Soldaten, wenn sie darauf verzichten können, auf Zivilisten zu schießen, wird es unterm Strich weniger zivile Opfer geben. Und das ist für mich eine Frage der Menschlichkeit.
Banse: Nicht nur im Irak haben Soldaten wiederholt unschuldige, unbewaffnete Zivilisten erschossen. Etwa, als sie Wohnungen durchsuchten oder Autos kontrollierten.
Arkin: Sie haben Angst, Sie sind ärgerlich, und das sehen wir jeden Tag in den Kriegsgebieten. Wie kann man diese Gefühle ausschalten, um rationale Entscheidungen zu treffen? Ein Roboter hat kein Recht auf Selbstverteidigung. Ich befürworte eine Strategie, die besagt: Ist nicht klar, ob es sich um Freund oder Feind oder Zivilist handelt, müssen mehr Informationen gesammelt werden.
Banse: Seine Modelle gingen daher davon aus, sagt Arkin, dass die Software nicht in unübersichtlichen Guerilla-Kriegen eingesetzt werde, sondern in Kriegen zwischen Staaten, wo Zivilisten leichter von Kämpfern zu unterscheiden seien. Doch was ist, wenn Kampfroboter trotzdem irrtümlich Zivilisten erschießen, Krankenhäuser bombardieren – wer ist dann schuld?
Arkin: Niemals die Maschine. In unserer Software übernimmt der Mensch die Verantwortung, bevor der Roboter eingesetzt wird. Der Mensch kennt den Kontext, kennt die Waffe und sagt vorher: Ich bin verantwortlich. Auf diesem Planeten gibt es keinen Roboter, der verantwortlich handeln kann. Und so was wird es in naher Zukunft auch nicht geben. Verantwortlich sind Menschen.
Banse: Längst seien solche autonomen Waffen im Einsatz. Kriegsschiffe schössen automatisch, wenn Überschallraketen sich näherten. Antipanzerminen explodierten von selbst, wenn sie bestimmte Erdschwingungen oder Wärmesignale registrierten. Autonome Waffen seien längst Realität, sagt Arkin. Und deswegen wäre es für Wissenschaftler unverantwortlich, nicht nach Wegen zu suchen, um diese Waffen in ihre Schranken zu weisen. Dennoch schließt Arkin ein Verbot tödlicher autonomer Roboter nicht aus, auch wenn er nicht weiß, wie es durchgesetzt werden soll. Die entscheidende Frage sei:
Arkin: Können wir Zivilisten helfen? Wenn wir das nicht können, wenn diese Waffen es für Zivilisten vielleicht sogar schlimmer machen, werde ich ein Verbot dieser Waffen unterschreiben. Aber wir haben Leute auf den Mond geschickt, wir haben Flugzeuge, Dinge, die sich viele Menschen vor 200 Jahren nicht einmal vorstellen konnten. Vielleicht können wir etwas Ähnliches in diesem Bereich machen und Krieg für Zivilisten weniger verheerend machen, als er derzeit ist.
"Interview mit Bernhard Koch"
Meyer: Der amerikanische Robotikforscher Ronald Arkin will mehr Schutz für Zivilisten durch autonome Kampfroboter. Und darüber sprechen wir jetzt mit dem Philosophen Bernhard Koch, Projektleiter am Institut für Theologie und Frieden in Hamburg. Seien Sie willkommen.
Bernhard Koch: Ja, guten Tag, Herr Meyer.
Meyer: Was halten Sie denn von diesem Argument von Ronald Arkin? Ein Gefecht könnte weniger gefährlich sein für Zivilisten, wenn da Kampfroboter eingesetzt werden, weil die eben im Zweifel vielleicht nicht schießen?
Koch: Ja, man muss wahrscheinlich als erstes zugeben, dass Ronald Arkin seine Argumente sehr gut durchdacht hat. Und ihn beunruhigt das Töten im Krieg, was auch eine wirklich sehr beunruhigende Weise des menschlichen Handelns ist, es kommt vor. Und wir müssen Wege finden, damit umzugehen, möglicherweise eben auch überlegen, wie wir die Konsequenzen, die negativen Konsequenzen dieses Handelns so gering wie möglich halten können. Und da sagt Ronald Arkin, er weiß einen Weg: Wir müssen einfach mehr Technik ins Spiel bringen, Technik, die genauer ist, die präziser ist. Und durch größere Präzision, wenn wir die Ziele genauer treffen können, die wir uns vornehmen zu treffen, und wir werden den, was man so kollateralen Schaden nennt, so gering wie möglich halten können.
Meyer: Und gehen Sie da mit, überzeugt Sie das?
Koch: Das Argument hat Kraft. Das muss man zugeben. Das Argument hat sicherlich Kraft. Es ist unbestritten so, dass man durch größere Technik größere Präzision schaffen kann, und dann vielleicht die Folgen insgesamt kleiner halten kann. Mich beunruhigen aber in der ganzen Debatte um die sogenannten autonomen Waffen, wie sie auch jetzt Arkin hier im Beitrag zur Sprache brachte, etwas anderes. Nämlich, dass immer wieder mit den – wie sollte man sagen, mit Ausdrücken operiert wird, die wir aus unseren menschlichen Handlungskontexten kennen und die wir dann auf die Maschine anwenden. Und auf diese Art und Weise so ein bisschen so etwas insinuieren, als wären diese Maschinen wie Menschen. Ronald Arkin sagte jetzt im Beitrag einmal, diese Roboter werden ethischer handeln können. Das glaube ich nicht.
Meyer: Aber er macht doch gerade den Punkt, dass Roboter keine Menschen sind, weil er sagt doch gerade, ein Hauptargument für ihren Einsatz wäre, dass Roboter keine Gefühle haben, dass sie nicht von Rache, Hass, Angst geleitet werden können, sondern im Zweifel eben, ohne diese Gefühle, rationaler handeln als ein Soldat.
Koch: Richtig. Da ist Arkin auch etwas zweideutig. Er ist sich einerseits des Problems bewusst, und andererseits spielt er aber natürlich doch mit diesen Anthropomorphismen. Natürlich, die Automaten haben keine Gefühle. Und natürlich wirken sich Gefühle, Emotionen in unserem Handeln, nicht nur beim Töten, aber in unserem Handeln insgesamt oft sehr negativ aus. Aber sollen wir sie deshalb eliminieren? Man müsste zeigen, dass sie sich immer negativ auswirken. Das glaube ich nicht. Aristoteles sagte, dass Emotionen ganz wichtig sind für das Erkennen, für das Erkennen der richtigen Handlung in einer bestimmten Situation. Sie haben auch eine kognitive Funktion. Sie haben also eine Funktion, die gefährlich ist, natürlich, Zorn, Angst, Wut – aber sie haben eben auch eine Funktion, die uns manchmal hilft, die Situation besser zu erkennen.
Meyer: Wollen Sie darauf hinaus, dass Roboter eben keine negativen Gefühle haben können, aber auch keine positiven? Dass sie nicht empathiefähig sind?
Koch: Richtig. Roboter sind nicht empathiefähig. Roboter können in dieser Weise auch nicht aus Gnade handeln, sie können nicht erkennen, was ein Mensch fühlen kann, weil sie selbst eben keine Gefühle haben. Und was am schlimmsten ist, das ist nicht eigentlich im Bereich der Gefühle, aber was am schwierigsten zu handhaben ist: Sie haben eben auch keine Absichten. Roboter haben keine Absichten. Aber das Absichten-Haben ist ganz wichtig, um zu erkennen, ob eine Person, die mir gegenübersteht, mich vermeintlich bedroht oder nicht. Das hängt alles davon ab, ob ich annehmen muss, sie will mir jetzt irgendwie schaden oder nicht. Und in die Robotik und in den Roboter müssen Sie gewisse Algorithmen hineinprogrammieren, die ihm irgendwie sagen, bei der und der Situation, if, dann, und so weiter. Dann muss man davon ausgehen, dass jetzt sozusagen der Schuss gerechtfertigt ist. Wir als Menschen operieren grundsätzlich anders.
Meyer: Würden Sie denn, von Ihren Argumenten ausgehend, jetzt sagen, Sie setzen sich dafür ein, dass autonome Kampfroboter grundsätzlich verboten werden?
Koch: Nein. Ich bin insgesamt kein großer Freund von moralischen Rigorismen. Und wie ich eben vorher sagte, das Argument von Ronald Arkin hat ja auch Kraft. Natürlich, wir müssen vergleichen, wenn in bestimmten Situationen grundsätzlich die Maschine in einer Weise operiert – ich will nicht handeln sagen, sondern in einer Weise operiert, dass die Ergebnisse so sind, dass wir sie uns eher wünschen als die Ergebnisse bei menschlichen Handlungen. Dann werden wir in solchen Situationen vernünftigerweise wahrscheinlich auch die Maschine diese Operation ausführen lassen. Aber wir haben dazu viel zu wenige Ergebnisse bislang, ob das für den bewaffneten Konflikt, wie wir sagen, eine tragfähige Option sein kann.
Meyer: Gibt es Argumente für den Einsatz autonomer Kampfroboter? Das haben wir diskutiert mit dem Philosophen Bernhardt Koch vom Institut für Theologie und Frieden in Hamburg. Ich danke Ihnen für das Gespräch.
Koch: Vielen Dank.
Äußerungen unserer Gesprächspartner geben deren eigene Auffassungen wieder. Deutschlandradio macht sich Äußerungen seiner Gesprächspartner in Interviews und Diskussionen nicht zu eigen.
Bernhard Koch: Ja, guten Tag, Herr Meyer.
Meyer: Was halten Sie denn von diesem Argument von Ronald Arkin? Ein Gefecht könnte weniger gefährlich sein für Zivilisten, wenn da Kampfroboter eingesetzt werden, weil die eben im Zweifel vielleicht nicht schießen?
Koch: Ja, man muss wahrscheinlich als erstes zugeben, dass Ronald Arkin seine Argumente sehr gut durchdacht hat. Und ihn beunruhigt das Töten im Krieg, was auch eine wirklich sehr beunruhigende Weise des menschlichen Handelns ist, es kommt vor. Und wir müssen Wege finden, damit umzugehen, möglicherweise eben auch überlegen, wie wir die Konsequenzen, die negativen Konsequenzen dieses Handelns so gering wie möglich halten können. Und da sagt Ronald Arkin, er weiß einen Weg: Wir müssen einfach mehr Technik ins Spiel bringen, Technik, die genauer ist, die präziser ist. Und durch größere Präzision, wenn wir die Ziele genauer treffen können, die wir uns vornehmen zu treffen, und wir werden den, was man so kollateralen Schaden nennt, so gering wie möglich halten können.
Meyer: Und gehen Sie da mit, überzeugt Sie das?
Koch: Das Argument hat Kraft. Das muss man zugeben. Das Argument hat sicherlich Kraft. Es ist unbestritten so, dass man durch größere Technik größere Präzision schaffen kann, und dann vielleicht die Folgen insgesamt kleiner halten kann. Mich beunruhigen aber in der ganzen Debatte um die sogenannten autonomen Waffen, wie sie auch jetzt Arkin hier im Beitrag zur Sprache brachte, etwas anderes. Nämlich, dass immer wieder mit den – wie sollte man sagen, mit Ausdrücken operiert wird, die wir aus unseren menschlichen Handlungskontexten kennen und die wir dann auf die Maschine anwenden. Und auf diese Art und Weise so ein bisschen so etwas insinuieren, als wären diese Maschinen wie Menschen. Ronald Arkin sagte jetzt im Beitrag einmal, diese Roboter werden ethischer handeln können. Das glaube ich nicht.
Meyer: Aber er macht doch gerade den Punkt, dass Roboter keine Menschen sind, weil er sagt doch gerade, ein Hauptargument für ihren Einsatz wäre, dass Roboter keine Gefühle haben, dass sie nicht von Rache, Hass, Angst geleitet werden können, sondern im Zweifel eben, ohne diese Gefühle, rationaler handeln als ein Soldat.
Koch: Richtig. Da ist Arkin auch etwas zweideutig. Er ist sich einerseits des Problems bewusst, und andererseits spielt er aber natürlich doch mit diesen Anthropomorphismen. Natürlich, die Automaten haben keine Gefühle. Und natürlich wirken sich Gefühle, Emotionen in unserem Handeln, nicht nur beim Töten, aber in unserem Handeln insgesamt oft sehr negativ aus. Aber sollen wir sie deshalb eliminieren? Man müsste zeigen, dass sie sich immer negativ auswirken. Das glaube ich nicht. Aristoteles sagte, dass Emotionen ganz wichtig sind für das Erkennen, für das Erkennen der richtigen Handlung in einer bestimmten Situation. Sie haben auch eine kognitive Funktion. Sie haben also eine Funktion, die gefährlich ist, natürlich, Zorn, Angst, Wut – aber sie haben eben auch eine Funktion, die uns manchmal hilft, die Situation besser zu erkennen.
Meyer: Wollen Sie darauf hinaus, dass Roboter eben keine negativen Gefühle haben können, aber auch keine positiven? Dass sie nicht empathiefähig sind?
Koch: Richtig. Roboter sind nicht empathiefähig. Roboter können in dieser Weise auch nicht aus Gnade handeln, sie können nicht erkennen, was ein Mensch fühlen kann, weil sie selbst eben keine Gefühle haben. Und was am schlimmsten ist, das ist nicht eigentlich im Bereich der Gefühle, aber was am schwierigsten zu handhaben ist: Sie haben eben auch keine Absichten. Roboter haben keine Absichten. Aber das Absichten-Haben ist ganz wichtig, um zu erkennen, ob eine Person, die mir gegenübersteht, mich vermeintlich bedroht oder nicht. Das hängt alles davon ab, ob ich annehmen muss, sie will mir jetzt irgendwie schaden oder nicht. Und in die Robotik und in den Roboter müssen Sie gewisse Algorithmen hineinprogrammieren, die ihm irgendwie sagen, bei der und der Situation, if, dann, und so weiter. Dann muss man davon ausgehen, dass jetzt sozusagen der Schuss gerechtfertigt ist. Wir als Menschen operieren grundsätzlich anders.
Meyer: Würden Sie denn, von Ihren Argumenten ausgehend, jetzt sagen, Sie setzen sich dafür ein, dass autonome Kampfroboter grundsätzlich verboten werden?
Koch: Nein. Ich bin insgesamt kein großer Freund von moralischen Rigorismen. Und wie ich eben vorher sagte, das Argument von Ronald Arkin hat ja auch Kraft. Natürlich, wir müssen vergleichen, wenn in bestimmten Situationen grundsätzlich die Maschine in einer Weise operiert – ich will nicht handeln sagen, sondern in einer Weise operiert, dass die Ergebnisse so sind, dass wir sie uns eher wünschen als die Ergebnisse bei menschlichen Handlungen. Dann werden wir in solchen Situationen vernünftigerweise wahrscheinlich auch die Maschine diese Operation ausführen lassen. Aber wir haben dazu viel zu wenige Ergebnisse bislang, ob das für den bewaffneten Konflikt, wie wir sagen, eine tragfähige Option sein kann.
Meyer: Gibt es Argumente für den Einsatz autonomer Kampfroboter? Das haben wir diskutiert mit dem Philosophen Bernhardt Koch vom Institut für Theologie und Frieden in Hamburg. Ich danke Ihnen für das Gespräch.
Koch: Vielen Dank.
Äußerungen unserer Gesprächspartner geben deren eigene Auffassungen wieder. Deutschlandradio macht sich Äußerungen seiner Gesprächspartner in Interviews und Diskussionen nicht zu eigen.