Die Kampfdrohne als autonomer Sensenmann
Mit moderner Drohnentechnologie verbindet Verteidigungsminister Thomas de Maizière (CDU) große Hoffnungen, sollen sie doch einen besseren Schutz der eigenen Soldaten bieten. Dabei wirft deren Einsatz eine ganze Reihe unbeantworteter Fragen auf, kommentiert Niklas Schörnig.
Die Geschichte der militärischen Entwicklungen ist eine Geschichte des ungerechtfertigten Optimismus. Fast immer wurden neue Waffensysteme mit Hoffnungen überschüttet – mit der Hoffnung auf schnelle Siege, der Hoffnung auf einen unblutigen Krieg, gar der Hoffnung auf das Ende aller Kriege. Diese Hoffnungen wurden aber meist enttäuscht. Statt weniger waren mehr Leid und mehr Kriege die Folge.
Jetzt will Verteidigungsminister de Maizière bewaffnete Drohnen für die Bundeswehr anschaffen und auch sein Optimismus ist groß. Zu Recht? Wohin führt die rasante technische Entwicklung der Drohnen?
Aktuelle Modelle wie die amerikanische "Reaper" (zu deutsch: "Sensenmann") werden ferngesteuert oder per Fernsteuerung überwacht: Dabei können die Piloten dank Satellit unter Umständen sogar tausende Kilometer entfernt sein. Das Steuersignal braucht einen Augenblick, um die Drohne zu erreichen. Das fällt nur dann nicht ins Gewicht, solange der Gegner über keine Luftabwehr verfügt, wie etwa in Afghanistan. Aus Sicht der amerikanischen und europäischen Rüstungsindustrie sind die "Reaper"-Drohnen deshalb längst überholt.
Künftige Kampfdrohnen sollen all das tun, was heute bemannte Kampfflugzeuge können – speziell Luftkampf und Angriffe gegen Bodenziele im umkämpften Luftraum. Dann kommt es auf Sekundenbruchteile an. Eine ferngesteuerte Drohne ist dafür zu träge. Das bedeutet, dass nicht mehr der Pilot in der Ferne, sondern der Computer in der Drohne die Entscheidungen autonom treffen muss.
Und damit hätte die Industrie noch ein weiteres Risiko herkömmlicher Drohnen gebannt: dass bislang das Steuersignal gestört und so ein Missionsabbruch erzwungen werden könnte. Die Konsequenz ist, dass Drohnen schon aus militärischer Logik heraus selbstständig entscheiden müssen, ob sie feuern oder nicht, ob sie Menschen töten oder nicht.
Nach Aussagen von Verteidigungsminister de Maizière sind solche Szenarien ausgeschlossen: Er behauptet, die Entscheidung über einen Waffeneinsatz werde am Ende immer von einem Menschen getroffen. Das sind hehre Wünsche, die an zukünftigen Einsatzerfordernissen scheitern werden – schon allein, weil auf die Entwicklung bemannter Flugzeuge im Westen fast vollständig verzichtet wird.
Aus dem Zwang zu Autonomie ergeben sich viele neue Fragen, die bislang unbeantwortet sind. Ist es ethisch in Ordnung, einem Computer die Entscheidung über Leben und Tod zu überlassen? Wer übernimmt die Schuld, wenn etwas schief geht: Ist der Offizier verantwortlich oder die Programmierer? Und: Ist ein Krieg aus "Versehen" möglich, wenn autonome Systeme verfeindeter Staaten mit unbekannter Programmierung aufeinandertreffen? Besonders wichtig ist aber die Frage: Wie sicher sind solche Systeme vor Manipulation und Hacking?
Schon jetzt setzt die Rüstungsindustrie aus Kostengründen oft zivile Komponenten ein, zum Beispiel Mikrochips, die Hackern viele Angriffspunkte bieten. Selbst die besonders gut geschützten Steuerkonsolen der amerikanischen Drohnen-Systeme sind 2011 Opfer einer Computervirenattacke geworden. Mit zunehmender Automatisierung wird die eingesetzte Software immer komplexer und bietet entsprechend immer neue Sicherheitslücken, in die Gegner, Hacker oder Terroristen stoßen können. Die menschlichen und politischen Folgen nur eines einzigen manipulierten Schusses können aber verheerend sein. Man stelle sich nur vor, eine von Hackern ausgelöste Rakete träfe eine Schule oder ein Krankenhaus.
Man darf von der Bundesregierung durchaus Antworten erwarten, wie sie mit all diesen Problemen und Gefahren umzugehen gedenkt. Ein umgehendes internationales Verbot bewaffneter Drohnen wäre sicher die beste Lösung. Doch die Chancen dafür sind vermutlich sehr gering. Deshalb muss die Bundesregierung zumindest alles daran setzen, den absehbaren Gefahren mit geeigneten Rüstungskontrollmaßnahmen die Spitze zu nehmen. Die Regierung sollte zum Beispiel Exportrichtlinien für Drohnentechnologie verschärfen und sich für ein internationales Verbot autonomer Systeme einsetzen.
Noch zeigt die Bundesregierung hier kein Engagement. Es wäre aber verantwortungslos, bewaffnete Drohnen für die Bundeswehr zu beschaffen, ohne diese Mindestanstrengungen zu unternehmen.
Niklas Schörnig, 1972 geboren, studierte Volkswirtschaftslehre, Politikwissenschaften und Germanistik an der Johann Wolfgang Goethe-Universität Frankfurt. Er arbeitet für die Hessische Stiftung Friedens- und Konfliktforschung (HSFK) und forscht zur Kriegsführung demokratischer Staaten sowie zur Technisierung und Automatisierung des Krieges.
Jetzt will Verteidigungsminister de Maizière bewaffnete Drohnen für die Bundeswehr anschaffen und auch sein Optimismus ist groß. Zu Recht? Wohin führt die rasante technische Entwicklung der Drohnen?
Aktuelle Modelle wie die amerikanische "Reaper" (zu deutsch: "Sensenmann") werden ferngesteuert oder per Fernsteuerung überwacht: Dabei können die Piloten dank Satellit unter Umständen sogar tausende Kilometer entfernt sein. Das Steuersignal braucht einen Augenblick, um die Drohne zu erreichen. Das fällt nur dann nicht ins Gewicht, solange der Gegner über keine Luftabwehr verfügt, wie etwa in Afghanistan. Aus Sicht der amerikanischen und europäischen Rüstungsindustrie sind die "Reaper"-Drohnen deshalb längst überholt.
Künftige Kampfdrohnen sollen all das tun, was heute bemannte Kampfflugzeuge können – speziell Luftkampf und Angriffe gegen Bodenziele im umkämpften Luftraum. Dann kommt es auf Sekundenbruchteile an. Eine ferngesteuerte Drohne ist dafür zu träge. Das bedeutet, dass nicht mehr der Pilot in der Ferne, sondern der Computer in der Drohne die Entscheidungen autonom treffen muss.
Und damit hätte die Industrie noch ein weiteres Risiko herkömmlicher Drohnen gebannt: dass bislang das Steuersignal gestört und so ein Missionsabbruch erzwungen werden könnte. Die Konsequenz ist, dass Drohnen schon aus militärischer Logik heraus selbstständig entscheiden müssen, ob sie feuern oder nicht, ob sie Menschen töten oder nicht.
Nach Aussagen von Verteidigungsminister de Maizière sind solche Szenarien ausgeschlossen: Er behauptet, die Entscheidung über einen Waffeneinsatz werde am Ende immer von einem Menschen getroffen. Das sind hehre Wünsche, die an zukünftigen Einsatzerfordernissen scheitern werden – schon allein, weil auf die Entwicklung bemannter Flugzeuge im Westen fast vollständig verzichtet wird.
Aus dem Zwang zu Autonomie ergeben sich viele neue Fragen, die bislang unbeantwortet sind. Ist es ethisch in Ordnung, einem Computer die Entscheidung über Leben und Tod zu überlassen? Wer übernimmt die Schuld, wenn etwas schief geht: Ist der Offizier verantwortlich oder die Programmierer? Und: Ist ein Krieg aus "Versehen" möglich, wenn autonome Systeme verfeindeter Staaten mit unbekannter Programmierung aufeinandertreffen? Besonders wichtig ist aber die Frage: Wie sicher sind solche Systeme vor Manipulation und Hacking?
Schon jetzt setzt die Rüstungsindustrie aus Kostengründen oft zivile Komponenten ein, zum Beispiel Mikrochips, die Hackern viele Angriffspunkte bieten. Selbst die besonders gut geschützten Steuerkonsolen der amerikanischen Drohnen-Systeme sind 2011 Opfer einer Computervirenattacke geworden. Mit zunehmender Automatisierung wird die eingesetzte Software immer komplexer und bietet entsprechend immer neue Sicherheitslücken, in die Gegner, Hacker oder Terroristen stoßen können. Die menschlichen und politischen Folgen nur eines einzigen manipulierten Schusses können aber verheerend sein. Man stelle sich nur vor, eine von Hackern ausgelöste Rakete träfe eine Schule oder ein Krankenhaus.
Man darf von der Bundesregierung durchaus Antworten erwarten, wie sie mit all diesen Problemen und Gefahren umzugehen gedenkt. Ein umgehendes internationales Verbot bewaffneter Drohnen wäre sicher die beste Lösung. Doch die Chancen dafür sind vermutlich sehr gering. Deshalb muss die Bundesregierung zumindest alles daran setzen, den absehbaren Gefahren mit geeigneten Rüstungskontrollmaßnahmen die Spitze zu nehmen. Die Regierung sollte zum Beispiel Exportrichtlinien für Drohnentechnologie verschärfen und sich für ein internationales Verbot autonomer Systeme einsetzen.
Noch zeigt die Bundesregierung hier kein Engagement. Es wäre aber verantwortungslos, bewaffnete Drohnen für die Bundeswehr zu beschaffen, ohne diese Mindestanstrengungen zu unternehmen.
Niklas Schörnig, 1972 geboren, studierte Volkswirtschaftslehre, Politikwissenschaften und Germanistik an der Johann Wolfgang Goethe-Universität Frankfurt. Er arbeitet für die Hessische Stiftung Friedens- und Konfliktforschung (HSFK) und forscht zur Kriegsführung demokratischer Staaten sowie zur Technisierung und Automatisierung des Krieges.