KI-Entwickler zu Killerrobotern

Schaffung autonomer Waffen "nicht vollständig zu stoppen"

Eine unbemannte Kampfdrohne der US-Air-Force (MQ-1 Predator) fliegt in der Nähe eines logistischen Flughafens in Südkalifornien.
Eine unbemannte Kampfdrohne der US-Air-Force (MQ-1 Predator) im Jahr 2012 - sie wird von einer Bodenstation aus gesteuert. Kriegsgerät, das ganz ohne menschliche Steuerung auskommt, ist bereits in der Entwicklung. © dpa picture alliance / Tsgt Effrain Lopez
Jürgen Schmidhuber im Gespräch mit Nicole Dittmer |
Schießende Roboter oder unbemannte Drohnen - autonome Kriegsmaschinen sind längst in der Entwicklung. Bei einer UN-Konferenz geht es nun um die Frage, ob sie verboten werden sollen. Informatiker Jürgen Schmidhuber sagt, er sei dafür. Allerdings gebe es Gefährlicheres.
Kriegsmaschinen, die sich selbst in Marsch setzen und Menschen töten, sogenannte Killerroboter, sind kein Science-Fiction, sondern längst in der Entwicklung. Ob schießende Roboter oder unbemannte Drohnen - Künstliche Intelligenz (KI) wird es möglich machen, dass sie sich selbst ihr Ziel suchen und über Leben und Tod entscheiden.
Gestritten wird über diese Technologie schon lange - seit diesem Montag erneut. Bei einer mehrtägigen UN-Konferenz in Genf geht es um die Frage: Sollen solche tödlichen autonomen Waffensysteme verboten werden?
Jürgen Schmidhuber ist Koordinator am Schweizer Forschungsinstitut für Künstliche Intelligenz und weltweit einer der führenden KI-Entwickler. Er war bereits mehrfach Mitunterzeichner öffentlicher Aufrufe zu den Gefahren tödlicher autonomer Waffensysteme, in denen es u.a. hieß, Künstliche Intelligenz sei die größte existenzielle Bedrohung für die Menschheit. Man müsse sich Sorgen machen, meint Schmidhuber.

Maximales Level an Selbstzerstörungskraft lange erreicht

In den letzten Jahren seien neuronale Netzwerke entwickelt worden, die durch Erfahrung lernen, Muster zu erkennen wie etwa Gesichter, feindliche Flugzeuge, Verkehrszeichen oder Gläser, so Schmidhuber. Die Spracherkennung auf dem Smartphone laufe etwa über ein solches neuronales Netzwerk, an dessen Entwicklung er beteiligt gewesen sei.
"Dasselbe Netzwerk kann man auch dazu verwenden, um Drohnen zu steuern und vielleicht besser ins Ziel zu führen. Und besser Gesichtserkennung zu betreiben, damit nur der böse Terrorist erwischt wird und nicht seine umstehenden Familienangehörigen usw, usw."
Solche Dinge würden durch lernende neuronale Netzwerke jetzt langsam möglich.
"Im Prinzip wäre mir lieb, wenn da ein Stopp dieser Entwicklung wäre. Ich glaube nicht, dass das Ganze vollständig zu stoppen ist."
Zugleich sei er überzeugt, dass die KI-Waffen keine neue Dimension der Selbstzerstörung einführen, erläuterte Schmidhuber. Das maximale Level an Selbstzerstörungskraft sei bereits vor mehr als einem halben Jahrhundert erreicht worden: durch Wasserstoffbomben und -raketen. Davon existierten immer noch genügend, "um die Menschheit innerhalb von ein paar Stunden vollständig auszulöschen, die gesamte Zivilisation zu vernichten - ganz ohne KI".
Doch jetzt würden eben neue Möglichkeiten eröffnet, so Schmidhuber.
"Und da muss man sich Gedanken machen, wie das kanalisiert wird und wie man damit gut umgeht."
(abr)
Mehr zum Thema