Adrian Lobe hat in Tübingen, Paris und Heidelberg Politik- und Rechtswissenschaften studiert und arbeitet als freier Journalist. 2016 wurde er für seine Artikel über Datenschutz und Überwachung mit dem Preis des Forschungsnetzwerks "Surveillance Studies" ausgezeichnet, 2017 erhielt er für den Artikel "Wir haben sehr wohl etwas zu verbergen!" den ersten Journalistenpreis der Stiftung Datenschutz.
Beherrscht uns künftig künstliche Intelligenz?
Roboter können besser argumentieren und Schach spielen. Und in Japan hat einer sogar für ein Bürgermeisteramt kandidiert. Dass Maschinen immer schlauer werden, ist aber nicht gefährlich, meint Adrian Lobe. Sondern, dass der Mensch sein Denken abschaltet.
Vor wenigen Wochen hat Google einen KI-Assistenten namens Duplex präsentiert, der autonom Telefongespräche führen und Termine vereinbaren kann. Das Verblüffende: Der Roboter hört sich am Telefon wie ein Mensch an.
Der virtuelle Assistent ist so programmiert, dass er Verlegenheitslaute wie "ähm" oder auch "hm" in das Gespräch einstreut und Kunstpausen - besser gesagt: künstliche Pausen - einlegt, um menschlicher zu wirken. Der Gesprächspartner am anderen Ende der Leitung weiß nicht, dass er mit einem Roboter telefoniert. Die Maschine hätte damit den sogenannten Turing-Test, also das Beweisverfahren für künstliche Intelligenz, bestanden.
Künstliche Intelligenz kandidierte als Bürgermeister
Die Entwicklung künstlicher Intelligenzen schreitet in atemberaubendem Tempo voran. Computer spielen besser Schach, Go und Poker als der Mensch, und auch die letzte Bastion menschlichen Denkens, die hohe Kunst der Rede, wackelt bedenklich. IBMs Konversations-KI "Project Debater" war in einem Rededuell dem menschlichen Kontrahenten ebenbürtig. Und zwar so ebenbürtig, dass eine unabhängige Interessenorganisation IBMs Superrechner Watson gleich als US-Präsidentschaftskandidaten nominieren wollte. Nach dem Motto: Lieber eine berechenbare Maschine als ein unberechenbarer Mensch im Weißen Haus.
In Japan kandidierte kürzlich eine KI um den Posten als Bürgermeister von Tama, einer Stadt in der Präfektur von Tokio. Der Roboterkandidat erhielt 4013 Stimmen und landete auf Platz drei. Werden wir bald von Robotern regiert? Wird die Menschheit von hyperintelligenten Denkmaschinen unterjocht? Und was passiert, wenn KI außer Kontrolle gerät?
Tesla-Chef Musk warnt vor Drittem Weltkrieg mit Killerrobotern
Der Philosoph Nick Bostrom hat dazu ein interessantes Gedankenexperiment entwickelt: Angenommen, eine künstliche Intelligenz wird darauf programmiert, Büroklammern zu produzieren. Wenn ihr nicht vorgeschrieben wird, wann sie mit der Produktion aufhören soll, fährt sie damit fort, bis alle Energiereserven erschöpft sind und der Planet sich in eine Büroklammerwüste verwandelt hat?
Die apokalyptischen Szenarien gehen in zwei Richtungen: Die KI verselbständigt sich und wiederholt in ihrer programmierten Stupidität Dinge, die der Mensch nicht mehr stoppen kann. Oder: Der vom Menschen induzierte Wettlauf um die beste KI mündet in einer militärischen Auseinandersetzung. Tesla-Chef Elon Musk warnte gar vor einem Dritten Weltkrieg durch KI. Ein kybernetischer Krieg, ausgefochten von kühl kalkulierenden Killerrobotern, das wäre die ultimative Techno-Dystopie.
Der Mensch läuft zunehmend auf Autopilot
Allein, etwas mehr Nüchternheit täte in der KI-Debatte Not. Die eigentliche Gefahr besteht nicht darin, dass Denkmaschinen immer schlauer werden. Sondern darin, dass der Mensch sein eigenes Denken abschaltet – und sich abschafft.
Der Mensch läuft immer mehr auf Autopilot: Folgt wie ferngesteuert seinem Navi. Spult mechanisch Formeln und Skripte ab. Pickt wie Tauben in der Skinner-Box Informationshäppchen auf. Und kommuniziert in Maschinencode wie Emojis. Schlimmer noch: Der Mensch delegiert Wertentscheidungen an Maschinen, die gar nicht denken können. Künstliche Intelligenz simuliert das Denken nur – das berechnende System führt das aus, wozu es programmiert wurde.
Der Rechtswissenschaftler Brett Frischmann und der Philosoph Evan Selinger stellen in ihrem neuen Buch "Re-Engineering Humanity" die These auf, dass der Turing-Test heute umgekehrt gedacht werden müsse: Die Frage sei nicht, ob Maschinen menschenähnlich werden, sondern ob der Mensch maschinenähnlich und programmierbar werden könnte. Die Techno-Utopien des Silicon Valley, die den Menschen zum Cyborg aufrüsten und bedienbar machen wollen, sollten uns daher mehr beunruhigen als die Angst vor vermeintlichen Superintelligenzen.