J. Nida-Rümelin/N. Weidenfeld: "Digitaler Humanismus"

Der Mensch ist und bleibt etwas Besonderes

Buchcover Julian Nida-Rümelin, Nathalie Weidenfeld, "Digitaler Humanismus"
Julian Nida-Rümelin, Nathalie Weidenfeld, "Digitaler Humanismus" © imago stock&people/Piper/Deutschlandradio
Von Vera Linß |
Kann Künstliche Intelligenz moralisch urteilen, wird es Software mit eigenem Bewusstsein geben? Die Kulturwissenschaftlerin Nathalie Weidenfeld und der Philosoph Julian Nida-Rümelin antworten auf solche Fragen klipp und klar mit: Nein.
Was genau unterscheidet Künstliche Intelligenz vom Menschen? Je mehr sie uns umgibt, desto mehr wird das Wesen von KI zum Gegenstand von Debatten. Erwecken doch sprechende Assistenten wie Alexa, selbstfahrende Autos oder etwa Sexroboter in Japan den Anschein, als würden Computer dem Menschen immer ähnlicher werden. Das Spektrum der Überlegungen reicht von der Dystopie einer KI als eine dem Menschen bald überlegene Daseinsform, wie sie der Physiker Max Tegmark vorhersagt, bis zur nüchternen Analyse der Philosophin Manuela Lenzen, der es um die Funktionsweise von Computerprogrammen geht.

Werden Maschinen moralisch urteilen können?

Für den ehemaligen Kulturstaatsminister Julian Nida-Rümelin und seine Frau, die Kulturwissenschaftlerin Nathalie Weidenfeld ist in der Debatte eine andere Frage zentral: Können Künstliche Intelligenzen und Menschen jetzt oder vielleicht zukünftig miteinander gleich gesetzt werden? Ihre Antwort darauf: ein kategorisches Nein! Zur Begründung entwickeln der Philosoph und die Kulturwissenschaftlerin das Konzept eines "digitalen Humanismus". Dieser, so ihr Credo, transformiere den Menschen nicht in eine Maschine und interpretiere Maschinen nicht als Menschen. Der Mensch sei und bleibe etwas Besonderes.
Zwei Ansätze führen die beidem zu ihrem Postulat, dass es keine gute Idee ist, anzunehmen, KI könne jemals so ticken wie ein Mensch. Zum einen sei diese Annahme sachlich falsch, zum anderen sei sie ethisch nicht vertretbar. Beispiel Autonomie. Anders als Menschen könnten Künstliche Intelligenzen nicht autonom handeln, da sie vorgeschriebenen Programmen folgen müssten. Menschen hingegen seien Akteure, versehen mit der Fähigkeit, Gründe abzuwägen und ihre Handlungen danach auszurichten. Auch an moralischer Urteilskraft fehlt es den Maschinen, argumentieren Nida-Rümelin und Weidenfeld. Der Grund: Sie hätten keine Gefühle, kein moralisches Empfinden und keine Intentionen, auf die sie zurückgreifen können.

Brauchen Roboter eigene Grundrechte?

Ihre philosophischen Argumente illustrieren die beiden Wissenschaftler mit Zitaten und Bildern aus bekannten Science-Fiction-Filmen wie "Matrix" oder "AI" – ein kluger Dreh, mit dem sie das Theoretische veranschaulichen und plausibel machen. Die Absolutheit, mit der sie Mensch und Maschine für alle Ewigkeit voneinander abgrenzen wollen, hat allerdings auch etwas Spekulatives. Noch ist etwa unerforscht, wie überhaupt Bewusstsein entsteht.
Zwingend dagegen wird ihre Argumentation, wenn es um die ethischen Konsequenzen der Unterscheidung von Mensch und Maschine geht. Denn ethisch betrachtet ist deren kategorische Trennung – zumindest aus heutiger Perspektive – alternativlos, wie Nida-Rümelin und Weidenfeld überzeugend an einigen Beispielen verdeutlichen. Würde man KI etwa wie dem Menschen ein Selbstbestimmungsrecht zugestehen, dürfte man sie auch nicht manipulieren, sprich: ihr vorschreiben, was sie zu tun hätte. Wir müssten ihr Würde zugestehen wie einem Menschen. Auch Grund- und Menschenrechte müssten dann angewendet werden. Dies so grundsätzlich zu Ende gedacht zu haben, ist ein Verdienst dieses Buches, das dazu beiträgt, die Debatte um KI zu erden.
Mehr zum Thema