Abschlussbericht der KI-Enquete-Kommission

"Keine Verantwortungsträger, sondern Maschinen"

15:26 Minuten
Zwei menschlich aussehende Roboter, einer trägt Kopfhörer, der andere eine Sonnenbrille.
Künstliche Intelligenz sei eigentlich "dumm wie ein Knäckebrot", sagt der Medienethiker Alexander Filipović. Eine Expertenkommission hat jetzt einen Bericht über Chancen und Risiken von KI vorgelegt. © Getty / Westend61
Moderation: Vera Linß und Marcus Richter |
Audio herunterladen
Künstliche Intelligenz birgt riesige Chancen für die Zukunft, aber auch Gefahren. Jetzt hat sich eine Expertenkommission des Bundestages mit dem Thema befasst. Nicht alle Mitglieder sind mit dem Ergebnis zufrieden.
Am 3. November hat die Enquete-Kommission "Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale" des Deutschen Bundestags ihren Abschlussbericht vorgelegt.
Vor über zwei Jahren wurde der Einsatz der Kommission beschlossen. Zielsetzung war es, "den staatlichen Handlungsbedarf auf nationaler, europäischer und internationaler Ebene zu identifizieren und zu beschreiben, um einerseits die Chancen der KI wirtschaftlich und gesellschaftlich nutzbar zu machen und ihre Risiken zu minimieren."
Also einmal alles, könnte man sagen, zu einem ja doch recht komplexen Thema. Entsprechend umfangreich ist der Abschlussbericht: Auf 794 Seiten haben die 38 Mitglieder – zur Hälfte Politikerinnen und Politiker und Expertinnen und Experten – ihre Ergebnisse zusammengetragen.

Als "unzureichend" kritisiert

Doch schon vor Veröffentlichung kündigte der Sachverständige Florian Butollo an, sich zu enthalten, dem Abschlussbericht also seine Zustimmung zu verweigern. Butollo ist Soziologe, arbeitet beim Weizenbaum-Institut zum Verhältnis von technischem Wandel und den Veränderungen der Arbeitswelt.
Auf Twitter hatte er den Bericht als unzureichend bemängelt und kritisiert, dass der Staat nur reaktiv reagiert und dass es eher um Verwertungsmöglichkeiten, als um gesellschaftliche Debatten ging.
Butollo sagt: "Wenn wir eine Kommission haben, die sich damit auseinandersetzt, wie eine epochale Technologie im Sinne gesellschaftlicher Verantwortung gestaltet werden kann, dann müssen genau diese Fragen rein: Die Frage der Monopolisierung, die Frage der ökologischen Trendwende, die Frage des sozialen Ausgleichs. Und das sind keine Themen, die jenseits der Technologie liegen sollen, sondern die eben unmittelbar damit verknüpft sind, wie sie entwickelt, eingesetzt und und verwertet wird."

Ergebnis eines demokratischen Prozesses

Eine weitere Sachverständige in der Enquete-Kommission war Katharina Zweig. Sie ist Professorin an der Technischen Universität (TU) Kaiserslautern und leitet dort das Algorithm Accountability Lab.
Zweig sieht in dem Abschlussbericht kein Versagen, sondern das natürliche Ergebnis des Arbeitsweise: "Der Prozess war demokratischer Natur. Das heißt, alle Texte wurden dem Plenum vorgelegt und konnten an dieser Stelle auch immer mit Änderungsanträgen verändert werden. Aber wenn sich eine Mehrheit dafür findet, die Änderungen nicht mitzutragen oder mitzutragen, dann werden natürlich Minderheitenmeinung nicht berücksichtigt."

Auch Enthaltungen gehören dazu

Auch die Enthaltung von Butollo sei einfach ein Ergebnis der demokratischen arbeitsweise der Kommission. So sieht das zumindest Enquete-Mitglied und Medienethiker an der Hochschule für Philosophie Münster, Alexander Filipović.
"Es ist kein wissenschaftliches Gremium, sondern letztlich ein politisches. Da finde ich auch gut, dass Florian Butollo dann sagt: Ich kann das jetzt nicht mittragen", erläutert Filipović. "Ich hätte es gerne anders gemacht und kann das nicht in der Weise unterstützen. Aber gut, er hatte auch mit abgestimmt und hat sich eingebracht und auch durch seine Arbeit geprägt. Also steckt eine Menge Butollo drin – wie von jedem anderen in diesem Text. Von daher würde ich das nicht so dramatisch sehen."

Politisch gefärbt

Mit der inhaltlichen Arbeit war Butollo sogar zufrieden. Doch durch den demokratischen Prozess und die Zusammensetzung des Gremiums von Expertinnen und Experten mit Politikerinnen und Politikern sei der Bericht ein politischer und kein wissenschaftlicher.
"Dieser Bericht wirkt nach innen und nach außen. Einfach durch die Tatsache, dass die Abgeordneten selber Teil dieses Prozesses sind und dann innerhalb der Fraktion auch diejenigen sein werden, die zum großen Teil konsultiert werden", erklärt Butollo. "Also das ist eine Funktion, die eine Enquete-Kommission einnimmt. Wir kennen jetzt die Debatten, wir kennen auch die Differenzen und die Gestaltungsfelder."
Mit knapp 800 Seiten klingt es erst einmal so, als würde der Bericht sich ausführlich mit dem Themenfeld auseinandersetzen. Doch eine genaue Definition des Begriffs "KI" wird bewusst nicht geliefert, dazu sei das Feld einfach zu groß, sagt Katharina Zweig.
"Künstliche Intelligenz ist auf der einen Seite ein Forschungsfeld und umfasst ein bestimmtes Forschungsziel: Nämlich Computern zu ermöglichen, Dinge zu tun, die, wenn ein Mensch sie täte, Intelligenz erforderten. Unter KI versteht man aber auch diese Methoden selber. Und drittens die Systeme, die dann den Computer in Anführungszeichen schlau machen", stellt Zweig klar.

KI hat kein Bewusstsein

Alexander Filipović ist in der Diskussion sehr wichtig, dass der "KI" keine übermäßige Bedeutung und Wirkmacht zugeschrieben wird und immer bewusst bleibt, was KI nicht kann.
"Ich habe mir gewünscht die philosophische Perspektive einzubringen, um zu sagen, wir haben es nicht mit Verantwortungsträgern, sondern mit Maschinen zu tun. Auch die schlaueste Künstliche Intelligenz ist dumm wie ein Knäckebrot. Das ist kein Bewusstsein und kein Mensch. Und deswegen können wir auch nicht davon reden, dass da in einem anspruchsvollen Sinne Entscheidungen getroffen werden. Deswegen müssen wir aber auch sagen, dass KI-Systeme keine Verantwortung übernehmen können, weil nur Menschen das können."

Nur so gut, wie die verfütterten Daten

Ein Thema, das bei Diskussionen um KI immer wieder aufkommt, ist die Gefahr, die durch schlechte Datensätze entsteht. Dadurch können Vorurteile in den Entscheidungsprozess der Systeme einfließen, die in Diskriminierung enden.
Doch obwohl diese öffentlich immer wieder in der Debatte steht, wird sie von der Enquete-Kommission nur nebensächlich behandelt. Im Kurzbericht spielt sie eine kurze Rolle – und da auch nicht im eigenen Kapitel "Daten", sondern ganz weit unten bei "Mensch und Gesellschaft". Auch in den offiziellen Meldungen der Kommission hat man nicht den Eindruck, dass die Themen Diskriminierungsfreiheit oder Bias von Daten im Vordergrund steht.
Trotzdem sagt Filipović, dass diese Gefahr ausreichend berücksichtigt wurde: "Wenn man den Gesamtbericht anguckt, dann kommt das Thema Bias und Daten an mehreren Stellen vor: Im Ethikteil gibt es einen extra Abschnitt über Bias und es gibt 'Mensch und Gesellschaft'. Und dann kommt es in den jeweiligen Projektberichten auch meistens noch einmal vor. Das steht jetzt nicht ganz oben drüber, aber ich glaube nicht, dass das unterreflektiert ist. Ich glaube, die grundlegende Problematik, dass die KI nur so gut sein kann, wie die Daten, ist mittlerweile jedem klar. "

Bürgerinnen und Bürger müssen wachsam sein

Ein Thema, das prominenter platziert ist, ist die Frage, was KI entscheiden darf und was nicht. Die Informatikerin und Sachverständige Katharina Zweig plädiert für eine Risikomatrix: Dort werden algorithmische Systeme nach Gefährlichkeit klassifiziert. Eine KI, die Schrauben sortiert, muss nicht verhandelt werden, sagt sie. Wenn es um die Frage geht, wer eingestellt werden soll oder ob man Sozialgeld bekommt, schon.
Die komplette Enquete-Kommission Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale
Die Enquete-Kommission hat zwei Jahre lang getagt und jetzt ihren Abschlussbericht vorgelegt.© Deutscher Bundestag / Achim Melde
Im Abschlussbericht ist der Konsens zu sehen, dass Algorithmen nur begrenzt eingesetzt werden sollen und im Zweifel das letzte Wort immer Menschen haben – und dass Betroffene immer das Recht haben einer KI-Entscheidung zu widersprechen.
Aber dieses Konzept hat Grenzen, sagt Zweig: "Wir sind gerade dabei, dazu, Forschungsdaten zu sammeln. Ich bin skeptisch, dass das 'Human in the Loop'-Konzept funktioniert."
Und sie fährt fort: "Die Erfahrungen aus der Psychologie zeigt eben, dass eine Verantwortungsdelegation an die Maschinen wahrscheinlich ist. Und tatsächlich müssen wir als Bürgerinnen und Bürger alle an dieser Stelle darauf drängen, dass die sozialen Prozesse um die Nutzung eines solchen Systems auch wirklich so sind, dass wir uns beschweren können, dass wir das verstehen."
Mehr zum Thema