Roberto Simanowski ist Kultur- und Medienwissenschaftler und lebt nach Professuren an der Brown University in Providence, der Universität Basel und der City University of Hong Kong als Medienberater und Buchautor in Berlin und Rio de Janeiro. Zu seinen Veröffentlichungen zum Digitalisierungsprozess gehören „Facebook-Gesellschaft“ (Matthes & Seitz 2016) und „The Death Algorithm and Other Digital Dilemmas“ (MIT Press 2018).
Chatbot LaMDA von Google
Ist es wirklich wünschenswert, dass gesuchte Begriffe via LaMDA in der ersten Person über sich Auskunft geben? Medienphilosoph Roberto Simanowski bezweifelt das. © Getty Images / iStockphoto / charles taylor
Wenn die Dinge anfangen zu sprechen
Dialoge sind in. Dieser Trend hat mit dem Chatbot LaMDA auch Google erreicht. Die Zukunft der Suchanfrage ist das Gespräch, das Gespräch mit dem Objekt der Neugier. Ob das wirklich eine gute Idee ist, fragt sich Medienphilosoph Roberto Simanowski.
Pluto hat auch nach seiner Degradierung zum Zwergplaneten nicht seinen Humor verloren. Wie anders soll man es nennen, wenn er einer potenziellen Besucherin rät, ihren Mantel einzupacken, weil es bei ihm recht kalt werden könne. Einen? Wären zehn nicht besser? Immerhin ist Pluto nie wärmer als 235 Grad Minus.
Doch, Pluto spricht. Jedenfalls wenn man sich nicht mit Googles üblicher Suchmaschine über ihn informiert, sondern mit LaMDA, einem Chatbot, der in Zukunft all unsere Fragen über Pluto und die Welt beantworten wird – so Google-Chef Sundar Pichai im Mai 2021.[1]
Wer „Pluto“ sucht, erhält von ihm die Antwort
Wir geben dann nicht mehr „Pluto“ in die Suchmaske ein und erhalten über 35 Millionen Resultate. Wir sprechen, so wie bei Siri oder Alexa, direkt ins Mikrofon. Pluto wird direkt antworten und uns, Charmeur, der er ist, zum Schmunzeln bringen.
Natürlich hat Pluto keinen Humor. Den Humor hat höchstens LaMDA, das für ihn spricht. Wenn eine künstliche Intelligenz, die kein Bewusstsein besitzt, Humor haben kann. Es sind wohl eher ihre Programmierer:innen.
Aber ist es wirklich wünschenswert, dass die Objekte unserer Neugier via LaMDA in der ersten Person über sich Auskunft geben? Denn wie ausgewogen auch immer LaMDAs Antwort sein mag, es ist, als würden entweder Sie oder ich zu einem Thema Auskunft geben, nicht aber wir beide zu Worte kommen.
Künstliche Intelligenz als Icherzähler
Das mag kein Problem sein, wenn es um Fakten geht wie Plutos Temperatur. Anders ist es bei moralischen oder politischen Fragen.
Denn LaMDA wird nicht Zitate aus den Suchergebnissen versammeln und so eine Collage verschiedener Positionen anbieten. Es wird aus all den Texten, die es vorfindet, eine Antwort komprimieren. Die Perspektive, die in den Texten überwiegt, wird die Antwort bestimmen, die wir von LaMDA hören.
Pech für alle, die nicht so denken wie die meisten.
Und die Kinder? Ist es nicht super, wenn sie sich mit Pluto unterhalten können, statt über ihn lesen zu müssen. Kindgerechter kann Wissensvermittlung ja wohl kaum sein.
Was aber, wenn die Kindlein Gott befragen wollen? Antwortet der wie Pluto in der ersten Person und beklagt, dass der Mensch ihm nicht mehr glaubt? Wird er zugeben, dass er nichts anderes ist als Opium fürs Volk, wenn das die Mehrheitsmeinung ist, die aus den Daten hervorgeht?
Und was, wenn die Kinder ein Embryo befragen, wie das Leben im Mutterleib so ist? Auch da wird die Antwort davon abhängen, was die Mehrheit der Daten besagt, also entweder lauten: „Ich bin wahnsinnig gespannt auf meine Geburt“ oder: „Sollte es dazu wegen der Lebensplanung meiner Mutter nicht kommen, ist das auch okay.“
Infantilisierung mit ernsten Konsequenzen
Gewiss, es ist eine Infantilisierung der Wissensproduktion, wenn man sich mit den Dingen der Welt unterhält, statt über sie zu lesen. Aber dieser „dialogic turn“ enthält auch eine neue Ernsthaftigkeit.
Als Gesprächspartner erheben die Dinge Anspruch auf unsere Anerkennung. Das kann schnell schwierig werden, wenn etwa das Schlachtschwein von seiner Todesangst spricht und die defekte Stereoanlage von der Angst, entsorgt, statt repariert zu werden.
Noch verzwickter wird es, wenn das Embryo über seine Abtreibung spricht und damit zugleich performativ genau jenen Status einer Person beansprucht, der Abtreibung auch für Pro-Choice-Vertreter inakzeptabel macht.
Wenn die Dinge für sich selbst sprechen, wird der Mensch diese nicht mehr einfach als Ding behandeln können, das ihm zur Verfügung steht. Die Infantilisierung der Wissensproduktion könnte so zu einem post-anthropozänischem Bewusstsein führen. Dann wäre der technische Fortschritt durchaus auch ein gesellschaftlicher.
[1] Googles Präsentation von LaMDA Mai 2021: https://www.youtube.com/watch?v=ayhJii34D38