Künstliche Intelligenz
Der Mensch vergleicht sich gern mit anderen Lebensformen und auch mit solchen, die es eines Tages vielleicht werden könnten, wie Maschinen. © IMAGO/YAY Images
Maschinen ohne Seele
19:02 Minuten
Google-Wissenschaftler haben das größte, bislang existierende Sprachmodell vorgestellt. Wofür es genutzt werden kann, ist noch offen. Trotzdem klingt der Aufstieg von KI irgendwie bedrohlich. Was sagt das über uns Menschen aus?
Das Verhältnis zwischen Mensch und Maschine dürfte in den nächsten Jahren komplexer werden. Anlass dafür geben uns Wissenschaftler von Google. Die haben Anfang April in einem Blogpost das größte, bislang existierende Sprachmodell vorgestellt. Das Pathway Language Model, kurz PALM.
Dort heißt es, Google habe ein künstliches neuronales System – eine Art KI – erschaffen, das mehr als 540 Milliarden Parameter enthält und damit deutlich mehr als vergleichbare Modelle, wie GPT-3 von OpenAI oder Gopher, das von Googles Tochter DeepMind entwickelt wurde.
Im Ergebnis soll PALM bei Frage-Antwort-Tests, bei Satzvervollständigungen oder bei Aufgaben zum Leseverstehen seiner Konkurrenz überlegen sein. In einzelnen Tests soll die KI sogar auf dem Niveau des Sprachverständnisses eines 11-jährigen Kindes liegen.
Aljoscha Burchardt vom Deutschen Forschungszentrum für Künstliche Intelligenz erklärt, dass dies über ein statistisches Modell funktioniert, indem die Systeme lernen, das nächste Wort vorherzusagen. Dazu werden sie mit einer Art Lückentext trainiert, bis sie möglichst präzise sind.
Schwer überprüfbare Behauptungen
Auch PALM setzt auf diese Methoden und unterscheidet sich dadurch technisch nicht von anderen Sprachmodellen, nur dass hier deutlich mehr Kapazitäten vorhanden sind. Mehr Parameter werden mit mehr Daten gefüttert und entsprechend skaliert das System mehr nach oben.
Doch ob die von Google versprochene Steigerung tatsächlich von neuer Qualität ist, sei gar nicht so leicht zu beantworten, meint Burchardt. Denn das ganze Feld sei noch so neu, dass es aktuell keine Testverfahren gebe, um die Sprachmodelle tatsächlich objektiv zu prüfen.
Und auch wenn die Leistungen dieser Künstlichen Intelligenzen beeindruckend sind: Es ist noch unklar, welches Problem sie überhaupt lösen können, meint zumindest David Schlangen von der Universität Potsdam:
“Was interessant an dieser ganzen Forschungsrichtung ist, ist, dass die Anwendungen dafür noch gar nicht so klar sind. Das ist momentan noch so ein bisschen ein Insider-Spiel, wo eine Gruppe versucht, besser zu sein als die andere.”
Ein Werkzeug noch ohne Einsatzzweck
Das Ganze bewegt sich also noch auf der Ebene der Grundlagenforschung. Sicher ist einiges vorstellbar. Maschinelle Übersetzungen zum Beispiel. Aber es gibt auch konzeptuell offene Fragen. Nämlich, was will man überhaupt, das damit gemacht wird?
Wäre es etwa eine gute Idee, das Modell in der Praxis dafür zu nutzen, um sich Fragen beantworten zu lassen. Denn Menschen können im Gegensatz zur Maschine ihre Antworten begründen. Wenn eine Maschine befragt wird, berechnet diese ihre Antwort lediglich. Kann man das als bedeutungsvolle Antworten ansehen?
David Schlangen von der Universität Potsdam sieht das kritisch. Als Beispiel zieht er die Google-Suche heran und erklärt, dass Sprachmodelle wie PALM in einem gewissen Prozentsatz der Fälle Fragen falsch interpretieren und danebenliegen. Gleichzeitig seien sie nicht in der Lage zu zeigen, wann sie sicher sind und wann einfach nur geraten wurde. Deshalb sei der Schritt zur tatsächlichen Anwendbarkeit gar nicht so offensichtlich, wie es in Presseerklärungen oft klingt.
Umso erstaunlicher ist, dass im Zusammenhang mit KI immer wieder Vergleiche mit echten Menschen gezogen werden. Wenn man die 540 Milliarden Parameter nimmt, die PALM hat und einen Parameter wie ein Neuron betrachtet, dann hat das menschliche Gehirn zwischen 60 und 90 Milliarden Neuronen. Gleichzeitig kann es damit aber viel komplexere Sachen machen als diese Modellierungen.
Der Mensch vergleicht sich gern mit der Maschine
Der Computer hat die Effizienz des menschlichen Gehirns also noch bei weitem nicht. Dennoch gibt es diesen Vergleich. Das liegt zum Teil an sogenannten emergenten Eigenschaften, die ungeplant entstehen. Dass die KI etwas macht, was nicht geplant und nicht nachvollziehbar ist.
Den Drang des Menschen, sich mit der Maschine zu vergleichen, gibt es allerdings schon seit Jahrhunderten. Mit diesem Phänomen hat sich der Psychoanalytiker und Philosoph Daniel Strassberg in seinem Buch "Spektakuläre Maschinen” auseinandergesetzt.
"Seit es im Westen so etwas wie Selbstreflexion gibt, sucht er ein Vergleichsobjekt, das ihn auszeichnet von allen anderen Gattungen. Früher war das das Tier. Die Maschine scheint in den letzten Jahrzehnten das Tier abgelöst zu haben in dieser Folie, auf der man das Alleinstellungsmerkmal sucht”, erklärt er.
Der Unterschied von Mensch und Maschine
Der Mensch möchte also wissen: Was macht mich einzigartig? Diese Frage hat zum einen juristische Gründe. Es geht um Abgrenzung. Tiere darf man schlachten, Menschen nicht. Was die Maschine betrifft, wird ja auch diskutiert: Welche Verantwortung wird ihr auferlegt? Etwa bei selbstfahrenden Autos.
Der zweite Punkt: Eine Eigenschaft, die den Menschen vom Tier unterscheidet, ist, dass Tiere keine Seele haben. Und die Seele steht beim Menschen für den Bezug zum Göttlichen. Diesen will der Mensch für sich haben. Und das auch mit Blick auf die Maschine, meint Strassberg:
"Der Gegenbegriff der Maschine ist die Seele geworden. Die Maschine gilt ja als seelenlos. Das ist seelenlose Technik, sagt man. Und wir wollen die einzigen sein, die eine Seele haben und zu diesem Transzendenten einen Zugang haben."
Dazu kämen noch andere Besonderheiten in Bezug auf die Maschine, sagt Daniel Strassberg. Er beschreibt drei Unterschiede zum Tier-Vergleich: Zum einen sei die Maschine vom Menschen gemacht. Der zweite Unterschied sei, dass der Mensch eine Maschine baut, die immer in mindestens einer Eigenschaft besser ist als er. Der dritte und wichtigste Unterschied bestehe darin, dass es sich bei Maschinen um ein “Moving Target” handele:
“Sobald man der Maschine einen Unterschied zuschreibt und eben sagt, der Mensch hat Sprache und die Maschine nicht, kommen die Ingenieure und bauen genau diesen Unterschied in die Maschine ein. Also da verändert sich dauernd etwas. Es gibt keinen fixen Unterschied. Ich glaube, dort liegt die eigentliche Furcht: Dass wir nie sicher sein können, dass es irgendetwas Fixes gibt, das die Maschine nicht hat.”
Maschinen haben nichts zu sagen
Doch was heißt das jetzt für Künstliche Intelligenz, um die es in den letzten Jahren viele Spekulationen gibt? Daniel Strassberg hält diesen Vergleich zwischen Mensch und Maschine für eine unsinnige Vorstellung. Ähnlich sieht das auch David Schlangen von der Universität Potsdam mit Blick auf das Google-Sprachmodell PALM – vor allem den Vergleich mit der Intelligenz eines 11-jährigen Kindes:
“Diese Modelle kommunizieren ja nicht. Die haben ja letztlich nichts zu sagen. Es ist schon auch irgendwie beeindruckend, dass die oft etwas produzieren, was wie eine gute Antwort auf diese Tests aussieht. Aber ein 11-jähriges Kind macht ja nicht nur ausschließlich Intelligenztests, sondern kann auch mit Sprache Dinge machen, wenn der Test vorbei ist oder mit Sprache nach etwas fragen oder sehr komplexe Dinge machen. Und das ist überhaupt nicht in der Reichweite dieser Modelle.”
(hte)