Hype um ChatGPT
Ist als freie Testversion verfügbar: der Chatbot ChatGPT. © picture alliance / NurPhoto / Jakub Porzycki
Was kann der Chatbot wirklich?
14:35 Minuten
Der Chatbot ChatGPT sorgt seit Tagen für Begeisterung im Internet. Er beantwortet Fragen erstaunlich gut, schreibt Gedichte oder bewertet Klassenarbeiten. Aber ist er wirklich so intelligent, wie er scheint? Wie funktioniert er und wo scheitert er?
Das Internet ist gerade voller Screenshots von Chats mit dem Bot ChatGPT. Er basiert auf dem Sprachmodell GPT3, das menschenähnliche Texte erzeugt. Die Abkürzung steht für Generative Pre-trained Transformer 3. Entwickelt wurde der Chatbot von OpenAI und ist während der Testphase kostenfrei verfügbar.
Wem ChatGPT bekannt vorkommt: Stimmt! Ganz neu ist GPT3 nämlich nicht. Schon vor zwei Jahren machte der beeindruckende Sprung in Sachen Chatbot-Technologie von sich reden. Damals durften aber nur ausgewählte Personen das Programm ausprobieren. Jetzt ist es offen für alle verfügbar – nicht als kommerzielle Software, sondern zum Rumprobieren – genau wie die Software Dall-E, bei der ein Computer automatisch Bilder kreiert. Auch diese Software stammt von OpenAI. Gründer des Unternehmens ist Elon Musk.
Was braucht es, um eine Radiosendung zu machen? Wer GPT3 diese Frage stellt, bekommt eine sinnvolle Antwort. „Zunächst einmal müssen Sie sich überlegen, welches Thema Ihre Sendung haben soll und wie sie strukturiert sein wird. Wenn Sie zum Beispiel eine Talk-Show planen, müssen Sie Gäste einladen und sich Fragen für das Gespräch überlegen“, sagt GPT3. Dann erwähnt der Chatbot Musikauswahl und Aufnahmetechnik.
Die Antwort klingt vielleicht nicht nach einer professionell geschrieben Anleitung und enthält ein bisschen viel Geschwafel, aber sie ist klar verständlich und bezieht sich wirklich auf die Frage. Wer einmal in einem automatisierten Support-Chat mit einem herkömmlichen Chat-Roboter festhing, der weiß, dass das keine Selbstverständlichkeit ist. Doch so selbstsicher die Antworten klingen – sie müssen nicht stimmen.
Es ist zum Beispiel möglich, ChatGPT Matheaufgaben zu stellen, die das System falsch beantwortet. Denn so clever und relevant das Gesagte klingt: Es handelt sich nicht um ein intelligentes System, erklärt Benjamin Grewe, Professor für Neuroinformatik an der ETH Zürich. „Überleg dir, du würdest in einem Turm sitzen, mit einem Buch mit chinesischen Zeichen. Du würdest nur diese Zeichen lesen. Du würdest aufwachsen in diesem Turm und du hättest nichts anders gesehen. Dann könntest du vielleicht irgendwann, wenn ich dir drei Zeichen gebe, die wahrscheinlich weiterschreiben“, erklärt Grewe das Prinzip von ChatGPT.
Dem Beispiel folgend spricht das System also kein Chinesisch, sondern hat einfach die Muster aus dem Buch erkannt. So funktioniert GPT3 – das ist das statistische Sprachmodell, auf dem ChatGPT aufbaut. Oder einfach gesagt: Es kann mit sehr hoher Wahrscheinlichkeit vorhersagen, welches Wort als nächstes kommt und liegt damit meistens richtig.
Dazu wurde mit möglichst vielen Daten gefüttert, um zu erkennen: Auf A folgt B. Wenn also Falsche Infos in den Datensätzen, die zum Lernen benutzt wurden, aufgetaucht sind, kann das Programm die Fehler nicht von sich selbst aus erkennen. Die Fähigkeit einen Kontext zu erkennen, fehlt GPT3.
Als kleiner Helfer könnte die Technologie bald vielen das Leben erleichtern. Zum Beispiel, indem es ganze Absätze eines Textes automatisch vervollständigt, nachdem am Computer nur wenige Worte geschrieben wurden. Auf diese Weise könnte in manchen Bereichen sehr viel effizienter und produktiver gearbeitet werden, meint Benjamin Grewe, Professor für Neuroinformatik.
Beispielsweise in der Pflegedokumentation im Krankenhaus. „Da könnte man solche Systeme hervorragend einsetzen“, sagt Aljoscha Burchardt vom Deutschen Forschungszentrum für künstliche Intelligenz Berlin. „Doch dann stellt sich immer die Frage: Reicht die Qualität? Kommen die Systeme mit dem Spezialvokabular klar? Wie passt man sie für eine wirkliche Aufgabe dann an?“
Auch beim Schreiben von Computercodes könnte GPT3 helfen. Kleinere Code-Bestandteile könnte GPT3 sicher schnell bauen, meint Burchardt. Die Frage sei allerdings, wie viel Arbeit es mache, die dabei entstandenen Fehler zu korrigieren. „Dieselbe Frage hatten wir vor ein paar Jahren bei der maschinellen Übersetzung, wo es für die Übersetzerinnen und Übersetzer manchmal rentiert, so eine Vorübersetzung mit dem System zu machen – und manchmal ist es aber zu viel Aufwand, den ganzen Text nochmal schöner und konsistenter zu machen, dass man sagt: Dann übersetzen wir lieber gleich von vorn.“
Auch beim Abgleichen von Meinungen könnte das System weiterhelfen: Ein Klassenlehrer ließ GPT3 alte Klausuren von Schülerinnen und Schülern bewerten. Dafür hat er das System zuvor mit seinen Bewertungskriterien gefüttert. Seine Noten und die des Systems lagen ziemlich nah beieinander.
Das System könnte unter anderem beim E-Learning ein automatisiertes Feedback geben, sagt Burchard. Interessant sei auch: „Wir wissen selbst vielleicht gar nicht so genau, was unsere Bewertungskriterien sind, und vielleicht helfen uns solche Systeme sogar, weil sie sich 100.000 Klassenarbeiten anschauen können, objektivere Kriterien rauszuholen, als wir es bisher gewusst haben. Auch erkenntnistheoretisch ist da sicherlich noch einiges drin.“
Bisher sind das aber nur Ideen: „Was einen wundert, ist, dass es noch keine Businessmodelle gibt, wo diese Systeme wirklich Nutzen leisten“, sagt Aljoscha Burchardt.
Ganz klar, ja, sagt Aljoscha Burchardt vom Deutschen Forschungszentrum für künstliche Intelligenz Berlin. Seine größte Sorge: Dass im Internet innerhalb kürzester Zeit zahlreiche irreale, computergenerierte Bilder und Texte entstehen, die jeglicher sachlichen Grundlage entbehren. Beispielsweise Bilder, auf denen der Kölner Dom neben dem Eifelturm steht. „Diese Texte und Bilder werden ja von der nächsten Generation von diesem KI-System wieder als Trainingsmaterial genutzt.“ Auf diese Weise würden sich Fehler verfestigen.
Deswegen sei es wichtig, die computergenerierten Dokumente zu kennzeichnen. „Dafür gibt es ja auch subtile Möglichkeiten wie Art Wasserzeichen, die man in Texte einbringen kann. Das merken wir Menschen gar nicht, aber ein anderes System kann beim Auslesen des Textes erkennen: Das ist der Output eines anderen Systems gewesen. Den muss ich nicht für bare Münze nehmen, wenn ich mich trainiere.“
(Hagen Terschüren, lkn)