Chatbots in Suchmaschinen
Microsoft wittert eine große Chance für seine Suchmaschine Bing und investiert Milliarden in ChatGPT. © IMAGO / ZUMA Wire / IMAGO / Andre M. Chang
Siegeszug einer schlechten Idee
14:07 Minuten
Der Wirbel um den KI-Chatbot ChatGPT ist so groß, dass Microsoft ihn sogar in seine Suchmaschine Bing integrieren möchte. Das macht Google so viel Angst, dass das Unternehmen nachziehen will. Dabei ist die Technologie überhaupt nicht dafür geeignet.
Höchster Alarm bei Google. Die Angst vor ChatGPT ist in dem Unternehmen so groß, dass sogar die Gründer Sergey Brin und Larry Page, die sich aus dem operativen Geschäft zurückgezogen hatten, als Berater zurückgeholt wurden. Denn zwar besitzt der IT-Konzern auch eigene Chatbots, aber noch hat er Bedenken, sie öffentlich zu machen.
”Wenn Google ein KI-Modell auf den Markt bringen würde, das toxisches Verhalten zeigen würde, dann hätte das ein weitgehendes Echo in der wissenschaftlichen Community und der Medienwelt. Das kann man sich als Techgigant einfach nicht erlauben.”
Diese sind auch nicht unberechtigt, sagt Jan Niehues, Professor für Robotik am Karlsruher Institut für Technik: “Ende letzten Jahres hat der Facebook-Konzern Meta seine Künstliche Intelligenz Galactica wieder offline genommen, weil sie Lügen fabriziert hat. 2016 musste Microsoft bereits einen Chatbot abschalten, weil er rassistische Inhalte ausspuckte.”
KI-Experte Niklas Kühl arbeitet ebenfalls am Karlsruher Institut für Technik und erklärt:
Google befindet sich also in einem „Innovator's Dilemma“: Die selbstentwickelte Technologie soll oder kann noch nicht verwertet werden. Jetzt wurde das Unternehmen aber von den Entwicklungen der Konkurrenz überrollt. Seine Strategie hat Google schon geändert und will mehr ins Risiko gehen. 20 neue Technologien sollen in der nächsten Zeit veröffentlicht werden.
Chatbots können Fakten nicht von Fake-News unterscheiden
Dabei ist es fragwürdig, ob Chatbots sich wirklich für den Einsatz in Suchmaschinen eignen. Denn damit die Systeme funktionieren, werden riesige Mengen Text analysiert –die gesamte Wikipedia macht beispielsweise nur fünf Prozent von GPT-3, der Text-Basis von ChatGPT, aus.
Bei diesem Prozess geht aber verloren, was die jeweilige Quelle für die ausgespielten Informationen ist, erklärt Ute Schmid vom Lehrstuhl für Kognitive Systeme an der Uni Bamberg.
Stattdessen werden aus diesen Inhalten sogenannte Übergangswahrscheinlichkeiten berechnet, die vorhersagen können, welches Wort vermutlich als nächstes in einem Text folgen würde. Die Technologie “weiß” also gar nicht inhaltlich, was sie von sich gibt, sondern ist nur sehr gut darin, zu erraten, was eine sinnvolle Antwort ergibt.
Das wird zu einem Problem, wenn viele Seiten Falschinformationen beinhalten, erklärt Ute Schmid:
“Wenn jetzt ganz viele Menschen behaupten würden, dass Melbourne die Hauptstadt von Australien ist, weil Melbourne ja eine sehr große Stadt ist und diese Information mehrheitlich vorhanden ist, dann würde ChatGPT auf die Frage: ‘Was ist die Hauptstadt von Australien?”, mit ‘Melbourne’ antworten.”
Neue Monopole könnten entstehen
Eine weitere Gefahr sieht die Wissenschaftlerin in den Kosten, die Chatbots verursachen. Das Training der Sprachmodelle sei sehr rechenintensiv und auch das Vorhalten der Technologie sei sehr teuer. Deshalb werde es schnell unwirtschaftlich, wenn viele Institutionen eigene Modelle trainieren würden.
Es entsteht also die Gefahr einer weiteren Monopolbildung im Markt. Deswegen fordert Ute Schmid:
“Was wir unbedingt brauchen, ist eine europäische Anstrengung, entsprechende Technologien selber zu entwickeln. Denn aktuell hat wohl nur China große Sprachmodelle und eben die USA.”
(Matthias Finger / hte)