KI und Kunst
Das Bild im Stil von Dali wurde von der Software Dalle E erstellt. Genauso lassen sich zeitgenössische Künstler und Künstlerinnen "kopieren". © Generiert durch Dalle E
Wenn künstliche Intelligenz Künstlern den Stil klaut
08:10 Minuten
Künstlliche Intelligenz (KI) kann Bilder in der Art und Weise echter Künstler malen. Kreative fühlen sich deshalb beraubt. Darf KI das einfach so? Die aktuelle Debatte zu moralischen Fragen und gesetzlichen Regelungen.
Die Werke des koreanischen Illustrators Kim Jung Gi ist puristisch und opulent zugleich. Opulent sind die Motive: Pompöse Szenen mit vielen Menschen, Motorrädern, Autos – bis hin zu den Motorblöcken ultra-detailliert gezeichnet. Puristisch dagegen die Entstehung: Tinte auf Papier, aus dem Gedächtnis gemalt.
In Arbeiten, die Anfang Oktober erschienen, spiegelt sich dieser Stil wieder. Sie zeigen Autorennen, Straßenszenen in einer Stadt ähnlich Paris, Kampfhandlungen. Diese Bilder aber stammen von einer künstlichen Intelligenz: Jemand hatte dem System mit beigebracht, Bilder im Stil des Künstlers zu generieren, und dieses System dann im Netz veröffentlicht.
Stil von Künstlerinnen ungefragt kopieren
Was Kim Jung Gi selbst dazu sagte? Nichts. Er war ein paar Tage zuvor gestorben. “Die Künstler-Community hat den Macher dieses Systems angefleht, es zu löschen. Diese ganze Sache fühlt sich falsch an: Sie haben Kim Jung Gis Arbeiten ohne die Zustimmung von ihm oder seiner Familie genommen und daraus etwas Verstörendes gemacht. Es wirkt fast, als würden sie einen Toten auferstehen lassen – entsetzlich“, so erinnert sich die Künstlerin Karla Ortiz aus San Francisco.
Die Geschichte von Kim Jung Gi steht sinnbildlich für die Probleme, die generative KI für kreativ arbeitenden Menschen bereiten könnte – oder für die menschliche Kreativität an sich. Generative KI – das sind Computerprogramme, die gelernt haben, etwas auf Befehl zu erschaffen. Diese Systeme sind inzwischen für Laien zugänglich. In den letzten Monaten erschienen etwa Dall-E oder Stable Diffusion, die Bilder auf Grundlage eines Textes erstellen. Der Text kann lauten: eine Straßenszene im Stil von Kim Jung Gi.
Inzwischen gibt es mit ChatGPT auch ein leicht zu bedienendes Programm, dass so etwas mit Texten hinbekommt: eine Entschuldigung im Stil von Werner Herzog; eine Anleitung, wie man ein Sandwich aus einem Videorecorder entfernt im Bibelversen; ein Song über Elon Musk im Stil von Bob Dylan. Nur drei Beispiele – alle sehr überzeugend.
Als hätten sie einem alles genommen
Egal ob sie Bilder oder Text erzeugen: Diese Systeme lernen mit Unmengen an Daten: Bilder und Texte aus dem Internet, deren Macher dieser Verwendung nicht zugestimmt haben. Hier sieht Karla Ortiz das erste Problem. „Diese Daten haben sie sich von uns allen zusammengekratzt. Keine Firma sollte sagen können: Ich habe das im Netz gefunden, jetzt werde ich davon profitieren und meinen Nutzern erlauben, damit zu generieren, was sie wollen“, sagt sie.
Das zweite Problem ist das Offensichtliche: Künstlern könnte ein finanzieller Schaden entstehen. Dabei gehe es auch um das Einverständnis, so Ortiz. „Meine Werke sind meine Identität. Ich erinnere mich an jeden Moment, in dem ich etwas gemalt habe. Zu sehen, wie das verwendet wird, um etwas zu generieren, das sich wie du anfühlt – das ist furchtbar: als ob sie gekommen wären, einem alles genommen hätten, und man kann nichts dagegen tun.“
Nicht kopieren, sondern lernen?
Künstler protestieren gegen die Systeme, sagen, sie seien bestohlen worden. Es gibt aber auch andere Meinungen. Der Urheberrechtsexperte Christopher Jon Sprigman von der New York University argumentiert, dass die Systeme nicht stehlen, sondern lediglich lernen. Zu den Daten, die sie dafür im Netz sammeln sagt er, dies sei eine Form des Data Mining. In den USA gebe es Vorschriften, die das erlauben: etwa die Fair-Use-Doktrin, die dem einen ziemlich großen Spielraum gewährt. „Es handelt sich nicht um Kopien, die weitergegeben werden, sondern um Kopien, die Maschine in die Lage versetzen, etwas über die Muster zu verstehen, die einen bestimmten Stil ausmachen.“
Dass die Maschinen dann im Stil bestimmter Künstler malen, sei juristisch kein Problem. „Künstler besitzen ihren Stil nicht. Wenn andere Menschen so malen, dürfen sie das. Wenn eine Maschine mit Daten lernt und das dazu führt, dass sie so malt: Ich glaube, warum viele Menschen gegen so etwas sind, liegt an der Angst, ersetzt zu werden.“
Wird Kreativität ihres Sinns beraubt?
Die Frage ist aber, welche Folgen das für Kreativität an sich haben könnte, wenn der Schaffensprozess von der Konzeption entkoppelt wird. Eine Eigenschaft menschlicher Kreativität ist gerade die beschränkte, individuelle Sicht auf die Welt, die einen Künstler zu dem macht, was er ist. Die KI hat diese Beschränkung nicht. Dadurch ist sie – wenn überhaupt – auf andere Art kreativ.
Zu der Beschränkung der menschlichen Künstler gehören auch die selbst gewählten Schranken: Das Werk eines Künstlers ist auch dadurch geprägt, was er bewusst nicht machen will. Die generative KI nimmt ihm zum Teil diese Möglichkeit, Nein zu sagen: Man kann mit Ihrer Hilfe zwar keinen Künstler zwingen, ein Werk zu erschaffen, das er nicht will, man kann die KI dieses Werk aber zumindest in seinem Stil erschaffen lassen.
Zudem werden die nächsten Generationen generativer KI mit den Bildern und Texten lernen, die die heutige erschaffen hat. Das wird die stilistischen Eigenschaften, die die Systeme den jeweiligen Künstlern zuordnen, verfestigen. Die Künstler werden sich dann – zumindest aus der Perspektive von Menschen, die die vielen, maschinell erstellten Werke sehen – nicht mehr weiterentwickeln. Wozu sollte man angesichts dessen überhaupt noch kreativ sein? „Angenommen, man arbeitet richtig, richtig hart, um etwas zu kreieren, das die KI nicht kann. Etwas, das wirklich einzigartig ist“, sagt Ortiz. „Diese Firmen können es sich schnappen, in den Datensatz integrieren und dann auf dieser Grundlage etwas generieren. Nichts hält sie auf.“
Regeln und Gesetze für KI
Doch jetzt beginnt die Zeit, in der die Regeln für generative KI geschrieben werden. In den USA versuchen Anwälte und Programmierer gegen ein System vorzugehen, das Programmiercode generiert. Auch dieses System hat mit Unmengen an Quellcode gelernt – und spuckt anscheinend urheberrechtlich geschütztes Material aus. Experten glauben, dass die Zukunft von generativer KI von diesem Verfahren abhängen könnte.
Künstler wie Karla Ortiz fordern, um Erlaubnis gefragt zu werden, bevor die Systeme mit ihren Werken lernen. Zudem verlangen sie einen Anteil am Gewinn, der durch die KI-generierten Bilder entsteht. Stability AI, die Macher eines der Systeme, versprechen zumindest, dass Künstler ihre Werke aus dem Trainingsdatensatz zukünftiger Versionen entfernen können. Sollte man derartiges nicht gleich gesetzlich regeln? Der Jurist Jon Sprigman ist vorsichtig. „Ich will erstmal wissen, welchen Einfluss diese Systeme wirklich auf die Gesellschaft haben“, sagt er. „Vielleicht wird es dann irgendwann Sinn ergeben, sie zu regulieren“ – oder aber es ist schon zu spät.
Selbst, wenn Künstler in Zukunft wiedersprechen dürfen oder um Erlaubnis gefragt werden, die aktuelle Generation der generativen KI hat mit ihren Werken gelernt. Manche der Systeme sind Open Source, sie ist da draußen, frei verfügbar. Jeder kann damit Stile imitieren. Auch den von jenen, die noch nicht mal dagegen protestieren können, so wie Kim Jung Gi.