Kuratieren statt Algorithmus

Wie transparent sind TikTok und Co.?

12:43 Minuten
Ein Mann läuft mit seinem Smartphone vor einer Wand entlang, an der in Neonfarben das TikTok-Logo, Herzen und Pfeile prangen.
"Heating" heißt es bei TikTok, wenn Mitarbeiter einzelne Videos manuell in die Timelines ihrer Nutzer pushen. © picture alliance / ZUMAPRESS.com / Long Wei
Karolin Schwarz im Gespräch mit Vera Linß |
Audio herunterladen
Zusätzlich zu den Algorithmen können Kuratoren bestimmte Posts auf Social Media besonders sichtbar machen – und andere verschwinden lassen. Das US-Magazin „Forbes“ deckte auf, dass zumindest TikTok dabei nicht immer transparent vorgeht.
Algorithmen oder Menschen – wer sollte entscheiden, was wir im Netz zu Gesicht bekommen? Bei der Masse an Content in sozialen Netzwerken können nur Algorithmen das Filtern übernehmen, aber hier und da können Menschen nachhelfen. Aber wie genau geschieht das?
“For You” ist zum Beispiel die Startseite der TikTok-App. Hier zeigt der TikTok-Algorithmus Videos, die besonders relevant für die Nutzenden sein sollen. Aber der Algorithmus entscheidet nicht allein.

Einflussnahme mit dem „Heating“-Knopf

Im Backend von TikTok, in der Verwaltungsansicht der Plattform, gebe es einen speziellen Button, sagt Emily Baker-White vom US-Magazin „Forbes“. Mit dem können TikTok-Angestellte einzelne Videos pushen, also dafür sorgen, dass sie mehr Nutzerinnen und Nutzern angezeigt werden.
Die Journalistin weiß das aus Gesprächen mit Menschen, die bei TikTok gearbeitet haben, und aus internen Dokumenten, die geleakt wurden.
Ursprünglich war der Gedanke hinter dem Button wohl, den TikTok-Algorithmus aus der Endlosschleife von immer mehr Tanzvideos zu befreien. Menschliche Eingriffe sollten dafür sorgen, dass eine größere Vielfalt von Inhalten ausgespielt wird. „Heating“ soll das bei TikTok heißen, also erhitzen.

Intransparenz beim Pushen von Inhalten

Zwar könne nur eine bestimmte Gruppe von Leuten in dem Unternehmen den Heiz-Button drücken, aber welche Inhalte gepusht werden sollten und warum, dazu gibt es offenbar keine klaren Regeln, so Emily Baker-White. Das habe auch zu Missbrauch geführt: Mitarbeitende etwa, die die Videos ihrer Partnerinnen und Partner gepusht haben.
Das größere Problem ist aber wohl, dass TikTok gezielt Inhalte von Marken oder Influencern gepusht haben soll, mit denen das Unternehmen Geschäfte machen wollte. Einen Hinweis darauf, dass ein Video von Hand geboosted wurde, zeigt die App nicht an.
Emily Baker-White fordert diese Transparenz ein. Sowohl Nutzende wie auch Creator müssten wissen, warum ein Video angezeigt wird. Es könnte ganz einfach kenntlich gemacht werden, wenn ein Video manuell ausgewählt wurde.

Regeln zur Kennzeichnung sind freiwillig

Die Plattformen sind allerdings nicht verpflichtet, händische Eingriffe als solche zu kennzeichnen. Regelungen dazu seien freiwillig, sagt die freie Autorin Karolin Schwarz, die sich intensiv mit dem Thema Desinformation beschäftigt. „Die Transparenzpflichten, die wir haben, sind meistens bezogen auf die Moderation von Inhalten, also tatsächlich auf Meldungen und die Reaktionen darauf.“

Abonnieren Sie unseren Denkfabrik-Newsletter!

Hör- und Leseempfehlungen zu unserem Jahresthema „Es könnte so schön sein… Wie gestalten wir Zukunft?“. Monatlich direkt in Ihr E-Mail-Postfach.

Vielen Dank für Ihre Anmeldung!

Wir haben Ihnen eine E-Mail mit einem Bestätigungslink zugeschickt.

Falls Sie keine Bestätigungs-Mail für Ihre Registrierung in Ihrem Posteingang sehen, prüfen Sie bitte Ihren Spam-Ordner.

Willkommen zurück!

Sie sind bereits zu diesem Newsletter angemeldet.

Bitte überprüfen Sie Ihre E-Mail Adresse.
Bitte akzeptieren Sie die Datenschutzerklärung.
Insgesamt gebe es verschiedene Beispiele dafür, dass ähnlich wie beim bekanntgewordenen Vorgehen bei TikTok bei anderen Plattformen Inhalte durch händisches Eingreifen bevorzugt oder benachteiligt werden. „Das ist vor allem im Bereich Desinformationen, Missinformationen der Fall. Dass zum Beispiel in der Suche für verschiedene Stichworte bei Youtube vertrauenswürdige Medien eher angezeigt werden“, erklärt sie.
Dies sei im Kontext des Angriffs auf die Ukraine passiert, auch bei Informationen zu Covid habe man das sehr häufig beobachten können. Bei Facebook wiederum führten Faktenchecks dazu, dass Inhalte gegebenenfalls weniger in den Newsfeeds angezeigt werden, sagt sie. Über die Gründe, diese Eingriffe nicht transparent zu machen, kann sie nur spekulieren. „Wahrscheinlich gibt es Bedenken, dass Content anders wahrgenommen wird, wenn da so ein Label dransteckt.“

Händisches Eingreifen kann „gute Folgen haben“

Aber ist es eigentlich grundsätzlich ehrenrührig, wenn Plattformen deutlich machen, dass sie kuratieren? Wäre es denn besser, alle Entscheidungen nur von Algorithmen vornehmen zu lassen? „Wir müssen uns grundsätzlich davon verabschieden, dass Algorithmen irgendetwas Demokratisierendes haben“, meint Karoline Schwarz dazu. Oft gehe es schlicht darum, die Nutzenden auf den Plattformen zu halten.

Das heißt, dass Inhalte, die emotionalisieren, ob gut oder schlecht, eben auch oft bevorzugt werden und dass das natürlich auch von Akteuren genutzt wird, die jetzt nicht nur Gutes im Sinn haben. Insofern kann es total viele gute Folgen haben, wenn man eben händisch eingreift. Aber man muss eben transparent sein und es muss auch intern überprüft werden.

Karolin Schwarz, Journalistin

Für die Bevorzugung oder Benachteiligung von Inhalten müsse es klare und nachvollziehbare Regeln geben, fordert sie. „Der Digital Services Act will ja in einem gewissen Sinne an diese Transparenz auch noch weiter ran.“ Man müsse allerdings sehen, was dann wirklich passiert, wenn diese EU-Verordnung in vollem Umfang angewendet wird.
(Thomas Reintjes, hum)
Mehr zum Thema