Kuratieren statt Algorithmus
"Heating" heißt es bei TikTok, wenn Mitarbeiter einzelne Videos manuell in die Timelines ihrer Nutzer pushen. © picture alliance / ZUMAPRESS.com / Long Wei
Wie transparent sind TikTok und Co.?
12:43 Minuten
Zusätzlich zu den Algorithmen können Kuratoren bestimmte Posts auf Social Media besonders sichtbar machen – und andere verschwinden lassen. Das US-Magazin „Forbes“ deckte auf, dass zumindest TikTok dabei nicht immer transparent vorgeht.
Algorithmen oder Menschen – wer sollte entscheiden, was wir im Netz zu Gesicht bekommen? Bei der Masse an Content in sozialen Netzwerken können nur Algorithmen das Filtern übernehmen, aber hier und da können Menschen nachhelfen. Aber wie genau geschieht das?
“For You” ist zum Beispiel die Startseite der TikTok-App. Hier zeigt der TikTok-Algorithmus Videos, die besonders relevant für die Nutzenden sein sollen. Aber der Algorithmus entscheidet nicht allein.
Einflussnahme mit dem „Heating“-Knopf
Im Backend von TikTok, in der Verwaltungsansicht der Plattform, gebe es einen speziellen Button, sagt Emily Baker-White vom US-Magazin „Forbes“. Mit dem können TikTok-Angestellte einzelne Videos pushen, also dafür sorgen, dass sie mehr Nutzerinnen und Nutzern angezeigt werden.
Die Journalistin weiß das aus Gesprächen mit Menschen, die bei TikTok gearbeitet haben, und aus internen Dokumenten, die geleakt wurden.
Ursprünglich war der Gedanke hinter dem Button wohl, den TikTok-Algorithmus aus der Endlosschleife von immer mehr Tanzvideos zu befreien. Menschliche Eingriffe sollten dafür sorgen, dass eine größere Vielfalt von Inhalten ausgespielt wird. „Heating“ soll das bei TikTok heißen, also erhitzen.
Intransparenz beim Pushen von Inhalten
Zwar könne nur eine bestimmte Gruppe von Leuten in dem Unternehmen den Heiz-Button drücken, aber welche Inhalte gepusht werden sollten und warum, dazu gibt es offenbar keine klaren Regeln, so Emily Baker-White. Das habe auch zu Missbrauch geführt: Mitarbeitende etwa, die die Videos ihrer Partnerinnen und Partner gepusht haben.
Das größere Problem ist aber wohl, dass TikTok gezielt Inhalte von Marken oder Influencern gepusht haben soll, mit denen das Unternehmen Geschäfte machen wollte. Einen Hinweis darauf, dass ein Video von Hand geboosted wurde, zeigt die App nicht an.
Emily Baker-White fordert diese Transparenz ein. Sowohl Nutzende wie auch Creator müssten wissen, warum ein Video angezeigt wird. Es könnte ganz einfach kenntlich gemacht werden, wenn ein Video manuell ausgewählt wurde.
Regeln zur Kennzeichnung sind freiwillig
Die Plattformen sind allerdings nicht verpflichtet, händische Eingriffe als solche zu kennzeichnen. Regelungen dazu seien freiwillig, sagt die freie Autorin Karolin Schwarz, die sich intensiv mit dem Thema Desinformation beschäftigt. „Die Transparenzpflichten, die wir haben, sind meistens bezogen auf die Moderation von Inhalten, also tatsächlich auf Meldungen und die Reaktionen darauf.“
Insgesamt gebe es verschiedene Beispiele dafür, dass ähnlich wie beim bekanntgewordenen Vorgehen bei TikTok bei anderen Plattformen Inhalte durch händisches Eingreifen bevorzugt oder benachteiligt werden. „Das ist vor allem im Bereich Desinformationen, Missinformationen der Fall. Dass zum Beispiel in der Suche für verschiedene Stichworte bei Youtube vertrauenswürdige Medien eher angezeigt werden“, erklärt sie.
Dies sei im Kontext des Angriffs auf die Ukraine passiert, auch bei Informationen zu Covid habe man das sehr häufig beobachten können. Bei Facebook wiederum führten Faktenchecks dazu, dass Inhalte gegebenenfalls weniger in den Newsfeeds angezeigt werden, sagt sie. Über die Gründe, diese Eingriffe nicht transparent zu machen, kann sie nur spekulieren. „Wahrscheinlich gibt es Bedenken, dass Content anders wahrgenommen wird, wenn da so ein Label dransteckt.“
Händisches Eingreifen kann „gute Folgen haben“
Aber ist es eigentlich grundsätzlich ehrenrührig, wenn Plattformen deutlich machen, dass sie kuratieren? Wäre es denn besser, alle Entscheidungen nur von Algorithmen vornehmen zu lassen? „Wir müssen uns grundsätzlich davon verabschieden, dass Algorithmen irgendetwas Demokratisierendes haben“, meint Karoline Schwarz dazu. Oft gehe es schlicht darum, die Nutzenden auf den Plattformen zu halten.
Das heißt, dass Inhalte, die emotionalisieren, ob gut oder schlecht, eben auch oft bevorzugt werden und dass das natürlich auch von Akteuren genutzt wird, die jetzt nicht nur Gutes im Sinn haben. Insofern kann es total viele gute Folgen haben, wenn man eben händisch eingreift. Aber man muss eben transparent sein und es muss auch intern überprüft werden.
Für die Bevorzugung oder Benachteiligung von Inhalten müsse es klare und nachvollziehbare Regeln geben, fordert sie. „Der Digital Services Act will ja in einem gewissen Sinne an diese Transparenz auch noch weiter ran.“ Man müsse allerdings sehen, was dann wirklich passiert, wenn diese EU-Verordnung in vollem Umfang angewendet wird.
(Thomas Reintjes, hum)