Mehr als ein Mensch ertragen kann
10:59 Minuten
Hassbotschaften, Pornografie, Bullying: Das bekam Chris Gray als Content-Moderator für Facebook fast täglich auf den Bildschirm. Nach neun Monaten schmiss er den Job. Jetzt verklagt er Facebook wegen einer posttraumatischen Belastungsstörung.
Vergessen oder Erinnern - das ist auch ein Thema, das Internetkonzerne ziemlich auf Trab hält. Denn es gibt nicht nur ein Recht auf Löschung, sondern auch eine Pflicht, wenn es um bestimmte Daten geht. Das Problem dabei: Die Menschen, die die Tausenden von Inhalten löschen, werden zum Teil mit Bildern konfrontiert, die sie selbst nicht mehr vergessen können. So ging es auch Chris Gray. Er arbeitete knapp ein Jahr als sogenannter Content-Moderator für einen Vertragspartner von Facebook in Irland. Seine Aufgabe war es unter anderem, Inhalte wie Folter, Kindesmissbrauch, Mord, aber auch Hassbotschaften und Mobbingvideos zu sichten, zu beurteilen und gegebenenfalls zu löschen. Bis zu 800 solcher Fälle bearbeitete er pro Tag - für gerade mal 12,98 Euro pro Stunde. Eine Arbeit, die ihn am Ende krank machte. Nun klagt Gray in Irland gegen Facebook und seinen Vertragspartner CPL.
Katja Bigalke: Sie sind ja nun einer der wenigen Content Moderatoren, die mit ihrem Namen an die Öffentlichkeit gegangen sind und gehen und von dieser Arbeit berichten – warum?
Chris Gray: Weil ich wütend war, ich habe plötzlich gemerkt, welchen Einfluss diese Arbeit auf mich hatte und ich konnte mit niemandem darüber sprechen, weil es diese Vereinbarung gab, die sie wie eine Waffe einsetzen, damit die Leute nicht darüber sprechen, wie es ihnen wirklich geht, ich habe noch nicht mal mit meiner Frau darüber gesprochen.
Bigalke: Sie verklagen Facebook und CPL jetzt ja, was werfen Sie dem Konzern konkret vor?
Gray: Als ich schon eine Weile nicht mehr in dem Job gearbeitet hatte, merkte ich, dass ich ständig wütend war, nicht schlafen konnte. Ich hatte jede Menge Probleme und wurde dann mit einer Posttraumatischen Belastungsstörung diagnostiziert. Jetzt möchte ich dafür entschädigt werden, für die Einkommensausfälle, für das, was diese Arbeit mit meinem Leben gemacht hat. Nichts hat mich jemals so sehr beeinträchtigt.
"Ich schlafe schlecht"
Bigalke: In welchen Situationen haben Sie denn dann Symptome von diesen Posttraumatischen Belastungsstörungen. Wie taucht das auf konkret?
Gray: Ich schlafe schlecht, in den letzten zwei Jahren höchstens 4-5 Stunden pro Nacht, das war früher anders. Ich bin sehr schnell aufgebracht, lege mich mit Leuten an oder habe das Gefühl fliehen zu müssen. Wenn ich über die Inhalte spreche, mit denen ich zu tun hatte, fange ich in der Öffentlichkeit an zu weinen. Letztens hatte ich eine Panikattacke, nur weil ich in einer Situation an etwas erinnert wurde, das ich damals in meinem Job gesehen habe. Das macht mein Leben sehr schwer, ich bin labil.
Bigalke: Wir kommen gleich noch mal darauf zurück, was da konkret passiert ist, was Sie genau gesehen haben. Aber kommen wir noch mal auf die Klage, was wollen Sie mit der Klage erreichen?
Gray: Ich möchte im Gericht stehen und Facebook mit all den Dingen konfrontieren, die sie schlecht machen. Denn sie wollen einfach nicht zuhören, alle Kritik wird in diesem Konzern immer nur nach unten weitergegeben und kommt nie oben an. Ich will, dass sie anerkennen, dass sie Fehler gemacht haben und Menschen Schaden genommen haben. Und sie werden eine Rechnung bekommen, die sie begleichen müssen, nicht nur von mir, es gibt noch andere, die darauf warten, Facebook zu verklagen. Facebook wird die Arbeitsbedingungen ändern müssen. Im Moment sind wir für sie nur Teile einer Maschine, die einfach weggeworfen und ersetzt werden, wenn sie kaputt gehen. Das muss sich ändern.
Anschauen, Knopf drücken, nächster Fall
Bigalke: Können Sie mal Ihre Arbeit konkret beschreiben, wie waren die Abläufe, die Arbeitsroutine, wie sahen die Teams aus, wie hat man da gearbeitet?
Gray: Ich habe die Sachen auf meinen Tisch bekommen, die hohe Priorität hatten, Gewalt, Mobbing, Terrorismus, Sachen, die schnell bearbeitet werden mussten. 10.000 bis 20.000 Inhalte stauten sich da an und wir haben uns da durchgearbeitet: anschauen, eine Entscheidung treffen, Knopf drücken, nächster Fall - und so geht das die ganze Nacht. Du musst natürlich die richtige Regel auswählen. Die Regeln bestanden damals aus 10.000 bis 12.000 Wörtern, ausführlichste juristische Erläuterungen darüber, was Hassbotschaften sind, was sexuell aufreizend ist, was Schikane, Mobbing usw. Es gibt all diese Regeln und dann musst du aus vielleicht 100 Optionen die richtige auswählen, und dann kommt der nächste Fall.
Bigalke: Welche menschlichen Abgründe haben sich denn da für Sie aufgetan? Das klingt ja nach einer Menge schrecklicher Fälle, mit denen Sie zu tun hatten.
Gray: Es ist von allem etwas dabei. Einerseits die schlimmsten Dinge, die man sich vorstellen kann. Und dann wieder schlechte Witze, irgendwelche harmlosen Auseinandersetzungen zwischen Menschen – jeder empfindet ja etwas anderes als schlimm oder unerträglich und meldet es bei Facebook. Du hast also einmal süße Hundewelpen auf dem Monitor, weil sich jemand darüber aufregt, dass mit Tieren gehandelt wird, und im nächsten Moment Männer mit Maschinengewehren irgendwo im Nahen Osten, die völlig verängstigte Menschen von einem Laster holen und sie zwingen, sich vor einem Graben aufzustellen, und du weißt, gleich werden sie erschossen und du musst dieses Video zu Ende schauen und auf alle Details achten, damit du es beurteilen kannst und weißt, wie du entscheiden musst.
"Ich glaube nicht, dass man abstumpft"
Bigalke: Das klingt extrem schwer zu ertragen, auch in der Variation dessen, was Sie zu sehen bekommen haben. Wie hat sich denn Ihr Umgang mit dem, was Sie da gesehen haben, mit der Zeit verändert?
Gray: Ich glaube nicht, dass man abstumpft oder desensibilisiert wird. Am Anfang denkt man nicht darüber nach und hat nur diese Regeln im Kopf, versucht sie zu verinnerlichen und richtig anzuwenden und da nicht reingezogen zu werden. Du versuchst Distanz zu bewahren, aber irgendwann merkst du, dass sich immer mehr ansammelt und aufstaut.
Letztens hat mich jemand angerufen, der noch bei CPL arbeitet und erzählte, dass er beim Müllrunterbringen auf dem Hinterhof ein Baby schreien hörte und direkt alarmiert war und vermutete, das Kind wird misshandelt. Er dachte sofort über die Optionen nach, die er hat: die Tür eintreten oder doch lieber die Polizei anrufen? Und er stand da im Dunkeln und wusste nicht, was er tun sollte, hatte Panik und brach irgendwann weinend zusammen.
Bigalke: Also es lässt einen irgendwie total hilflos zurück. Man verliert ein bisschen die Orientierung. Wir haben schon über den Inhalt dieser Bilder gesprochen, auch über den Zeitdruck, dem Sie ausgesetzt waren. Was gab es denn noch für Arbeitsumstände, die diesen Beruf besonders schwer gemacht haben, was haben Sie vielleicht auch vermisst?
Gray: Rein vom Umfeld her ist das alles sehr angenehm. Das Büro ist modern, offen, es gibt umsonst Essen... Aber eigentlich ist deine Aufgabe, künstliche Intelligenz zu trainieren, damit sie dich eines Tages ersetzen kann. Deswegen gibt es 100 Kategorien, in die du die Inhalte einteilen musst, ich habe gehört, mittlerweile sind es sogar schon über 250. Du musst ganz genau sein, wenn du eine Entscheidung fällst, damit der Algorithmus das erlernen kann. Facebook ist davon besessen, wie dein Score aussieht. Das wird permanent ausgewertet und wenn du zu viele Fehler machst, musst du dich rechtfertigen. Du fragst dich ständig: Bin ich gut genug? Habe ich das falsch gemacht, wird sich jemand umbringen, weil ich die falsche Entscheidung getroffen habe?
Facebook müsste Verantwortung übernehmen
Bigalke: Polizisten, Sanitäter und auch andere Menschen, die mit extremen Belastungen konfrontiert werden, müssen regelmäßig Supervision bekommen von externen Anbietern. Bei staatlichen Stellen, die mit Onlineinhalten zu tun haben, wird auch kontrolliert, dass diese Videos immer zu zweit angeschaut werden. Man spricht auch über die Inhalte, verarbeitet das Gesehene, da gibt es so einen ganz anderen Umgang damit. Warum glauben Sie denn, warum das bei Ihrer Firma nicht genauso gelaufen ist, warum man sich nicht besser um Sie und Ihre Kollegen gekümmert hat?
Gray: Sie wollen, dass ich Mark Zuckerbergs Motive verstehe? Ich weiß es nicht, aber es geht wohl um Geld. Warum beauftragt Facebook externe Dienstleister wie Arvato in Berlin und CPL in Dublin, wenn sie selbst diese Menschen anstellen und für sie verantwortlich sein könnten? So werden sie auf Distanz gehalten. Wir werden nicht wertgeschätzt, wir stellen keinen wichtigen Service zur Verfügung, für den man bereit ist zusätzlich zu bezahlen. Sie wollen einfach Geld sparen.
Bigalke: Nach neun Monaten haben Sie den Job dann ja aufgegeben. Heute leben Sie ein anderes Leben. Wie sieht denn das jetzt aus im Vergleich zu dem vorher?
Gray: Ich arbeite mit Menschen, ich arbeite in der Tourismusbranche und interagiere mit Menschen. Ich habe relativ viel Kontrolle darüber, wie ich meinen Tag gestalte. Ich bin also viel glücklicher als früher, es geht mir viel besser.
Bigalke: Gibt es denn Bilder, die immer noch da sind, die immer wieder auftauchen von diesem Job?
Gray: Vor ein paar Wochen rief mich ein Freund an und wollte mit mir reden, weil sich jemand in seiner Familie selbst verletzt hatte. Ich weiß, wie das aussieht, ich habe das oft gesehen. Ich merkte, wie die Panik in mir aufstieg, und versuchte sie zu unterdrücken. Ich habe also nicht auf meinen Bekannten reagiert, der ja mit mir über etwas Schwieriges sprechen wollte. Ein paar Tage später wurde mir bewusst, ich bin kein besonders guter Freund, und während ich darüber nachdachte, setzte die Panik plötzlich ein. Ich saß gerade in einem Bus, alles wurde schwarz, ich konnte 10 Minuten lang nicht sprechen, mich nicht bewegen. Es war die Erinnerung an eine Erinnerung, die mich außer Gefecht setzte.
Computer werden diesen Job nie machen können
Bigalke: Sie haben ja eben gesagt, Facebook arbeitet mit diesen Content-Moderatoren auch auf diese Art, die Sie beschrieben haben, um ihre Artificial Intelligence immer weiter zu trainieren, damit die immer besser wird. Man kann sich ja gut vorstellen, dass die in Zukunft den Job, den Sie hatten, übernehmen wird. Würden Sie sagen, ist das ein Segen oder ist das keiner?
Gray: Ich glaube nicht, dass Computer jemals fähig sein werden diesen Job zu machen. Sie werden aushelfen können. Wenn ich "Ich hasse Deutsche" eintippe und das auf Facebook poste, dann wird ein Computer das sicherlich als Hassbotschaft erkennen. Aber was, wenn es komplexer wird, wenn zum Beispiel, wie letztens in Dresden, ein Busfahrer ein Schild in das Fenster seines Linienbusses klebt, auf dem in Frakturschrift steht "Diesen Bus steuert ein deutscher Fahrer". Wird der Computer damit auch etwas anfangen können? Das mag keine Hassbotschaft sein, aber sicherlich ist das ein Verhalten, mit dem sich viele unwohl fühlen. Ein Computer wird nur Fakten lesen können.
Äußerungen unserer Gesprächspartner geben deren eigene Auffassungen wieder. Deutschlandfunk Kultur macht sich Äußerungen seiner Gesprächspartner in Interviews und Diskussionen nicht zu eigen.