Regulierung von Social Media-Plattformen

Bringt der Fall Molly Russell einen Wendepunkt?

09:16 Minuten
Eine junge Frau mit traurigem Gesichtsausdruck sitzt im Halbdunkel mit ihrem Smartphone in der Hand auf dem Sofa.
Die Eltern von Molly Russell geben Social Media Plattformen die Verantwortung für den Tod ihrer Tochter und verlangen eine strengere Regulierung. (Symbolfoto) © Getty Images / Maria Korneeva
Stephan Dreyer im Gespräch mit Katja Bigalke und Vera Linß · 08.10.2022
Audio herunterladen
Molly war 14, als sie sich selbst tödlich verletzte. In einer Untersuchung zu ihrem Tod sagte nun auch eine Vertreterin des US-Konzerns Meta aus, zu dem unter anderem Facebook gehört. Welche Wirkung hat der Fall auf die Regulierung der Plattformen?
Die Teenagerin Molly Russell nahm sich vor fünf Jahren das Leben. Die Ermittlungen hatten jüngst ergeben, dass die britische Jugendliche vor ihrem Tod im November 2017 viele Inhalte in sozialen Medien angesehen hatte, die mit Suizid und Selbstverletzung zu tun hatten.
Mollys Eltern geben Social Media Plattformen die Verantwortung für den Tod ihrer 14-jährigen Tochter und verlangen eine strengere Regulierung. Erstmals sagte nun eine Vertreterin des US-Konzerns Meta, zu dem unter anderem die Plattformen Facebook und Instagram gehören, in dem Fall aus.

Hinweis der Redaktion: Sollten Sie Hilfe in einer schwierigen Situation benötigen, können Sie sich jederzeit an die kostenlose Hotline der Telefonseelsorge wenden: 0800/1110111. Spezielle Hilfsangebote zum Thema Suizid finden Sie bei der Deutschen Gesellschaft für Suizidprävention e.V..
https://www.suizidprophylaxe.de/

„Das ist ohne Frage ein ganz tragischer Fall“, sagt Stephan Dreyer vom Leibniz-Institut für Medienforschung, der auch juristischer Sprecher des Beschwerdeausschusses und der Gutachterkommission der Freiwilligen Selbstkontrolle Multimedia-Diensteanbieter ist.

Rechtliche Fragen vs. ethische Verantwortung

Das Grundproblem aus rechtlicher Sicht beschreibt der Jurist so: Social-Media-Anbieter sind für Inhalte, egal welcher Art, von denen sie keine Kenntnis haben, nicht verantwortlich. Er betont, dass es in dem Untersuchungsverfahren auch nicht darum ging, ob Social Media Plattformen gegen rechtliche Vorgaben verstoßen haben. „Sondern es ging vor allen Dingen um die gesellschaftliche Verantwortung.“
Die britische Untersuchung im Fall Molly Russells ist aus seiner Sicht eine Art Weichenstellung. „Großbritannien steht gerade an einem Scheideweg“, sagt Dreyer, weil die vor einigen Jahren ins Leben gerufene große Online Safety Bill zum Schutz von Minderjährigen seitdem immer weiter verwässert worden sei. Das stehe nun auf dem Prüfstand.
Die Situation in Deutschland sehe anders aus, erklärt der Jurist. Hier gebe es seit letzten Mai das Jugendschutzgesetz, das vorsieht, dass solche Plattformen mit nutzergenerierten Inhalten Vorsorgemaßnahmen einziehen, wenn von ihrer Plattform Risiken für den Kinderschutz ausgehen. „Weil das noch so neu ist, ist die zuständige Bundeszentrale für Kinder- und Jugendmedienschutz dort noch dabei, diese Verfahren vorzubereiten“, sagt Stephan Dreyer.

Digital Services Act verbessert Kinderschutz

Gleichzeitig bringe der Digital Services Act auf Europaebene noch eine ganz neue Dynamik gerade im Hinblick auf unzulässige Inhalte. Denn in Zukunft geraten die Unternehmen beim freiwilligen Monitoring auf der eigenen Plattform ausdrücklich nicht mehr automatisch in ein Haftungsrisiko, erklärt der Jurist.

Das ist ein wichtiger Wechsel, weil den Plattformen dann dafür freie Hand gegeben ist, viel expliziter, viel restriktiver, umfassender und systematischer die eigenen Inhalte zu kontrollieren, die man da zugänglich macht.

Stephan Dreyer, Jurist

Außerdem werde der Kinderschutz im Digital Services Act ausdrücklich genannt. Jede Plattform mit nutzergenerierten Inhalten muss Vorsorgemaßnahmen treffen, um den Jugendmedienschutz zu gewährleisten, fasst Dreyer diese Regelung zusammen.

„Die Informationsfreiheit ist betroffen“

Dreyer warnt davor, bei der rechtlichen Regulierung zu stark in Empfehlungsalgorithmen und das Plattform-Management insgesamt einzugreifen. „Dann betreten wir einen ganz sensiblen Bereich der Medien- und Kommunikationsfreiheiten“, sagt er. „Auch die Informationsfreiheit der Nutzenden ist betroffen, wenn ich mir meinen Dienst nicht so kuratieren kann, wie ich es gerne möchte.“
Dreyer kann sich allerdings vorstellen, dass hier für den Bereich von Kinder- und Jugendmedienschutz eine Ausnahme gemacht werden muss.
"Wenn dort entsprechend jüngere Nutzende in solche Feedbackschleifen geraten, dann müssen wir Vorsorgemaßnahmen vorsehen, damit die da wieder rausfinden", betont der Jurist. "Oder damit wir sie dabei unterstützen können, um dort wieder rauszufinden."
Mehr zum Thema