Debattenkultur im Internet

Können Maschinen Hasspostings im Netz erkennen?

Ein Mann mit Strohhut, Sonnenbrille und Notebook auf dem Schoß
In Netzdebatten grassiert der Hass. Software kann ihn aufspüren. Manchmal jedenfalls. © picture alliance/dpa/Britta Pedersen
Moderation: Nicole Dittmer und Christian Rabhansl |
Wenn sich in Foren und sozialen Netzwerken der Hass entlädt, sind die Moderatoren und Seitenbetreiber gefragt. Doch lassen sich entsprechende Postings auch mit Hilfe von Software erkennen? Das fragen wir den Daten-Experten Bernhard Haslhofer.
Viel wird in diesen Tagen diskutiert über Hasskommentare auf Facebook und in anderen Netzwerken und Foren. Die Moderation von Debatten ist für die Betreiber oft eine große Herausforderung. Da liegt die Frage nahe: Könnten Maschinen dabei helfen, indem sie entsprechende Kommentare herausfiltern und löschen?
Der Wiener Daten-Wissenschaftler Bernhard Haslhofer hält das in Teilen für möglich. "Eine Software kann dabei behilflich sein, Hasspostings zu erkennen", sagte er im Gespräch mit Deutschlandradio Kultur. "Das kann man sich ungefähr wie einen Spamfilter vorstellen. Man kann Algorithmen entwickeln, die bestimmen, ob ein Posting mit einer gegebenen Wahrscheinlichkeit ein Hassposting ist oder nicht." Die Technologie dafür beruhe auf maschinellen Lernverfahren, so Haslhofer. "Man konstruiert Algorithmen, die auf Basis vorhandener Daten lernen und möglichst präzise Vorhersagen für neue Daten treffen können." Im konkreten Fall könne man Algorithmen mit vorhandenen Hasspostings "trainieren".
Löschen oder nicht? Entscheiden sollte ein Mensch
"Die große Herausforderung bei maschinellen Lernalgorithmen ist zu analysieren, welche Eigenschaften Hasspostings charakterisieren", sagte Haslhofer. Darüber müssten sich die Designer sehr intensiv Gedanken machen, vielleicht auch mit Experten aus der Psychologie. Anhaltspunkte für Hass fänden sich häufig schon auf syntaktischer Ebene. Beispielsweise könne die Zahl der Ausrufezeichen im Verhältnis zur Zahl der Fragezeichen ein Indikator sein. Auch Rechtschreibfehler seien ein mögliches Kriterium. "Wenn sie vor lauter Hass einen Beitrag schreiben, ist die Wahrscheinlichkeit, dass sie da Rechtschreibfehler reinpacken, eventuell höher, als wenn sie ruhig und nachdenklich ein Posting schreiben."
Doch ganz verlassen sollte man sich auf die Ergebnisse einer Software nicht, warnt Haslhofer. So sei es für Computerprogramme sehr schwer, Ironie und Zynismus zu erkennen. Ob ein Beitrag gelöscht wird oder nicht, sollte am Ende daher ein Mensch entscheiden, rät er.
Mehr zum Thema