Skandal um Facebook-Werbung

"Mitgefühl lässt sich nicht programmieren"

Auf einem großen Display ist das Facebook-Logo zu sehen
Auf einem Display in chinesischen Stadt Hauaibei wird für Facebook geworben © Chen Jialiang/Imaginechina
Ingo Dachwitz im Gespräch mit Axel Rahmlow |
Nach der Totgeburt ihres Kindes warb Facebook bei einer Frau weiter für Kinderartikel. Die wehrt sich nun öffentlich. Der Fall zeige, wie kalt Online-Marketing sei, sagt Medienwissenschaftler Ingo Dachwitz.
Der Fall einer US-Amerikanerin, die auch nach einer Totgeburt noch Babywerbung bekam, zeige die Kälte des Online-Marketings. Das sagt der Medien- und Kommunikationswissenschaftler Ingo Dachwitz. Ob eine Frau noch schwanger sei oder ihr Kind verloren habe, können die Algorithmen nicht interpretieren. Dachwitz sagt: "Das System ist gar nicht darauf ausgerichtet, das zu erkennen"
Am Dienstag hatte die US-Amerikanerin Gillian Brockell einen Brief veröffentlicht, den sie an Facebook, Instagram, Twitter und eine Scoring-Firma richtete. Denn die Unternehmen blendeten Werbung in ihren Browser, während Brockell im Sommer über ihre Schwangerschaft postete.
Doch als ihr Kind tot geboren wurde, erkannten die Algorithmen dies nicht. Sie blendeten ihr weiter Werbung ein für Schwangere. Brockell schrieb:
"Wenn ihr schlau genug seid, zu erkennen, dass ich schwanger bin, dass ich ein Kind zur Welt gebracht habe, dann seit ihr sicher auch schlau genug, zu verstehen, dass mein Kind gestorben ist."

"Einzelne Streuverluste sind nicht schlimm"

Technisch sei dies möglich, sagt Dachwitz. "Weil die datenbasierten Analysesysteme dazu in der Lage sind, uns einzusortieren und kleinste Regungen zu erkennen." Doch gewollt sei dies nicht.
"In reinen Zahlen gemessen, ist es nicht schlimm, wenn es einzelne Streuverluste gibt und Menschen Werbung angezeigt bekommen, die für sie nicht relevant ist."
Fast 100.000 Mal reagierten Menschen auf Brockells Brief, den sie auf Twitter veröffentlichte. "Man wird in der Branche versuchen, darauf zu reagieren", sagt Dachwitz. Doch Mitgefühl könne man einem Algorithmus nicht beibringen. "Das ist eine menschliche Kategorie, die lässt sich nicht auf ein technisches System übertragen."
(nsc)
Mehr zum Thema