Kann ein Algorithmus eine Gefährdung erkennen?
Ein junges Mädchen aus den USA nahm sich das Leben und ließ die Welt per Facebook-Live daran teilnehmen. Die Tat schockierte die Welt und warf Fragen auf: Ist das Vereiteln solcher Ereignisse Aufgabe der sozialen Netzwerke? Und können die das überhaupt leisten?
"Der Pilot soll erst einmal zeigen, dass wir Menschen, Städte und Populationen identifizieren können, in denen die Suizidrate besonders hoch ist."
Erklärt Erin Kelly, Leiterin von "Advanced Symbolics". Das Unternehmen wurde von der Regierung beauftragt, herauszufinden in welchen Regionen Kanadas die Suizidgefährdung besonders hoch ist. Dazu durchforsten sie die öffentlichen Profile der Bevölkerung in den sozialen Netzwerken mit Hilfe einer künstlichen Intelligenz. Gefüttert wird ihr digitaler Spürhund vorab unter anderem mit Daten von Anti-Suizid-Kampagnen.
"Also wenn ich höre, dass da die Regierung Kanadas dahinter steckt, dann habe ich erst mal schon ein besseres Gefühl."
Jakob Henschel leitet die Beratungsstelle für Suizidgefährdete "U25" von der Caritas. Hier können junge Menschen ihre Sorgen mit Gleichaltrigen teilen. Kommuniziert wird nur über Mail. Anonymität ist wichtig.
"Wir haben viele Ratsuchende, die auch explizit an irgendeiner Stelle mal erwähnen, dass sie eine andere Art von Hilfsangebot niemals angenommen hätten. Wenn sie zum Beispiel zu einer Beratungsstelle gehen müssen, dass sie das nicht machen würden, weil sie jemandem ins Gesicht erzählen müssen, wie es ihnen geht. Es ist bei vielen, die sich bei uns melden, der entscheidende Faktor, würde ich sagen."
Facebook und Instagram schicken Hilfsangebote
Im Netz ist die Kommunikation meist anonym. Kein Wunder also, dass das Innenleben der Jugendlichen sich heute häufig in den sozialen Netzwerken widerspiegelt. Das haben auch Facebook und Instagram erkannt. Zum einen können Nutzer bedenkliche Kommentare melden. Zum anderen nutzen beide zusätzlich ebenfalls künstliche Intelligenzen, um ihre Nutzerpostings auf mögliche Suizidgedanken zu prüfen. Fällt ein Post auf, wird der von einem Mitarbeiter bewertet. Der User bekommt dann Hilfsangebote zugesendet. In dringenden Fällen wird gleich eine Hilfsorganisation benachrichtigt. Jakob Henschel von U25 glaubt nicht an die reine Gutmütigkeit der Unternehmen.
"Weil da natürlich immer die Frage ist: Da stehen Gewinninteressen hinter, da stehen Maketinginteressen dahinter. Da kann man irgendwie dieses pure 'Wir wollen eine bessere Gesellschaft erreichen', da habe ich immer ein bisschen Misstrauen."
Bislang gibt es das Suizid-Präventionstool von Facebook nur in den USA, doch zukünftig soll die künstliche Intelligenz überall auf der Welt eingesetzt werden - außer in der europäischen Union. Das überrascht Computerlinguist Roland Ramthun vom Leibniz-Zentrum für Psychologische Information und Dokumentation nicht.
"Der aktuelle Forschungsstand deutet klar darauf hin, dass die besonders exzessive Beschäftigung mit Selbsttötung dann zum eigentlichen Akt führt. Deshalb ist es so wichtig, die Person zu identifizieren, deren Gedanken um Selbsttötung kreisen. Und Social Media kann da meiner Meinung nach der richtige Kanal sein, weil ich erst einmal annehme, dass sich dort die Nutzer weitgehend frei äußern."
Vermutet Ramthun. Auch er hat sich mit dem Auslesen der versteckten Hinweise in Postings beschäftigt. Das geschieht auf mehreren Ebenen. Eine künstliche Intelligenz sucht zum Beispiel nach negativ konnotierten Adjektiven oder Verben und zählt diese. Auch das Thema der Texte ist aufschlussreich, um die Bedenklichkeit einzustufen. Auf den momentanen emotionalen Zustand lässt sich dann häufig noch über den aktuellsten Post schließen. Bei Bildern ist das Prinzip ähnlich, denn dem Bild werden Wörter zugeordnet, die dann analysiert werden können. Auch hier hat die Forschung schon große Fortschritte gemacht. Perfekt ist das System aber noch nicht.
"Die Bestimmung von Suizidabsichten ist keine besonders präzise Wissenschaft. Es ist so, dass die meisten Algorithmen, die sich mit Suiziden beschäftigen, so eine ganz starke Komponente haben, die versucht erst einmal eine zu Grunde liegende Depression zu finden."
Die großen Unternehmen schweigen über ihre Methoden
Denn Depressionen gehören zu den häufigsten Risikofaktoren für einen Suizid. Außerdem sei die Möglichkeit aus umgangssprachlichem Text Depressionen ablesen zu können bislang am besten erforscht, meint Ramthun. In bis zu 80 Prozent der Fälle könne man nur aus dem geschrieben oder getippten Wort auf Depressionen schließen. Dabei seien Maschinen in einigen Fällen sogar zuverlässiger als ausgebildete Psychologen. Doch: Programme können nicht bestimmen, wie stark die Depression ausgeprägt ist. So kann der Algorithmus nur schwer vorauszusagen, wie dringend jemand Hilfe braucht. Die hauseigenen Algorithmen zur Bestimmung von Suizidgefährdung der sozialen Netzwerke kann Roland Ramthun trotz seiner Kenntnisse nur schwer bewerten. Denn über ihre Vorgehensweise schweigen die großen Unternehmen.
"Die Firmen augmentieren da einfach anders. Für die ist es eben wichtig, negative Pressemeldungen in der Regel zu vermeiden, weil es eben in der Vergangenheit zu Fällen gekommen ist, wo Personen sich sehr öffentlichkeitswirksam mit Hilfe dieser sozialen Medien umgebracht haben. Das heißt, da ist dann eben auch das Erkenntnisinteresse, wie funktioniert das Ding im Detail und ist das wissenschaftlich gesichert, unter Umständen nicht so hoch, solange es funktioniert."
Das verärgert die wissenschaftliche Gemeinschaft. Immerhin könnten Forscher von den aus sozialen Netzwerken gewonnen Daten noch viel lernen. Auch für Daniel Ebert wären diese Datensätze interessant. Er ist der Leiter der Abteilung E-Mental-Health an der Friedrich-Alexander Universität Erlangen und entwickelt mit seinem Team Online-Tools, um psychische Erkrankungen in den heimischen vier Wänden zu behandeln.
"Wir brauchen neue Wege diese Betroffenen zu erreichen, die unter suizidalen Gedanken oder Absichten leiden. Wir wissen, dass ein Großteil derer die Versorgungsangebote nicht in Anspruch nimmt. Das hat auch mit Suizidgedanken als Symptom wirklich zu tun, weil letztendlich ist das ja die Schlussforderung des Gehirns, dass es der letzte sinnvolle Schluss ist sich das Leben zu nehmen."
Stehen die Konzerne in der Pflicht?
Mit Hilfe eines Programms könnten dann Betroffene unter anderem lernen wieder einen Sinn im Leben zu erkennen. Bei Depressionen bekommen sie zum Beispiel ein bis zwei Aufgaben pro Woche. Wie es ihnen damit ergeht, schreiben sie auf. Ein Psychologe schaut sich die Fortschritte an und hilft bei der weiteren Umsetzung. Für Wolfgang Maier, Leiter der Psychiatrie und Psychotherapie des Universitätsklinikums in Bonn, kann das nur ein erster Schritt sein. Persönlicher Kontakt und Vertrauen seien unerlässlich beim Umgang mit einem Menschen mit Suizidgedanken.
"Also ich bin skeptisch bei Onlineangeboten. Wer sich zu einem Suizid entschlossen hat, ist in einer verzweifelten Lage. Mir selbst ist nicht bekannt, dass ein Suzident sich aufgrund eines Onlineangebotes von dem Suizid distanziert hätte."
Wie präzise ein Programm die komplexe Psyche des Menschen durchdringen kann, wagt Maier nicht zu beurteilen. Allerdings sei es gut, dass die sozialen Netzwerke sich mit dem Thema überhaupt beschäftigen. David Ebert geht noch einen Schritt weiter und nimmt die Konzerne in die Pflicht.
"Das denke ich schon, dass sie auf jeden Fall eine Verantwortung haben, weil die Daten sind da. Wenn es vorhersehbar ist, dann denke ich, hat die Gesellschaft insgesamt eine Verantwortung sich darum zu kümmern. Die Frage ist nur in welcher Form."
Eine Art Voraussage möchte zukünftig auch die kanadische Regierung treffen. Mit Hilfe der Daten wollen sie herausfinden, welche Regionen am meisten und dringendsten Hilfsangebote brauchen.