• 100% unabhängig
  • 100% kostenlos
Kann Facebook suizidgefährdete Nutzer zu erkennen?

Kann Facebook suizidgefährdete Nutzer zu erkennen?

Keine Kommentare

Seit Neuestem werden von Facebook unter den Mitgliedern Suizidgefährdete identifiziert und sogleich wird Hilfe angeboten. Viele Apps gehen ähnlich vor. Verlässliche Studien über die Erfolgsquoten sind für die virtuellen Therapien allerdings nicht vorhanden.

Jede Woche will Facebook die Welt verbessern. Die neueste Episode ist das identifizieren durch die künstliche Intelligenz, welche Nutzereinträge auf Suizidgedanken hindeuten. Ist ein Nutzer der künstlichen Intelligenz auffällig, wird dies vom menschlichen Mitarbeiter überprüft. Erkennt der Mitarbeiter diese Absicht zur Selbsttötung, wird ein Kontakt zum Betroffenen hergestellt. Von Facebook erhalten die gefährdeten Nutzer Tipps und Namen von Beratungsstellen.

Facebook steht als digitaler Seelsorge allerdings nicht an erster Stelle. Da gab es schon Andere, zum Beispiel die kleine App „Koko“ – ein Anagramm von Ok. Als Ausgliederung begonnen und im Ursprung als lockeres Ersthelfer Geplänkel von Nutzer zu Nutzer sein sollte, hat sich mittlerweile fast automatisiert. Bei schweren Fällen wird dennoch ein menschlicher Moderator eingeschaltet, in der Mehrheit von  90 Prozent übernimmt allerdings in dieser Situation die Software Beratung und Krisenintervention.

Bei den Teenagern ist Koko bereits fest in den populären Chat-Apps wie Facebook Messenger, Kik oder Telegram installiert. Demnächst wird, nach einer weiteren erfolgreichen Finanzierungsrunde, jeder digitale Assistent mit der zur Empathie fähigen künstlichen Intelligenz ausgestattet. Alexa, Siri und Andere, sorgen bei den Nutzern im weitesten Sinne für mehr Orientierung.

 

Ideenreiche Start-ups

Im Internet persönliche Probleme zu offenbaren, scheint dem Menschen ein tiefes Bedürfnis zu sein und im Netz sind für jede psychische Störung und jeden Tick  Selbsthilfeforen vorhanden. Somit steigen ideenreiche Start-ups mit virtuellen Therapeuten in den Markt ein. Unternehmen wie X2AI programmieren Psycho-Chatbots (Dialogsysteme) in rascher Folge und mit harmlosen Namen, die Vertrauen erwecken, wie Emma, Sara oder Karim. Der Karim hilft zum Beispiel traumatisierten Flüchtlingen aus Syrien und Emma lindert die Angst und Depression von Teenagern und Sara löst eventuell weitere Probleme zur Motivation.

Über Erfolgsquoten der virtuellen Therapien gibt es keine verlässlichen Studien. Dafür sind Kritiker sofort zugegen, die sich fragen, was es über den Menschen in der Gegenwart aussagt, wenn einer Maschine das Verzweifelte, Geplagte, die Sorgen und Ängste angetragen werden. Der Gedanke ist doch gar nicht so abwegig, dass ein Programm für das seelische Wohlbefinden sorgt. Schon immer neigte der Mensch dazu, analog das Verhalten von Maschinen zum Menschen zu bewerten.

Der MIT-Informatiker Joseph Weizenbaum programmierte Mitte der Sechziger Jahre die einfache Chatsoftware „Eliza“. Eliza imitierte einen geduldigen Psychotherapeuten und wandelte die Aussagen der menschlichen Gesprächspartner in Fragen um und spielte diese zurück. Probanden (Testpersonen) betrachteten das Programm tatsächlich als mitfühlend und emotional, sogar mit der Gewissheit, dass mit einem Computer gesprochen wurde. Was Weizenbaum entsetzte, das einige Versuchspersonen darum baten, mit der Maschine alleine zu sprechen, da die Mitteilungen an Eliza einfach zu persönlich seien.