Was Tech zur Suizidprävention beiträgt

Obwohl es nicht möglich ist, jeden Suizid zu verhindern, gibt es viele Dinge, die helfen können, das Risiko zu senken. Und manches davon ist so nah wie Ihr Smartphone.

Gesundheitssysteme, Technologieunternehmen und Forschungseinrichtungen untersuchen, wie sie bei der Suizidprävention helfen können. Sie versuchen, Technologie im Allgemeinen – und künstliche Intelligenz (KI) im Besonderen – zu nutzen, um subtile Anzeichen von Suizidgefahr zu erkennen und einen Menschen zum Eingreifen zu alarmieren.

„Die Technologie ist zwar nicht ohne Herausforderungen, bietet aber unglaubliche Möglichkeiten“, sagt Rebecca Bernert, PhD, Direktorin und Gründerin des Suicide Prevention Research Laboratory an der Stanford University School of Medicine in Palo Alto, Kalifornien.

Bernert sagt zum Beispiel, dass ihre Hausärzte besser darauf vorbereitet sein könnten, ihnen zu helfen, wenn KI Risikopatienten anhand ihrer Krankenakten kennzeichnen kann. Während psychiatrische Fachkräfte dafür speziell ausgebildet sind, zeigen Studien, dass etwa 45 % der Menschen, die durch Suizid sterben, in ihrem letzten Lebensmonat ihren Hausarzt aufsuchen. Nur 20 % suchen einen Psychologen auf.

Hier sind einige der technischen Fortschritte, die sich in der Entwicklung befinden oder bereits stattfinden.

Hinweise aus Ihrer Stimme

Forscher des Worcester Polytechnic Institute in Worcester, MA, bauen ein KI-basiertes Programm namens EMU (Early Mental Health Uncovering) auf, das Daten von einem Smartphone auswertet, um das Selbstmordrisiko des Telefonbenutzers zu bewerten.

Diese Technologie befindet sich noch in der Entwicklung. Es könnte das Potenzial haben, Teil einer Gesundheits-App zu werden, die Sie auf Ihr Telefon herunterladen könnten – vielleicht auf Vorschlag Ihres Gesundheitsdienstleisters.

Nachdem Sie alle erforderlichen Berechtigungen erteilt haben, würde die App KI einsetzen, um Ihr Selbstmordrisiko über Ihr Telefon zu überwachen. Zu den enthaltenen Funktionen gehört die Option, mit einem bereitgestellten Skript in den Sprachanalysator der App zu sprechen oder die App zu autorisieren, Segmente von Telefonanrufen aufzuzeichnen. Die App kann subtile Merkmale in der Stimme erkennen, die auf Depressionen oder Selbstmordgedanken hindeuten können.

„Es gibt bekannte Stimmmerkmale, die Menschen nicht erkennen können, die KI jedoch erkennen kann, weil sie darauf trainiert wurde, dies anhand großer Datenmengen zu tun“, sagt der Psychologe Edwin Boudreaux, PhD. Er ist stellvertretender Forschungsleiter in der Abteilung für Notfallmedizin an der UMass Chan Medical School.

„Es kann die Stimme und all diese anderen Datenquellen nehmen und sie kombinieren, um eine robuste Vorhersage darüber zu treffen, ob Ihre Stimmung gedrückt ist und ob Sie Selbstmordgedanken hatten“, sagt Boudreaux, der keine finanzielle Beteiligung an dem Unternehmen hat, das dies macht App. “Es ist wie eine Telefonbiopsie.”

Smartphone-Daten könnten mit Erlaubnis des Benutzers verwendet werden, um Warnungen an Telefonbenutzer selbst zu senden. Dies könnte sie veranlassen, Hilfe zu suchen oder ihren Sicherheitsplan zu überprüfen. Oder vielleicht könnte es den Gesundheitsdienstleister der Person benachrichtigen.

Apps benötigen derzeit keine behördliche Genehmigung, um ihre Behauptungen zu untermauern. Wenn Sie also eine App zur Suizidprävention verwenden, sprechen Sie mit Ihrem Therapeuten, Psychiater oder Arzt darüber.

Fachwissen teilen

Google arbeitet daran, suizidgefährdeten Menschen Ressourcen wie die National Suicide Prevention Lifeline zur Verfügung zu stellen. Es hat seine KI-Expertise auch mit The Trevor Project, einer LGBTQ-Suizid-Hotline, geteilt, um der Organisation zu helfen, Anrufer mit dem höchsten Risiko zu identifizieren und ihnen schneller zu helfen.

Wenn jemand in einer Krise das Trevor Project per SMS, Chat oder Telefon kontaktiert, beantwortet er drei Aufnahmefragen, bevor er mit der Krisenunterstützung verbunden wird. Google.org Fellows, ein von Google betriebenes gemeinnütziges Programm, half dem Trevor-Projekt dabei, mithilfe von Computern Wörter in Antworten auf Aufnahmefragen zu identifizieren, die mit dem höchsten, unmittelbar bevorstehenden Risiko verbunden waren.

Wenn Menschen in einer Krise einige dieser Schlüsselwörter bei der Beantwortung der Aufnahmefragen des Trevor-Projekts verwenden, wird ihr Anruf zur Unterstützung an den Anfang der Warteschlange gestellt.

Eine Kultur der Härte

Sie wissen vielleicht bereits, dass Suizide ein besonderes Risiko für Militärs und Polizisten darstellen. Und Sie haben zweifellos von den Selbstmorden unter Angehörigen der Gesundheitsberufe während der Pandemie gehört.

Aber es gibt noch einen anderen Bereich mit einer hohen Selbstmordrate: das Baugewerbe.

Laut CDC sterben Bauarbeiter doppelt so häufig durch Selbstmord wie Menschen in anderen Berufen und fünfmal häufiger durch Selbstmord als an arbeitsbedingten Verletzungen. Hohe Raten an körperlichen Verletzungen, chronischen Schmerzen, Arbeitsplatzinstabilität und soziale Isolation aufgrund langer Arbeitswege können eine Rolle spielen.

JobSiteCare, ein für Bauarbeiter konzipiertes Telemedizinunternehmen, erprobt eine Hightech-Antwort auf Selbstmord in der Branche. Das Unternehmen bietet Bauarbeitern, die auf Baustellen verletzt wurden, telemedizinische Versorgung über Tablets, die in einem Schließfach im Krankenwagen vor Ort aufbewahrt werden. Es erweitert diese Versorgung nun um die psychische Gesundheitsversorgung und die Krisenreaktion.

Arbeiter können über das Tablet im Anhänger in Sekundenschnelle Hilfe erhalten. Sie haben auch Zugang zu einer 24/7-Hotline und laufender psychischer Gesundheitsversorgung durch Telemedizin.

„Telementale Gesundheit ist eine der großen Erfolgsgeschichten in der Telemedizin“, sagt Dan Carlin, MD, Gründer und CEO von JobSiteCare. „Im Baugewerbe, wo Sie Ihr Job von Ort zu Ort führt, wird Ihnen die Telemedizin überallhin folgen.“

Selbstmord-Sicherheitsplan-App

Die Jaspr-App soll Menschen nach einem Suizidversuch bereits im Krankenhaus helfen. So funktioniert das.

Ein Gesundheitsdienstleister beginnt mit der Nutzung der App beim Patienten im Krankenhaus. Gemeinsam entwickeln sie einen Sicherheitsplan, um einen zukünftigen Selbstmordversuch zu verhindern. Der Sicherheitsplan ist ein Dokument, das ein Gesundheitsdienstleister mit einem Patienten entwickelt, um ihm bei der Bewältigung einer zukünftigen psychischen Gesundheitskrise zu helfen – und der Stressoren, die typischerweise Suizidgedanken auslösen.

Der Patient lädt die Heimbegleiter-App von Jaspr herunter. Sie können auf ihren Sicherheitsplan zugreifen, Tools zur Bewältigung einer Krise basierend auf den in ihrem Sicherheitsplan beschriebenen Präferenzen, Ressourcen für Hilfe während einer Krise und ermutigende Videos von echten Menschen, die einen Selbstmordversuch überlebt oder einen geliebten Menschen durch Selbstmord verloren haben.

Was ist, wenn die KI falsch liegt?

Es besteht immer die Möglichkeit, dass die KI falsch einschätzt, wer einem Suizidrisiko ausgesetzt ist. Es ist nur so gut wie die Daten, die seinen Algorithmus antreiben.

Ein „Falsch-Positives“ bedeutet, dass jemand als gefährdet identifiziert wird – dies aber nicht der Fall ist. Das würde in diesem Fall bedeuten, jemanden fälschlicherweise als suizidgefährdet zu bezeichnen.

Bei einem „falschen Negativ“ wird eine gefährdete Person nicht gekennzeichnet.

Das Schadensrisiko sowohl durch falsch negative als auch durch falsch positive Ergebnisse ist zu groß, um KI zur Identifizierung des Suizidrisikos einzusetzen, bevor die Forscher sicher sind, dass es funktioniert, sagt Boudreaux.

Er stellt fest, dass Facebook KI verwendet hat, um Benutzer zu identifizieren, die einem unmittelbaren Suizidrisiko ausgesetzt sind.

Meta, die Muttergesellschaft von Facebook, antwortete nicht auf die Bitte von WebMD um einen Kommentar zur Verwendung von KI zur Identifizierung und Bekämpfung des Suizidrisikos bei seinen Nutzern.

Laut seiner Website erlaubt Facebook Benutzern, Beiträge zu melden, einschließlich Facebook-Live-Videos, die darauf hindeuten können, dass sich eine Person in einer Selbstmordkrise befindet. Die KI scannt auch Posts und macht die Möglichkeit für Benutzer, den Post zu melden, wenn dies angemessen erscheint, prominenter. Unabhängig davon, ob Benutzer einen Beitrag melden, kann die KI auch Facebook-Beiträge und Live-Videos scannen und markieren. Facebook-Mitarbeiter überprüfen Posts und Videos, die von Benutzern oder KI gemeldet wurden, und entscheiden, wie sie damit umgehen.

Sie können die Person, die den Beitrag erstellt hat, mit Ratschlägen kontaktieren, um einen Freund oder eine Krisen-Hotline wie die National Suicide Prevention Lifeline zu erreichen, die diesen Monat ihre dreistellige 988-Nummer eingeführt hat. Benutzer können sich direkt über den Facebook Messenger an Krisentelefone wenden.

In einigen Fällen, wenn ein Beitrag auf ein dringendes Risiko hinweist, kann Facebook die Polizeidienststelle in der Nähe des Facebook-Nutzers in einer potenziellen Krise kontaktieren. Ein Polizeibeamter wird dann für einen Gesundheitscheck zum Haus des Benutzers geschickt.

Die Social-Media-Plattform TikTok, deren Vertreter sich ebenfalls weigerten, für diesen Artikel interviewt zu werden, aber Hintergrundinformationen per E-Mail lieferten, folgen ähnlichen Protokollen. Dazu gehören die Verbindung von Benutzern mit Krisen-Hotlines und die Meldung dringender Posts an die Strafverfolgungsbehörden. TikTok bietet auch Hotline-Nummern und andere Krisenressourcen als Reaktion auf Suizidsuchen auf der Plattform.

Datenschutzbedenken

Die Möglichkeit, dass Social-Media-Plattformen die Polizei kontaktieren, wurde von Datenschutzexperten sowie Experten für psychische Gesundheit wie Boudreaux kritisiert.

„Das ist eine schreckliche Idee“, sagt er. „Facebook hat es bereitgestellt, ohne dass die Benutzer wussten, dass die KI im Hintergrund arbeitet und welche Folgen es hätte, wenn die KI etwas identifiziert. Die Entsendung eines Polizeibeamten kann die Situation nur verschlimmern, insbesondere wenn Sie einer Minderheit angehören. Abgesehen davon, dass es peinlich oder potenziell traumatisierend ist, hält es die Leute davon ab, etwas zu teilen, weil beim Teilen schlimme Dinge passieren.“

Datenschutzbedenken sind der Grund, warum der Algorithmus, der Facebook-Posts an Strafverfolgungsbehörden senden könnte, in der Europäischen Union verboten ist, so die Zeitschrift für Recht und Biowissenschaften.

Die Folgen für Personen, die fälschlicherweise als Hochrisiko eingestuft werden, hängen, erklärt Boudreaux, davon ab, wie die Organisation mit der vermeintlich gefährdeten Person umgeht. Ein möglicherweise unnötiger Anruf einer medizinischen Fachkraft richtet möglicherweise nicht den gleichen Schaden an wie ein unnötiger Besuch der Polizei.

Wenn Sie oder jemand, den Sie kennen, an Suizid denken, können Sie sich an die wenden Nationale Rettungsleine für Suizidprävention. In den USA können Sie 988 anrufen, schreiben oder chatten, um die zu erreichen Nationale Rettungsleine für Suizidprävention ab dem 16. Juli 2022. Sie können die Lifeline auch unter der ursprünglichen Nummer 800-273-8255 anrufen. Hilfe ist rund um die Uhr auf Englisch und Spanisch verfügbar.

source site-39

Leave a Reply