Snapchat hat angekündigt, eine neue Funktion namens „Hier Für Dich“, das verspricht „proaktiven in-app-support zu Snapchatters wer erleben kann eine psychische Gesundheit oder emotionale Krise.“
Die beliebte Jugend-orientierten app ist die neueste für den Beitritt zu einer Welle von social-media-Plattformen Sie überwachen und verbessern das Wohlbefinden der Benutzer.
Details sind rar, aber es scheint, dass die Snapchat-Funktion wird der monitor sucht für die wichtigsten Begriffe im Zusammenhang mit Angst, depression, stress, Trauer, Selbstmordgedanken und Mobbing. Wenn diese erkannt werden, wird es wieder links zu hilfreichen Ressourcen, die Snapchat sagt, wird von lokalen Experten.
Dies könnte zum Beispiel bedeuten, dass wenn ein Snapchat-user in Melbourne-Suche nach „Essstörung“ in die app, richten Sie sich auf glaubwürdige Inhalte von Essstörungen Victoria oder die National Butterfly-Stiftung.
Es ist ein willkommen bewegen von Snapchat, da die bestehende Evidenz deutet darauf hin, dass die Gespräche über die psychische Gesundheit (einschließlich der Hilfe suchen) sind Häufig online und suchen für solche Inhalte ist in Verbindung mit einem niedrigeren Wohlbefinden. Wird es funktionieren? Diese Wahrscheinlichkeit hängt davon ab, ob die Nutzer wirklich klicken Sie auf den Ressourcen, und ob die Ressourcen sind glaubhaft und führen Menschen, die Behandlung zu suchen.
Wie haben sich andere social-media-Plattformen näherte sich dem Problem?
Auf Twitter, Facebook, TikTok, und Instagram, die Nutzer können block-oder Berichts-material, und Facebook bietet auch Ressourcen für die Nutzer, sich direkt mit anderen Nutzern über Ihre Beiträge. Diese Plattformen, zusammen mit Pinterest, bereitstellen künstlicher Intelligenz zu identifizieren und zu verbieten, Inhalte, die betrachtet werden können, als gesundheitsschädlich.
Facebook und Pinterest haben auch eingeführt, mehr proaktive Maßnahmen, die versuchen, Ressourcen bereitzustellen, um Benutzer sehen Sie als Gefahr für die psychische Gesundheit betrifft.
Vielleicht aufgefordert, durch eine Reihe von Selbstmorden broadcast-übertragung über die Plattform Facebook hat ein Suizid-Präventions-initiative, die verwendet AI-Funktionen Kennzeichnen, die Benutzer, die die Gefahr der Selbstverletzung oder Selbstmord. Pinterest fordert den Benutzer auf, verpflichten Laune verändern in-app-Aktivitäten basieren auf Ihren Suchanfragen.
Details sind oft versteckt
Die genauen details dieser social-media-Funktionen sind oft versteckt von der Ansicht, mit Pressemitteilungen sprechen nur vage. Die Wissenschaft kann (oder auch nicht) motivieren, das design der Funktionen ist selten erwähnt.
Es gibt auch eine Abwesenheit von peer-review-Literatur zu bewerten, wie erfolgreich diese Funktionen erreichen Ihre gesetzten Ziele. Solche information ist wichtig zu wissen, ob diese änderungen haben keinen Effekt, oder ob weitere Maßnahmen notwendig, um social-media-Nutzer sicher und gut.
Potenzielle Vorteile aus diesen Initiativen sollte auch abgewogen werden gegen den Schutz der Privatsphäre. Datenschutz-Experten sind besorgt, dass Informationen auf Facebook ist nicht abgedeckt durch die traditionelle Daten-Schutz und Sicherheit Gesetze. Was mehr ist, Facebook hat nicht freigegebenen details der Datenschutz-Protokolle, die für die initiative.
Wir brauchen mehr wissen über soziale Medien und seelische Gesundheit
Sogar, wenn die software besser auf die überwachung und die Beschränkung von schädlichen Inhalten, gibt es viele andere Möglichkeiten in der social-media-Plattformen führen zu emotionalen Krisen. Während einige dieser Probleme sind wohl bekannt, wie ungünstig sich mit anderen zu vergleichen), einige neuere und die Benutzer müssen eine bestimmte Ebene der online-Kompetenzen werden weniger anfällig für Sie.
Neue Benutzer brauchen Unterstützung, um zu vermeiden, fallen Beute zu fallen für die unvorsichtigen, wie catfishing, falsche Konten-und Identitätswechsel, oder irregeführt durch falsche oder gefährliche Gesundheits-Empfehlungen.
Wir wissen noch nicht viel über welche Art von Interventionen sind effektiver als andere, und für wen. Wir wissen, dass einfache Lösungen, wie die Warnhinweise auf Digital manipulierte Bilder oder vorübergehend zu verbieten Benutzer, die post anstößige Inhalte, sind nicht gefunden worden, um wirksam zu sein.
Stumpfe Instrumente wie diese sind möglicherweise nicht ausreichend anspruchsvoll, um Antworten auf verschiedene Ebenen der muss und kann nur eine Kurzfristige Korrektur auf langfristige Probleme. Wir brauchen eindeutig eine differenziertere, multi-zielgerichtetes Vorgehen.
Ein ganzheitlicher Ansatz kann die Antwort sein
Medienkompetenz, anti-Mobbing und Resilienz-building-Programme können Verringerung der Exposition gegenüber schädlichen Inhalten und statten die Menschen mit den richtigen Fähigkeiten, um Ihnen helfen, besser verwalten Sie Ihre social-media-Umfeld. Dieser ganzheitliche Ansatz, social-media-aktiviert intervention bildet den Schwerpunkt unserer team-WLAN-Projekt.
Ein wichtiger Faktor bei der Lenkung der Benutzer zu entsprechenden Pflege ist es, das Bewusstsein für die Bedeutung und die Verfügbarkeit von Gesundheitsdiensten. Aber psychische Erkrankungen sind Komplex, und mit der information allein ist keine Garantie, dass jemand die Behandlung suchen.
Eine Vielzahl von Hindernissen, sowohl auf der individuellen und systemischen, können auch verhindern, dass Menschen aus Hilfe suchen. Hierzu gehören die Kosten der Behandlung, das fehlen von lokalen Behandlungsmöglichkeiten, und das stigma, mit psychischen Erkrankungen.
Diese Barrieren und Komplexität machen es notwendig, dass Snapchat und anderen Plattformen empfehlen die richtigen Ressourcen. Die Entscheidungen über diese Ressourcen müssen undergirded durch eine rigorose Basis der wissenschaftlichen Evidenz.