Compartir
Publicidad

¿Podría Facebook prevenir un suicidio?

¿Podría Facebook prevenir un suicidio?
Guardar
0 Comentarios
Publicidad
Publicidad

La respuesta es difícil de contestar, pero por lo menos eso es lo que busca. Facebook y otras grandes empresas de redes sociales están buscando formas de prevenir el suicidio entre sus usuarios. Están diseñando nuevos sistemas de alerta para identificar y ayudar a los individuos en riesgo. Justamente la semana pasada, Facebook presentó algunas herramientas que incluyen algoritmos de reconocimiento de patrones para detectar usuarios que pueden ser suicidas o que corren el riesgo de hacerse daño. El objetivo es conectar a los usuarios con servicios de salud mental.

Se estima que hay una muerte por suicidio en el mundo cada 40 segundos y el suicidio es la segunda causa principal de muerte entre los 15 y los 29 años. Los expertos dicen que una de las mejores maneras de prevenir el suicidio es estar en contacto con personas que se preocupen por uno. Actualmente Facebook cuenta con más de mil millones de usuarios diarios en todo el mundo. Siendo los adolescentes uno de los grupos más grandes.

Una de las nuevas funcionalidades de Facebook es permitir a los amigos reportar mensajes que contengan señales de cualquier tipo de plan suicida o de auto-mutilación, así como desplegar un menú de opciones para las personas en riesgo como para el amigo que lo reportó. Las opciones incluyen líneas directas de ayuda y consejos sobre cómo actuar en momentos de crisis. Varias plataformas como Twitter, Pinterest y YouTube, también cuentan con sistemas de informe similares.

Facebook

Una de las novedades de Facebook es utilizar algoritmos de reconocimiento de patrones para identificar a las personas que pueden estar en riesgo de autoagresión y proporcionarles recursos de ayuda. La compañía dice que su nuevo programa de inteligencia artificial, que se lanzará en un grupo piloto al principio, utilizará el aprendizaje automático para identificar mensajes que sugieran pensamientos suicidas, aunque ningún amigo lo haya reportado.

Los algoritmos de aprendizaje automático utilizarán dos señales, una serán las palabras o frases que se relacionen con el suicidio o daño propio en los mensajes de los usuarios y la otra con los comentarios realizados por los amigos preocupados. Si el programa de reconocimiento de patrones identifica un post preocupante, el botón de "Reportar post" aparecerá más prominentemente para animar visualmente a los usuarios a darle clic. Para ayudar a la inteligencia artificial a detectar este tipo de mensajes, Facebook recopiló miles de mensajes que han sido reportados por amigos que están preocupados por otro amigo.

Facebook

Si las señales indican un nivel de urgencia más alto, el sistema alertará automáticamente al equipo de Operaciones Comunitarias de Facebook, un grupo personas que proporcionan apoyo técnico y supervisan el sitio para detectar problemas como intimidación o bullying, así como cuentas piratas. El equipo revisará rápidamente el post y determinará si la persona necesita apoyo adicional. Si es así, se aseguran de que en el feed del usuario aparezcan una lista de recursos.

Algunos psicólogos y psiquiatras aseguran que es muy difícil detectar un pensamiento suicida con un solo mensaje, pero reconocen que es una buena forma de ayudar a las personas que viven la mayor parte de sus vidas conectadas a las redes sociales.

Vía | Scientific American

Imágenes | Johan Larsson | Marcus Quigmire | Sarah Marshall |

En Vitónica México | ¿Los “likes” que recibes en las redes sociales afectan tu bienestar psicológico?
En Vitónica México | La depresión es una de las enfermedades más discapacitantes en México

Temas
Publicidad
Publicidad
Publicidad
Inicio