Un proyecto con
La ingeniera que se propuso usar las redes sociales para parar el suicidio
A veces evitar un suicidio solo es cuestión de lanzar el mensaje adecuado en el momento justo. Las redes sociales son la gran oportunidad para hacerlo.
Es una escena que conocemos todos. Una persona cae a un río y se ve arrastrada por la corriente hacia una catarata. Lucha por evitarlo e incluso grita pidiendo ayuda, pero la corriente es demasiado fuerte y nadie la oye. Exhausta, se deja llevar y, justo antes de llegar a la cascada, encuentra la rama de un árbol cercana al agua. Saca fuerzas de donde no las tiene y se agarra a ella para salvar su vida.
Ana Freire (Rábade, 1983) es doctora e ingeniera en Informática y trabaja como directora del Área de Tecnología de la UPF Barcelona School of Management. También es especialista en ramas. Concretamente, en ofrecérselas a través de las redes sociales a aquellas personas que planean suicidarse.
Proyecto STOP
promovido por la Universidad Pompeu Fabra, utiliza la tecnología para comprender mejor las tendencias suicidas y ofrecer ayuda a personas con alto riesgo de suicidio.
Mediante el uso de técnicas de análisis de redes sociales, de texto, de imagen, inteligencia artificial y, en particular, aprendizaje automático—y con la colaboración de expertos en distintos campos— el proyecto sale al encuentro de estas personas mediante campañas en redes sociales que las animan a pedir ayuda.
Desarrollar herramientas que ayuden a poner coto al suicidio no es cualquier cosa. Significa adentrarse en un campo rodeado de prejuicios, tabúes y no demasiado explorado. También hacerlo en la primera causa de mortalidad externa en España, por encima de otras como las caídas accidentales o los accidentes de tráfico, según los últimos datos disponibles del INE.
Cuando llegó a la Universidad Pompeu Fabra, Ana Freire buscaba una motivación para investigar. Y la encontró en la relación entre las redes sociales y la enfermedad mental, un ámbito que, hasta entonces, había sido poco estudiado. Concretamente, se centró en la detección de tendencias suicidas en un medio, las redes sociales, en el que muchas personas expresan sus sentimientos, cuando no son capaces de hacerlo en la vida real. Allí es donde dejan trazas de este tipo de comportamientos.
“Me encontré con la publicación en Facebook de una chica que escribía su carta de despedida, en la que decía que se iba a suicidar inmediatamente después. Hubo muchos comentarios pidiéndole que no lo hiciera e incluso que alguien llamara a la policía. Pero la policía llegó tarde”, recuerda Ana Freire.
En lugar de quedarse en la tragedia, Ana Freire analizó las publicaciones previas de esta chica. “Se notaba que tenía problemas psicológicos. Por ejemplo, que no aceptaba su cuerpo y que se sentía mal cuando se miraba al espejo. Y ahí pensé: ¿cómo no hay nada que sea capaz de detectar automáticamente ese tipo de problemas antes de que alguien llegue a consumar un suicidio?”.
Este fue el germen de STOP, un proyecto que permite estudiar patrones de alto riesgo de suicidio en redes sociales para lanzar después campañas dirigidas a usuarios que coincidan con ese perfil. Por ejemplo, mostrarles mensajes que les animen a pedir ayuda si la necesitan. Una rama a la que agarrarse en un momento crítico.
Tecnología para salvar vidas
Cuando se puso en marcha el proyecto STOP en 2017, la enfermedad mental apenas estaba presente en las convocatorias de ayudas a la investigación. “Nos costó mucho encontrar financiación porque no se consideraba un tema de actualidad”, explica Ana Freire. “Y eso que, según la Organización Mundial de la Salud, por cada persona que se suicida, quedan otras seis afectadas de por vida”.
Hoy, en STOP están involucradas hasta siete instituciones con equipos compuestos por ingenieros de análisis de datos, especialistas en análisis de imágenes, psicólogos, psiquiatras, expertos en trastornos alimentarios e incluso especialistas en sesgos de algoritmos de aprendizaje automático.
“Nosotros empezamos con la idea de rastrear en tiempo real las redes sociales para detectar tendencias suicidas e intervenir, pero eso no es posible. Por cuestiones éticas y legales, no puedes rastrear usuarios sin su consentimiento, aunque sus perfiles estén abiertos. Todo debe ser anonimizado”, explica Ana Freire.
Así que, en lugar de buscar personas concretas, el equipo buscó patrones. “Construimos unos algoritmos capaces de detectar patrones de alto riesgo de suicidio para ver qué características tenían en común los usuarios de redes sociales con este nivel de riesgo, siempre de manera anónima para respetar la legalidad”, añade la ingeniera.
Gracias al uso de distintas herramientas y técnicas —crawling, análisis de sentimiento, detección de temas e intereses, algoritmos de aprendizaje automático supervisado, detección de comunidades…—, los equipos analizaron todo tipo de publicaciones relacionadas con el suicidio. A partir de textos e imágenes compartidas e incluso del tipo de actividad que mantenían los usuarios, se extrajeron algunas características comunes que permitieron al equipo establecer perfiles de usuarios relacionados con ese nivel de riesgo.
Pasar a la acción
Fue entonces cuando el proyecto pasó de la teoría a la práctica y comenzó a lanzar ramas salvadoras a personas que podían necesitarlas. En su caso, esas ramas tomaron la forma de anuncios en redes sociales.
Los anuncios no se dirigían a unos usuarios concretos, ya que esto no es posible, sino a personas que encajaban con un perfil determinado, es decir, con ciertas características de edad, género o intereses. Es lo mismo que ocurre cuando vemos un anuncio de unas zapatillas deportivas o de un producto cosmético: la empresa anunciante no sabe quiénes somos, solamente que encajamos dentro del perfil de un potencial comprador.
“Las campañas consistían en imágenes con mensajes que animaban a estas personas a pedir ayuda, a llamar al Teléfono de la Esperanza o al Teléfono de Prevención de Suicidio. También a prestar apoyo a alguien de su entorno, para no resultar demasiado intrusivos”, indica la experta. “En 24 días llegamos a más de 660.000 personas en todo el territorio español. Como resultado, el número de llamadas al Teléfono de la Esperanza procedentes de redes sociales aumentaron el 60%”.
Más allá del suicidio, STOP también estudia otros problemas relacionados y actúa frente a ellos. Este es el caso de la depresión —nueve de cada diez personas que se suicidan padecen una enfermedad mental y la depresión es la más habitual— o el de los trastornos alimentarios. “A partir del análisis de las publicaciones, vimos que una comunidad muy activa en cuestiones de autolesiones y suicidio era precisamente la vinculada a la anorexia. Se trata de una comunidad que se encuentra muy aislada del resto, cuyos integrantes utilizan hashtags para conectar entre sí y suelen compartir imágenes de autolesiones o hablan sobre tendencias suicidas”, subraya Ana Freire.
Las dos caras de las redes sociales
Los perfiles que emplea el proyecto STOP para orientar sus campañas se construyen de manera totalmente anónima y conforme a una exhaustiva revisión ética en un entorno, las redes sociales, que está muy necesitado de ella.
“Las redes sociales tienen dos caras. Por un lado, pueden aumentar los sentimientos de ansiedad, estrés y depresión, sobre todo en los colectivos más vulnerables. Lo hacen por cuestiones como el discurso de odio o porque estas personas ven en sus contactos vidas perfectas que, aunque no son reales, sienten que no pueden alcanzar”, reflexiona Ana Freire. “Sin embargo, las redes sociales también nos permiten llegar a muchas personas con problemas mentales que no han recibido diagnóstico ni tratamiento. Podemos detectar a personas que necesitan ayuda, pero que no lo expresan en la vida real”.
En esta capacidad de los nuevos canales de comunicación de atender gritos de auxilio que, de otra manera, nadie oiría, existe un auténtico filón para el futuro de la salud mental de la mano de la inteligencia artificial. Así lo cree Ana Freire.
“Existe una necesidad por parte de los jóvenes, especialmente los integrantes de la Generación Z, de expresarse a través de herramientas de mensajería instantánea tipo WhatsApp o a través de un chat. Muchas veces no se atreven a acudir a una consulta psicológica porque se sienten intimidados. Tampoco a hablar por teléfono porque sus padres están en la habitación de al lado y no quieren que les escuchen. Así que, por el tipo de comunicación al que ellos están acostumbrados, hemos visto que solicitan a menudo el uso de chats para estas cuestiones”, desvela la experta.
Combinar el uso de chats con la inteligencia artificial puede ser la respuesta que necesitan muchas personas que se ven arrastradas por la corriente de la enfermedad mental y que necesitan una rama a la que asirse. “Yo creo que, en el futuro, los chatbots —robots que utilizan aplicaciones de mensajería instantánea para conversar con humanos— serán los que resolverán muchos problemas de salud mental”, finaliza.
Visibilizar para normalizar
Cada año se suicidan en el mundo unas 800.000 personas y muchas más quedan marcadas de por vida. Sin embargo, la visibilidad del suicidio —y de las enfermedades mentales que suelen estar detrás de él— es muy limitada. Este es uno de los factores que impiden la normalización de unos problemas que requieren atención de manera urgente.
Sin embargo, la pandemia de COVID-19 ha puesto el foco sobre la salud mental debido a las dramáticas consecuencias que la emergencia sanitaria ha tenido sobre este ámbito. Tanto es así, que el Gobierno ha presentado recientemente el Plan de Acción 2021-2024 Salud Mental y COVID-19 para atender ese impacto con una dotación de 100 millones de euros.
“Que la sociedad vea que los gobiernos se preocupan por estos temas puede aportar mucha visibilidad sobre la salud mental y ayudar a normalizar los problemas relacionados con ella”, destaca Ana Freire. “Esto ayudará a que las personas que los sufren se abran más y vean que acudir a la consulta de un psicólogo es tan necesario como ir al odontólogo. Es importante que perciban que la sociedad les apoya y que lo que les ocurre no es algo raro. También lo es que la propia sociedad esté alerta para detectar si alguna persona puede necesitar ayuda en este sentido”.