Pasar al contenido principal

El esfuerzo de Facebook para detener los suicidios revela una preocupante brecha entre las tecnológicas de Silicon Valley y los expertos en salud

Zuckerberg
Chip Somodevilla/Getty Images
  • Facebook tiene una herramienta de control de suicidios que utiliza el aprendizaje automático para identificar publicaciones que pueden indicar que alguien está en riesgo de suicidarse.
  • La herramienta ha participado en el envío de personal de respuesta a emergencias a lugares más de 3.500 veces.
  • A un psiquiatra de Harvard le preocupa que la herramienta pueda empeorar los problemas de salud al buscar a las personas equivocadas o al agravar las crisis de salud mental.
  • Facebook no considera que la herramienta sea una investigación sobre la salud y no ha publicado ninguna información sobre cómo funciona o si tiene éxito.

Facebook sabe que tiene un problema cuando una serie de personas utilizan la plataforma para retransmitir públicamente sus suicidios en directo.

El personal de la empresa lleva pensando en el tema del suicidio desde 2009, cuando varios de ellos tuvieron lugar en dos escuelas secundarias cerca de la sede de la empresa en Palo Alto. Entonces, las cosas se volvieron personales. Después de que la compañía pusiera en marcha una herramienta de streaming de vídeo en directo llamada "Facebook Live", varias personas la utilizaron para emitirse a sí mismas quitándose la vida. Primero fue una chica de 14 años y luego un hombre de 33 años, ambos en Estados Unidos. Más tarde, en el otoño, un joven en Turquía retransmitió un vídeo mostrando su suicidio.

Facebook, dirigido por el CEO Mark Zuckerberg, encargó a su equipo de seguridad que hiciera algo al respecto.

El resultado fue el algoritmo de control de suicidios de Facebook, que lleva funcionando desde 2017 y ha participado en el envío de personal de emergencias más de 3.500 veces hasta el otoño pasado, según la compañía.

Utilizando la tecnología de reconocimiento de patrones, la herramienta identifica los mensajes y las secuencias en directo que parecen expresar la intención de suicidarse. Escanea el texto de un mensaje, junto con los comentarios que contiene, como "¿Estás bien?". Cuando uno se clasifica como potencialmente suicida, se envía primero a un moderador de contenido y luego a un miembro del personal capacitado encargado de notificar a los equipos de emergencias.

El psiquiatra y consultor tecnológico de Harvard, John Torous, sólo se enteró de la existencia de la herramienta el año pasado, a través de un periodista. Dice que le preocupa que pueda estar haciendo más daño que bien.

Leer más: Facebook ha retirado 1,5 millones de vídeos del terrible atentado de Nueva Zelanda

Nosotros, como público, estamos participando en este gran experimento

"Nosotros, como público, estamos participando en este gran experimento, pero no sabemos si es útil o no", dice Torous a Business Insider.

Torous ha pasado años colaborando con gigantes tecnológicos como Microsoft en investigación científica. La razón por la que no había oído hablar del algoritmo de control de suicidios de Facebook era porque Facebook no ha compartido información sobre la herramienta con investigadores como él, o con la comunidad médica y científica en general.

De hecho, Facebook no ha publicado ningún dato sobre el funcionamiento de su herramienta. El punto de vista de la compañía es que la herramienta no es un producto de salud o una iniciativa de investigación, sino que es más parecida a pedir ayuda si se ve a alguien en problemas en un espacio público.

"Estamos en el negocio de conectar a la gente con comunidades de apoyo. No somos proveedores de salud mental", ha dicho anteriormente a Business Insider Antigone Davis, directora global de seguridad de Facebook.

Pero sin información pública sobre la herramienta, Torous dice que las grandes preguntas sobre la herramienta de control de suicidios de Facebook son imposibles de responder. Le preocupa que la herramienta pueda detectar a los usuarios equivocados, desanimar las discusiones honestas sobre la salud mental en la plataforma, o escalar o incluso crear una crisis de salud mental donde no la había. 

En resumen, Torous afirma que el uso de Facebook de la herramienta podría estar perjudicando a más gente de la que está ayudando.

"Una cosa es que un académico o una empresa diga que esto funcionará o no. Pero no se ve ninguna evidencia en el terreno revisada por colegas", aseguró Torous. "Es preocupante. Tiene esa sensación de Theranos".

Leer más: Google revisó más de un millón de vídeos potencialmente terroristas en YouTube en lo que va de año

Científicos y empresas discrepan sobre la definición de investigación en salud

La herramienta de control de suicidios de Facebook es sólo un ejemplo de cómo las barreras que separan la tecnología de la atención médica se están desmoronando. Una creciente gama de productos y servicios - piensa en Apple Watch, Alexa de Amazon, e incluso la última aplicación de meditación - se extiende a ambos lados de la brecha entre la innovación en salud y la interrupción de la tecnología. Los médicos ven alertas rojas. Los líderes tecnológicos ven la revolución.

"Hay casi esta suposición implícita de que juegan con un conjunto diferente de reglas", asegura Torous.

En Facebook, el equipo de seguridad habló con expertos de varias organizaciones sin ánimo de lucro de prevención de suicidios, entre ellas Daniel Reidenberg, fundador de Save.org. Reidenberg explica a Business Insider que ayudó a Facebook a crear una solución compartiendo sus experiencias, atrayendo a personas que habían luchado personalmente contra el suicidio, y haciendo que compartieran lo que les ayudaba.

Reidenberg explica a Business Insider que cree que Facebook está haciendo un buen trabajo en suicidio, pero debido a que sus esfuerzos están en aguas inexploradas, cree que surgirán problemas cotidianos con la herramienta. No está de acuerdo con la opinión de Torous de que los esfuerzos son investigación en salud.

"No hay ninguna empresa que piense más en el futuro en esta área", dice Reidenberg.

Aún así, no está claro cómo de bien funciona la herramienta de control de suicidios de Facebook. Debido a problemas de privacidad, los que responden a la emergencia no pueden decirle a Facebook lo que ocurre en la escena de un posible suicidio, asegura Davis. En otras palabras, los que respondieron a la emergencia no pueden decirle a Facebook si llegaron a la escena demasiado tarde para detener una muerte, si se presentaron en el lugar equivocado o si llegaron sólo para enterarse de que no había ningún problema real.

Torous, un psiquiatra que está familiarizado con los temas espinosos de la predicción del suicidio, se muestra escéptico con los resultados de la herramienta. Señala una revisión de 17 estudios en los que los investigadores analizaron 64 modelos diferentes de predicción del suicidio y concluyeron que los modelos casi no tenían capacidad para predecir con éxito un intento de suicidio.

"Sabemos que Facebook la ha construido y la está usando, pero no sabemos si es exacta, si está señalando a la gente correcta o incorrecta, o si está detectando las cosas demasiado pronto o demasiado tarde", reflexiona Torous.