El escalofriante lado oscuro de la terapia online

Tanmoy Goswami
| Traducido por: 
- Actualizado:
Lado oscuro terapia online

Marianne Ayala/Business Insider

  • Las aplicaciones de salud mental cubren una necesidad muy urgente de la sociedad, pero tienen un lado oscuro.
  • Como sucede con otras apps, comparten datos personales relacionados con la salud, violando la privacidad de sus usuarios.

¿Cómo ganar dinero a costa de personas con problemas urgentes de salud mental?

Loris, una startup que ayuda a las empresas a mejorar su atención al cliente, encontró una manera. Fundada en 2018, utilizó datos generados a partir de conversaciones de texto con clientes que tenían algún problema para fabricar un software de atención al cliente "empático". Lo curioso es que su fuente de datos era Crisis Text Line, una línea directa de prevención del suicidio sin ánimo de lucro y empresa matriz de Loris.

Crisis Text Line, fundada hace 10 años, utiliza inteligencia artificial para responder a personas que sufren abusos emocionales, autolesiones o pensamientos suicidas. Una investigación de Politico del año pasado explicaba que esta línea de ayuda creada por Loris con el fin de desarrollar y vender un software de IA podía guiar a los agentes de atención al cliente. Esta guía, se proporciona a través de chats en directo con los clientes utilizando "técnicas de desescalada, estrategias de inteligencia emocional y experiencia formativa" de eficacia probada, según el medio.

En el centro del acuerdo estaba lo que Crisis Text Line denominó el "mayor conjunto de datos sobre salud mental del mundo": 219 millones de mensajes de más de 6,7 millones de conversaciones a través de SMS, Facebook Messenger y WhatsApp.

La explotación de datos con fines lucrativos es habitual en el negocio de la tecnología moderna: los motores de búsqueda, las redes sociales y las aplicaciones de streaming recopilan y monetizan los datos que obtienen de los usuarios. Pero comercializar los datos de una línea de ayuda a la salud mental es muy distinto de extraer datos sobre los hábitos de los clientes a la hora de ver películas o comprar por Internet. La información utilizada para Loris procedía de personas que se encontraban en el momento más bajo de sus vidas, cuando tal vez no eran capaces de comprender realmente cómo se utilizarían sus datos y dar su consentimiento.

Después de que el artículo de Politico desatara la indignación, las empresas afirmaron que solo utilizaban datos anónimos, aunque las investigaciones han demostrado que los protocolos para preservar la identidad no son infalibles. Al final, el furor fue tan grande que Crisis Text Line dejó de enviar datos a Loris y le pidió que borrara toda la información transferida previamente. Pero esta polémica fue solo una más de un creciente número de fiascos relacionados con los datos de salud mental.

La industria de la tecnología aplicada a la salud mental, que crece como la espuma, tiene un lado oscuro. En el último año, diversas informaciones revelaron que algunos de los nombres más conocidos del sector han incurrido repetidamente en prácticas de intercambio de datos perjudiciales para los usuarios, que tratan a las personas necesitadas de ayuda como posibles fuentes de beneficios en lugar de como pacientes. 

En conjunto, esas informaciones revelan abuso de confianza de los consumidores y deficiencias normativas que ponen en peligro a personas muy vulnerables. Y plantean importantes cuestiones sobre el futuro de la atención a la salud mental y el papel de la tecnología en ella.

Dietas

Argumentos a favor de la atención a la salud mental online

La depresión es una de las principales causas de baja en todo el mundo. Cada 40 segundos muere una persona por suicidio. En España, la tasa de suicidios es de 8,44 por cada 100.000 habitantes. Se calcula que cada año se pierden 12.000 millones de días laborables y cerca de un billón de euros a causa de la depresión y la ansiedad. Es un reto enorme que ha puesto de rodillas a la atención convencional a la salud mental a nivel mundial. De media, la salud mental recibe menos del 2% de los presupuestos sanitarios nacionales, y existe una grave escasez de psicólogos y psiquiatras cualificados. Solo una de cada 5 personas en los países con rentas altas y una de cada 27 en los de renta baja y media-baja reciben un tratamiento mínimamente adecuado para la depresión. Si a esto añadimos el aumento sin precedentes de la demanda de atención de salud mental provocado por la pandemia, la situación empeora enormemente.

En Silicon Valley creen que la tecnología puede resolver los problemas más complejos del mundo. Las inversiones de capital riesgo en startups de salud mental crecieron de 2.300 millones de dólares en 2020 a un récord de 5.500 millones en 2021. Incluso cuando la financiación se enfrió en 2022 por la desaceleración del sector, la salud mental siguió siendo el área con mayor financiación.

En este panorama, han surgido 2 tipos de empresas. Están las aplicaciones que utilizan chatbots, como Woebot, que ofrecen "herramientas y tácticas clínicamente probadas" basadas en los principios de la terapia cognitivo-conductual para ayudar a los usuarios con el estrés y los problemas emocionales. El principal atractivo de estas apps es la promesa de ayuda inmediata las 24 horas del día, los 7 días de la semana.

La información utilizada para Loris procedía de personas que se encontraban en el momento más bajo de sus vidas, cuando tal vez no eran capaces de comprender realmente cómo se utilizarían  sus datos y dar su consentimiento

Pero ante la preocupación por los límites de la tecnología como sustituto de los profesionales, gran parte de la acción se concentra en el segundo modelo: empresas que ponen en contacto a usuarios con terapeutas adecuados a través de un mercado virtual. Las clínicas de salud mental totalmente online ofrecen incluso servicios de gestión de recetas para ayudar a acceder a la medicación.

La atención a la salud mental online es atractiva porque permite a los usuarios buscar ayuda desde la intimidad y la comodidad de su espacio personal. Y lo que es más importante, promete un mejor acceso que el de las clínicas tradicionales, similar al del comercio electrónico o las empresas de transporte. 

Pero aunque estas empresas pueden ofrecer algunas ventajas a los pacientes, la mentalidad de "moverse rápido" que ha llegado a definir a la industria tecnológica las está empujando a perseguir el crecimiento y a reproducir los peores excesos de sus predecesoras de Silicon Valley. 

"La gran mayoría de las aplicaciones de salud mental son excepcionalmente espeluznantes"

BetterHelp, un ejemplo de terapia online fundado en 2013, se autodenomina "la mayor plataforma de terapia del mundo" y dice tener más de 2 millones de usuarios. También es un ejemplo para el sector en otro sentido: el mes pasado, la Comisión Federal de Comercio de Estados Unidos (FTC) reprendió a la compañía por "traicionar la información más personal de los consumidores para lucrarse"

La FTC señaló que BetterHelp entregaba datos sensibles de los usuarios (incluidos correos electrónicos, direcciones IP y respuestas a cuestionarios de salud) a Facebook para que la plataforma pudiera utilizar esta información para publicar anuncios de BetterHelp dirigidos a usuarios similares. La Comisión añadió que BetterHelp hizo esto a pesar de haber prometido a los usuarios que sus datos personales no se utilizarían ni divulgarían salvo para fines limitados, como la prestación de servicios de asesoramiento. También afirmó que la campaña de BetterHelp en Facebook le ayudó a conseguir decenas de miles de nuevos usuarios de pago y millones en ingresos. 

La FTC prohibió a BetterHelp compartir los datos sanitarios privados de los usuarios con terceros y le ordenó pagar una multa de 7,8 millones de dólares (7,1 millones de euros) que se destinaría a reembolsos parciales a los clientes: era la primera vez que la Comisión sancionaba a una empresa de salud mental por mal uso de los datos privados de los usuarios. BetterHelp decidió llegar a un acuerdo, pero no aceptó haber cometido ningún delito y defendió sus métodos como "estándar del sector".

No era la primera vez que la empresa era señalada por sus cuestionables prácticas con los datos. En una investigación de 2020, Jezebel descubrió que la empresa compartía con Facebook los metadatos (pero no el contenido) de cada mensaje enviado por los redactores de Jezebel durante una sesión de terapia en la aplicación BetterHelp. Los metadatos permitieron a Facebook saber a qué hora del día acudieron los usuarios a terapia, su ubicación aproximada y cuánto tiempo chatearon en la aplicación. 

La afirmación de BetterHelp de que sus prácticas de intercambio de datos eran "estándar del sector" es más una acusación contra el sector que una exculpación para la empresa. Días después de la orden de la FTC, saltó la noticia de que Cerebral, otra empresa de salud mental online, había admitido compartir con anunciantes y plataformas de redes sociales información sanitaria privada de 3,1 millones de pacientes de EEUU, incluidas evaluaciones de salud mental. (La empresa afirma que ha eliminado el código de rastreo de datos de sus aplicaciones).

Las startups de salud mental Talkspace y BetterHelp, así como docenas de otras, también fueron nombradas en un informe condenatorio de 2022 de la Fundación Mozilla, una organización sin ánimo de lucro que afirma que su misión es trabajar para mantener la salud de Internet. El informe destacaba prácticas sin escrúpulos de seguridad y privacidad, concluyendo que la gran mayoría de estas empresas rastreaban, compartían y comercializaban los pensamientos y sentimientos más íntimos y vulnerables de sus usuarios. La Fundación Mozilla calificó estas prácticas de "extremadamente espeluznantes".

Hay algo profundamente preocupante en el hecho de que las aplicaciones que prometen ayudar a las personas con sus problemas más delicados traicionen la confianza de los usuarios.

"A pesar de que estas aplicaciones tratan problemas muy delicados, como la depresión, la ansiedad, los pensamientos suicidas, la violencia doméstica, los trastornos alimentarios y el TEPT, comparten datos de forma rutinaria, permiten establecer contraseñas poco seguras, se dirigen a usuarios vulnerables con anuncios personalizados y presentan políticas de privacidad vagas y mal redactadas", dice el informe.

A principios de este año, un estudio de Joanne Kim, del Laboratorio de Políticas Tecnológicas de la Universidad de Duke, puso de manifiesto el alarmante grado de mercantilización de los datos de salud mental. Aunque no está claro de dónde obtienen los intermediarios esos datos debido a la falta de regulación, el estudio concluyó que comercializaban la información en el "mercado abierto, con una investigación aparentemente mínima de los clientes y aparentemente pocos controles sobre el uso de los datos adquiridos".

Algunas empresas de intermediación de datos cobraban más de 75.000 o 100.000 dólares al año por acceder a información que, según afirmaban, incluía datos sobre el estado de salud mental de las personas. Según el estudio, una de ellas cobraba 275 dólares por 5.000 recuentos agregados de historiales de salud mental. Otro "anunciaba al autor datos de salud mental muy delicados, incluidos nombres y direcciones postales de personas con depresión, trastorno bipolar, problemas de ansiedad, trastorno de pánico, cáncer, trastorno de estrés postraumático, trastorno obsesivo-compulsivo y trastorno de la personalidad, así como de personas que habían sufrido accidentes cerebrovasculares y datos sobre la raza y etnia de esas personas", añadía el informe.

Hay suficientes empresas de salud que no han protegido bien los datos como para que, a estas alturas, quede claro que el problema afecta a todo el sector. Hay algo muy preocupante en el hecho de que las aplicaciones que prometen ayudar traicionen la confianza de los usuarios. El mayor reto es cómo responsabilizar a estas empresas de sus acciones.

Mark Horowitz

Vacíos legales

Tras el informe de Mozilla en verano, un grupo de senadores estadounidenses envió una carta a Talkspace y BetterHelp pidiéndoles que explicaran sus políticas de privacidad. Los senadores expresaron su preocupación por la forma en que estas empresas compartían datos confidenciales de los usuarios con "terceras empresas de Big Tech, que han mostrado un interés notablemente escaso en proteger a los consumidores y usuarios vulnerables". 

Pero el escrutinio del Congreso, por exhaustivo que sea, puede no servir de mucho. Aunque estas actividades parezcan ilegales, pueden no serlo. Las plataformas digitales de salud en EEUU se hallan en un vacío legal con respecto a las políticas de privacidad y seguridad.

"Según tengo entendido, la ley no se aplica a los productos sanitarios de venta directa al consumidor, lo que incluiría la inmensa mayoría de las aplicaciones de salud mental", señala Piers Gooding, investigador de la Facultad de Derecho de Melbourne y editor asociado del International Journal of Mental Health and Capacity Law. "La Administración de alimentos y medicamentos (FDA) y la FTC pueden evaluar estas plataformas, pero sigue habiendo lagunas", añade el experto.

Cuando se les pregunta por las violaciones de datos, estas empresas suelen poner la excusa de que se han asegurado el "consentimiento legal" de sus usuarios exigiéndoles que acepten los términos y condiciones de las plataformas cuando se registran. En el mundo real, sin embargo, el consentimiento legal rara vez se traduce en un consentimiento significativo.

"Casi todos los formularios de consentimiento que encontramos en Internet son textos densos llenos de jerga jurídica compleja", afirma Deepa Singh, investigadora de ética de la IA en la Universidad de Delhi, tras la polémica de Crisis Text Line. Además, dar el consentimiento suele ser un acto puntual en el ciclo vital de un usuario que utiliza un servicio concreto. Un consentimiento significativo tiene más matices. Requiere una comprensión clara de lo que se pide al usuario, puede cambiar con el tiempo y "no se esconde detrás de la ofuscación", según Singh.

Una encuesta realizada en 2020 reveló que solo el 9% de los consumidores de EEUU están dispuestos a compartir sus datos personas con aplicaciones de salud mental y, sin embargo, siguen siendo muy populares. Cuando Erica Camacho, Asher Cohen y John Torous, investigadores en psiquiatría del Centro Médico Beth Israel Deaconess de Boston, analizaron 578 aplicaciones de salud mental, no encontraron correlación entre sus problemáticas características de privacidad y su popularidad.

Compass Pathways está llevando a cabo un ensayo clínico para convertir una sustancia psicodélica en un medicamento aprobado.

Cómplices del capitalismo de la vigilancia

Hay indicios de un cambio cultural en las principales empresas de salud mental online que no se limitan a los turbios manejos de datos. Crisis Text Line, por ejemplo, despidió a su CEO fundador tras las acusaciones de racismo de sus empleados (antes de que salieran a la luz sus prácticas de intercambio de datos). Cerebral despidió a su fundador y CEO tras ser acusada de prescribir indebidamente sustancias controladas a sus usuarios. Y ahora la empresa está reduciendo su plantilla (despidió a cientos de empleados a finales de febrero) mientras lucha contra las polémicas que la rodean. Los cofundadores de Talkspace abandonaron la empresa a finales de 2021, lo que, según el medio especializado Behavioral Health Business, se debió a los mediocres resultados financieros, y su presidente y el director de operaciones siguieron su ejemplo a raíz de una "revisión interna de su conducta".

Para ser justos, se puede considerar que el desorden es un problema de crecimiento del sector. Una de las primeras aplicaciones populares de salud mental, PTSD Coach, fue lanzada por el Departamento de Asuntos de Veteranos de EEUU en 2011. El crecimiento del número de aplicaciones desde entonces (unas 20.000 están en circulación, según una estimación) hace que sea fácil olvidar que se trata de una industria que apenas está arrancando.

Sin embargo, el engaño repetido y el desprecio cruel por la seguridad de los usuarios no pueden considerarse meros errores de una industria joven. El uso de datos confidenciales suele formar parte del modelo de negocio de las empresas tecnológicas. Pero en el caso de las que se dedican a la salud, estas prácticas pueden socavar los fundamentos mismos de la atención de salud mental: la dignidad, la confianza y la seguridad psicológica.

Como escribió Crisis Text Line en su página web ensalzando su acuerdo con Loris: "¿Por qué vender camisetas cuando puedes vender lo que tu organización hace mejor?".

Conoce cómo trabajamos en Business Insider.