El algoritmo de TikTok llevado al extremo: un estudio denuncia que puede llegar a mostrar cada 39 segundos contenido que puede ser perjudicial para los adolescentes

rEDES SOCIALES
  • Una investigación de una organización dedicada a combatir la desinformación y los discursos del odio en internet revela los riesgos del uso de TikTok en adolescentes.
  • Una de las principales conclusiones de este estudio es que la plataforma recomendó contenidos sobre trastornos alimentarios y autolesiones a las nuevas cuentas.

TikTok vuelve a estar en el foco de la controversia. En su lucha por captar la atención de sus usuarios y aumentar las métricas de retención dentro de su app, el potente algoritmo de la plataforma recurre a todo tipo de contenido, incluso perjudicial para sus usuarios, como vídeos de autolesiones o trastornos alimenticios. 

Esta es la principal conclusión de un nuevo estudio del Center Countreing Digital Hate (CCDH), una organización sin ánimo de lucro estadounidense, que investiga la desinformación y los discursos del odio online.

En su estudio, el CCDH creó hasta 8 cuentas nuevas diferentes en la red social, propiedad del gigante chino ByteDance, estableció la edad de todas ellas en los 13 años, y registró los primeros 30 minutos de contenido que el algoritmo de la aplicación les ofrecía. 

La conclusión es demoledora, como ha subrayado el CEO del CCDH, Imran Ahmed; "Más que entretenimiento y seguridad, nuestro estudio revela un entorno tóxico para los usuarios más jóvenes de TikTok, intensificado para sus usuarios más vulnerables".

 

Para analizar si el nombre de un usuario nuevo afecta al tipo de contenido que el algoritmo de recomendación va a ofrecer a ese usuario nuevo, los investigadores crearon 2 tipos de cuentas, unas "vulnerables" con la palabra "pérdida de peso" en ese nombre, y otras "estándar" con nombres elegidos de marena aleatoria. 

Además, establecieron diferentes ubicaciones para los nuevos usuarios, repartidos entre Estados Unidos, Reino Unido y Australia.

Estas son las principales conclusiones que extrae el CCDH:

  • "TikTok contiene contenidos sobre trastornos alimentarios con más de 13.200 millones de visualizaciones". Algunos contenidos que promueven los trastornos alimentarios eluden la moderación utilizando hashtags codificados.
  • "TikTok recomendó contenidos sobre trastornos alimentarios y autolesiones a nuevas cuentas de adolescentes a los pocos minutos de desplazarse por el feed  "Para ti" de la aplicación". Los investigadores señalan que en su muestra eligieron una ventana de 30 minutos para demostrar lo rápido que el algoritmo de recomendación puede entender a cada usuario y expulsar contenidos potencialmente nocivos.

Sin embargo, el contenido sobre suicidio se recomendó en 2,6 minutos. El contenido sobre trastornos alimentarios se recomendó en 8 minutos.

  • TikTok muestra a los adolescentes contenido sobre imagen corporal y salud mental cada 39 segundos. Una nueva cuenta de TikTok creada por un usuario de 13 años que ve y le gusta contenido sobre la imagen corporal y la salud mental recibirá recomendaciones cada 39 segundos.
  • TikTok se dirigió a adolescentes vulnerables con contenidos mucho más dañinos. Las cuentas de con la frase "pérdida de peso" en su nombre recibieron significativamente más recomendaciones de contenido sobre trastornos alimentarios y autolesiones.

A estas cuentas de adolescentes vulnerables se les mostraron 3 veces más vídeos dañinos que las cuentas de adolescentes estándar y 12 veces más vídeos de autolesiones que las cuentas de adolescentes normales, recoge el CCDH.

En declaraciones al medio CBS, un portavoz de la compañía cuestionó la metodología del estudio. "Consultamos periódicamente a expertos en salud, eliminamos las infracciones de nuestras políticas y proporcionamos acceso a recursos de apoyo a quienes lo necesiten", señaló el portavoz de la compañía.

Este año, la directora de operaciones de Tiktok, Vanessa Pappas, testificó ante el Comité de Seguridad Nacional y Asuntos Gubernamentales de Estados Unidos, junto con el resto de gigantes tecnológicos como Facebook o Google, para explicar los riesgos que albergan estas plataformas en materia de seguridad.

4 datos que demuestran hasta qué punto TikTok se ha apoderado del mundo y de nuestras vidas

En su declaración, Pappas remarcó que la seguridad era una "prioridad" para su empresa y que la misión de Tiktok era "inspirar la creatividad y aportar alegría". 

Según datos de Sensor Tower, la red social tiene más de 1.000 millones de usuarios activos mensuales y el usuario medio pasa alrededor de 80 minutos dentro de la aplicación al día.

"Somos muy conscientes de que este éxito y crecimiento conllevan una mayor responsabilidad. TikTok se compromete a ser un líder de confianza de la industria en seguridad y transparencia", remarcó en su intervención Pappas.

Desde el CCDH exigen a la plataforma mayor transparencia sobre el funcionamiento de su algoritmo de recomendación de contenido, mientras no lo hagan, señalan desde la organización, "seguirán comportándose de una manera negligente que pone en peligro a niños y adultos".

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.