Los moderadores de contenidos de TikTok han visto decapitaciones, abusos sexuales a menores y otras atrocidades: las secuelas son terribles, y denuncian que a la empresa no le importa nada

"Nos decían que lo olvidáramos o que nos fuéramos a dar un paseo", cuenta una de las moderadoras de TikTok, a la que posteriormente se le diagnosticó un trastorno de estrés postraumático
"Nos decían que lo olvidáramos o que nos fuéramos a dar un paseo", cuenta una de las moderadoras de TikTok, a la que posteriormente se le diagnosticó un trastorno de estrés postraumático

Alex Ford / Business Insider

Candie Frazier pensó que trabajar para TikTok sería exactamente lo que necesitaba después de perder su trabajo en un casino de Las Vegas por la pandemia de coronavirus en la primavera de 2020.

Siempre había querido trabajar en el sector tecnológico, y el trabajo le proporcionaba un nuevo ordenador, un monitor y una tablet, a la vez que le permitía trabajar de forma remota, una ventaja muy necesaria para quien es la principal cuidadora de un hijo con discapacidad.

Consiguió un trabajo en la creciente plantilla de moderación de contenidos de TikTok, sin saber demasiado sobre lo que supondría ese trabajo. Acabaría revisando desde vídeos de abusos a menores hasta suicidios, accidentes y decapitaciones, asegurándose de que el contenido nunca llegara a las páginas "para ti" de los usuarios. 

En diciembre, poco más de un año después de su incorporación, Frazier presentó una demanda contra la empresa matriz de TikTok, ByteDance, alegando que su trabajo le había provocado un trastorno de estrés postraumático y síntomas de grave malestar psicológico.

"Ser moderadora de TikTok me hizo daño", explica Frazier a Business Insider. "Me ha hecho perder la confianza en la gente", añade. 

Varios de los compañeros de Frazier cuentan a Business Insider que quedaron igualmente traumatizados por su experiencia como moderadores de TikTok cuando eran empleados de Telus International en Nevada, una de las principales subcontratas que TikTok utiliza para hacer frente a los vídeos gráficos en la plataforma. 

Seis actuales y antiguos moderadores, así como Frazier, relatan a Business Insider una cultura de exceso de trabajo y vigilancia casi constante. Algunos dicen que dejaron el trabajo sintiéndose insensibles a la violencia. Dos moderadores afirman que se les ha diagnosticado un trastorno de estrés postraumático, mientras otros describen haber trabajado en condiciones de grave estrés psicológico que, en su opinión, la empresa no estaba preparada para gestionar. 

He sido moderador de contenidos de Facebook: el trabajo me hacía sentir como si viviera en una película de terror

Daniel Moutang fue moderador de contenidos de Facebook en Kenia.

Todos ellos firmaron en su día acuerdos de confidencialidad y han pedido utilizar seudónimos o hablar bajo condición de anonimato para ser sinceros sobre sus experiencias. Sus identidades son conocidas por Business Insider.

Desde que Frazier presentó su demanda, otros dos moderadores ?entre ellos un empleado de Telus International y otro de la firma de subcontratación Atrium en el estado de Tennessee? han demandado a ByteDance con acusaciones similares.

"Mi salud mental estaba por los suelos", confiesa uno de los moderadores sobre su época de trabajo en TikTok. 

ByteDance no ha respondido a las preguntas enviadas por Business Insider.

El departamento de pesadillas

El año pasado, redes sociales como Facebook y TikTok generaron más de 50.000 millones de euros en ingresos por publicidad, un negocio que se desmoronaría sin la moderación de contenidos.

"La alternativa consistiría en un feed de noticias dominado por la pornografía, el spam y los mensajes que incitan al odio", explica Paul Barrett, subdirector del Centro de Empresas y Derechos Humanos de la Universidad de Nueva York. "Ese tipo de cosas distanciaría a una gran mayoría de usuarios y, lo que es más importante, alejaría a los anunciantes".

Al igual que otras empresas de redes sociales, ByteDance se basa en una combinación de inteligencia artificial y moderadores humanos para eliminar este tipo de contenidos. La IA ayuda a separar los vídeos en varias colas, desde los vídeos de baja prioridad y los duetos de TikTok hasta el contenido gráfico, como los abusos a menores y los suicidios. 

En los días de mayor actividad, los moderadores dicen que pueden trabajar con más de 1.200 vídeos cortos en un mismo turno. Las jornadas de trabajo eran de entre 8 y 10 horas, y varios moderadores afirman que eran incapaces de decir que no a hacer turnos consecutivos, a veces durante meses, revisando las colas de los vídeos gráficos.

"A mi departamento le llamaban el departamento de las pesadillas", dice Sasha, una antigua encargada de Telus International que dejó su trabajo el año pasado. Al igual que otros moderadores, Sasha ha pedido utilizar un seudónimo para hablar con franqueza de su experiencia. 

"Estaba lleno de lo peor de lo peor", asegura, refiriéndose a los vídeos de abusos a menores, autolesiones, accidentes truculentos y tiroteos masivos que los usuarios publican a diario. 

Al principio de cada turno, Sasha cuenta que recibían un listado de denuncias destinadas a las colas de vídeos gráficos de alta prioridad, en las que podían permanecer durante semanas hasta que los superiores decidían lo contrario.

"Eran miserables, pero no podía sacarlos de ahí", explica Sasha.

"Nos sabemos las canciones del ISIS de memoria": así es el día a día de quienes revisan los vídeos que reportas en las redes sociales

Mujer revisando un vídeo a través de un teléfono móvil

Ashley, una antigua moderadora con antecedentes de autolesiones en su vida personal, afirma que los vídeos sobre el suicidio fueron de los más perturbadores para ella. Al principio de su carrera en Telus, relata que vio cómo se suicidaba un hombre con una escopeta. 

"Podías ver cómo salía volando todo, y cómo se le caían los sesos", dice. "Pensaba en eso durante todo el día o lo recordaba sin querer".

Fue el primero de muchos vídeos de este tipo que Ashley encontraría en la plataforma.

La siguiente vez que vio un vídeo de autolesiones en su cola, se lo saltó para preservar su salud mental. Pero esto afectó a la eficacia de su trabajo, y sus jefes se dieron cuenta. Después de eso, dice, Telus International empezó a controlar si los moderadores reproducían los vídeos en su totalidad. 

"Si descubren que no has reproducido los vídeos hasta el final, te metes en un lío", explica Roberta. "Te dan una 'pista', que es un strike en tu contra". 

Sasha asegura que los moderadores reciben 5 de estas citaciones disciplinarias antes de ser despedidos.

Un portavoz de Telus International ha declarado a Business Insider que los moderadores pueden omitir los contenidos difíciles a su criterio y remitirlos a su equipo de respuesta de emergencia, existente desde el inicio de la colaboración de la empresa con TikTok, para que los eliminen de la plataforma. Esto también activa a su equipo de bienestar para que se ponga en contacto con ellos y les ofrezca apoyo. 

En el poco más de un año que Sasha trabajó en Telus International afirma que nunca oyó hablar de un equipo de respuesta a emergencias en la empresa. En cambio, señala que en ByteDance existe un equipo de respuesta de emergencia que se encarga de los vídeos que la empresa está obligada a denunciar a las fuerzas del orden, y que aunque su equipo elevaba el material al departamento al menos una vez al día, nadie de Telus International ni del equipo de bienestar de TikTok se puso nunca en contacto con los moderadores afectados.

Para Roberta, otra ex moderadora que trabajó en Telus International durante algo más de un año, ver vídeos de asesinatos y de personas que maltratan a animales le provocó una grave ansiedad social. Un vídeo de una mujer apuñalada por dos hombres con un cuchillo de caza en medio de un bosque la traumatizó especialmente, confiesa.

"Antes me sentía totalmente cómoda con los demás", relata Roberta. "Ahora, simplemente me cuestiono todo".

Los moderadores dicen que no se les informó adecuadamente sobre el material que iban a revisar

Seis de los moderadores con los que ha hablado Business Insider dicen que, cuando empezaron a trabajar, Telus International no les informó adecuadamente sobre el contenido gráfico que iban a revisar. 

"Hicieron creer que la mayoría de los vídeos iban a ser de gente divirtiéndose y después de crimen organizado o desnudos", explica Roberta a Business Insider.

"Nunca decían exactamente lo que ibas a ver porque, si lo hacían, asustarían a la gente", comenta otro moderador.

El Centro Nacional para Niños Desaparecidos y Explotados, una organización sin ánimo de lucro de Estados Unidos que rastrea el tráfico de niños y realiza un trabajo similar al de los moderadores de contenidos que revisan los vídeos de explotación infantil, afirma que la "explotación sexual infantil online" se menciona explícitamente durante su proceso de entrevistas y que anima a los posibles empleados a utilizar su página web para informarse sobre el problema. Las prácticas de la organización se han convertido en un modelo para la industria tecnológica y se citan habitualmente en demandas colectivas en nombre de los moderadores de contenidos gráficos en las redes sociales.

Sasha, la encargada de Telus International que participaba en los procesos de contratación, afirma que la empresa preguntaba a los candidatos si eran psicológicamente capaces de hacer frente a contenidos gráficos, pero que los entrevistadores rara vez describían con detalle el tipo de material que los candidatos iban a revisar. 

Un portavoz de Telus International niega que se informase inadecuadamente a los candidatos sobre el tipo de contenido que se iban a encontrar y ha facilitado un documento que los moderadores firmaban reconociendo que iban a revisar "contenido gráfico, violento, sexual, explícito, político, profano y altamente perturbador". Pero los empleados con los que ha hablado Business Insider aseguran que el formulario es uno de los muchos papeles que firman durante su incorporación y que no le prestan especial atención.

Telus International también ha asegurado que intentó cambiar a los empleados que no querían trabajar en la moderación de contenidos a puestos como el de atención al cliente. Los moderadores con los que ha hablado Business Insider dicen que esto raramente ocurría, si es que realmente sucedió alguna vez. Roberta sostiene que suplicó a sus jefes que la cambiaran a un puesto de atención al cliente, pero se lo negaron. 

"Sólo oí que no era realmente una opción", explica Sasha. 

"Empezar a tomar la medicación"

Para ayudarles a superar el trauma psicológico de la moderación de contenidos gráficos, Telus International puso a disposición de sus moderadores orientadores de guardia y descansos para su bienestar. Pero los moderadores dicen que esos recursos no siempre les resultaron útiles. 

"Asistí a una sesión de grupo y me horrorizó lo que escuché", afirma Ashley. "Algunas personas estaban compartiendo información profundamente personal. Y uno de los orientadores dijo algo así como: 'No soy médico ni nada parecido, pero deberías empezar a tomar algún tipo de medicación'". 

Ashley dice que no volvió a asistir a ninguna otra sesión.

"Nos decían que nos olvidáramos o que diéramos un paseo", cuenta Roberta sobre el asesoramiento que recibió. La ineficacia de las sesiones la llevó a buscar un terapeuta externo que finalmente le diagnosticó un trastorno de estrés postraumático. Pero los 15 dólares por hora que le pagaba Telus International apenas cubrían el coste de la terapia y sus gastos de subsistencia. 

"En definitiva, no te pagan lo suficiente para pagar el alquiler, la factura y el asesoramiento externo", dice. "Cogí otro trabajo sólo para poder ir a terapia".

En respuesta a las preguntas sobre el equipo de bienestar de Telus International, la empresa dice que emplea a psicólogos clínicos e investigadores con experiencia en la gestión del estrés psicosocial, la salud y la seguridad.

Bajo el pie de un gigante: 11 'streamers' revelan cómo el liderazgo de Twitch permite a la plataforma "ahorcar a los creadores y llevarlos al límite"

Streamers españoles Twitch

"Nuestro equipo de bienestar es muy consciente de las necesidades de salud y bienestar de nuestros moderadores de contenidos y se esfuerza por prevenir y mantener la buena salud mental de los miembros de nuestro equipo", señala el portavoz.

Este portavoz añade que la empresa permite a los moderadores tomarse dos horas de su semana para participar en sus propios programas de bienestar, con cargo a la empresa. De los cuatro moderadores a los que Business Insider ha podido preguntar sobre esta prestación, todos dicen que nunca fueron informados o que desconocían que existiera tal prestación.

Telus International también reconoció en su presentación anual ante la Comisión de Bolsa y Valores de Estados Unidos que, aunque la empresa ofrecía sesiones de asesoramiento, terapeutas y descansos para la salud mental, "puede haber ocasiones en las que nuestros programas de bienestar y resiliencia no mitiguen suficientemente esos efectos". 

"No esperaba encontrarme hoy con porno infantil"

Aparte del estrés psicológico que supone la moderación de contenidos gráficos, los moderadores de Telus International dicen que sus objetivos de rendimiento eran en gran medida insostenibles y que sentían que siempre corrían el riesgo de ser despedidos. Los moderadores dicen que se les evalúa en función de tres parámetros: la velocidad a la que moderan los vídeos, la precisión de las etiquetas que utilizan y el número de vídeos que ven durante un turno.

Los moderadores afirman que disponen de 20 segundos para etiquetar los vídeos y que, a medida que la plataforma iba creciendo, se les pedía que etiquetaran los vídeos con una concreción cada vez mayor, llegando a tener que etiquetar cada torso o muslo expuesto. Pero estos cortos tiempos de gestión y el creciente número de etiquetas significaban que la mayoría de los moderadores rara vez alcanzaban su objetivo de precisión del 90%, según explican varios de ellos a Business Insider.

En la primavera de 2021, el centro de Nevada de Telus international empezó a recibir más colas y contenidos de TikTok, lo que supuso una presión aún mayor sobre los recursos de los empleados, según Sasha, la antigua encargada.

"Tuvimos que poner toda la carne en el asador", asegura.

Al principio, los moderadores contaban con dos descansos libres de 15 minutos por motivos de bienestar, además de dos descansos programados de 15 minutos y una hora de descanso para comer. A medida que sus colas se llenaban de contenido, tres moderadores y la antigua encargada cuentan a Business Insider que la empresa empezó a negarles sus descansos libres por motivos de bienestar. También tenían que pedir la aprobación de sus jefes antes de visitar a uno de los orientadores de guardia de Telus International.

"Si no estaba previsto en su horario, se les denegaba si intentaban hacer una pausa de bienestar", explica Sasha, que reconoce que esto desvirtuaba el propósito original de dar a los moderadores la oportunidad de alejarse de la pantalla después de ver algo especialmente traumático.

Telus International niega que se hayan quitado estos descansos. "Los descansos no se cancelan de acuerdo con la política de Telus International", afirma el portavoz de la compañía a Business Insider.

El explosivo crecimiento de los ingresos publicitarios de TikTok superará a YouTube en 2024, y su próximo objetivo es Facebook

Con el tiempo, según Sasha y otros tres moderadores, la empresa añadió una pausa de bienestar adicional programada, pero algunos moderadores dicen que siguen sintiéndose represaliados por utilizarlas.

Después de ver un vídeo especialmente perturbador en el que se mostraban abusos sexuales a menores, una moderadora dice que se alejó de su ordenador durante unos 15 minutos tras informar a su jefe. Cuando regresó, la encargada la amonestó por tomarse un descanso que no estaba programado, relata.

"Le dije que no esperaba encontrarme ese día con pornografía infantil", explica la moderadora. "Sé que no estaba programada, pero la tenía que hacer".

Sasha confirma que a veces se amonesta a los moderadores por hacer pausas de bienestar.

Otros moderadores dicen que Telus International vigilaba los tiempos de inactividad de los empleados, o el tiempo que permanecían inactivos durante la jornada laboral. El sistema de moderación de contenidos de la empresa controlaba la frecuencia con la que un empleado movía el cursor mientras trabajaba.

"Se estaban volviendo mucho más estrictos y haciendo la vida más estresante", afirma Ashley. "Empezaron a controlar literalmente todo".

Si el sistema determinaba que un moderador pasaba más del 10% de su jornada sin hacer nada, los directivos le amenazaban con sanciones que acababan en despidos, cuenta un moderador.

Telus International no ha respondido a las preguntas de Business Insider sobre la vigilancia laboral.

Tiktok iba a ser diferente 

Los moderadores de plataformas como Facebook y YouTube ?muchos de los cuales trabajan a través de empresas subcontratadas? se han quejado durante años de su trato; en los últimos años, se han presentado demandas contra ambas empresas alegando que sufren traumas mentales y condiciones laborales de explotación. Facebook acordó pagar a sus moderadores 52 millones de dólares en un acuerdo histórico en mayo de 2020.

Pero los moderadores de contenido de TikTok han informado previamente de que las condiciones de trabajo para la empresa son mejores. A medida que la plataforma fue ampliando su equipo de moderación de contenidos hasta llegar a los más de 10.000 trabajadores en todo el mundo que tiene en la actualidad, la firma fue contratando a moderadores de las empresas subcontratadas por Facebook y YouTube, ofreciéndoles salarios más altos, un mejor ambiente de trabajo y más beneficios, además de un empleo directo a través de ByteDance. 

"Elegí TikTok porque los beneficios son mejores, el ambiente es mejor y la empresa valora a cada miembro", comentó un moderador de contenidos de TikTok al Financial Times en febrero.

Sin embargo, a medida que la empresa ha ido creciendo hasta convertirse en la tercera red social más grande del mundo, también ha empezado a depender de empresas externas, como Telus International, para contratar a su personal de moderación, lo que ha reproducido los problemas laborales endémicos del sector. 

Los moderadores de Telus International en Nevada calculan que más de 500 empleados trabajan para la empresa contratada por TikTok; ni Telus International ni TikTok facilitan públicamente esa información.

ByteDance ha respondido de forma agresiva a la demanda colectiva

Después de presentar su demanda en diciembre, Frazier dice que sus jefes le aseguraron que podría cambiar de división mientras se investigaban sus acusaciones. En cambio, dos semanas después, el 24 de diciembre, mientras estaba de compras navideñas con su hija, un responsable de recursos humanos le comunicó que estaba de baja administrativa. Al mes siguiente, la despidieron.

Al principio se sorprendió. Otros moderadores que habían presentado demandas similares contra Facebook y YouTube habían permanecido en la empresa mientras se resolvían sus demandas. Aunque sabía de los peligros de denunciar, estaba segura de que no iba a ser objeto de represalias directas.

"Han adoptado un planteamiento muy agresivo y contradictorio", dice Steve Williams, abogado de Frazier e instructor de otras demandas colectivas contra Facebook y YouTube.

"YouTube, por ejemplo, se muestra dispuesto a decir: 'Sí, vamos a arreglar esto'", dice Williams, mientras que TikTok "parece ser de la opinión de: Cállate. No hables de ello. Déjanos en paz", sentencia.

¿Hay vida más allá del iPhone? El futuro de Apple y del smartphone

Steve Jobs en la presentación del iPhone

Desde entonces, Frazier ha decidido convertirse en integrante del grupo en la nueva demanda, presentada por el compañero de Frazier en Telus International y el moderador de Tennessee, que trabaja para la empresa de subcontratación Atrium, en lugar de demandar a ByteDance por su cuenta.

Sin embargo, ByteDance ha sido igual de agresiva en su planteamiento de la nueva demanda, afirma Williams. 

En mayo, la empresa presentó una moción para desestimar la demanda colectiva porque decía que los moderadores estaban sujetos a cláusulas de mediación obligatorias con su empleador. Williams dice que no tiene pruebas de que sus clientes hayan firmado un documento que contenga dicha cláusula. 

"Ni Facebook ni Youtube intentaron esgrimir ese argumento", subraya Williams. 

En abril, se presentó una demanda de compensación laboral ante la Oficina de Compensación Laboral del estado en nombre del moderador de Tennessee que demandó a ByteDance. Williams dice que ni él ni el moderador, Reece Young, presentaron nunca dicha solicitud, ni Young fue nunca entrevistado por la citada agencia. Cuando Williams trató de retirar la solicitud no autorizada, la oficina la rechazó, una decisión que podría perjudicar la demanda colectiva. 

Incluso si la demanda de TikTok tuviera éxito, no todo el mundo está convencido de que vaya a producir cambios duraderos. "52 millones de dólares es una gota de agua para una empresa como Facebook", explica a Business Insider Cori Crider, abogada de Foxglove Legal que defiende a los moderadores de contenidos en Europa y África, en referencia al histórico acuerdo de Facebook. 

Según Crider, a TikTok le saldría más barato llegar a un acuerdo que aumentar las medidas de seguridad de sus proveedores en todo el mundo. En su opinión, la contratación de todos los moderadores por parte de TikTok obligaría a ByteDance a responsabilizarse de su bienestar. 

"Tienen que hacer algo al respecto"

Seis meses después de ser despedido, Frazier está luchando por encontrar un trabajo a tiempo completo y se encuentra entre los 35.000 habitantes de Nevada que esperan desde marzo a que se procesen sus solicitudes de desempleo.

"Conseguir el dinero para poder ir en Uber para ir a las entrevistas de trabajo sin las ayudas por desempleo ha sido casi imposible", afirma.

Aunque la familia y los amigos han ayudado con sus gastos y los de su hijo, dice que se enfrenta a una notificación de desahucio y le preocupa perder su apartamento. Y aunque ha podido ver a un terapeuta a través de los servicios de la startup Cerebral, su situación financiera ha hecho que tenga que dejar de asistir a la consulta. 

Ante la pregunta de Business Insider de si se arrepiente de haber hablado, responde con un no rotundo.  

"No cambiaría nada. Tienen que hacer algo al respecto", sentencia. 

Para Frazier y otras personas con las que Business Insider ha hablado de Telus International, moderar el contenido de TikTok pareció en su día una opción segura y estable durante la precariedad de la pandemia. Mientras se esfuerzan por superar los estragos que el trabajo ha causado en sus vidas, muchos miran ahora el trabajo con desdén.

"Dejaron de preocuparse por la gente y sólo se preocuparon por los números", dice Sasha, la encargada. "Prefiero comer cristales que volver a trabajar en la moderación de contenidos".

Otros artículos interesantes:

Así luchan Netflix, Disney+ y HBO Max por el público infantil mientras YouTube y TikTok se apoderan de la generación Alfa

"¿Qué tiene de bueno TikTok?": Documentos filtrados revelan lo que Facebook e Instagram piensan de sus rivales, desde YouTube hasta LinkedIn

TikTok amenaza la máquina de hacer dinero de Facebook y Google: el 'sorpasso' publicitario podría llegar en 2024

Te recomendamos