TikTok y su matriz ByteDance han sido demandadas por sus propios moderadores de contenido porque aseguran sufrir "traumas psicológicos" por culpa de su trabajo

Kali Hays,
TikTok

TikTok se enfrenta a otra demanda debido a que sus moderadores de contenidos aseguran estar sometidos a un trabajo traumático por culpa de la naturaleza "repugnante" de los vídeos que tienen que ver. La empresa no les da ningún apoyo para la salud mental, reclaman.

Dos moderadores de contenido, Ashley Velez y Reece Young, demandaron el jueves a la popular aplicación de vídeos cortos y a su empresa matriz ByteDance, con sede en China, ante un tribunal federal de California en Estados Unidos. 

Piden más de 5 millones de dólares (alrededor de 4,5 millones de euros) por daños y perjuicios, y que se les reconozca la condición de acción colectiva para que "miles" de moderadores puedan unirse a la demanda por un trabajo que consideran traumático. 

La demanda también alega que TikTok no ofreció un "estándar de cuidado" típico en estas circunstancias.

Se calcula que cada día se suben a la aplicación 90 millones de vídeos, y Vélez, Young y otros moderadores tienen la tarea de detectar los clips que pueden infringir las normas de TikTok. 

Mientras que millones de vídeos son inofensivos, divertidos e informativos —lo que convirtió a TikTok en la aplicación más descargada el año pasado—, muchos son "repugnantes" e incluso peores, según la demanda. Solo en el segundo trimestre de 2021, TikTok eliminó más de 81 millones de vídeos por infringir las normas de contenido. 

TikTok censura su contenido en Rusia, pero sigue operativa y la propaganda pro-Putin ahora campa a sus anchas dentro la red social

"Muchas subidas se corresponden con abuso sexual infantil, violación, tortura, zoofilia, decapitaciones, suicidio y asesinato", señala la demanda. TikTok no ha respondido a un correo electrónico en busca de comentarios.

Vélez es técnicamente un empleado de Telus International, que está contratado para proporcionar moderadores de contenido para TikTok. Otro trabajador de Telus que moderaba para TikTok a finales del año pasado demandó a la empresa con reclamaciones similares de trauma. 

Young fue contratada por TikTok a través de una empresa de personal llamada Atrium Staffing Services. Ni Telus ni Atrium están acusados en la demanda.

Durante el transcurso de su trabajo, que incluíajornadas obligatorias de 12 horas, ambos afirman haber visto "muchos actos de extrema violencia". Young vio el asesinato de un niño de 13 años y vídeos de zoofilia. 

Vélez también vio violencia contra niños, zoofilia y vídeos de necrofilia. Otros tipos de vídeos que tenían que ver a diario incluían diversas teorías conspirativas, desinformación política, negación del Holocausto y diversas formas de discurso de odio.

"Como resultado de la exposición constante y sin paliativos a imágenes altamente tóxicas y extremadamente perturbadoras en el lugar de trabajo, los demandantes han sufrido un inmenso estrés y daño psicológico", recoge la demanda.

Un grupo de moderadores de contenidos para Facebook demandó con éxito a la empresa por alegaciones de trauma y TEPT (trastorno de estrés postraumático). En 2020, recibieron un acuerdo de 52 millones de dólares, unos 47 millones de euros.

El plan de TikTok para luchar contra Twitch: la red social ya prueba una plataforma de 'streaming' de videojuegos

Vélez y Young han buscado asesoramiento fuera del trabajo debido al contenido de TikTok con el que tienen que interactuar. 

Ambos afirman que TikTok y Bytedance no proporcionan una protección o atención posterior "adecuada" a los moderadores de contenido, a pesar de ser "conscientes de los efectos psicológicos negativos que la visualización de contenido gráfico y objetable tiene en los moderadores de contenido."

"Por el contrario, los demandados imponen a sus moderadores de contenidos normas y cuotas de productividad que son irreconciliables con las normas de atención aplicables", alega la demanda.

A los moderadores de contenidos no solo se les exige que trabajen muchas horas y que visualicen millones de vídeos, sino que se les exige que firmen acuerdos de no divulgación, según la demanda, para evitar que hablen públicamente de "las cosas horribles que ven".

La demanda también busca una orden judicial que obligue a la plataforma a proporcionar controles de salud mental, apoyo y herramientas para los trabajadores.

Conoce cómo trabajamos en Business Insider.