Los moderadores de contenido de TikTok denuncian haber tenido que ver imágenes y vídeos sexualmente explícitos de niños como parte de su formación para trabaajar en la empresa

Los moderadores de contenidos contratados para revisar los vídeos de TikTok dijeron que se les mostró material sexualmente explícito de niños.
Los moderadores de contenidos contratados para revisar los vídeos de TikTok dijeron que se les mostró material sexualmente explícito de niños.

Los moderadores de contenidos contratados para revisar los vídeos de TikTok revelan que se les mostró imágenes y vídeos sexualmente explícitos de niños como parte de su material de formación, según un reportaje publicado el jueves por Forbes.

El reportaje cita a moderadores que trabajaban para Teleperformance, una empresa externa que la plataforma contrata para moderar contenidos en su plataforma.

Un exempleado, identificado en el reportaje como Nasser, dijo a Forbes que trabajaba en un equipo que ayudaba a la inteligencia artificial de TikTok a identificar el contenido que no estaba permitido en la plataforma. Nasser alegó que a él y a sus compañeros se les mostraron imágenes y vídeos sexualmente explícitos de niños como parte de su formación en la empresa.

A medida que TikTok ha ido ganando popularidad en los últimos años, ha subcontratado gran parte de la moderación de sus contenidos a empresas externas que contratan personal para revisar manualmente los vídeos que pueden infringir las políticas de las plataformas sobre contenido gráfico. 

TikTok es la red social que más datos tuyos comparte con terceros, más que YouTube o Instagram, y no se sabe muy bien a manos de quién van a parar, según este estudio

Al igual que ocurrió con Facebook, muchos de estos moderadores de contenidos han declarado haber sufrido importantes traumas mentales y han alegado que TikTok no les equipó adecuadamente para el trabajo. 

Otra exempleada de Teleperformance, Whitney Turner, señala a Forbes que trabajó en la empresa durante más de un año y que la dejó en 2021. Turner asegura que tenía acceso a una hoja de cálculo llamada "Lectura Diaria Requerida", o el "DRR", que era accesible para cientos de empleados de Teleperformance y TikTok. Esta hoja de cálculo contenía ejemplos de contenidos prohibidos por TikTok e incluía imágenes de niños desnudos y abusados, cuenta Turner.

"Estaba moderando y pensando: Este es el hijo de alguien. Esta es la hija de alguien. Y estos padres no saben que tenemos esta foto, este vídeo, este trauma, este crimen guardado", critica Turner a Forbes. "Si los padres lo supieran, estoy bastante segura de que quemarían TikTok".

Turner comparte que entregó el documento al FBI y se reunió con un agente en junio.

Un portavoz de TikTok ha dicho el jueves a Business Insider que sus materiales de formación proporcionan descripciones textuales, pero no ejemplos visuales de material de abuso sexual infantil (CSAM, las siglas en inglés de Child Sexual Abuse Material) pero ha añadido que trabajó con empresas externas que podrían tener prácticas únicas. 

"El contenido de esta naturaleza es aborrecible y no tiene lugar dentro o fuera de nuestra plataforma, y nuestro objetivo es minimizar la exposición de los moderadores en línea con las mejores prácticas de la industria", ha expresado el portavoz. 

"Los materiales de formación de TikTok tienen estrictos controles de acceso y no incluyen ejemplos visuales de CSAM, y nuestro equipo especializado en seguridad infantil investiga y realiza informes al NCMEC", ha añadido. 

El NCMEC es el Centro Nacional para Niños Desaparecidos y Explotados de EEUU, una organización sin ánimo de lucro fundada en la década de 1980 que sirve como "centro nacional de intercambio de información y recursos sobre niños desaparecidos y explotados", según la organización. Empresas como TikTok están obligadas por ley a informar al NCMEC sobre los CSAM encontrados en sus plataformas. 

Los representantes de Teleperformance no respondieron a la solicitud de comentarios enviada por Business Insider el jueves. 

Akash Pugalia, el presidente global de la confianza y la seguridad en Teleperformance, señala a Forbes que no utilizó videos explícitos de abuso infantil en su formación y no tenía esos materiales en sus "herramientas de calibración." 

Los moderadores de TikTok alegan estrés postraumático y toman acciones legales

Los empleados de otros contratistas que TikTok utiliza para moderar sus contenidos también han dado la voz de alarma sobre los contenidos perturbadores que se vieron obligados a ver para trabajar. 

ByteDance prepara 'TikTok Music', un servicio de música en 'streaming' para competir con Spotify y Apple Music

Varios moderadores actuales o antiguos, que hablaron con Business Insideren un artículo publicado en junio, detallaron una cultura de exceso de trabajo y vigilancia mientras eran empleados de la oficina de Nevada de Telus International.

Dos personas que hablaron con Business Insider dijeron que se les había diagnosticado TEPT desde que trabajaban como moderadores de TikTok. Candie Frazier, una moderadora demandó a la compañía y dijo que se vio obligada a ver decapitaciones, accidentes, suicidios y materiales de abuso infantil. 

"Moderar para TikTok me dolió", contaba Frazier, que trabajaba para la empresa de terceros Telus International, a Business Insider a principios de este año. "Me hizo perder la confianza en la gente", añadía.

TikTok no es el único gigante de las redes sociales al que se le han planteado dudas sobre sus prácticas de moderación del CSAM. A principios de este año, Meta fue objeto de críticas después de que una noticia deThe New York Times dijera que a los moderadores que trabajan en la empresa se les dijo que "erraran en el lado de un adulto" cuando no pudieran decir la edad de alguien en una foto o un vídeo. Un portavoz de la empresa confirmó la política al Times. 

En 2019,The Vergeinformó de que algunos moderadores que trabajaban para moderar contenidos para Facebook estaban desarrollando síntomas similares al trastorno de estrés postraumático después de dejar el trabajo. 

Un antiguo moderador de contenidos en Kenia está demandando actualmente a Meta y a uno de sus subcontratistas, alegando que la empresa se dedicaba a la trata de personas y al trabajo forzado.

Conoce cómo trabajamos en Business Insider.