TikTok, bajo la lupa: EEUU investiga la red social por material de abuso sexual infantil

TikTok

Una nueva polémica se cierne sobre una de las redes sociales más populares del momento, TikTok. El gobierno de Estados Unidos está llevando a cabo una investigación por su gestión de material de abuso sexual infantil, según el Financial Times.

Según las investigaciones a las que ha tenido acceso el FT, TikTok está tratando de controlar todos los contenidos de sus más de 1.000 millones de usuarios. La empresa, propiedad de la china ByteDance, cuenta con más de 10.000 moderadores humanos en todo el mundo y ha contratado rápidamente personal en este ámbito. 

Pero a veces no es suficiente.

TikTok está ganando a Twitter y Snap en ingresos por publicidad: así es cómo grandes marcas como Poshmark y eBay utilizan la plataforma para llegar a más clientes e impulsar sus ventas

Por otra parte, esta situación no es nueva para la red social: entre 2019 y 2021 el número de investigaciones sobre explotación infantil y contenido prohibido relacionadas con TikTok por parte de la Seguridad Nacional estadounidense se ha multiplicado por siete.

En este caso, Facebook se postula como una aplicación con una amplia experiencia en este campo, ya que la moderación de contenidos lleva siendo un quebradero de cabeza para la compañía desde hace muchos años. De hecho, cuenta con unos 15.000 moderadores en todo el mundo y tiene sistemas automatizados diseñados para marcar las publicaciones.

Según datos recogidos por el Financial Times, TikTok denunció casi 155.000 vídeos el año pasado, mientras que Instagram, que también tiene más de 1.000 millones de usuarios, tuvo casi 3,4 millones de denuncias.

Por qué las marcas pagan hasta 3 veces más por los vídeos patrocinados de TikTok Live que por las publicaciones normales de las 'influencers'

Ante esta situación, la compañía ha tenido que pronunciarse:

"TikTok tiene tolerancia cero con el material de abuso sexual infantil. Cuando encontramos cualquier intento de publicar, obtener o distribuir [material de abuso sexual infantil], eliminamos el contenido, prohibimos las cuentas y los dispositivos, informamos inmediatamente al NCMEC y nos involucramos con la aplicación de la ley según sea necesario".

"Estamos profundamente comprometidos con la seguridad y el bienestar de los menores, por lo que incorporamos la seguridad de los jóvenes en nuestras políticas, activamos la configuración de privacidad y seguridad por defecto en las cuentas de los adolescentes y limitamos las funciones por edad", ha apuntado la red social.

Según datos de la propia red social, se dijo que se había eliminado el 96% de los contenidos que violaban sus políticas de seguridad de los menores antes de que alguien los viera.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.