Pasar al contenido principal

Los moderadores de contenido de Facebook y YouTube cuentan cómo es filtrar el material más perturbador de internet

Una persona consulta su ordenador sentada en una estación de transporte
Adam Berry/Getty Images
  • Las personas contratadas para revisar y filtrar los contenidos publicados en plataformas como Facebook y YouTube aseguran que el trabajo supone un enorme coste psicológico.
  • Los moderadores de contenido revisan con frecuencia vídeos e imágenes capaces de herir la sensibilidad con ejemplos, entre otros, de pedofilia, violencia y crueldad animal.
  • Un antiguo moderador describe su trabajo como "observar el contenido de psicópatas trastornados [...] sin conciencia".

Un buen número de los trabajadores temporales encargados de moderar el contenido de plataformas como Facebook y YouTube aseguran que no están preparados para el coste psicológico y emocional que supone el trabajo.

Las grandes plataformas contratan estos moderadores para revisar y filtrar las publicaciones de los usuarios, incluidas las imágenes y vídeos denunciadas por otros usuarios. Varios de estos trabajadores han compartido su experiencia en un reportaje del Wall Street Journal publicado recientemente.

En el reportaje, los moderadores aseguran que han visto imágenes de víctimas "destripadas" en la guerra y "niños soldados involucrados en asesinatos". Un antiguo moderador que trabajó en Facebook, por ejemplo, recordó haber visto un video de un gato metido dentro de un microondas en funcionamiento, publica Wall Street Journal.

Shaka Tafari, quien moderaba parte del contenido enviado a través de la aplicación de mensajería Whisper, explica que estaba "alarmado" por la cantidad de mensajes referentes a violaciones y el número de imágenes de zoofilia y tortura animal.

"Veía el contenido de psicópatas trastornados perdidos en algún bosque que no tienen conciencia de lo humano", cuenta Tafari al diario.

Los gigantes tecnológicos contratan y supervisan a miles de moderadores de contenido, un perfil que normalmente se ocupa con personas contratadas a través de empresas de trabajo temporal y tienen una gran rotación debido a la naturaleza del trabajo. No obstante, y según algunos extrabajadores entrevistados por Wall Street Journal, la rotación también puede deberse al estrés psicológico del puesto.

Algunas de esas personas aseguran además que, durante su tiempo en el puesto, tenían pocas o ninguna herramienta para lidiar con los efectos secundarios de un trabajo que les exigía enfrentarse a algunos de los contenidos más turbios y depravados de internet. Según el reportaje del Wall Street Journal, Facebook y Microsoft ofrecen ciertas fórmulas y mecanismos de asesoramiento y apoyo psicológico, algo que los empleados entrevistados consideran que no es suficiente. Por lo general, las personas en el puesto dejan el trabajo en un año o menos.

La moderación de contenido se convirtió en un tema candente sobre todo en Facebook tras las elecciones presidenciales de Estados Unidos de 2016, cuando se supo que Rusia se apoyó en la red social para influir en la campaña a favor del entonces candidato Donald Trump y atacar a la candidata demócrata, Hillary Clinton.

Aunque el fundador y director ejecutivo de Facebook, Mark Zuckerberg, se opuso a la medida en un principio, la red social admitió más tarde que operativos con base en Rusia habían publicado más de 80.000 posts en apenas dos años.

El tema se ha vuelto aún más preocupante en las últimas semanas tras la información publicada por The Washington Post en la que se asegura que los intentos rusos de condicionar nuevas elecciones seguramente seguirán en un momento que las plataformas digitales aún son vulnerables.

Te puede interesar