La moderación de las publicaciones todavía es un gran problema sin resolver para Facebook

Facebook Dislike

Facebook se ha visto obligada ha pedir perdón -otra vez- después de que una nueva investigación haya demostrado que el actual sistema de moderación de mensajes haya fallado en repetidas ocasiones a la hora de eliminar contenidos profundamente ofensivos.

Este año ha quedado más que patente la incapacidad de Facebook, Twitter o YouTube a la hora de identificar y eliminar los mensajes que incitan al odio y atacan a los grupos de población más vulnerables dentro de sus plataformas, un problema que preocupa cada vez más a los gobiernos de los países occidentales y que se antoja como uno de los mayores retos para las grandes tecnológicas en 2018.

El último ejemplo viene de la mano de un reportaje de ProPublica, una agencia independiente de noticias sin ánimo de lucro, que vuelve a desnudar el sistema interno de moderación en Facebook.

Las normas de la red social prohíben taxativamente el lenguaje que incita al odio, es decir, todos aquellos mensajes que ataquen directamente a otras personas en función de su raza, grupo étnico, religión, nacionalidad, orientación sexual, identidad de género o discapacidades. 

Leer más: Por qué deberíamos preocuparnos en España por el fin de la neutralidad de la red en Estados Unidos

La teoría está clara pero la práctica es bastante diferente. ProPublica ha recibido en los últimos meses más de 900 ejemplos de publicaciones ofensivas que reflejan las carencias del actual sistema de moderación de la plataforma, parcialmente automatizado y supervisado por un equipo de más de 7.500 moderadores que deciden finalmente si mantienen o eliminan los mensajes reportados por los más de 2.000 millones de usuarios registrados en la red social.

La agencia de noticias ha preguntado directamente a Facebook sobre una muestra de 49 mensajes que se mantuvieron en la plataforma a pesar de haber sido reportados por los usuarios, la mayoría de ellos con mensajes que incitaban al odio. La respuesta de la red social ha sido la siguiente:

  • En 22 casos (45%) Facebook ha reconocido que sus moderadores se equivocaron al tomar la decisión.
  • En 19 casos (39%) Facebook ha defendido la decisión tomada por los moderadores.
  • En 6 casos (12%) la red social alega que el contenido violaba sus reglas pero fueron reportados incorrectamente así que los moderadores no podían eliminarlos.
  • En los otros dos casos (4%) la empresa ha explicado que no tenía la suficiente información para decidir.

"Pedimos perdón por los errores que hemos cometido, no reflejan la comunidad que queremos ayudar a construir", explica en un comunicado a ProPublica el vicepresidente de Facebook, Justin Osofsky. "Debemos hacerlo mejor", añade. 

¿Cómo se puede mejorar el proceso para identificar los comentarios que incitan al odio en las redes sociales? Las grandes tecnológicas han comenzado a centrar esfuerzos (y recursos económicos) en esta tarea, tanto a la hora de ayudarse de soluciones tecnológicamente avanzadas de inteligencia artificial como contratando a más personal para supervisar los comentarios sospechosos.

De hecho, Facebook planea contar con 20.000 moderadores a finales de 2018 con el objetivo de conseguir que sus propias normas de funcionamiento se cumplan en todo momento. Google promete contar con más de 10.000 personas para revisar, entre otras cosas, los vídeos que se publican en YouTube.

Las autoridades comienzan a presionar

El problema no es ni mucho menos exclusivo de Facebook, ya que a lo largo de estos últimos meses hemos visto casos similares en plataformas como Twitter o YouTube. El asunto ya está en la mesa de los gobiernos de medio mundo, que presionan a las grandes empresas tecnológicas para que optimicen sus sistemas con el objetivo de erradicar el lenguaje ofensivo de las redes sociales.

De hecho, un artículo de Reuters demuestra que la Unión Europea estudia impulsar una legislación que obligue a estas grandes empresas a "para identificar y eliminar contenidos terroristas en un plazo de 1 a 2 horas después de la carga, en la medida en que sea técnicamente viable, sin comprometer los derechos humanos y las libertades fundamentales".

Esa postura concuerda con la normativa introducida ya en Alemania que amenaza con multas de hasta 50 millones de euros a redes como YouTube, Instagram, Facebook o Twitter si no eliminan los mensajes de odio y las noticias falsas en un tiempo razonable, un ejemplo que quiere seguir en el Reino Unido Theresa May.

Leer más: Los moderadores de contenido de Facebook y YouTube cuentan cómo es filtrar el material más perturbador de internet

Osofsky asegura a ProPublica que en el caso de Facebook eliminan alrededor de 66.000 publicaciones que incitan al odio cada semana, pero explica que no todos los comentarios ofensivos pueden considerarse como incitadores al odio. "Nuestras políticas permiten contenido que puede ser polémico e incluso desagradable pero que no cruza la línea de incitación al odio", razona.

¿Qué entiende entonces Facebook por "incitación al odio"? Ese parece ser uno de los problemas que arroja esta investigación de ProPublica: las decisiones tomadas por los moderadores de Facebook parecen un tanto inconsistentes al juzgar mensajes muy similares, lo que acaba por permitir que se mantengan publicados muchos mensajes que no deberían pasar el filtro.

En mayo de este 2017 la red social de Mark Zuckerberg ya reconoció las carencias de su política de moderación de publicaciones en un artículo publicado en The Guardian en el que la jefa de gestión de políticas globales de Facebook explicaba lo difícil que resulta a veces encontrar el equilibrio.

Un trabajo difícil y poco reconocido

Otro reciente reportaje de The Wall Street Journal ha conseguido poner cara a esos moderadores anónimos que tienen uno de los trabajos más desagradables del mundo: pasarse horas delante de la pantalla revisando mensajes que muestran lo peor de nuestra sociedad.

Buena parte de estos moderadores son subcontratados por otras empresas, por lo que trabajan desde lejos de las oficinas de estos gigantes tecnológicos, a veces desde casa y a menudo desde diminutos cubículos de la India o Filipinas, donde la mano de obra sale mucho más barata. 

En varias ocasiones se ha denunciado que los moderadores de estas plataformas apenas tienen unos segundos para decidir si una publicación es o no ofensiva y se enfrentan diariamente a miles de imágenes que pueden acabar creando secuelas psicológicas, de ahí que muchos tiren la toalla en el primer o el segundo día.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.