Pasar al contenido principal

El libro de normas secreto de Facebook demuestra sus graves problemas para controlar qué publicaciones eliminar, a pesar de contar con un ejército de moderadores

Mark Zuckerberg
Reuters/Charles Platiau
  • Facebook ha tenido que asumir el papel de moderador del debate público en su plataforma y, a la vista de los últimos escándalos, no lo está haciendo muy bien. 
  • The New York Times ha tenido acceso al "libro de normas" de la compañía, que incluye docenas de presentaciones de diapositivas de Power Point y hojas de cálculo en Excel. 
  • Más de 7.500 moderadores en todo el mundo se dedican a controlar los contenidos de la plataforma, pero dicen sentirse "frustrados". 

Armados con diapositivas de Power Point y algunas tablas de Excel, un ejército de moderadores de Facebook trabaja todos los días para controlar el contenido de la plataforma, según la información del New York Times, que ha tenido acceso a este curioso "libro de normas". 

Entre los recientes (y no tan recientes) escándalos de la red social sobre la privacidad de los usuarios, surge otro problema con la plataforma, que parece incapaz de moderar los discursos que contiene y practica un "prueba y error" que puede tener graves consecuencias. 

No es la primera vez que se habla del poder de Facebook sobre el contenido que se vuelca en su red y, de hecho, tras el escándalo de Cambridge Analytica, la plataforma eliminó casi 600 millones de cuentas con discursos de odio y violentos, entre otros. Sin embargo, ahora The New York Times ha tenido acceso al "libro de normas" que usa la compañía para establecer las guías de lo que está permitido y lo que no.

La cabecera estadounidense ha obtenido 1.400 páginas de estas directrices, que consisten en diapositivas de Power Point y tablas de Excel que tienen como objetivo aportar claridad, pero lo único que queda claro es que la tecnológica se ve superada por su rol de moderador. Todos los martes docenas de empleados de la plataforma se reúnen para decidir las normas a seguir en el control de los discursos en Facebook y las resoluciones se envían a los 7.500 moderadores de la red en todo el mundo, según informa The New York Times

Leer más: Mark Zuckerberg es ridiculizado en una parodia de The Guardian por los escándalos de Facebook de los 12 últimos meses

Las normas se contradicen y tienen errores, y los moderadores están frustrados

El papel moderador de la compañía busca evitar la propagación de discursos que inciten a la violencia. Sin embargo, The New York Times subraya que se eliminaron páginas de financiación para las víctimas del volcán en Indonesia, mientras que un grupo extremista de Myanmar acusado de fomentar el genocidio permaneció en la plataforma durante meses sin ser censurado ni eliminado. 

"¿Cuándo está prohibida una referencia a "yihad", por ejemplo? ¿Cuándo es un emoji que llora de risa (😂) una señal de advertencia?", son algunas de las preguntas a las que se enfrentan los moderadores, según el New York Times. Este rol lo llevan a cabo jóvenes ingenieros y abogados que no tienen conocimiento de todas las lenguas sobre las que tienen que actuar en tan solo un segundos y desconocen en profundidad la realidad local de los países cuyos discursos permiten o censuran. 

Según el diario estadounidense, "los moderadores expresan su frustración ante las reglas que dicen que no siempre tienen sentido y, a veces, les exigen que dejen los mensajes que temen que puedan llevar a la violencia".

Leer más: Los trabajadores de Facebook hablan entre ellos con móviles de usar y tirar en un nuevo ejemplo del clima de paranoia que vive la empresa

Eliminar contenido puede tener consecuencias negativas para la reputación de Facebook (y eso es un peligro)

Según The New York Times, la plataforma nunca tuvo intención de asumir este papel de moderador del debate público pero, "en un intento por resolver el problema que ha creado se ha convertido en uno de los reguladores políticos más poderosos del mundo".

Para la compañía el objetivo principal es prevenir los daños y crear una comunidad segura y afirma estar teniendo éxito en esa tarea, según declaraciones a The New York Times de Monika Bickert, jefa de administración de política global de Facebook. Bickert defiende los errores de la compañía: "Tenemos miles de millones de publicaciones todos los días, estamos identificando cada vez más posibles violaciones con uso de nuestros sistemas técnicos. En esa escala, incluso si tiene una precisión del 99%, vas a tener muchos errores".

Sin embargo, podría ser que no todas las malas prácticas en la moderación del discurso se deban a errores involuntarios de la compañía. La investigación del New York Times sugiere que hay otros intereses en juego puesto que en las directrices que los moderadores debían seguir durante las elecciones en Pakistán se advertía de no hacer nada que pudiera "tener un impacto negativo en la reputación de Facebook o incluso poner a la compañía en riesgo legal". 

Además, el diario también señala como problema al propio funcionamiento de Facebook, que confía en un algoritmo que suele fomentar el contenido más problemático, y al poco control que tiene la compañía sobre las empresas y servicios que contrata en otros países y de los que depende para su expansión internacional.  

No ha sido un buen año para Facebook, así que habrá que ver que medidas toma Mark Zuckerberg para reflotar la reputación de la compañía en 2019.