Un error en el algoritmo de Facebook aumentó la visibilidad del contenido dañino: la mitad de los 'Feeds' se vieron expuestos a desnudos o violencia en los últimos 6 meses

Mark Zuckerberg con un logo de Facebook detrás

Reuters

Meta ha admitido la existencia de un error en su red social Facebook por el que su algoritmo dio visibilidad a las publicaciones con contenido dañino prohibidas por sus políticas, como desnudos o violencia, y que se prolongó durante los últimos 6 meses hasta su reparación en marzo.

El fallo, descubierto por un grupo de ingenieros de Facebook que ha alertado sobre él en un documento interno al que ha tenido acceso The Verge, se descubrió por primera vez en octubre de 2021, cuando se produjo un incremento de la desinformación en el Feed de la red social.

Habitualmente, el algoritmo de Facebook trabaja de forma automática para detectar las publicaciones con contenidos prohibidos o dañinos. En estos casos, la visibilidad de los contenidos se reduce, y se los relega e incluso elimina del Feedde sus usuarios, priorizando otros contenidos que sí cumplen las normas. 

La página más vista de Facebook a nivel mundial en los últimos 3 meses ha sido retirada por ser una presunta estafa de extracción de datos

Se trata de un mecanismo que funciona al margen de las tareas de moderación que realizan sus revisores para decidir si deben o no eliminarse los contenidos, aunque resulta complementario. La red social lo ha usado en varias ocasiones, como para reducir la cantidad de noticias políticas que ven sus usuarios en sus Feeds.

Debido al problema identificado en el informe interno, Facebook no redujo sino que aumentó la distribución de las publicaciones clasificadas como dañinas, de forma que sus visualizaciones se incrementaron un 30% a nivel global en los últimos 6 meses.

Después de advertir el error, los ingenieros de Facebook tardaron varias semanas en encontrar una solución al problema del algoritmo de ranking, que se actualizó el pasado 11 de marzo y volvió a su funcionamiento habitual.

Entre los contenidos promocionados de forma errónea se encuentran tanto publicaciones marcadas por verificadores de noticias como otras que contenían violencia, desnudez e incluso que procedían de medios de comunicación patrocinados por Rusia, que Meta bloquea desde el estallido de la guerra en Ucrania.

Meta ha confirmado a The Verge la veracidad de la investigación interna y del fallo técnico, que asegura que se incorporó al algoritmo originalmente al software de la red social en el año 2019, aunque no produjo ningún efecto negativo hasta octubre de 2021. 

Un portavoz ha recalcado que el problema no ha supuesto "ningún impacto significativo a largo plazo" en sus métricas, y que tampoco afectó a los contenidos que sus sistemas automáticos marcaron para su eliminación, sino solo a contenidos límite –que no quedan del todo prohibidos por sus políticas—.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.