Un error en el algoritmo de Facebook aumentó la visibilidad del contenido dañino: la mitad de los 'Feeds' se vieron expuestos a desnudos o violencia en los últimos 6 meses
- Un grupo de empleados de Facebook ha descubierto un error en el algoritmo de la red social que aumentó la visibilidad del contenido prohibido por sus políticas.
- Este problema ha causado que la mitad de las cuentas hayan resultado expuestas a estos contenidos dañinos en sus Feeds en los últimos 6 meses, según documentos internos revisados por The Verge.
- Comienza el día bien informado con la selección de noticias de Business Insider España: suscríbete gratis aquí.
Meta ha admitido la existencia de un error en su red social Facebook por el que su algoritmo dio visibilidad a las publicaciones con contenido dañino prohibidas por sus políticas, como desnudos o violencia, y que se prolongó durante los últimos 6 meses hasta su reparación en marzo.
El fallo, descubierto por un grupo de ingenieros de Facebook que ha alertado sobre él en un documento interno al que ha tenido acceso The Verge, se descubrió por primera vez en octubre de 2021, cuando se produjo un incremento de la desinformación en el Feed de la red social.
Habitualmente, el algoritmo de Facebook trabaja de forma automática para detectar las publicaciones con contenidos prohibidos o dañinos. En estos casos, la visibilidad de los contenidos se reduce, y se los relega e incluso elimina del Feedde sus usuarios, priorizando otros contenidos que sí cumplen las normas.
Se trata de un mecanismo que funciona al margen de las tareas de moderación que realizan sus revisores para decidir si deben o no eliminarse los contenidos, aunque resulta complementario. La red social lo ha usado en varias ocasiones, como para reducir la cantidad de noticias políticas que ven sus usuarios en sus Feeds.
Debido al problema identificado en el informe interno, Facebook no redujo sino que aumentó la distribución de las publicaciones clasificadas como dañinas, de forma que sus visualizaciones se incrementaron un 30% a nivel global en los últimos 6 meses.
Después de advertir el error, los ingenieros de Facebook tardaron varias semanas en encontrar una solución al problema del algoritmo de ranking, que se actualizó el pasado 11 de marzo y volvió a su funcionamiento habitual.
Entre los contenidos promocionados de forma errónea se encuentran tanto publicaciones marcadas por verificadores de noticias como otras que contenían violencia, desnudez e incluso que procedían de medios de comunicación patrocinados por Rusia, que Meta bloquea desde el estallido de la guerra en Ucrania.
Meta ha confirmado a The Verge la veracidad de la investigación interna y del fallo técnico, que asegura que se incorporó al algoritmo originalmente al software de la red social en el año 2019, aunque no produjo ningún efecto negativo hasta octubre de 2021.
Un portavoz ha recalcado que el problema no ha supuesto "ningún impacto significativo a largo plazo" en sus métricas, y que tampoco afectó a los contenidos que sus sistemas automáticos marcaron para su eliminación, sino solo a contenidos límite –que no quedan del todo prohibidos por sus políticas—.
Otros artículos interesantes:
Descubre más sobre Roberto Corrales, autor/a de este artículo.
Conoce cómo trabajamos en Business Insider.