Facebook aseguró que iba a 'curar' su algoritmo en 2018 para proteger la salud mental de sus usuarios, pero el cambio provocó justo lo contrario, según documentos internos

Facebook comunidad enfadada

Getty Images

  • En un intento por acercar a sus usuarios a publicaciones de amigos y conocidos, Facebook alteró su algoritmo en 2018.
  • Este cambio, relata el Wall Street Journal este miércoles, en realidad solo sirvió para promocionar opiniones que generaban división, lo que convirtió la red social en un lugar más molesto.
  • Una vez detectado el problema, la red social fue reticente a cambiarlo por miedo a perder su número de interacciones, que había aumentado.
  • Descubre más historias en Business Insider España.

Hacia 2018, Facebook detectó que su red social estaba perdiendo usuarios diarios. Pero había algo todavía peor: estaban descendiendo drásticamente las interacciones entre los que quedaban.

En un intento por alejar a la gente de las publicaciones de los medios de comunicación convencionales y acercarlos a las publicaciones de sus amigos y conocidos, la red social cambió su algoritmo.

En origen, la idea de Facebook no era del todo mala

Por aquel entonces, ya estaba bastante demostrado que las noticias de los profesionales, centradas muchas veces en tragedias y sensacionalismo, aumentan los niveles de estrés entre los lectores.

En su intento por evitar esto Facebook empezó a premiar de un modo especialmente significativo las publicaciones de personas anónimas que generan respuestas entre amigos y desconocidos.

Pero la medida, como contó hace algo más de un año Business Insider, tuvo en efecto colateral devastador para la plataforma. 

Las publicaciones que generan más interacciones de este tipo son, precisamente, las que generan más división, más enfado y más opiniones encontradas.

Este hecho, como ha revelado este miércoles el Wall Street Journal, fue pronto conocido por Facebook. 

Zuckerberg, sin embargo, se mostró siempre reticente a cambiar el algoritmo, especialmente si ello implicaba arriesgarse a sufrir un descenso en el número de interacciones entre usuarios.

Facebook sabe que Instagram es tóxico para las adolescentes, según documentos internos de la compañía

Esta métrica, revela el WSJ, es de especial importancia para Facebook, que entiende que se trata de un número que refleja de un modo especialmente relevante la salud de la plataforma.

Al fin y al cabo, en el tiempo del auge de otras redes sociales como Instagram y, más recientemente, TikTok, Facebook es capaz de conceder que es posible que su número de usuarios descienda.

Lo que bajo ningún concepto está dispuesto a aceptar el consejero delegado de la empresa, Mark Zuckerberg, a juzgar por los documentos sacados a la luz por WSJ, es que los que quedan no usen la red social casi a diario.

Un descenso de la cifra de uso y del número interacciones entre usuarios se entiende desde Facebook como la antesala a la desaparición.

En ese contexto es en el que hay que entender un cambio de algoritmo que quiso hacer a los usuarios de Facebook más felices, pero que en realidad solo enfadó a muchos de ellos.

Facebook fue reticente a cambiar su algoritmo aun sabiendo sus efectos negativos

La voz de alarma la dio en otoño de 2018 Jonah Peretti, jefe editorial de BuzzFeed, en un correo electrónico al que ha tenido acceso el WSJ.

En él, subrayaba el impresionante éxito que había cosechado un post de su medio titulado 21 cosas que casi todos los blancos son culpables de decir.

El artículo recibió 13.000 compartidos y 16.000 comentarios en Facebook, muchos de ellos de personas que criticaban a BuzzFeed mientras mantenían fuertes discusiones sobre la cuestión racial.

Jeff Bezos, Elon Musk, Bill Gates y otros multimillonarios han incrementado su riqueza durante la pandemia, según un informe sobre desigualdad

Peretti culpó a un nuevo algoritmo que privilegiaba las interacciones sociales significativas (MSI, por sus siglas en inglés), entre amigos y familiares por encima de la información periodística contrastada.

Zuckerberg dijo entonces que el objetivo del cambio de algoritmo era reforzar los vínculos entre los usuarios y mejorar su bienestar. Este, como preveían, había aumentado el número de interacciones.

Dentro de la empresa, sin embargo, supieron pronto que el modo en que se estaba consiguiendo en realidad era pernicioso.

"Nuestro enfoque ha tenido efectos secundarios poco saludables en importantes porciones de contenido público", dijo en un informe visto por WSJ un equipo de científicos.

"La desinformación, la toxicidad y el contenido violento son excesivamente frecuentes entre los reenvíos", señalaron los investigadores.

La cuestión fue aprovechada, además, por los partidos políticos: se dieron cuenta rápidamente de que sus publicaciones más promocionadas por la red social eran aquellas en las que atacaban de un modo directo a sus adversarios.

La UE abre una investigación a Facebook por su propuesta de adquisición de Kustomer

En España, por ejemplo, recuerda el WSJ, esta forma de funcionar de Facebook tuvo su importancia a la hora de polarizar las opiniones con respecto a lo que durante aquellos días sucedía en Cataluña.

Anna Stepanov, que dirigía entonces un equipo que se ocupaba de esos problemas, presentó a Zuckerberg varias propuestas de cambio en 2020, cuenta WSJ.

"Mark no cree que podamos explorarlo mucho más", escribió a sus colegas después de una reunión en la que Zuckerberg se mostró abierto al cambio siempre y cuando este no afectara de forma significativa al MSI.

Como ella, muchos empleados, reflejan los memorandos internos de Facebook, advirtieron de que el algoritmo no solo era perjudicial desde un punto de vista ético, sino que era malo para la empresa.

"La gente dejará de usar Facebook si hacerlo es malo para ellos", dijo un empleado no identificado por WSJ.

La realidad, sin embargo, como relata el exempleado de Facebook James Burnes al WSJ, es que Facebook nunca llegó a entender del todo bien cómo se le había vuelto en contra su cambio de algoritmo.

"No hay soluciones mágicas", dice.

Otros artículos interesantes:

Facebook sabe que Instagram es tóxico para las adolescentes, según documentos internos de la compañía

El experto español que eligió Zuckerberg para acabar con la desinformación en Facebook se marcha discretamente de la compañía

Facebook se lanza a la fabricación de chips para reducir su dependencia de Intel y Qualcomm, igual que Amazon, Apple o Google