Facebook tenía pruebas de que sus algoritmos polarizan y enfrentan a los usuarios, pero sus directivos descartaron soluciones

Mark Zuckerberg, presidente y CEO de Facebook.
Mark Zuckerberg, presidente y CEO de Facebook.REUTERS/Erin Scott
  • Una investigación interna de Facebook descubrió que la plataforma incentivaba la polarización, pero Mark Zuckerberg y otros altos directivos de la compañía descartaron soluciones, según The Wall Street Journal.
  • Un informe concluía que los algoritmos de la red social "explotan la atracción del cerebro humano hacia la confrontación", según el medio estadounidense.
  • Zuckerberg y el jefe de Políticas de Facebook, Joel Kaplan, descartaron las soluciones propuestas porque temían enfrentarse a los conservadores, o simplemente perdieron interés en resolver el asunto.
  • La presión sobre Facebook ha aumentado, al albergar la plataforma contenido tóxico y polarizador sobre la pandemia de coronavirus y sobre las elecciones presidenciales de 2020.
  • Descubre más historias en Business Insider España.

Facebook tenía pruebas de que sus algoritmos incentivan la polarización y "explotan la atracción del cerebro humano hacia la confrontación", pero los altos directivos de la compañía, incluyendo el CEO, Mark Zuckerberg, eliminaron o descartaron las soluciones propuestas, según una información publicada por The Wall Street Journal este martes.

Los esfuerzos por comprender mejor cómo afecta Facebook en el comportamiento de sus usuarios surgieron como respuesta al escándalo Cambridge Analytica, y sus investigadores determinaron que los algoritmos de la red social estaban logrando el efecto contrario a su propósito inicial: conectar al mundo.

Un informe de 2016 descubrió que el "64% de los usuarios que se unían a grupos radicales lo hacían porque la herramienta se lo había recomendado", mediante las sugerencias de la plataforma 'Grupos en los que deberías unirte' o 'Descubre'. "Nuestros sistemas de recomendación han alimentado el problema", advirtieron los investigadores, según The Journal.

Leer más: Esta es la millonaria cifra que la nueva tienda online de Facebook podría sumar a las cuentas de Zuckerberg, según el estudio de una entidad financiera

Este diario destaca que los trabajadores de Facebook propusieron varias soluciones, como limitar la cantidad de información que podían compartir grupos muy activos o usuarios más activistas, ofrecer muchas menos sugerencias de grupos de las que los usuarios podrían encontrar normalmente, y crear subgrupos para debates más controvertidos, con el fin de evitar que las discusiones desvirtúen una comunidad.

Pero estas propuestas fueron a menudo desoídas e ignoradas por Zuckerberg y el jefe de Políticas de Facebook, Joel Kaplan. The Wall Street Journal asegura que el propio Zuckerberg perdió el interés en intentar corregir el problema de polarización: estaba preocupado por cómo medidas como esa podrían afectar al crecimiento del número de usuarios en la plataforma.

En respuesta a la propuesta de limitar la cantidad de contenido que podía compartir los usuarios más activos, Zuckerberg aceptó una versión algo más laxa de la iniciativa, y pidió a sus empleados que no le volvieran a ofrecer algo así.

Cualquier ajuste habría afectado mucho más a los conservadores

Los investigadores de la compañía también detectaron que, debido a la mayor presencia en la red social de cuentas y páginas de extrema derecha, cualquier movimiento —incluyendo ajustes apolíticos, como la restricción del clickbait— podría haber afectado desproporcionalmente a los conservadores.

Esto preocupaba a Kaplan, que ya había descartado un proyecto llamado 'Common Ground' —Terreno Común— cuyo objetivo era incentivar debates políticos más sanos en la plataforma.

Leer más: Facebook presenta CatchUp, una app de chats de audio que recuerda mucho a Houseparty: podrás hablar con tus amigos sin necesidad de llamarles primero

En última instancia, muchos de estas propuestas no fueron incorporadas a los productos de Facebook. Los responsables adujeron a los empleados en septiembre de 2018 que Facebook estaba pivotando de "un bien social a un valor individual", según The Wall Street Journal.

"Hemos aprendido mucho desde 2016 y hoy por hoy no somos la misma compañía", defendió un portavoz de la red social al periódico. "Hemos construido un robusto equipo de integridad, reforzado nuestras políticas y prácticas para limitar el contenido dañino, y usado investigaciones para comprender mejor el impacto de nuestra plataforma en la sociedad, para que podamos seguir mejorando".

Facebook ha sido constantemente señalado por críticos que dicen que la compañía no ha hecho suficiente para limitar los discursos de odio en la red. Este tema ha recobrado de nuevo relevancia, debido a las desinformaciones relacionadas con el coronavirus y con las elecciones presidenciales de Estados Unidos en 2020.

Conoce cómo trabajamos en Business Insider.