Facebook permitirá que los usuarios se conviertan en "expertos" para tratar de reducir la desinformación: este es el nuevo intento de la red social para evitar responsabilidades por el contenido dañino

Mark Zuckerberg declarando en un juicio
  • Facebook permitirá que algunos de sus usuarios se conviertan en "expertos" que puedan servir como voces autorizadas ante ciertas informaciones.
  • Pero esta medida es otra forma de eludir responsabilidades por el contenido dañino que se publica en la red social.
  • Descubre más historias en Business Insider España.

Una vez más, Facebook está contratando a otra persona para que haga su trabajo.

La compañía ha anunciado esta semana que permitiría a los administradores de los grupos nombrar a algunos usuarios como "expertos".

Eso significa que las personas que dirigen estas comunidades, que se componen de temáticas de todo tipo, desde oportunidades de alojamiento hasta mascotas o extremistas políticos, elegirán a ciertas personas dentro de esos grupos para convertirse en una voz autorizada en la que el resto de usuarios pueda confiar, una iniciativa diseñada en parte para erradicar la información errónea.

Por ejemplo, un administrador de un grupo dedicado a las teorías de la conspiración o la supremacía blanca podría designar a alguien dentro de ese espacio para que sea tratado como experto por la red social, lo que va a provocar que sus publicaciones se amplíen y que otros confíen en él.

Este nuevo movimiento recuerda a la creación de la junta de supervisión de Facebook, a menudo denominada "corte suprema". Debido a que la empresa se enfrentó a una presión cada vez mayor sobre qué tan estrictamente modera las publicaciones potencialmente dañinas, no terminó de asumir por completo la responsabilidad sobre esta junta. 

Facebook invirtió 130 millones de dólares (110 millones de euros) en la creación de este departamento, y todo para que acabase fracasando en mayo, ya que la propia junta de supervisión les devolvió una publicación polémica alegando que la red social no estaba haciendo su trabajo y que "dejasen de ser tan vagos".

Si se considera que el enfado de la junta de supervisión es un mal precedente, la nueva herramienta de "expertos" de Facebook podría producir de manera similar un resultado poco productivo.

Y no sólo eso, esta decisión podría tener también consecuencias negativas si la red social acaba dando poder a ciertos usuarios que se dedican a generar bulos. 

Los grupos de Facebook se diseñaron originalmente para frenar la desinformación

Manifestantes favorables a Donald Trump en una protesta
Manifestantes favorables a Donald Trump en una protesta

Facebook se empezó a fijar en los grupos tras las elecciones de 2016 en Estados Unidos, después de comprobar cómo se propagaban los bulos en la plataforma. 

Desde entonces, Mark Zuckerberg ha intentado desviar la atención del servicio de noticias de Facebook y de los grupos, tratando de eludir responsabilidades. Aún así, Facebook ha tenido que eliminar algunos de ellos, alegando que incitaban a la violencia. 

Por ejemplo, en noviembre de 2020 se unieron 350.000 usuarios a un grupo que afirmaba que las últimas elecciones presidenciales habían sido fraudulentas y que Donald Trump era el justo vencedor.  Sólo 2 días después, Facebook lo eliminó tras anunciar que el grupo estaba organizado en torno a "la deslegitimación del proceso electoral" y que algunos de sus miembros estaban haciendo "preocupantes llamadas a la violencia".

Y antes de eso, a mediados de 2019, ProPublica informó sobre un grupo privado de 9.500 agentes actuales y ya jubilados de la Patrulla Fronteriza de Estados Unidos que bromeaban sobre la muerte de inmigrantes y hacían comentarios groseros sobre la representante demócrata Alexandria Ocasio Cortez.

Facebook explicó en su último comunicado que hay más de 70 millones de administradores y moderadores que operan en diferentes grupos activos de todo el mundo.

Moderar tanto contenido no es tarea fácil, pero la idea de crear una herramienta de expertos demuestra que Facebook todavía no ha encontrado una solución responsable para cortar la proliferación de bulos. 

Facebook no ha respondido a una solicitud de declaraciones para este artículo. 

Conoce cómo trabajamos en Business Insider.