El algoritmo de YouTube otra vez en el foco del huracán: un informe de Mozilla acusa a la plataforma de desinformar y promover discursos del odio

Youtube

Reuters/FW1F/Louise Heavens

  • Mozilla acusa a YouTube de promover la desinformación, teorías conspiranoicas, violencia y discursos del odio a través de su motor de recomendación automático.
  • El informe RegretsReporter, elaborado por Mozilla, se ha llevado a cabo gracias a la extensión que incorpora el propio buscador y que permite informar sobre un contenido inapropiado ofrecido por la plataforma de Google. 
  • Youtube asegura que ha introducido más de 30 cambios en su algoritmo con la intención de poner fin a la promoción de este tipo de contenido. 
  • Descubre más historias en Business Insider España.

El algoritmo de YouTube te ayuda a descubrir música que ni siquiera sabías que te gustaba, pero también es un conductor de desinformación, bulos y radicalización. Según el último informe Regrets Reporter, realizado por Mozilla, el motor de recomendación de YouTube continúa promoviendo y posicionando contenido que desinforma, así como teorías conspiranoicas o incluso discursos del odio. 

La recomendación basada en datos que el usuario ha proporcionado a la plataforma, como otros vídeos visionados, publicaciones a las que ha dado me gusta, y un sinfín de información que los motores de búsqueda de Google almacenan para después crear perfiles de esos usuarios, acaban por ofrecer un contenido que tiene como fin último captar la atención de las personas. En este sentido, el contenido que genera indignación o que es más polémico, es una gran fuente de tráfico para la plataforma, y por lo tanto, ingresos que recibe de los anunciantes. 

La humanidad no podrá controlar a la inteligencia artificial, según este nuevo estudio

El informe de la Fundación Mozilla ha sido elaborado gracias a la extensión que incorpora su navegador llamado RegretsReporter. Esta función permite a los usuarios informar de un contenido que considera "inapropiado" o que "se arrepiente de haber visto" y que YouTube en el 71% de los casos del estudio les había ofrecido automáticamente

El estudio se ha llevado a cabo entre julio de 2020 y mayo de 2021, y se basó en los datos de más de 37.000 usuarios de YouTube que tenían la extensión instalada, aunque ha sido un subconjunto de 1.162 voluntarios -de 91 países- los que presentaron dichas quejas. 

Las críticas sobre el problema que pueden suponer los motores de recomendación automática no son algo nuevo. De hecho, "caer en el agujero del conejo", haciendo alusión a cuando Alicia en el País de las Maravillas se cuela por la madriguera es ya una metáfora repetida para referirse a la sensación que supone encender el móvil y caer en una suerte de trance. 

Es algo que la periodista Marta Peirano describe en su libro El enemigo conoce el sistema (Debate, 2019): "Es en ese estado -de suspensión animada- que consumimos grandes cantidades de contenido, elegido para nosotros por una maquinaria de microsegmentación selectiva cuyos mecanismos son oscuros e interesados". 

Estos mecanismos "oscuros e interesados" de YouTube, son criticados por Mozilla en su informe, ya que explica que el funcionamiento algorítmico del motor de recomendación de la plataforma (y los datos asociados) no es público, ni se somete una auditoría externa, ya que es un "secreto comercial".

La inteligencia artificial controlará tus decisiones: un debate ético más allá de la tecnología

Por su parte, YouTube a través de un portavoz ha respondido al informe elaborado por Mozilla tal y como recoge el portal Techcrunch. "El objetivo de nuestro sistema de recomendaciones es conectar a los espectadores con los contenidos que les gustan y, en un día cualquiera, se recomiendan más de 200 millones de vídeos solamente en la página de inicio. Más de 80.000 millones de datos se utilizan para informar a nuestros sistemas, incluidas las respuestas a las encuestas de los espectadores sobre lo que quieren ver. Trabajamos constantemente para mejorar la experiencia en YouTube y, solo en el último año, hemos puesto en marcha más de 30 cambios diferentes para reducir las recomendaciones de contenido perjudicial. Gracias a este cambio, el consumo de contenido dudoso que proviene de nuestras recomendaciones es ahora significativamente inferior al 1%". 

Además, Google ha sugerido la posibilidad de, en un futuro, facilitar una investigación externa para estudiar la plataforma, aunque no ha concretado nada. 

Mozilla por su parte pide una serie de reformas a la plataforma entre las que se encuentran una mayor transparencia, una investigación externa efectiva sobre los motores algorítmicos de recomendación de contenido y poner fin a la creación de perfiles basados en los datos de los usuarios. Esto último, como señala The Verge, parece algo a lo que YouTube no parece que vaya a renunciar, ya que ingresa 6.000 millones de dólares, alrededor de 5.000 millones de euros, por trimestre gracias a la publicidad. 

Otros artículos interesantes:

Bruselas plantea que las grandes tecnológicas modifiquen sus algoritmos y garanticen más transparencia al combatir la desinformación

Empresas que espían las conversaciones de sus empleados y algoritmos que penalizan hasta por enfermedad: Europa quiere regular la IA en el trabajo antes de que acabe el año

Qué son y cómo funcionan los patrones oscuros: así consiguen las redes sociales y las plataformas tecnológicas que te comportes como sus algoritmos esperan