"Un algoritmo opaco, supervisión inconsistente y desigualdades geográficas": un informe sobre YouTube denuncia las recomendaciones de vídeos

YouTube.
YouTube.

Reuters

"Un algoritmo opaco, supervisión inconsistente y desigualdades geográficas". Son tan solo algunas de las conclusiones sobre YouTube de un informe realizado por Mozilla a partir de una investigación de 2021.

Desde finales del año pasado, Google decidió ocultar el número de "no me gusta" en los vídeos de YouTube, con el objetivo de proteger a creadores de contenido frente al acoso, aunque los mismo creadores podían seguir viendo el porcentaje exacto.

Sin embargo, la investigación de Mozilla ha descubierto que este botón no sirve para cambiar las recomendaciones de los usuarios. Para ello, utilizaron la herramienta de código abierto de la propia compañía, RegretsReporter, dedicada a estudiar el algoritmo de recomendación de YouTube.

Su auditoría independiente ha incluido a 22.722 participantes, 567.880.195 vídeos y 2.758 personas encuestadas. Entre sus conclusiones principales, cabe destacar que YouTube ha cambiado para no cambiar nada en absoluto.

"Nada ha cambiado. A veces informaba sobre vídeos engañosos y spam, y al día siguiente volvían a aparecer", ha detallado un encuestado. "Se siente como si la retroalimentación negativa que ofrezco a sus sugerencias fuera el pico de una montaña. Incluso cuando bloqueo ciertas fuentes, acaban regresando".

El explosivo crecimiento de los ingresos publicitarios de TikTok superará a YouTube en 2024, y su próximo objetivo es Facebook

A su vez, esto añade otro problema mayor a la plataforma de vídeos de Google: la polarización de las ideas políticas y la información engañosa sobre diversos temas. Un círculo vicioso que YouTube parece no solventar.

"He evitado hacer clic en un vídeo que me hubiera gustado ver, solo porque me preocupaba que al hacerlo, este me llevaría a recibir recomendaciones políticamente extremas", ha explicado otro encuestado.

La investigación de Mozilla, por su parte, define "mala recomendación" como la aparición en la interfaz de cualquier usuario de vídeos que habían rechazado previamente por diversos motivos.

Por ejemplo, el 8 de diciembre de 2021, un usuario vio un vídeo titulado Una abuela comía masa para galletas en el almuerzo todas las semanas. Esto es lo que le pasó a sus huesos. El usuario decidió que prefería no volverlo a ver. 

En este sentido, el usuario decidió utilizar el mecanismo de comentarios de YouTube, así como la opción de eliminarlo del historial. Sin embargo, volvió a aparecer otro vídeo similar: Este padre comió 25 paquetes de gel de sílice para el desayuno. Esto es lo que le pasó a su estómago.

 

Una semana después, siguieron las recomendaciones de vídeos en esta línea, sobre personas que comieron cosas equivocadas y sus consecuencias sobre diferentes órganos del cuerpo humano.

Para desgracia del usuario, siguieron apareciendo este tipo de vídeos hasta 3 meses después. "El algoritmo parece incapaz de recordar una lección por mucho tiempo", ha denunciado este encuestado.

De momento, Mozilla ha ofrecido algunas recomendaciones a YouTube, como el rediseño de sus herramientas de retroalimentación, de acceso a datos para investigadores o de los controles de usuario, para que sean accesibles y fáciles de entender.

Por el momento, YouTube no ha respondido al informe de Mozilla. No obstante, la plataforma de vídeos siempre ha sido criticada por la opacidad de su algoritmo, algo que ha afectado a las recomendaciones de usuarios y creadores de contenido.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.