Deshumanizados y tratados como un problema: el algoritmo de YouTube promueve la xenofobia contra migrantes, según revela un estudio de Eticas

Mujer migrante, tras llegar a Motril en 2018.
Mujer migrante, tras llegar a Motril en 2018.

REUTERS/Jon Nazca

  • Eticas desvela en un nuevo estudio cómo el algoritmo de recomendación de contenidos de YouTube promueve la xenofobia y representa a los migrantes deshumanizados.
  • La investigación incluye análisis tanto cuantitativos como cualitativos y puede consultarse íntegra en su web.

Si al acceder a una plataforma de intercambio de vídeos en la que su algoritmo de recomendación de contenidos estuviese auditado y evitase sesgos, lo más probable al buscar términos como "inmigrante" es que el servicio arroje historias de personas que han rehecho sus vidas lejos de su hogar.

Sin embargo, un nuevo estudio de la firma de auditoría algorítmica Eticas revela cómo lo que sucede en YouTube es bien distinto. Al buscar términos como inmigrantes, el sistema que recomienda contenidos a los usuarios en función de sus hábitos e intereses ofrece contenidos que generan un marco mental muy concreto: el de las personas migrantes como un problema.

El estudio, que ha compartido la compañía barcelonesa a través de sus redes con motivo del Día Internacional del Migrante —que se celebró hace unas jornadas— revela "la imagen deshumanizadora" que YouTube "promueve de los migrantes", así como "un mayor apoyo de su algoritmo a narrativas políticas xenófobas".

Ese apoyo a ese tipo de discursos retroalimenta "un contexto" de "creciente discurso político de la extrema derecha", al tiempo que el servicio solo muestra "una pequeña cantidad de vídeos" con una imagen positiva de los migrantes, lo que arroja, a juicio de los investigadores de Eticas, "otra preocupación".

Muchos de los vídeos que sirve el algoritmo comparten como característica "la poca visibilidad de los rostros" de las personas que aparecen en los mismos si se busca contenido relacionados con migrantes: la mayoría de ellas se presentan en grupos de 16 o más individuos, "lo que contribuye a su representación deshumanizada".

"La mayoría de las personas representadas son adultos no blancos, donde las mujeres están subrepresentadas. En la gran mayoría de los vídeos con migrantes presentes, se muestra a los migrantes cruzando una frontera, lo que representa el 75% de las miniaturas y vistas previas de estos vídeos. Solo en el 19,1% de los vídeos los migrantes no cruzan una frontera".

Además, en el 21,6% de la muestra analizada aparecen fuerzas armadas, y se ofrece un marco contextual que interpreta la migración como un problema. "La misma cantidad de vídeos muestra a migrantes cruzando el mar en lanchas o en barcos, con predominio del marco de víctima".

Frontera de Ceuta.

Al buscar vídeos sobre esta temática, solo menos del 30% de los resultados analizados aparecen sin representación de migrantes, pero sí aparecen en ellos presentadores, políticos, periodistas o militares. "Los vídeos migratorios con políticos tienen predominantemente un marco de problema", lo que sirve para deducir cómo el algoritmo premia discursos xenófobos.

Además de hacer un análisis cuantitativo, el estudio también incluye en su metodología análisis cualitativos como por ejemplo cuánto varía la muestra en función del usuario que busca. Para ello se emplearon dos cuentas de usuario: la de una persona nativa de un territorio occidental, y el de una persona inmigrante.

"La conclusión es que el algoritmo de recomendación de YouTube no diferencia entre usuarios nativos y migrantes en cuanto al contenido que recomienda", avanza el estudio en sus conclusiones.

"En lugar de priorizar el contenido que apoya o se opone firmemente a la migración y crea una dinámica de polarización entre los usuarios locales y los migrantes, el algoritmo parece enfocarse en retratar a los migrantes como deshumanizados y víctimas, independientemente de los antecedentes del usuario".

Todo el análisis, que puedes consultar aquí, nace tras entender que la narrativa migratoria presente en medios de comunicación tradicionales ha sido objeto de amplios estudios, pero eso no ha sucedido lo mismo con las redes sociales, donde interfieren factores automatizados como los algoritmos de recomendación, a menudo opacos y no auditados.

"Los pocos estudios confirman la misma tendencia narrativa que la de los medios tradicionales: la migración como amenaza, y la infrarrepresentación de los propios migrantes a la hora de comunicar sus historias", destacan desde Eticas, que recuerdan que aunque las redes "pueden ayudar a crear redes internacionales de migración", también son "una fuente de inseguridad".

Esa inseguridad viene dada por la "hipervigilancia digital", al tiempo que la facilidad de acceso a los medios sociales se puede ver socavada "por la amplificación de la desinformación creada por los algoritmos de sus sistemas de recomendación".

"Esta fórmula para mantener a los usuarios conectados y maximizar las ganancias publicitarias provoca las llamadas "cámaras de eco", es decir que los usuarios solo ven los contenidos que refuerzan sus opiniones. Esto a su vez fomenta la polarización y radicalización". Debido a la falta de regulación, "YouTube mantiene su algoritmo opaco sin tomar responsabilidad".

Por eso, la compañía de auditoría algorítmica anima a la plataforma "a apostar por la transparencia algorítmica, mejorar su sistema de recomendación y aumentar su compromiso con las comunidades migrantes, para una representación más fiel de las mismas".

No es el primer estudio de esta índole que dirige Eticas. Su fundación comenzó a investigar si el algoritmo de Uber penaliza a los barrios más pauperizados ofreciéndoles viajes más caros. Para esa investigación, los usuarios de la plataforma pueden colaborar siguiendo las instrucciones de la compañía auditora.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.