Un estudio sobre cómo TikTok representa a la población migrante revela que la plataforma "quiere entretenimiento, no hablar de política"

Sandy Saputra, estrella de 19 años de TikTok en Indonesia.
Sandy Saputra, estrella de 19 años de TikTok en Indonesia.

Reuters

  • Eticas, la firma especializada en auditorías algorítmicas, ha completado un estudio sobre el algoritmo de recomendación de TikTok.
  • La compañía ya completó un análisis similar sobre el algoritmo de YouTube, pero en este sí concluyó que promovía narrativas xenófobas y deshumanizadoras.

Eticas, la firma fundada por la experta española Gemma Galdon especializada en auditoría algorítmica, ha compartido este martes los resultados de un análisis sobre cómo el algoritmo de recomendación de contenidos de TikTok trata a la población migrante en Estados Unidos.

De esta manera, Eticas ha completado un análisis sobre cómo funcionan los algoritmos de recomendación en dos plataformas sociales de vídeo, como son la propia red social de origen chino o YouTube, de Google. Las conclusiones sobre esta última ya se liberaron el año pasado, aunque los nuevos datos relacionados con TikTok corroboran una reivindicación de esta organización:

"Las auditorías a YouTube y TikTok revelan la necesidad de la puesta en marcha de los requisitos incluidos en el Reglamento de Servicios Digitales". Esta nueva regulación europea, conocida también por sus siglas en inglés (DSA, Digital Services Act), busca cambiar el modo en el que los usuarios interaccionan con las grandes plataformas digitales.

La DSA forma parte de un paquete legislativo europeo junto con el Reglamento de Mercados Digitales (DMA). Ambos están ya en vigor, aunque pendientes de entrar en aplicación. Las grandes plataformas tuvieron hasta mediados de febrero para comunicar a Bruselas cuántos usuarios tienen activos, a fin de determinar qué multinacionales quedarán sujetas a esta norma.

En función de la cifra, la Comisión Europea evaluará si una plataforma o un buscador quedará sujeto a esta norma, y las aludidas tendrán 4 meses para adaptarse a los preceptos de la regulación. De forma paralela, los países miembros de la Unión Europea tienen hasta principios de 2024 para adaptar las instituciones que velarán por el cumplimiento del nuevo reglamento.

Mientras que el DMA responde a las distorsiones que las grandes tecnológicas han podido ocasionar estos años en el mercado europeo, el Reglamento de Servicios Digitales busca preservar la seguridad y bienestar de los usuarios en la red. De este modo, en el texto cobran relevancia tanto los algoritmos de recomendación como la moderación de contenidos en redes sociales.

Deshumanizados y tratados como un problema: el algoritmo de YouTube promueve la xenofobia contra migrantes, según revela un estudio de Eticas

Hay ya una extensa literatura académica que advierte sobre cómo estos algoritmos han fomentado la polarización en diversas sociedades. De ahí el interés de Eticas en auditar de qué modo los algoritmos representan a una categorización social como la de migrante: un colectivo potencialmente vulnerable que suele ser estigmatizado.

De hecho, el primer informe que Eticas liberó sobre YouTube reveló "la imagen deshumanizadora" que YouTube "promueve de los migrantes", así como "un mayor apoyo de su algoritmo a narrativas políticas xenófobas". De la muestra estudiada entonces, un elevado porcentaje de vídeos arrojaban imágenes de migrantes cruzando una frontera o vídeos de policías o militares.

Ahora, sobre el estudio de TikTok, Eticas ha utilizado una técnica habitual en este tipo de análisis, que se da precisamente ante la falta de colaboración de las grandes plataformas sociales, que no ofrecen a auditoras externas acceso al código de su algoritmo. Ni siquiera a las partes críticas que merecen ser estudiadas.

Esta técnica consiste en crear varias cuentas en la plataforma y entrenarlas con diversos fines. Para ello, los especialistas de Eticas crearon hasta 9 cuentas en Estados Unidos en ubicaciones distintas —en algunos estados de EEUU más demócratas y en otros estados más republicanos, para comprobar si el signo político de cada lugar influía en el mismo—.

Una vez se habían creado estas cuentas, se comenzó a entrenar el algoritmo de recomendación de contenidos reaccionando e interaccionando con los contenidos que aparecerían en el feed y en el buscador de la plataforma. De este modo, unas cuentas serían proinmigración, mientras que otras serían neutrales y unas últimas apoyarían narrativas antiinmigración.

Business Insider crea un usuario ficticio en TikTok de 14 años para comprobar si se muestran anuncios sobre rinoplastias y cirugías estéticas: el primero aparece en tan solo 8 minutos

A pesar de lo minucioso del estudio, lo que ha llamado la atención en este caso a Eticas es que el algoritmo de recomendación apenas aportaba cambios a pesar del distinto cariz y de la distinta ubicación que tenían las cuentas. "Descubrió que el sistema de recomendación muestra poca variación en el contenido recomendado", reconoce la auditora.

"La escasa personalización del contenido político de la plataforma indica que TikTok se centra más en el entretenimiento que en la política". 

Todos estos estudios sirven a Eticas para enfatizar en la necesidad de que estas auditorías deben preceder "a un diálogo con las empresas dueñas de estos algoritmos" para así "mejorar sus sistemas", y de este modo "lograr el mayor grado de transparencia y ética algorítmica".

"La misión de Eticas es acelerar el cambio hacia un ecosistema digital que respete y promueva los derechos humanos, nunca señalar a empresas, puesto que los sesgos son mayoritariamente por falta de conocimiento en responsabilidad algorítmica", recuerdan desde la institución.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.