YouTube no para de tener problemas: pedofilia, Momo y, ahora, Capitana Marvel

Víctor Millán,
YouTube logo
  • Son muchas las voces que señalan a YouTube como dispensador de bulos y alimentador de teorías conspiranoicas.
  • La polémica más reciente tiene que ver con el estreno de Capitana Marvel, ya que los comentarios en los vídeos de la heroína la tachaban de 'feminazi'.
  • Tras una semana, YouTube tomó las riendas para cortar por lo sano, pero para ello no confiaba esta vez en su algoritmo, sino en la inserción de una nueva sección de 'noticias destacadas' donde solo aparecen críticas de medios profesionales.

Hace poco más de un año, la crítica sobre el uso de las redes sociales y otras plataformas de contenido pivotaba de Facebook a YouTube. La compañía de Mark Zuckerberg había anunciado un cambio en su algoritmo para prevenir las noticias falsas, y aún no había saltado el escándalo de Cambridge Analytica. En ese momento, se puso el foco en YouTube como dispensador de bulos y alimentador de teorías conspiranoicas.

Su algoritmo para recomendar vídeos, según varios experimentos que también probó Hipertextual, hacía que surgieran fácilmente vídeos sobre el terraplanismo al bucear por vídeos divulgativos sobre el sistema solar, y en España en particular fue el caldo de cultivo de un sinfín de conspiraciones sobre la muerte de el niño Gabriel, menor que fue asesinado en un suceso que captó la atención de todo el país.

La peregrina respuesta de la plataforma entonces fue insertar enlaces en contenidos sospechosos que llevaban a las páginas de referencia de Wikipedia, si haber avisado siquiera antes a la enciclopedia colaborativa. El estallido de Cambridge Analytica poco después diluyó el foco sobre la plataforma de Google para volver a centrarlo en Facebook. Sin embargo un año después los problemas de YouTube han vuelto a crecer de forma inusitada, demostrando que lo que estaba roto, y a pesar de la potencia de sus medidas de control, no se ha arreglado.

YouTube prueba una sección de 'noticias destacadas' ante la polémica de Capitana Marvel

Capitana Marvel

La polémica más reciente que relaciona a YouTube ha tenido que ver con el estreno de Capitana Marvel. La nueva heroína del UCM, que llegó a las salas en pleno Día Internacional de la Mujer, despertó la reacción del público más antitolerante y machista. Las críticas de la película en Rotten Tomatoes cayeron con comentarios que la tildaban de estar protagonizada por una 'feminazi', y YouTube, como no, también se llenó de este tipo de contenido, generado porque la derecha más radical norteamericana -y después del resto del mundo- inició una campaña contra Brie Larson y su nuevo personaje.

Tras una semana de 'hate' sin filtros, YouTube tomaba las riendas para cortar por lo sano, pero para ello no confiaba esta vez en su algoritmo, sino en la inserción de una nueva sección de 'noticias destacadas' donde solo aparecen críticas de medios profesionales. Esta nueva característica, que adelantó The Verge en un primer momento, ya ha llegado a España, aunque como hemos podido comprobar de momento solo aparece en la búsqueda de Capitana Marvel, donde por ejemplo se ha dado prioridad en la búsqueda a contenidos como el de la agencia Europa Press.

Noticias destacadas de YouTube
Noticias destacadas de YouTubeHipertextual

Hemos hecho la prueba con otros temas candentes como el Brexit y otras películas como Alita: Ángel de Combate, y por el momento YouTube no lo ha insertado aquí. No conocemos, y la plataforma no se ha pronunciado, sobre si esto es una prueba o no, pero lógicamente parece una apuesta clara por marcar una línea entre contenidos de medios 'confiables' elegidos por la plataforma y vídeos que supuestamente no lo son tanto. La duda es cómo afecta esto a los youtubers y otros creadores, que de momento no aparecen en esta sección, o si en un momento lo hacen, cómo se elegirá a los que sí aparezcan y a los que no.

Captura vía Buzzfeed India
Captura vía Buzzfeed IndiaHipertextual

Además de esto, y según Buzzfeed, YouTube también estaría haciendo pruebas, esta vez con su servicio en La India, para mostrar un pequeño cartel de texto que avise a los usuarios de posibles bulos y fake-news, marcados claramente con un aviso donde se puede leer 'false'. Otra medida que llega después de un mes cargado de problemas para la plataforma de vídeos.

Del escándalo de la red de pedofilia al bulo de Momo

Porque como sabrás, las polémicas en las últimas semana en torno a YouTube vienen de lejos. El primero y más punzante de estos escándalos fue el descubrimiento a mediados de febrero de una red de usuarios pedófilos que en los comentarios de vídeos de menores se citaban indicando fragmentos de escenas que podían ser utilizados para su fin depravado. 

Se había formado literalmente una red pedófila que en solo unos clicks encontraba lo que buscaba, ayudados muchas veces por el algoritmo de recomendación, que mostraba cada vez más contenido justo como el que buscaban.

Makenna Kelly, youtuber
Makenna Kelly, youtuberYouTube

La primera respuesta de YouTube fue cancelar varios canales gracias a denuncias de otros usuarios y millones de comentarios detectados por su algortimo, pero pronto surgió un nuevo hándicap aún más retorcido. Algunos 'trolls' utilizaron esta ola de denuncias para reportar canales que no incumplían las normas y ajenos a la red.

Aunque supuestamente la IA de la plataforma era capaz de distinguir qué acusaciones eran reales, YouTube tomó la decisión poco después que ir a más con sus restricciones inhabilitando los comentarios en la mayoría de vídeos infantiles. Por el camino, varios anunciantes como Nestlé, Epic Games (el estudio de Fortnite) o Disney, paralizaron su publicidad al ver que se introducía de forma automática en los vídeos denunciados.

Sin que esta polémica estuviera zanjada, poco después la plataforma era azotada por lo que ha ella misma se le ha acusado de no conseguir detener: los bulos. Desde Facebook surgió el rumor de que la imagen de Momo, un 'creepypasta' surgido hace unos años y que muestra a una mujer desfigurada, se estaba colando de forma aleatoria en vídeos de YouTube Kids supuestamente incitando al suicidio. Por supuesto, era un bulo. Momo es en realidad la foto de una escultura de un artista japonés que desde 2016 había circulado por Whatsapp y que ahora renacía como un 'hoax' de YouTube.

Leer más: Pedófilos de todo el mundo se están aprovechando del algoritmo de YouTube para ver vídeos de menores y lo peor de todo es que la matriz de Google está ganando dinero con ello

Sin embargo, el bulo aprovechaba un hecho que fue real: en un vídeo destinado a los más pequeños se coló la imagen de un actor que explicaba a los niños cómo suicidarse. YouTube pidió disculpas, aumentó sus controles y con respecto a Momo, acabó por prohibir sus miniaturas en el área de Kids y desmonetizar todos los vídeos que hablaban del tema, incluso los que lo hacían explicando que era un bulo.

El tratamiento y el control de los contenidos de YouTube Kids se veía una vez más puesto en entredicho, a pesar de que la propia CEO de la plataforma, Susan Wojcicki, se pronunciara asegurando que para ellos lo más importante era la seguridad de los más pequeños. No es la primera vez que sucede algo así, en 2017 varios vídeos de contenido especialmente violento pero que mostraban personajes infantiles como Peppa Pig o la Patrulla Canina también se distribuyeron pasando todos los controles. Desde entonces, no han sido pocas las voces que han pedido a YouTube que además del control parental, se plantee una revisión humana de cada uno de los vídeos que se suben a su área infantil. Un trabajo inabarcable para el flujo de contenido que hay hoy en día, y que YouTube no parece estar interesado en plantearse.

Los creadores también se ven afectados por el algoritmo

YouTube también aclaró su política de suspensión de canales después de que muchos youtubers y creadores se quejaran de que las normas, aplicadas en primera instancia por una inteligencia artificial, a menudo reconocía como dañino contenido que no lo fuera.

La youtuber española Rocio Vidal (La gata de Schrödinger) denunció por ejemplo que un vídeo suyo en el que experimentaba como tomar una gran cantidad de pastillas homeopáticas no provocaba ningún efecto fue retirado al considerar que se trataba de un contenido que “incitaba a actos violentos o peligrosos”. La IA de YouTube, de nuevo, no supo distinguir lo que era una denuncia sobre el engaño de la homeopatía con una youtuber que se dedicaba a tomarse decenas de pastillas frente a sus seguidores. El vídeo fue repuesto unos días después.

 

 

La duda que queda, no obstante, es ver cómo se concretan todos estos cambios y bandazos que YouTube parece estar dando sin potenciar ninguno. Los enlaces a Wikipedia, los avisos de bulos falsos o las noticias destacadas parecen meros parches mientras no se pula de forma segura su algoritmo de recomendación y que los auténticos dinamizadores y protagonistas de la plataforma, los creadores de contenido, tengan algunas garantías para que su trabajo sea tratado bajo unas normas claras.

 Este artículo ha sido publicado originalmente en Hipertextual.

Conoce cómo trabajamos en Business Insider.