Pedófilos de todo el mundo se están aprovechando del algoritmo de YouTube para ver vídeos de menores y lo peor de todo es que la matriz de Google está ganando dinero con ello

Makenna Kelly, youtuber
Makenna Kelly, youtuberYouTube
  • Un usuario denuncia que existe una comunidad de pedófilos que utiliza el algoritmo de YouTube para encontrar y compartir vídeos en los que aparecen menores de edad en bañador o pijama.
  • MattsWhatItIs ha demostrado en un vídeo cómo, una vez haces click en una de estas grabaciones, el algoritmo te recomienda que visualices contenido similar.
  • Los pedófilos se dedican a señalar en los comentarios los minutos exactos en los que se producen los descuidos de los menores e incluso añaden recomendaciones a vídeos del mismo tipo.
  • YouTube parece ser consciente del problema desde hace años, pero los mecanismos de control no parecen funcionar lo suficientemente bien. En última instancia, Alphabet, la matriz de Google y YouTube, gana dinero con las visualizaciones que realizan estos pedófilos.

YouTube tiene un serio problema con los pedófilos. El problema es que estos individuos están usando el servicio con objetivos deplorables... y parece que los mecanismos de la plataforma no están funcionando lo suficientemente bien como para prevenir este tipo de situaciones.

Tal y como ha demostrado el youtuber MattsWhatItIs, es posible que un pedófilo en solo 5 clicks acceda a vídeos de menores de edad que, originalmente, no están pensados para que lo consuman este tipo de depravados.

Además, el creador ha descubierto que el algoritmo de la plataforma te recomienda más contenido de este tipo cuantos más vídeos similares ves. Por lo tanto, al final se forma un círculo de recomendaciones eterno de contenido susceptible de ser utilizado por estas personas.

Pero, ¿cómo funciona? Al parecer, todo comienza cuando el usuario ve un par de vídeos de chicas en bikini. En seguida, aparecen recomendaciones de niñas menores de edad en traje de baño y, en los comentarios, son los propios usuarios los que ponen el minuto exacto en el que el menor se encuentra en una posición controvertida y susceptible de ser utilizada para fines deplorables.

"Una vez entras en esta espiral, el algoritmo de YouTube solo te muestra ese tipo de contenido recomendado. Esto facilita el contenido pedófilo a los depravados", explica el youtuber. 

Leer más: Una niña de 13 años gana 1.000 dólares al día con sus vídeos de ASMR mientras Youtube intenta proteger a sus estrellas infantiles

Lo peor de todo es que estos vídeos están siendo monetizados por YouTube y aparecen en ellos anuncios de marcas y multinacionales muy relevantes a nivel internacional. Por lo tanto, los que suben el contenido ganan dinero con ello, así como la matriz de Google, Alphabet.

"YouTube tiene una política de tolerancia cero en temas de abuso sexual a menores. Hemos invertido significativamente en tecnología, en recursos humanos y en entablar relaciones con ONGs para combatir este problema. Si identificamos links, imágenes o material que promueve este tipo de contenido lo reportamos a las autoridades competentes, lo eliminamos de nuestra plataforma y terminamos la cuenta", ha señalado un portavoz de YouTube a Business Insider España.

Sin embargo, esto contradice lo averiguado por Matt. Y es que el youtuber asegura que YouTube elimina los vídeos reportados, pero el canal no. De esta forma, se puede seguir subiendo el mismo tipo de contenido.

YouTube no parece saber cómo solucionarlo

MattWhatIsIs
YouTube

El problema no es que los menores suban vídeos, aunque es verdad que, por ejemplo, en España la edad mínima para abrir un canal es de 16 años, sino cómo es posible que el algoritmo de recomendación de YouTube solo muestre contenido de este tipo una vez que se ven este tipo de grabaciones. Por otra parte, los comentarios en la plataforma son sumamente explícitos, por lo que no se entiende cómo es posible que la multinacional no los elimine de forma automática.

"¿Cómo puede seguir pasando esto? Se conoce la situación desde hace años y nadie está haciendo nada por evitarlo", asegura el youtuber. Y es que la plataforma lleva arrastrando este problema desde 2017. Prueba de ello es que hay hasghtags (#YouTubeWakeUp), artículos e hilos de Reddit, el foro más popular de EE. UU., en los que se advierte de este tipo de incidentes.

Además, en muchos de los casos se han desactivado los comentarios en los vídeos, lo que debería servir como prueba de que ese contenido es susceptible de ser utilizado por pedófilos o, como mínimo, como alerta de que "algo no va bien".

"Espero que este vídeo sirva para que los responsables de la plataforma hagan algo. Hay canales en los que solo hay niñas en bikini... ¿Cómo pueden existir? ¿Cómo no hay un mecanismo de control que los elimine de forma automática o manual?", dice el youtuber. 

El problema es que, aunque es cierto que YouTube pone muchos esfuerzos (Inteligencia Artificial y personal humano) en intentar que estas situaciones no se den, este tipo de casos siguen sucediéndose sin que nadie se responsabilice de ello.

En YouTube se suben 480 horas de vídeos nuevos al día desde España y la plataforma cuenta con más de 1.900 millones de usuarios en todo el mundo. Con este gran volumen de tráfico, el control humano es insuficiente y por eso se crean mecanismos de filtrado automático que refuerzan cualquier contenido cuestionable. El problema es que, aún así, no se solucionan todos los casos. 

Por todo ello, Alemania aprobó hace unos meses una legislación que pretende obligar a Google, Facebook y Twitter a eliminar contenido ilegal de sus plataformas en 24 horas en una polémica ley, denominada NetzDG, que convierte de la noche a la mañana a estas plataformas en censores bajo la amenaza de multas millonarias. En España no existe nada similar.

A día de hoy estos servicios siguen recibiendo millones de visitas y las tecnológicas siguen sin encontrar soluciones 100% efectivas.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.

Etiquetas: