Pasar al contenido principal

Suspenso en protección a la infancia para las grandes empresas tecnológicas

Menores redes sociales
Getty Images

Las grandes compañías tecnológicas no hacen lo suficiente para proteger a los niños, expuestos demasiado a menudo a contenidos poco apropiados para su edad. Un reto que debería ser prioritario para compañías tan gigantescas como Google, Facebook o YouTube si no quieren ver cómo cae su credibilidad como lo ha hecho a lo largo de los últimos tiempos por culpa de controversias relacionadas con las noticias falsas, la injerencia política en las elecciones presidenciales a los Estados Unidos o las diferentes pruebas de la falta de rigor en el control de las publicaciones.

La empresa de ciberseguridad Check Point alertaba hace solo unos días sobre el descubrimiento de AdultSwine, un malware detectado en casi 60 apps de juegos infantiles en Google Play, que en total sumaban más de tres millones de descargas.

Ese código malicioso presente en aplicaciones en teoría inocentes —y dirigidas al público infantil— redirigía en algunos casos a anuncios pornográficos, en otros instaba a descargarse supuestas aplicaciones de seguridad innecesarias y dañinas para el dispositivo y a veces pretendía dar de alta a las víctimas en servicios de SMS premium con supuestos premios ganados en concursos que no eran reales. 

Leer más: El éxito económico de las grandes tecnológicas en 2017 desnuda algunas de sus mayores vergüenzas

A raíz de la publicación de la noticia Google eliminó la mayoría de los juegos y aplicaciones infectadas con este malware. Pero la reacción de la compañía de Mountain View no oculta la evidente incapacidad de las grandes empresas tecnológicas para controlar los contenidos que se publican en sus redes y plataformas. Y lo peor de todo: es bastante probable que el problema se vuelva a repetir.

"Google está mejorando su servicio de control de las aplicaciones pero lo tiene más difícil que Apple por la fragmentación de los dispositivos", explica Eusebio Nieva, director técnico de Check Point para España y Portugal, en relación a las diferentes versiones del sistema operativo que actualmente utilizan los dispositivos Android.

Nieva no cree que el ataque se haya dirigido específicamente a niños sino que se ha "colado" en aplicaciones y juegos utilizadas básicamente por menores. "El servicio de filtrado de Google Play se está mejorando pero es muy difícil al tratarse de una plataforma más abierta, por lo que es más fácil que se cuelen aplicaciones inapropiadas", añade.

Vídeos poco apropiados

En cualquier caso el fallo no es sino un ejemplo más de la desprotección que sufren los menores en el mundo digital. Hace solo unas semanas una investigación del diario The Times revelaba que grupos de pedófilos estaban utilizando YouTube para compartir imágenes obscenas de niños con otros depredadores, lo que ha llevado a algunos políticos a levantar la voz contra estos nuevos gigantes digitales. 

"Me parece inconcebible que este material ilegal y repugnante se siga publicando en YouTube. Esto cuestiona que Google tenga la voluntad y la capacidad de mantener su plataforma libre de material ilegal", ha criticado en público Yvette Cooper, la parlamentaria laborista que actualmente preside el Comité de Supervisión de Interior británico.

Ese último escándalo se une al reportaje publicado semanas atrás en The New York Times que denunciaba la falta de control en YouTube Kids, la plataforma de vídeos orientada al público más joven, en la que se habían colado miles de vídeos perturbadores. En apariencia eran vídeos normales, con personajes animados muy reconocibles para el público infantil como Minnie o los personajes de La Patrulla Canina, pero en realidad escondían detrás historias muy poco edificantes, a menudo sádicas y que en algunos casos acababan incluso en el suicidio de esos héroes infantiles.

"Todas estas plataformas nacieron bajo el principio de la intermediación digital. Es decir, nosotros creamos la plataforma y son los propios usuarios quienes generan el contenido y lo revuelven. Esto, a nivel de negocio, es un win-win claro, ya que delega toda responsabilidad en el usuario", resume Pablo F. Iglesias, vocal de digitalización en la Asociación Española de Responsables de Comunidades Online y Profesionales de Social Media (AERCO-PSM). 

"El problema, cómo no, surge cuando nos damos cuenta de que no todos los usuarios están interesados en utilizar la plataforma de forma productiva (a nivel ético, me refiero), y que aunque todas estas plataformas cuentan con sistemas de denuncia y alerta, la inteligencia colectiva se vuelve tardía cuando el contenido malicioso, entre que es o no denunciado, entre que es o no revisado, ha estado en el aire X horas y por tanto ha llegado a un número significativo de usuarios", añade.

"Algunos vídeos no infringen nuestras políticas, pero es posible que no sean adecuados para todos los usuarios", explicó YouTube cuando saltó la polémica. Esa es una de las claves del conflicto, según apunta Borja Adsuara, abogado experto en derecho digital, puesto que una cosa son los contenidos ilegales (incitación al odio, apología del terrorismo) y otra muy diferente aquellos contenidos que son legales pero seguramente no adecuados para un menor de edad.

Uso moviles menores
Getty Images

Desprotegidos ante desconocidos

El problema, que se une a la controversia alrededor de la moderación de contenidos, parece ir calando en estas plataformas. Aunque sea a golpe de talonario. "A principios de este año actualizamos nuestras políticas en la plataforma de YouTube para que, entre otras cosas, el contenido que hace uso inapropiado de contenido dirigido al ámbito de familia, no pueda monetizarse", explicaba en una declaración oficial la directora de Políticas de Google, Juniper Downs.

La compañía decidió desactivar los anuncios (la principal fuente de monetización para los creadores de los vídeos) en más de dos millones de vídeos y más de 50.000 canales poco después ante las quejas de diferentes marcas y anunciantes, que habían visto cómo su dinero (e imagen) iba a vídeos supuestamente dirigidos a niños que en realidad escondían mensajes ofensivos y violentos.

Leer más: ¿Te espían Google y Facebook a través del micrófono de tu móvil?

La polémica tampoco ha escapado a Facebook, donde a lo largo de los últimos meses se han sucedido las denuncias sobre la falta de moderación en torno a publicaciones ofensivas, racistas y con contenidos claramente racistas. En el mes de mayo, The Australian publicó un informe interno de la red social en el que la compañía invitaba a los anunciantes a segmentar sus publicaciones entre "menores deprimidos o vulnerables".

Por su parte Periscope, una aplicación de Twitter para la retransmisión de vídeo en directo, ha sido acusada en varias ocasiones de servir como refugio para pedófilos, que buscan chicas jóvenes que están emitiendo vídeos en directo a través de la plataforma y les piden que hagan cosas inapropiadas delante de la cámara. La compañía se defiende alegando que tiene una "tolerancia cero sobre cualquier forma de explotación sexual de menores", pero el problema es que la moderación, si llega, a menudo lo hace demasiado tarde.

Una ley desfasada

Las redes sociales y las nuevas plataformas nacidas de la revolución digital han transformado por completo la manera de acceder a los contenidos audiovisuales. Ahora el público masivo no se expone únicamente a lo que ciertos actores —cadenas de televisión, radios o periódicos— quieren que se consuma, sino que cada usuario es libre de acceder a cualquier contenido creado por otra persona —sin saber a menudo cuál es su finalidad— o generarlo él mismo para otros.

"La rapidez de lo digital es un inconveniente ya que surgen nuevas formas de medios y redes sociales donde los adolescentes se ponen al día mucho antes que la regulación. Se necesita un papel más activo de la administración y también de las empresas tecnológicas", resume Patricia Núñez, profesora de publicidad en la Facultad de Ciencias de la información de la Universidad Complutense, Doctora en Publicidad y Relaciones Públicas y especializada en nativos digitales y nuevas tecnologías.

"Los niños no están concienciados. Manejan lo digital pero no desde el punto de vista crítico: no son conscientes de sus acciones al 100%", resume la docente. "Las Administraciones tienen la obligación de controlar el mercado y si detectan determinadas prácticas peligrosas para determinados usuarios deben intervenir. Pero estamos a años luz de contar con Administraciones que monitoricen este tipo de actividades, suena a ciencia ficción", reafirma Rubén Sánchez, portavoz de FACUA. 

¿Quién protege entonces a los más pequeños? La Ley de protección del menor está pensada para limitar la exposición de los más pequeños a contenidos que "puedan perjudicar seriamente su desarrollo físico, mental o moral". Sin embargo, se trata de una regulación pensada para los medios tradicionales (principalmente la televisión) que impone básicamente una restricción horaria a los medios de comunicación que ha quedado completamente desfasada tanto por la revolución de internet como por la propia evolución de la TDT.

En televisión, aquellos contenidos puedan resultar perjudiciales para el desarrollo físico, mental o moral de los menores solo pueden emitirse entre las 22 y las 6 horas según la ley. Esto incluye las escenas pornográficas o con violencia gratuita, pero también los programas dedicados a juegos de azar y apuestas o los relacionado con el esoterismo y las paraciencias, que están aún más restringidos.

Las cadenas que lo incumplen son multadas por la CNMC, aunque algunas voces críticas como Adsuara subrayan que la actual ley está desfasada al contar entre la oferta televisiva con canales temáticos infantiles que los más pequeños pueden ver en cualquier momento del día.

¿Quién verifica la edad de los usuarios?

La mayoría de plataformas y redes sociales exigen a la hora de registrarse introducir una fecha de nacimiento, pero la inmensa mayoría de ellas no cuentan con sistemas de verificación. Por eso abundan las cuentas falsas y, por eso, es fácil que un menor medianamente hábil con el uso de la tecnología se pueda crear una cuenta en cualquier red social incluso sin el consentimiento de los padres —obligatorio por ley en España hasta los 14 años— accediendo a todo tipo de contenidos, incluyendo los que en teoría están restringidos para los más pequeños en esa red social.

"En petit comité estas grandes compañías alegan que si tuvieran que adaptarse a todas las leyes de todos los países les saldría muy caro", afirma Adsuara, que recuerda que en España en su momento sí se presionó a Tuenti para ajustarse a la ley, hasta el punto de que a partir de 2009 cambiaron sus condiciones de uso pudiendo solicitar al usuario una copia de su DNI para verificar su edad, una medida que actualmente no llevan a cabo ni Google ni Facebook ni Twitter en sus servicios.

Leer más: La llegada del 5G va a rebajar tu factura telefónica y transformar por completo tu vida

La nueva Ley de Protección de Datos de la Unión Europea prevé ampliar hasta los 16 años la edad en la que es necesario el consentimiento paterno para ceder datos a empresas, lo que afectará directamente a los Estados, aunque la propia norma deja en manos de los países rebajar la cifra hasta los 13 años por lo que lo más probable es que nadie cambie al respecto en nuestro país.

El texto europeo dice que las deberán realizar "esfuerzos razonables" para verificar para verificar que el consentimiento se ha prestado o autorizado por los padres o responsables del menor si no ha cumplido la edad mínima, pero no habla de posibles consecuencias o de ninguna manera de medir si están cumpliendo con ese objetivo.

Censura Tablet
Getty Images

La delgada línea entre moderación y censura

Alemania acaba de aprobar una legislación que pretende obligar a Google, Facebook y Twitter a eliminar contenido ilegal de sus plataformas en 24 horas en una polémica ley, denominada NetzDG, que convierte de la noche a la mañana a estas plataformas en censores bajo la amenaza de multas millonarias. En España no existe ninguna legislación a la que se pueda apelar para obligar a este tipo de plataformas eliminar determinados contenidos en redes sociales.

"Como es imposible ir a los juzgados para todos los conflictos generados en redes sociales, desde Europa se invita a las plataformas a borrarlos, pero la libertad de expresión es un derecho fundamental", advierte Adsuara, que subraya que no todos los contenidos ofensivos que se publican en la red son constitutivos de delitos de odio. "Podemos pecar por defecto por exceso en el eufemismo de la moderación, que no es otra cosa que una forma de censura", explica.

En los últimos meses se han multiplicado los anuncios de que estas grandes plataformas tecnológicas trabajan para afinar sus sistemas de inteligencia artificial, aprendizaje profundo y redes neuronales con el objetivo de detectar más rápido los contenidos inapropiados para poder eliminarlos lo más rápido posible de sus plataformas. Al mismo tiempo, tanto Facebook como Google han anunciado que ampliarán sus ejércitos de moderadores humanos.

"Es verdad que están haciendo algunas cosas pero nosotros entendemos que son esfuerzos demasiado leves y deberían esforzarse más, quizás incentivados por controles administrativos que pudieran acabar en sanciones", reflexiona Rubén Sánchez, que subraya que todas estas compañías tienen una obligación sobre los contenidos que albergan a nivel de credibilidad pero también a nivel ético y legal.

"El papel de estas empresas, en efecto, va a ser mejorar los sistemas de control, seguramente delegando parte de esa responsabilidad en herramientas automatizadas que reconozcan patrones conductuales habitualmente asociados a contenido inadecuado, y también en ese ejército de moderadores humanos necesarios en último término para la toma de decisión ante casos que, recordemos, tienen un factor subjetivo, social, cultural y religioso acentuado", explica Iglesias.

Por su parte, Adsuara cuestiona si es lógico que los becarios contratados por estas grandes empresas para hacer de moderadores se conviertan en los censores del siglo XXI. En su lugar, propone la creación de un organismo independiente de las plataformas tecnológicas y de los aparatos políticos de los países que se encargue de arbitrar extrajudicialmente en los conflictos generados por los contenidos. Una instancia sectorial similar a la que existe en otros ámbitos de la sociedad que estaría formada por expertos de derecho en internet o en libertad de expresión.

El papel de los padres

"Hace falta mucha crítica y más formación", explica Patricia Núñez, que aboga por introducir asignaturas en colegios e institutos, formar maestros en el uso de estas tecnologías y trabajar en talleres junto a los padres. "La clave es educar, el control a veces no es adecuado prohibiéndose determinados contenidos que luego son vistos por otros medios cuando los padres no están delante. El bloqueo también impide contenidos de aprendizaje", añade.

"Todo el mundo delega su responsabilidad en los demás, pero no vale entregar un móvil a un niño de 10 años y desentenderse por completo", critica Adsuara. En la misma línea se mueve Susana Lluna, periodista especializada en estrategia digital y autora junto a Javier Pedreira el libro Los nativos digitales no existen. "Dejamos mucha responsabilidad en las plataformas pero si el trabajo se hace desde casa todos los peligros los pequeños van a ser menos susceptibles de sufrirlos", comenta.

Claro que las grandes tecnológicas también tienen su cuota de responsabilidad. Lluna, por ejemplo, critica el lanzamiento por parte de Facebook de Messenger for Kids, la versión de la aplicación de mensajería enfocada a los más jóvenes. "Parece que están poniendo el foco en la manera de captar a nuevos usuarios en lugar de facilitar herramientas para educar a los más pequeños", sentencia. 

"Todo el que tenga en su mano un dispositivo con acceso a Internet debería, como mínimo, entender el funcionamiento de esas herramientas que está utilizando a diario. Cosa que no ocurre", resume Iglesias.

Un sistema de etiquetado para los contenidos

Mientras los expertos tratan de ponerse de acuerdo sobre cuándo deberían los niños tener su primer smartphone y a qué edad deberían empezar a utilizar las redes sociales la realidad va muy por delante. Ofcom, el regulador británico del sector de las telecomunicaciones, calcula que tres de cada cuatro adolescentes británicos de entre 12 y 15 años que usan internet ya tiene un perfil propio en alguna red social.

"En un niño que no está educado digitalmente un móvil es tan peligroso tanto a los 17 como a los 8 años", reflexiona Lluna, que critica a los padres que se escudan en su desconocimiento de la tecnología. "Si como padre estás pegado y acompañando a tus hijos es simplemente sentido común, como cuando les educamos desde pequeños las normas de código vial", explica.

En España un estudio de la Asociación de Usuarios de Internet publicado hace solo unos meses estimaba que el 90% de los niños de 14 años tenía su propio teléfono móvil y, lo que es más preocupante, que el 40% de los niños de entre 10 y 12 años accede a contenidos de carácter sexual explícito.

Leer más: Por qué deberíamos preocuparnos en España por el fin de la neutralidad de la red en Estados Unidos

"La censura a los niños es una buena herramienta que debemos utilizar los padres, pero debería ser progresiva teniendo en cuenta las etapas de evolución del menor", resume el abogado, que reclama la implantación de un sistema de etiquetado de contenidos similar al que existe en la industria alimentaria o en la de los juguetes para que con esa información el usuario tome la decisión, tanto a nivel personal como de cara a los niños.

Una nueva fórmula de control parental en la que en lugar de etiquetados prescriptores (calificación por edades) se podrían utilizar etiquetados descriptores (contenidos violentos, pornografía) para que las diferencias culturales entre países no generen conflicto. La cuestión es que los padres utilicen activamente esas herramientas para filtrar el contenido que ven sus hijos, algo que hoy por hoy no parece muy probable: solo el 11% de los hogares españoles lo usa en los televisores según datos de la CNMC.

"Las empresas tecnológicas tienen que proporcionar las herramientas necesarias para proteger a los menores, pero no vale escaquearse: los padres tienen la última responsabilidad", sentencia Adsuara.

Te puede interesar