Pasar al contenido principal

7 estrategias digitales en la guerra contra la propaganda del Estado Islámico

Lucha terrorismo internet
Pixabay
  • Reino Unido ha anunciado la creación de una nueva herramienta que utiliza la inteligencia artificial para identificar y bloquear vídeos del Estado Islámico con una precisión casi exacta.
  • Varios gobiernos europeos y algunos gigantes de Silicon Valley han incrementado sus esfuerzos para luchar contra la propaganda de los terroristas en la red
  • Microsoft, Facebook, YouTube, Twitter y otras empresas se han unido en una organización que pretende eliminar los mensajes yihadistas en la internet activa y en la deep web.
  • A lo largo de los últimos meses la presión se ha incrementado sobre la app de mensajería instantánea Telegram, calificada por Theresa May como "refugio para los terroristas".

Lejos del ruido de los fusiles o de los continuos bombardeos en Irak, Afganistán o el Líbano, internet se ha convertido en uno de los principales campos de batalla en la lucha contra el Estado Islámico.

El gobierno británico ha anunciado este martes la creación de una herramienta informática que utiliza la inteligencia artificial para identificar y bloquear contenidos del Estado Islámico una precisión del 99,995% en un nuevo ejemplo de cómo la tecnología puede ayudar a luchar contra el terrorismo.

El Estado Islámico ha llevado la delantera en las redes sociales durante muchos años tanto a los equipos de inteligencia de los gobiernos occidentales como a las empresas tecnológicas, muy criticadas por su incapacidad para frenar la divulgación de propaganda a través de sus plataformas.

Los cruentos vídeos del grupo terrorista, editados como si fueran grandes producciones audiovisuales, no solo le han servido al Estado Islámico para atraer a nuevos yihadistas a sus redes, sino para construirse una imagen de marca frente ante el resto de la sociedad.

Además los terroristas han conseguido en buena medida marcar la agenda mediática, no solo al reclamar la autoría de sus violentos ataques mediante Amaq News Agency —una supuesta agencia de noticias que no es más que una portavocía de la propaganda del Estado Islámico— sino a través de la divulgación de sus comunicados y amenazas al resto del mundo.

Curiosamente los terroristas han utilizado en todo momento plataformas que no están bajo su control, algo que en teoría debería hacerles vulnerables ante la implementación de nuevas medidas de seguridad.

Sin embargo, algunos de los intentos que han llevado a cabo los gobiernos y las tecnológicas para restringir la actividad del Estado Islámico en internet simplemente han descentralizado la huella digital de los terroristas, que se han ido mudando a otras aplicaciones y plataformas que cuentan con mayores garantías a nivel de privacidad con el objetivo de dificultar la tarea a las autoridades.

Leer más: Facebook, Google y YouTube no hacen lo suficiente para proteger a los niños

Por eso en los últimos meses varios gobiernos occidentales han presionado públicamente a las empresas tecnológicas para que tomen medidas efectivas para eliminar a los terroristas de la red.

La primera ministra británica Theresa May denunció públicamente en el pasado Foro Económico Mundial de Davos a Telegram —la aplicación de mensajería instantánea creada por el polémico Pavel Durov— por haberse convertido en un refugio para criminales gracias al cifrado de mensajes que existe en la app y las negativas de la plataforma para colaborar con las autoridades policiales.

A continuación repasamos las 7 ejemplos de cómo la tecnología lucha contra el terrorismo en internet:

Reino Unido: Inteligencia artificial para identificar y bloquear vídeos del Estado Islámico

Inteligencia Artificial
Pixabay

El software recién presentado por el gobierno británico y desarrollado por la empresa londinense ASI Data Science utiliza la inteligencia artificial para detectar el 94% de la actividad en internet del Estado Islámico con una precisión del 99,995% según ha explicado la ministra británica del Interior, Amber Rudd, a los medios de comunicación.

Rudd viaja esta misma semana a Silicon Valley para presentar esta nueva herramienta a las grandes empresas del sector tecnológico y discutir las posibilidades para luchar contra los terroristas en internet. 

Los funcionarios públicos británicos no descartan imponer el uso de este software de inteligencia artificial a las plataformas que operen en el país. "La tecnología ya está aquí. Existen herramientas que pueden hacer exactamente lo que estamos pidiendo. Para las empresas pequeñas podría ser lo ideal", explica Rudd en declaraciones que recoge la BBC.

Aunque los detalles de su funcionamiento no han sido publicados, el software ha sido 'entrenado' con más de 1.000 vídeos propagandísticos del Estado Islámico con el objetivo de identificar y bloquear contenidos similares que se suban a internet. En caso de que la inteligencia artificial tenga dudas el contenido queda marcado para que sea supervisado por un humano.

Sin embargo, según explica The Independent esta nueva herramienta tecnológica solo se centra en la identificación de vídeos por lo que no es capaz de luchar efectivamente contra las revistas, fotografías y mensajes de texto propagandísticos del Estado Islámico. 

Alemania: Multas millonarias a las empresas tecnológicas que no colaboren

Angela Merkel
Wikimedia/Sven Mandel

El 1 de enero de 2018 entró en vigor de manera efectiva una polémica ley bautizada como NetzDG creada para combatir las noticias falsas y los mensajes de odio en redes sociales que prevé multas de hasta 50 millones de euros a las empresas que no eliminen contenido "manifiestamente ilegal" en un plazo de 24 horas.

Las redes sociales como Facebook o Twitter además tienen la obligación de elaborar un informe anual detallando el número de publicaciones eliminadas y sus razones para hacerlo.

Esta nueva legislación ha generado un montón de críticas entre expertos en derecho por la posibilidad de que la legislación pueda recortar la libertad de expresión, entre otras cosas porque el exiguo plazo para eliminar contenidos llevará a las plataformas de contenidos a eliminar todo aquello que sea dudoso.

Borja Adsuara, experto en derecho digital, cuestiona si tiene lógica que los becarios contratados por estas grandes empresas tecnológicas para supervisar contenidos hagan de censores del siglo XXI.

Unión Europea: Machine learning para entender mejor los mensajes en clave de los terroristas

Banderas Unión Europea
Flickr/Thijs ter Haar

El programa DANTE de la Unión Europea en el que colaboran varias empresas tecnológicas de España, Italia, Grecia, Alemania, Francia, Irlanda, Austria, Reino Unido o Bélgica junto a las autoridades policiales de España, Portugal, Italia y Reino Unido tiene como objetivo descubrir, detectar y controlar las actividades de personas relacionadas con el terrorismo.

Se trata de un ambicioso proyecto que se puso en marcha en 2016 ante la necesidad de analizar e interpretar la ingente cantidad de mensajes de texto y archivos multimedia publicados por grupos afines a los terroristas tanto en internet como en la internet profunda o deep web, cuyas páginas no aparecen en los motores de búsquedas y no son accesibles a través de los navegadores convencionales, una red que según varios informes utiliza de manera activa el Estado Islámico.

La red de DANTE utiliza técnicas de machine learning (aprendizaje automático) y es capaz de procesar información en múltiples lenguajes, de manera que puede establecer relaciones cruzadas en contenidos independientes para ayudar a las autoridades policiales a monitorizar comunidades afines a grupos extremistas, identificar sus fuentes de financiación, detectar el origen de los contenidos propagandísticos y manuales terroristas.

En paralelo, otro programa de la Unión Europea, el programa PROTON en el que colaboran (entre otros) la Universidad de Barcelona, Europol e IBM, rastrea la internet visible y oculta con un foco especial en las redes sociales para identificar los procesos de radicalización de personas o grupos.

Facebook: Sistemas automatizados para borrar mensajes en tiempo récord

Mark Zuckerberg, CEO de Facebook
Flickr/Anthony Quintano

La red social que dirige Mark Zuckerberg ha elevado sus esfuerzos a lo largo de los últimos meses para eliminar el rastro de los grupos terroristas afines al Estado Islámico o Al Qaeda de su red social.

"No existe sitio para el terrorismo en Facebook. Eliminamos a los terroristas y las publicaciones que los apoyan tan pronto como las detectamos", explicaban a mediados del año pasado en un comunicado conjunto Monika Bickert, directora de gestión de políticas mundiales en Facebook y Brian Fishman, gerente de políticas contra el terrorismo en la red social.

Zuckerberg ha reconocido la 'gran responsabilidad' que tiene Facebook a la hora de ayudar a evitar ataques terroristas y, por ello, la plataforma está utilizando técnicas tanto de inteligencia artificial como de aprendizaje profundo para actuar en tiempo récord.

De hecho, según la empresa el 99% del contenido terrorista eliminado por Facebook es detectado por su software antes que por cualquier usuario. En concreto, el sistema de Facebook para identificar y eliminar mensajes terroristas se basa en cinco pilares:

  • Emparejamiento de imágenes. Al subir una imagen o un vídeo a la plataforma el sistema rastrea si coincide con alguna marcada previamente como terrorista dentro de la red social.
  • Comprensión del lenguaje. La herramienta utiliza técnicas de aprendizaje automático para detectar si las publicaciones pueden ser propaganda terrorista gracias al análisis de otros textos previamente eliminados.
  • Eliminación de comunidades.  Al identificar páginas, grupos o perfiles afines a los terroristas el algoritmo inteligente rastrea en material relacionado por su pudieran existir otros mensajes terroristas.
  • Detección de reincidentes. Según Facebook su herramienta ahora es más rápida a la hora de detectar la creación de cuentas falsas por parte de usuarios anteriormente vetados del servicio.
  • Colaboración entre plataformas. Establecimiento de sistemas capaces de actuar contra cuentas de terroristas en todas las plataformas de la empresa, incluyendo WhatsApp e Instagram.

Las herramientas informáticas se complementan con un equipo de moderadores humanos que deciden en los casos dudosos y que, según unas guías publicadas por The Guardian, deben aprenderse los nombres y caras de más de 600 líderes terroristas

Estos moderadores se han quejado en el pasado de que tienen unos sueldos demasiado bajos y están obligados a trabajar en condiciones poco apropiadas para una labor especialmente ardua en la que tienen que lidiar con miles de imágenes violentas, a menudo explícitas.

Diversas informaciones han demostrado que los terroristas han logrado en multitud de ocasiones saltarse todos los filtros para publicar contenidos y un reportaje de The Guardian desveló que la red social puso la seguridad de sus moderadores en peligro al facilitar sus datos personales a grupos sospechosos de publicar contenidos afines a los terroristas.

Google y YouTube: Redirección de usuarios a contenidos no extremistas

Sundar Pichai Google
Google

El método de redirección de Google —también operativo en YouTube y Google Adwords— es una técnica desarrollada por la incubadora de negocios tecnológicos del gigante de Mountain View por el que redirige a los usuarios que buscan contenido relacionado con el terrorismo a páginas contrarias a ideologías extremistas.

"Cuando los usuarios busquen determinadas palabras clave en YouTube mostraremos unas listas de reproducción que desacreditan las narrativas violentas de reclutamiento extremista", resumía YouTube en julio del año pasado cuando se puso en marcha la iniciativa. 

El sistema también funciona en el buscador de Google, que muestra contenidos destacados mediante su plataforma de Adwords cada vez que un usuario realiza búsquedas con unas determinadas palabras clave o frases que Jigsaw ha marcado como probables de ser utilizadas por personas atraídas por la ideología extremista del Estado Islámico después de entrevistarse con desertores y reclutadores encarcelados del grupo terrorista.

Los mensajes que aparecen destacados en esas búsquedas enlazan a canales de YouTube en árabe y en inglés que según Jigsaw pueden ayudar a desmontar la atracción por el ISIS a través de testimonios de antiguos extremistas e imanes que denuncian la tergiversación del Islam por parte del grupo terrorista y grabaciones que muestran la realidad en el denominado Estado Islámico en las zonas del norte de Siria e Iraq.

Además, Google ha aumentado los recursos dedicados a la identificación de vídeos extremistas relacionados con el terrorismo de su plataforma de vídeos, tanto a nivel tecnológico como a nivel humano contratando a nuevos moderadores y colaborando activamente con más de un centenar de organizaciones expertas no gubernamentales.

Twitter: Eliminación de perfiles sospechosos

Jack Dorsey CEO Twitter
Flickr/JD Lasica

Otra de las grandes plataformas tecnológicas acusadas de no hacer lo suficiente para frenar la propagación de propaganda terrorista del Estado Islámico ha sido Twitter, que en los últimos meses parece haber comenzado a reaccionar.

De acuerdo a los informes de transparencia publicados por la red social, Twitter ha eliminado entre enero de 2015 y junio de 2017 cerca de 1 millón de perfiles por contener mensajes de apología de terrorismo.

El 95% de los perfiles borrados durante el primer semestre de 2017 —últimos datos disponibles— se eliminaron a través de los sistemas de detección automáticos de la compañía y el 75% de las cuentas fueron suspendidas antes de que publicaran su primer mensaje.

Tech Against Terrorism: La unión de los gigantes de Silicon Valley para crear nuevas herramientas

Microsoft, Facebook, YouTube y Twitter se unieron a principios de 2017 bajo Tech Against Terrorism, una organización que intenta ayudar a las compañías tecnológicas a que sus plataformas sean utilizadas por los terroristas, compartiendo herramientas, guías o realizando talleres prácticos tanto con la industria tecnológica como con diferentes gobiernos.

A través de esta iniciativa las grandes plataformas tecnológicas se han comprometido a compartir su know-how para desarrollar nuevas herramientas que prevengan el uso indebido de la tecnología.

Para ello, las compañías trabajan en la creación de algoritmos que puedan clasificar automáticamente contenidos, sistemas de traducción capaces de interpretar imágenes o archivos de audio, implementación de redes neuronales para realizar análisis predictivos o la optimización de las técnicas contranarrativas que está utilizando por ejemplo Google.

Te puede interesar

Lo más popular