Los deepfakes de abusos sexuales a menores creados por IA "amenazan con saturar internet": una asociación ha descubierto casi 3.000 imágenes

Uso moviles menores
  • Casos como el de Almendralejo, en Extremadura, hicieron saltar las alarmas de las autoridades españolas ante la posible proliferación de deepfakes generados por inteligencia artificial de abusos sexuales a menores. 
  • Sin embargo, una asociación del Reino Unido afirma haber encontrado cerca de 3.000 imágenes creadas por IA que infringen la legislación británica y ha señalado que este tipo de contenido puede llegar a "saturar Internet".

Hace unas semanas se conocía la noticia de que unas jóvenes menores de edad de Almendralejo, un pueblo de Badajoz (Extremadura), habían sido víctimas de un deepfake. Una serie de personas había cogido fotografías suyas, había utilizado una herramienta de inteligencia artificial para desnudarlas y había distribuido esas imágenes, todo ello sin el consentimiento de las víctimas.

Varios expertos explicaron entonces a Business Insider España que, aunque este fuese el primer gran caso mediático en este país, la realidad es que no iba a ser el último, ya que las herramientas de IA generativa como DALL·E o Stable Diffusion les ofrecen a los ciberdelincuentes todo un abanico de posibilidades a la hora de cometer delitos. 

El auge de la inteligencia artificial ha provocado que los deepfakes sean ahora más fáciles de generar que nunca, por lo que los delincuentes pueden utilizar esta tecnología, por ejemplo, para engañar a los usuarios de redes sociales como TikTok o Instagram. 

De hecho, un estudio publicado recientemente constató que solo en 2023 se van a publicar online más deepfakes pornográficos no consentidos que en todos los años anteriores juntos. 

Este tipo de imágenes falsas "amenazan con saturar Internet". Al menos así lo ha expresado la Fundación para la Vigilancia de Internet (IWF, por sus siglas en inglés), un organismo de vigilancia de la seguridad en el Reino Unido cuyas indagaciones han sido recogidas por The Guardian

Píxeles de un rostro de mujer.

IWF, que ha descubierto casi 3.000 imágenes de abusos creadas por IA que infringen la legislación del Reino Unido, ha advertido que "las peores pesadillas" sobre imágenes de abusos sexuales a menores generadas por inteligencia artificial se están haciendo realidad. 

Esta organización ha denunciado que entre las prácticas que utilizan los ciberdelincuentes se encuentran: la incorporación de imágenes de víctimas en la vida real a modelos de IA, la creación de imágenes de famosos a los que se les "quita la edad" y se les representa como niños o la utilización de herramientas para "desnudar" imágenes de niños vestidos que ya se encuentran en Internet.

"A principios de este año, advertimos de que las imágenes de inteligencia artificial pronto podrían llegar a ser indistinguibles de las imágenes reales de niños que sufren abusos sexuales, y que podríamos empezar a ver proliferar estas imágenes en cantidades mucho mayores. Ya hemos superado ese punto", ha declarado el medio de comunicación británico Susie Hargreaves, directora ejecutiva de la IWF.

"De forma escalofriante, estamos viendo cómo los delincuentes entrenan deliberadamente su IA con imágenes de víctimas reales que ya han sufrido abusos. Niños que han sido violados en el pasado se incorporan ahora a nuevos escenarios porque alguien, en algún lugar, quiere verlo", ha relatado Hargreaves, que ha añadido: "Si no controlamos esta amenaza, este material amenaza con saturar Internet".

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.