El problema se agrava: solo en 2023 se subirán más deepfakes pornográficos no consentidos que en todos los años anteriores juntos

Píxeles de un rostro de mujer.

Getty Images/Panpelunee

  • Un estudio halla más de 244.000 deepfakes pornográficos no consentidos alojados desde hace 7 años en 35 páginas web de material para adultos.
  • La investigación advierte que en lo que va de 2023 los nuevos deepfakes que se han subido a esos sitios superan los 113.000: el fenómeno está disparado.

Una investigación independiente a la que ha tenido acceso Wired aventura que el problema de los deepfakes pornográficos no consentidos que va a seguir creciendo.

El investigador —o investigadora— ha solicitado al medio estadounidense preservar su anonimato para compartir sus hallazgos. Para realizar su estudio ha analizado pormenorizadamente las principales 35 páginas web que se dedican a compartir material pornográfico, se especialicen las mismas en deepfakes o no.

Los deepfakes son piezas —imágenes, vídeos y audios— que, mediante inteligencia artificial, suplantan a una persona. El auge de la inteligencia artificial generativa está haciendo que este tipo de creaciones proliferen en la red, y estos deepfakes pornográficos afectan fundamentalmente a mujeres.

Actrices como Emma Watson o Natalie Portman o artistas e influencers como Rosalía, Laura Escanes o Marina Rivers han denunciado en los últimos tiempos que este tipo de imágenes falsas en los que un modelo IA automatiza y superpone sus rostros en cuerpos desnudos se estén compartiendo en la red.

Los efectos más perniciosos de esta tecnología se vieron hace poco en España. Un grupo de madres de 22 niñas de entre 12 y 17 años denunció que en Almendralejo, una localidad extremeña, otro grupo de jóvenes había hecho deepfakes pornográficos no consentidos de sus hijas, llegando el caso a los medios. La policía ya identificó a 10 menores como presuntos autores de esos deepfakes.

La investigación que ofrece Wired en este artículo arroja números inquietantes: el estudio, se insiste, se centra en este tipo de creaciones artificiales no consentidas por sus víctimas.

Según los hallazgos del estudio, 113.000 deepfakes pornográficos no consentidos se han subido a estos 35 sitios web en los 9 primeros meses del año. Supone un incremento del 54% con respecto a los deepfakes que se compartieron en las mismas páginas el año pasado: en 2022 se subieron 73.000.

Por esta razón, la persona que ha conducido este estudio concluye que para cuando termine este año el número de deepfakes pornográficos no consentidos que se hayan elaborado y compartido en estos 35 portales superará el número de todos estos deepfakes subidos en los últimos 7 años, período en el que se centra el estudio.

Los 'deepfakes' progresan más rápido que las herramientas que los detectan, y eso preocupa en la comunidad 'hacker': la red se llenará de 'replicantes'

En los últimos 7 años estas páginas han comenzado a alojar 244.625 de estos deepfakes pornográficos. En los 9 primeros meses de 2023 han aparecido 113.000 nuevos.

Para realizar el estudio, la persona detrás de la investigación ha extraído y raspado datos de todas las páginas web que forman parte de la muestra. De esta manera también ha obtenido otra información adicional, como por ejemplo la duración de esos vídeos o cómo llegan los usuarios hacia ese contenido.

De esta manera, al margen de las 35 páginas web estudiadas el autor también ha encontrado otros 300 sitios web de pornografía y otras páginas que republican el contenido privado de redes sociales donde también se están compartiendo este tipo de deepfakes no consentidos.

El estudio, al que solo ha tenido acceso Wired, no es una fotografía general de la situación, que podría ser inmensamente peor. Muchos de estos deepfakes se intercambian de manera privada en plataformas y aplicaciones de mensajería y otro tipo de redes sociales, con lo que no habrían sido contabilizadas por esta investigación.

Algunos expertos consultados por el citado medio advierten que el problema no es únicamente la proliferación y democratización de las herramientas tecnológicas que permiten realizar este tipo de suplantaciones no consentidas: el problema también radica en que es un material fácilmente encontrable en la red al que los buscadores, por el momento, no están poniendo coto.

Es lo que opina, por ejemplo, Henry Ajder, experto en deepfakes e IA generativa: considera que aumentar la fricción para hacer más complicado a los usuarios buscar este tipo de contenido en buscadores como Google o Bing ayudaría a frenar la propagación de este tipo de material. "Se trata de hacer que las búsquedas sean más difíciles", asume.

Mientras el debate se sirve entre las grandes tecnológicas, en España la preocupación por los deepfakes sigue la alza tras el capítulo de Almendralejo. Hace semanas, la coalición Sumar presentó una proposición de ley que todavía no ha sido tenida en cuenta —el Gobierno continúa en funciones y no hay una mayoría clara para una investidura de Pedro Sánchez, su eventual socio—.

La proposición de ley planteaba varias medidas para tratar de frenar estos deepfakes, reformando la ley que regula el derecho al honor o incluso el Código Penal, sirviendo incluso penas de cárcel para quienes hicieran deepfakes sobre políticos en medio de un proceso electoral. 

Proponía, por ejemplo, que las herramientas de IA generativa incluyesen obligatoriamente señales visuales o acústicas que aclarasen que se trataba de una imagen generada con tecnología y no de una imagen real. Sin embargo, esto poco ayudaría a las mujeres, quienes más sufren la propagación de este tipo de contenidos: aunque se ponga una marca de agua, el daño está hecho.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.