Donald Trump, en un capítulo de Breaking Bad, explicando cómo blanquear dinero. Efectivamente, no es ni mucho menos algo que haya podido ocurrir: se trata de un popular vídeo falso. Un youtuber intercambió el rostro del actor Bob Odenkirk y lo reemplazó por la cara del presidente estadounidense.
Se trata de un tipo de vídeo generado con inteligencia artificial que se conoce como deepfake. Este, cada vez más masivo, ha captado la atención y la preocupación de las autoridades de medio mundo. Temen los efectos que podrían tener estos vídeos falsos en las futuras campañas electorales.
Pero los efectos inmediatos ya se han hecho notar. Según Deeptrace, una compañía holandesa de ciberseguridad especializada en este tipo de vídeos, las principales víctimas de estos deepfakes no son los políticos: son las mujeres.
En un estudio que ha recogido ZDNet, Deeptrace detalla una "explosión" de este tipo de vídeos en la red: en diciembre de 2018 se contaban 8.000 de este tipo de vídeos cortos y hoy ya son cerca de 15.000. La empresa va más allá: se han visto más de 134 millones de veces y el 96% de estos miles de vídeos deepfake son pornográficos.
Una "pornografía involuntaria" o "pornografía deepfake" que "enfoca y daña únicamente a las mujeres", detalla Deeptrace en su estudio.
Henry Adjer es uno de los investigadores de esta compañía holandesa y detalla a ZDNet que la mayoría de estos vídeos pornográficos afectan a celebridades: muchos creadores de este tipo de contenido colocan el rostro de famosas en vídeos con contenido sexual explícito.
Aunque el estado de California ha prohibido los deepfakes políticos durante la temporada electoral, como avanza The Verge, y muchos expertos consultados por la CNBC apuntan a que este podría ser "el gran problema" de las elecciones presidenciales de EEUU en 2020, lo cierto es que de momento solo está perjudicando a las mujeres.