Eso no es un desnudo real, sino una imagen generada por IA: las estafas de contenido pornográfico amenazan con dispararse

Las estafas de contenido pornográfico podrían aumentar conforme avance la IA.

Getty

  • Imágenes como la del expresidente Donald Trump siendo detenido o la del papa Francisco luciendo un lujoso abrigo han hecho saltar las alarmas en relación al peligro que supone el uso de inteligencia artificial a la hora de generar deepfakes.
  • Varios expertos alertan ahora que una de las últimas consecuencias de este fenómeno podría ser el incremento de estafas online relacionadas con el contenido pornográfico.

La inteligencia artificial ha vuelto a generar polémica a raíz de unas imágenes que han sido creadas empleando esta tecnología: la del expresidente estadounidense Donald Trump siendo detenido por la policía de Nueva York y la del papa Francisco llevando un abrigo digno del mejor desfile de moda. 

Ambas imágenes han sido generadas utilizando modelos de IA generativa como el que alberga el archiconocido generador de texto ChatGPT. En este caso, la herramienta escogida ha sido Midjourney, una generador de imágenes por inteligencia artificial que se hizo viral en el verano de 2022 por haber ganado el primer premio del concurso de bellas artes de la Feria Estatal de Colorado (Estados Unidos).

Lograr el realismo que muestran los deepfakes de Trump y el papa ha sido posible gracias a la última versión de este programa, Midjourney V5. Una actualización que permite a los usuarios reproducir con extrema precisión los rostros de determinados famosos

Precisamente ese realismo ha provocado que varios expertos critiquen a los generadores de imágenes por IA ante el riesgo que suponen como difusores de noticias falsas. "El papa Balenciaga podría ser el primer caso real de desinformación masiva por inteligencia artificial", tuiteó Ryan Broderick, periodista responsable de la newsletter sobre cultura digital Garbage Day. 

Esta situación preocupa a la comunidad hacker, que ha señalado que la tecnología que permite crear imágenes falsas se desarrolla mucho más rápido que las herramientas que sirven para detectarlas, lo que podría conducir a un mundo plagado de deepfakes.

"Va a ser imposible distinguir a una persona real de una imagen o de un vídeo deepfake", adelantó Chema Alonso, jefe de Digital de Telefónica y hacker de renombre, con motivo de uno de los mayores eventos del sector en España, la RootedCON.

Durante otra ponencia que tuvo lugar en ese mismo evento, Ángela Barriga, ingeniera especializada en sistemas de aprendizaje automático, se refirió a la IA para indicar que "cuando se inventa una tecnología, esta trae sus cosas buenas y sus cosas malas". "Siempre se busca la trampa. (...) El fraude siempre ha existido y seguirá existiendo. Lo que cambia es el medio por el que se realiza", expresó.

Estafas relacionadas con la inteligencia artificial

Bajo esta premisa, era cuestión de tiempo que las herramientas de inteligencia artificial generativa —como ChatGPT o Midjourney— fuesen empleadas por determinados usuarios para cometer toda clase de delitos. Dando así lugar a casos tan llamativos como el de Albertina Geller y el fenómeno de los falsos humanos.

Apenas unas semanas después de que el chatbot de OpenAI fuese lanzado al público, los ciberdelincuentes ya habían identificado toda clase de métodos para utilizar el generador de texto a su favor: desde la mejora de la calidad de las estafas con los que intentan captar a sus víctimas a través de sus bandejas de entrada, hasta el apoyo recibido a la hora de programar código malicioso.

Sin embargo, la utilización fraudulenta de la inteligencia artificial no se limita a ChatGPT. Varios medios de comunicación, como el Washington Post o la Rolling Stone, han denunciado el caso de Claudia, una usuaria que ha empleado Reddit para publicar una foto suya y un mensaje en el que afirma sentirse guapa y ofrecerse a vender fotos desnuda a cualquiera que le envíe un mensaje privado. 

Albertina Geller

Claudia no existe, tal y como recoge la Rolling Stone, se trata de una invención generada con un IA por 2 estudiantes de informática que la crearon como una broma. "Solo es una prueba para ver si se puede engañar a la gente con fotos de inteligencia artificial", han explicado los estudiantes. "Sinceramente, no pensábamos que fuese a tener tanta repercusión".

En este caso, Claudia fue creada por Stable Diffusion, un modelo de IA que utiliza el aprendizaje automático para generar imágenes realmente sorprendentes en base a las peticiones de los usuarios. Un selfie de una mujer "sin maquillaje, con el pelo negro, a la altura de los hombros, fondo sencillo, pelo liso, flequillo", fueron las indicaciones que le dieron estos estudiantes a la herramienta.

Aseguran haber ganado cerca de 100 dólares vendiendo fotos eróticas (unos 90 euros), hasta que otros usuarios descubrieron lo que estaban haciendo y denunciaron la cuenta. 

"No creo que al usuario medio que consume este contenido le importe", ha defendido un trabajador anónimo de un hospital de Estados Unidos que ha indicado al Washington Post que se dedica a generar imágenes para intentar comercializarlas. "No espero que esa persona sea la que dice ser. No voy a conocer a esa persona en la vida real. ... A fin de cuentas, si no son reales, ¿a quién le importa?".

La IA como arma arrojadiza contra las mujeres

El problema es que, más allá de las posibles estafas que se puedan producir en base a este tipo de tecnologías, la inteligencia artificial puede jugar un papel decisivo en la proliferación del machismo en la sociedad. 

Business Insider España ya ha tratado en profundidad la forma en la que la IA también puede servir —desgraciadamente— para poner trabas a la igualdad. Por ejemplo, el sesgo que presentan algunos de estos algoritmos pueden condicionarte a la hora de buscar trabajo en una plataforma digital o de pedir un crédito a través de a la app del banco. 

Ilustración sesgos machistas inteligencia artificial

El uso de inteligencia artificial generativa para la creación de deepfakes para vídeos porno es una de las últimas consecuencias de este fenómeno. 

"No sabéis lo que se siente al ver imágenes tuyas haciendo cosas que no has hecho nunca y que después se las manden a tu familia", relató en su día QTCinderella, una influencer de videojuegos cuya imagen se utilizó para generar deepfakes pornográficos, al Washington Post.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.