Esta nueva herramienta "envenena" los modelos de IA para que los artistas puedan defenderse del algoritmo

Galería de arte generado por inteligencia artificial

Getty

  • Los artistas llevan meses denunciando su situación de indefensión con respecto a los generadores de imágenes por inteligencia artificial como DALL·E o Midjourney. 
  • Ahora, una nueva herramienta les ofrece la posibilidad de "envenenar" los modelos de IA generativa para que se rompan en caso de utilizar sus obras sin su consentimiento explícito. 

Los artistas gráficos llevan más de un año denunciando una situación de indefensión sin precedentes sobre los modelos de inteligencia artificial generativa como Stable Diffusion o DALL·E

En octubre de 2022, Business Insider España entrevistó a tres artistas de la talla de David Rubín (4 veces nominado a un premio Eisner, los Oscar de los cómics), Jon Juarez (concept artist que ha trabajado en producciones para Netflix o HBO) y Daniella Martí (autora y humorista gráfica de El País) para preguntarles cuál era su postura con respecto a este tipo de herramientas.

Ya entonces, denunciaban que estos modelos de IA eran "lavadoras de propiedad intelectual y derechos morales", que atacaban al autor y que podían ser "un gran enemigo del emprendimiento a largo plazo".

La tecnología ha seguido avanzando y se han presentado nuevas versiones de estas herramientas (como DALL·E 3, la nueva iteración del modelo de OpenAI, la desarrolladora de ChatGPT). Los artistas han empezado a posicionarse abiertamente en contra de estas herramientas, que utilizan sus obras para entrenarse y luego poder utilizar sus estilos personales para generar nuevas imágenes.

Adrián Rodríguez, doctorando del Instituto Tecnológico de Massachusetts y ganador de una beca de la Fundación "la Caixa".

Algunos han llegado a denunciar a las compañías que están detrás de los modelos, acusándolas de violación de los derechos de autor y exigiéndoles una compensación económica. Otros han optado por averiguar cómo funcionan estas herramientas para intentar combatirlas utilizando sus propias dinámicas internas. 

Es el caso de Ben Zhao, catedrático de Informática de la Universidad de Chicago que hace unos meses explicaba a Business Insider en qué consistía Glaze, un programa desarrollado por su equipo de investigación con el objetivo de engañar al algoritmo de inteligencia artificial. Tal y como informa MIT Technology Review, Zhao ha presentado una nueva herramienta que apunta en esa dirección: Nightshade.

Nightshade permite a los artistas añadir modificaciones imperceptibles en los píxeles de sus obras de arte antes de subirlas a Internet, de modo que, si se introducen en un conjunto de entrenamiento de IA, el modelo resultante podría romperse de forma caótica e impredecible. 

Según publica el medio de comunicación que ha tenido acceso en exclusiva a un adelanto de la investigación de Zhao, utilizar esta herramienta para "envenenar" los datos de entrenamiento podría dañar los modelos de inteligencia artificial como DALL·E, Midjourney o Stable Diffusion, puesto que inutilizaría algunos de sus resultados: los perros se convierten en gatos, los coches en vacas, etc

 

Al parecer, el equipo de investigación de la Universidad de Chicago pretende integrar Nightshade en Glaze, para que los artistas puedan elegir si quieren utilizar la herramienta de envenenamiento de datos o no. Además, también quieren que Nightshade sea de código abierto, lo que permitiría a otras personas probarlo y crear sus propias versiones. 

Cuanta más gente la utilice y cree sus propias versiones, más potente será la herramienta, ha señalado Zhao a MIT Technology Review, puesto que los conjuntos de datos de los grandes modelos de IA pueden constar de miles de millones de imágenes, por lo que cuantas más imágenes envenenadas puedan introducirse en el modelo, más daño causarán

Se trata de un problema que parece que van a tener resolver los generadores de imágenes por inteligencia artificial y que se asemeja mucho al de los ejemplos adversarios que investiga en el MIT el doctorando español Adrián Rodríguez

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.