Stable Diffusion, la IA por la que deberás desconfiar de todo lo que veas

Una imagen generada durante la beta de Stable Diffusion.
Una imagen generada durante la beta de Stable Diffusion.

Stable Diffusion

  • Las inteligencias artificiales (IA) que son capaces de generar imágenes e, incluso, de replicar estilos artísticos están a la orden del día. 
  • Herramientas tecnológicas como Craiyon o DALL-E se han convertido en auténticos fenómenos virales en redes sociales que han planteado dudas éticas y legales relacionadas con la creación artística.
  • Ahora otra IA, Stable Diffusion, va un paso más allá y permite a cualquiera con un ordenador y una tarjeta gráfica generar cualquier tipo de contenido gráfico, sea este violento, sexual o que vaya en contra de la propiedad intelectual. 
  • Comienza el día bien informado con la selección de noticias de Business Insider España: suscríbete gratis aquí.

La relación entre la inteligencia artificial (IA) y la generación de imágenes parece estar atravesando su edad de oro

Este verano se configuró un auténtico fenómeno viral a raíz de la IA Craiyon, una tecnología creada por un ingeniero de Houston que era capaz de generar imágenes online a través de las directrices que le ofreciese el usuario

La viralidad en redes de la tecnología llegó de la mano de la infinidad de posibilidades y combinaciones que brindaban sus creaciones: desde un demogorgon jugando al baloncesto a una Torre Eiffel convertida en cohete y aterrizando en la luna, pasando por un Kin Kong ejerciendo de abogado en un juicio.

Más recientemente ha despuntado otra tecnología similar, DALL-E, una IA desarrollada por la empresa OpenAI que también se especializa en generar imágenes a través de texto. 

En este caso, OpenAI —compañía fundada por Elon Musk— ha creado una herramienta centrada en la producción de imágenes con la posibilidad de que estas imiten a artistas o a corrientes pictóricas. La segunda versión de DALL-E ha visto la luz recientemente y con ella ha llegado la herramienta "Outpainting", que permite, por ejemplo, conocer qué hay detrás de algunos cuadros famosos.

Sin embargo, la generación de este tipo de imágenes sigue dependiendo de la interacción humana. Creaciones como la de August Kamp, ampliación de La joven de la perla que se puede ver en el vídeo, emplean la herramienta "Outpainting" de la IA para generar este tipo de imágenes. 

OpenAI ha restringido el acceso a la beta de la segunda versión de DALL-E a un millón de usuarios con el fin de que la IA vaya mejorando su aprendizaje paulatinamente. Además, la empresa ha limitado la posibilidad de generar imágenes violentas o pornográficas restringiendo su "aprendizaje" en este tipo de contenidos. 

Ahora una nueva IA, Stable Diffusion, genera dudas y preocupación entre los organismos reguladores y los propios artistas. 

Stable Diffusion y la difusión estable

Stable Diffusion es otra IA de generación de imágenes online desarrollada por un antiguo gestor de fondos de inversión, Emad Mostaque, que fundó la empresa Stability AI.

Tal y como explican en Ars Technica, la mayoría de estas IA utilizan un aprendizaje de imágenes denominado "difusión latente", un mecanismo por el que el modelo aprende a reconocer formas y luego cataloga esas formas en función de palabras que utiliza para etiquetarlas. Sin embargo, en el caso de Stable Diffusion, se emplea lo que Mostaque denomina "difusión estable".

La IA utiliza una base de 5.000 millones de imágenes, LAION-5B, para entrenarse basándose en los datos que catalogan esas imágenes, sacadas de lugares como Pinterest, DeviantArt o el banco de imágenes Getty. Para llevar a cabo esa tarea, Mostaque ha utilizado un banco de tarjetas gráficas de alta gama. Un método que ha resultado ser mucho más barato que el de sus competidores.

 

Las preocupaciones proceden de que en ese proceso de aprendizaje la IA ha interiorizado estilos artísticos de muchos artistas que continúan vivos a día de hoy y que han mostrado inquietud ante esta práctica. Además, a diferencia de DALL-E, la tecnología y sus herramientas han quedado a disposición del público general, ya que esta se caracteriza por ser de código abierto

Esto significa que cualquiera con un ordenador y una tarjeta gráfica puede generar imágenes de cualquier tipo. En un principio la versión oficial de Stable Diffusion cuenta con filtros que impiden la creación de imágenes sensibles (pornográficas, violentas...), pero al ser esta una herramienta de código abierto, esos filtros se pueden eludir fácilmente. 

En declaraciones al medio, Mostaque asegura que en Stability AI creen en "la responsabilidad y la capacidad de acción individuales" y que su tecnología incluye "una política de uso ético y herramientas para mitigar el daño". Aun así, la herramienta se puede utilizar tanto para generar contenido violento, pornográfico o deep fakes como para plagiar el estilo artístico de creadores de carne y hueso.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.