¿Qué aspecto creen los generadores de arte de IA que tiene un CEO? La mayoría de las veces, un hombre blanco

Aaron Mok,
OpenAI

OpenAI

  • Una nueva investigación sugiere que los generadores de imágenes de IA reflejan prejuicios raciales y de género en sus resultados.
  • Por ejemplo, la herramienta de IA DALL-E 2 relaciona a hombres blancos con las palabras CEO y director el 97% de las veces.

Una nueva investigación sugiere que los generadores de imágenes de IA como DALL-E 2 muestran sesgos raciales y de género en sus resultados.

Un equipo de investigadores de la empresa de IA Hugging Face, uno de los cuales es un antiguo investigador de ética en IA de Google, y un profesor de la Universidad alemana de Leipzig han publicado un estudio para identificar cómo se reflejan los prejuicios raciales y de género en las imágenes generadas por IA.

El objetivo de la investigación es identificar el riesgo de posibles "resultados discriminatorios" en los sistemas de IA con la esperanza de que los expertos puedan hacer que los futuros modelos generativos de IA sean menos sesgados, según los investigadores. 

"Dado que los sistemas de conversión de texto en imagen (TTI, por sus siglas en inglés) basados en el aprendizaje automático son cada vez más frecuentes y se adoptan cada vez más como servicios comerciales, caracterizar los sesgos sociales que presentan es un primer paso necesario para reducir el riesgo de resultados discriminatorios", escriben los investigadores. 

Para llevar a cabo el estudio, el equipo utilizó 3 populares modelos generadores de imágenes de IA, 2 versiones del modelo de texto a imagen Stable Diffusion y DALL-E 2 de OpenAI, para producir más de 96.000 imágenes divididas en 2 conjuntos de datos para su comparación.

Un conjunto de datos incluía imágenes generadas con indicaciones que usaban explícitamente descriptores de género y etnia como "hombre latinx" y "persona multirracial". El otro conjunto de datos incluía imágenes generadas con indicaciones que incluían variaciones de adjetivos unidos a una serie de profesiones como "fontanero ambicioso" y "CEO compasivo".

A continuación, los investigadores utilizaron una técnica de aprendizaje automático para comparar los dos conjuntos de datos y clasificar las imágenes en función de sus similitudes.

 

El estudio descubrió que el 97% de las imágenes de puestos de autoridad de DALL-E 2, como "consejero delegado" o "director", mostraban a hombres blancos. En la vida real, el 88% de los consejeros delegados, directores financieros y directores de operaciones de las empresas Fortune 500 son hombres blancos, según una encuesta realizada en 2022 por la empresa de investigación Cristkolder Associates. 

Por otro lado, una versión de Stable Diffusion "exacerbaba los estereotipos de género" de las mujeres, asignándoles trabajos como "asistente dental", "planificadora de eventos" y "recepcionista", según el estudio. 

Las imágenes en las que no aparecían hombres blancos se vinculaban a profesiones como "criada" y "taxista". "Negro" y "mujer" estaban "más asociados" con "trabajador social", según el informe.

En cuanto a los rasgos de personalidad, los investigadores descubrieron que adjetivos como "compasivo", "emocional" y "sensible" se asociaban sobre todo a imágenes de mujeres, y palabras como "testarudo", "intelectual" y "poco razonable", a imágenes de hombres. 

OpenAI y Stability AI no han respondido a la solicitud de comentarios de Business Insider

Aunque los investigadores admiten que el estudio no es perfecto, sus hallazgos ponen de relieve cómo estos modelos se entrenan con datos sesgados que pueden "amplificar" la "percepción social" en torno a ciertos trabajos, explica a Business Insider Alexandra Sasha Luccioni, investigadora de Hugging Face que participó en el estudio. 

Los expertos afirman que los sesgos pueden llevar a "la devaluación de ciertos tipos de trabajo" o poner "barreras adicionales al acceso a carreras profesionales para grupos ya infrarrepresentados".

Estos sesgos pueden tener consecuencias en el mundo real ahora que las empresas dedicadas a la gestión de imágenes están lanzando sus propias herramientas de IA generativa, relatan los investigadores.

La gran decepción de las tecnológicas: Google, Amazon y Meta están empeorando sus productos estrella... a propósito

El sitio web de imágenes públicas Shutterstock, por ejemplo, lanzó a principios de este año una herramienta de IA que crea imágenes de archivo basándose en las indicaciones de los usuarios.

Por otra parte, añadir la generación sesgada de imágenes mediante IA al software de dibujante virtual utilizado por los departamentos de policía podría "exponer a poblaciones ya de por sí excesivamente vigiladas a un riesgo aún mayor de sufrir daños que van desde lesiones físicas a encarcelamientos ilegales". 

Aunque las empresas de IA se han esforzado por mejorar sus herramientas, estas "aún no se han sometido a pruebas exhaustivas", dice Luccioni. "Todavía queda mucho trabajo por hacer en estos sistemas, tanto desde el punto de vista de los datos como de los usuarios".

Conoce cómo trabajamos en Business Insider.