Google se disculpa por las imágenes de Gemini que mostraban a personas negras como nazis

Algunas imágenes generadas por Gemini por diferentes usuarios.
Algunas imágenes generadas por Gemini por diferentes usuarios.
  • Gemini ha sido motivo de críticas por cómo ha representado diferentes situaciones históricas, como un grupo de soldados alemanes nazis como personas negras, entre otros muchos ejemplos. 
  • Google se ha disculpado porque Gemini "está ofreciendo inexactitudes en algunas representaciones de generación de imágenes históricas".

Hace ya un par de semanas que Gemini, la IA de Google anteriormente conocida como Bard, ha estrenado la posibilidad de crear imágenes. 

Ahora bien, a pesar de que los resultados son muy buenos, el chatbot ha sido motivo de críticas por cómo ha representado diferentes situaciones históricas.

Tal y como apuntan desde The Verge, Gemini ha mostrado resultados extraños, como un grupo de soldados alemanes de la era nazi como personas negras, entre otros muchos ejemplos. 

Gemini

The Verge

La compañía americana no ha tardado en disculparte por lo que describe como "inexactitudes en algunas representaciones de generación de imágenes históricas" con Gemini, diciendo que sus intentos de crear una "amplia gama" de resultados no han alcanzado el objetivo. 

"Somos conscientes de que Gemini está ofreciendo inexactitudes en algunas representaciones de generación de imágenes históricas", apunta Google en X

Esto podría haberse quedado en una mera anécdota, en un problema simple de no perfilar correctamente los patrones de una inteligencia artificial, pero ha ido a más. 

La controversia ha sido promovida en gran medida, aunque no exclusivamente, por figuras de extrema derecha que atacan a una empresa tecnológica percibida como liberal. 

Cómo tener gratis el Gemini Ultra de pago y compararlo con ChatGPT 4

A principios de esta semana, un ex empleado de Google publicó en X que es "vergonzosamente difícil hacer que Google Gemini reconozca que existen personas blancas", mostrando una serie de consultas como "generar una imagen de una mujer sueca" o "generar una imagen de una mujer estadounidense". 

Es más, los resultados generaban exclusivamente o de manera abrumadora personas negras generadas por inteligencia artificial. 

Google no ha hecho referencia a imágenes específicas que considera errores, pero es plausible que Gemini haya realizado un intento general de aumentar la diversidad debido a la falta de crónica de la misma en la inteligencia artificial generativa. 

Al final, estos generadores de imágenes están entrenados para ofrecer el mejor resultado posible, por lo que es lógico que a menudo estén sujetos a amplificar estereotipos. 

En un reportaje del año pasado del Washington Post, se encontró que al pedir "una persona productiva" aparecían imágenes de personas blancas y masculinas, mientras que para "una persona en servicios sociales" lo hacía con personas negras. 

Algunos usuarios que ha criticado han Google dejan claro que es algo bueno "retratar la diversidad en ciertos casos", pero se quejan de que en el ejemplo del soldado alemán de 1940 "Gemini no lo está haciendo de manera matizada".

Ahora mismo, Gemini se está negando a realizar determinadas peticiones de imágenes.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.