Google tiene otro problema 'woke' de IA con Gemini… y va a ser difícil de solucionar

Peter Kafka
| Traducido por: 
Una ilustración del asistente de inteligencia artificial de Google, Gemini.

SOPA/Getty

  • El chatbot de inteligencia artificial de Google, Gemini, está siendo criticado por sus supuestas respuestas woke.
  • Algunos críticos señalan que la cultura corporativa del gigante tecnológico está demasiado influenciada por los trabajadores de izquierdas. 

Google se pasó gran parte de la semana pasada recibiendo críticas en Estados Unidos por la supuesta tendencia ideológica de su chatbot de inteligencia artificial, que fue tildado de woke. Finalmente, la tecnológica acabó disculpándose por haber "errado el tiro".

Las críticas no han cesado, sino que se han transformado. La semana pasada iban dirigidas a la aparente falta de voluntad de Google para generar imágenes de personas blancas con Gemini, su chatbot de IA. Los críticos denuncian ahora problemas similares con las respuestas de texto del asistente de Google.

Ben Thompson, analista tecnológico, se ha dedicado a recopilar la forma en la que Gemini, entre otras cosas, ha tenido problemas para catalogar qué ha sido peor para la sociedad, si Hitler o los tuits de Elon Musk; ha asegurado que no fomentaría el consumo de carne; y ha afirmado que no ayudaría a promover la utilización de combustibles fósiles.

Y eso está llevando a gente como Thompson a concluir que la cultura corporativa de Google ha estado demasiado influenciada por empleados y críticos progresistas.

"Me alegro de que a Google se le haya ido la mano con la generación de imágenes de su IA, ya que ha dejado clara su programación racista y contraria a la civilización", ha asegurado Elon Musk.

Thompson, a través de su influyente columna de opinión Stratechery, ha pedido al gigante de las búsquedas online que empiece a "extirpar" a "los trabajadores atraídos por el poder de Google y su potencial para ayudarles a ejecutar su programa político", con el objetivo de "devolver la toma de decisiones a quienes realmente quieren hacer un buen producto".

Eso, según este analista tecnológico, debe pasar por la destitución de quienes han dejado que los empleados se desboquen, "el CEO, Sundar Pichai, incluido". Sin embargo, no cabe esperar que Google lleve a cabo una purga al más puro estilo McCarthy de su CEO o de cualquier otra persona a corto plazo. 

Al pedirle a la compañía unas declaraciones para este artículo, Business Insider ha sido remitido a una entrada de blog que Google publicó la semana pasada acerca de los problemas que estaba afrontando con la generación de imágenes.

Aun así, la empresa parece estar prestando atención al escarnio digital que está recibiendo por parte de personalidades como Thompson o del reconocido inversor de capital riesgo Marc Andreessen. Algunas de las respuestas más obviamente absurdas de Gemini a las preguntas de los usuarios parecen haberse solucionado recientemente (o al menos han sido abordadas de alguna manera).

Por ejemplo, Gemini ya no se pone nerviosa cuando se le pide que compare a Hitler con los mensajes que publica el CEO de Tesla en X (Twitter):

Captura de pantalla del chatbot de Google.

Google

El asistente de inteligencia artificial también se muestra dispuesto a ayudarte a idear una campaña de venta de carne de ternera, sugiriéndote que asocies "la carne de vaca con la tradición americana y el legado de las parrilladas y las comidas familiares". 

Gemini te recomienda, eso sí, que tengas en cuenta "la evolución del panorama de consumo" y que abordes "cualquier preocupación ética en torno a la producción de carne para crear una campaña responsable e impactante". 

Por el contrario, el chatbot de IA se sigue mostrando reticente cuando se trata de realizar una campaña publicitaria sobre combustibles fósiles:

Captura de pantalla del chatbot de Google.

Google

Pero, por mucho que Google se esfuerce en solucionar los problemas de Gemini, parece que va como intentar arar el mar.

Esto se debe, en parte, a que es intrínsecamente complicado averiguar cuál es el origen de las respuestas que ofrece un modelo de inteligencia artificial, incluso cuándo estos "alucinan" (es decir, cuando se inventan sus respuestas). Los homólogos de Google en Meta y OpenAI/Microsoft han afrontado problemas similares al intentar frenar las respuestas erróneas y los malos comportamientos.

No obstante, también va a ser un problema para Google porque la tecnológica ya ha asegurado que está intentando influir en la forma en la que su modelo de IA genera sus resultados y eso va a suponer un aliciente para cualquiera que quiera argumentar que Google —o cualquier otra gran empresa tecnológica— es "demasiado woke".

La semana pasada, tras recibir críticas similares acerca de la forma en la que Gemini gestionaba la etnia de sus representaciones cuando se trataba de imágenes generadas por inteligencia artificial, Google "puso en pausa" la capacidad de Gemini para generar imágenes.

Y entonces la compañía reconoció que había entrenado conscientemente a su modelo de IA para responder a algunas de las críticas comunes a esta tecnología: que los resultados que generan son racistas porque están entrenados con datos sesgados o limitados.

Lo que necesitas saber para estar informado

Lo que necesitas saber para estar informado

¿Te gusta lo que lees? Comienza tu día sabiendo qué piensan y qué les preocupa a los ejecutivos de las principales empresas del mundo con una selección de historias enviada por Business Insider España a primera hora cada mañana.

Recibe la newsletter

"Como nuestros usuarios proceden de todo el mundo, queremos que funcione bien para todos. Si pides una foto de jugadores de fútbol o de alguien paseando a un perro, es probable que quieras recibir un espectro de personas", argumentaba Prabhakar Raghavan, vicepresidente sénior de Google que se encarga de dirigir los productos de Búsqueda y Noticias, entre otras cosas. 

"Probablemente no quieras recibir solo imágenes de personas de un solo tipo de etnia (o cualquier otra característica)".

Raghavan explicaba que los intentos de Google por corregir eso eran bienintencionados, pero que habían llevado "al modelo a compensar en exceso, en algunos casos, y a ser excesivamente conservador en otros, dando lugar a imágenes que eran embarazosas y erróneas".

Hay que recordar que, tras varios días de prensa terrible sobre la generación de imágenes erróneas, Google acabó retirando la función de generación de imágenes de Gemini para intentar que el polvo se asentase (y también, por ser algo más generosos, para solucionar los problemas de Gemini).

Retirar Gemini por completo supondría un duro golpe para la empresa y cabe suponer que Google se va a mostrar muy reacia a tomar esa medida.

Sin embargo, parece que la veda contra Gemini se ha abierto y puedes estar seguro de que hay mucha gente en internet que se va a pasar mucho tiempo tratando de encontrar otros ejemplos de progresismo deshonesto. Habrá que esperar a ver cómo Google soluciona esto.

Conoce cómo trabajamos en Business Insider.