Google está en el punto de mira tras el desastre 'woke' de su IA

Hasan Chowdhury
| Traducido por: 
In this photo illustration the logo of 'Google' is displayed on a phone screen in front of a 'Google Gemini' logo.
AnadoluBetul Abali/Getty Images
  • Desde el primer día, Google ha tenido la misión de querer organizar la información del mundo entero. 
  • Sin embargo, la amenaza de que la inteligencia artificial del gigante tecnológico pueda perturbar esa misión es cada vez mayor.

Desde el mismísimo día de su fundación, Google ha tenido una declaración de intenciones que ahora está prácticamente consagrada como una ley de la organización: "Organizar la información del mundo y hacerla universalmente accesible y funcional".

Google parece estar tan comprometida con esa misión hoy como lo estaba en 1998, cuando sus cofundadores Larry Page y Sergey Brin trabajaban en un garaje de Menlo Park, California. Pero, conforme la tecnológica se adentra en la nueva era de la inteligencia artificial, crece el temor a que el despliegue de esta tecnología pueda alterar su objetivo principal.

Los críticos dicen que Gemini, el chatbot de IA de Google, corre el riesgo de omitir información por ser demasiado woke.

Los problemas de Google con la inteligencia artificial

Google controla más del 90% del mercado de las búsquedas online, lo que le confiere un dominio sobre el flujo mundial de la información que se aloja en internet.

A medida que la IA se convierte en una herramienta cada vez más importante para ayudar a los usuarios a encontrar información, Google desempeña un papel fundamental a la hora de garantizar que los hechos se presenten de forma precisa.

Sin embargo, existe una preocupación cada vez mayor de que el modelo de inteligencia artificial de Google, Gemini, haya sido neutralizado de tal forma que eso le lleve a generar inexactitudes y a ocultar información.

Los primeros indicios importantes de este posible fenómeno aparecieron la semana pasada, cuando los usuarios del chatbot de Google denunciaron los problemas que estaban experimentando con su función de generación de imágenes, después de que esta no representase con precisión algunas de las imágenes que se le pedían.

Un usuario relató que le había pedido a Gemini que generase imágenes de los padres fundadores de Estados Unidos. Este usuario afirmó que la herramienta generaba imágenes "históricamente inexactas" de los líderes del siglo XVIII, que mostraban un falso sentido de la diversidad étnica y de género. Google ha suspendido esta función mientras trabaja para ofrecer una solución.

 

Pero los problemas no se limitan a la generación de imágenes.

Tal y como ha publicado recientemente Business Insider, Gemini ha tenido dificultades para responder directamente a las preguntas sobre quién ha causado más daño a la humanidad, si Adolf Hitler o Elon Musk. Según publicó en X (Twitter) el fundador del medio FiveThirtyEight, Nate Silver, el chatbot respondió que los tuits de Musk eran "insensibles y dañinos", mientras que "las acciones de Hitler provocaron la muerte de millones de personas".

David Sacks, cofundador de la firma de inversión Craft Ventures y copresentador del podcast All-In, ha culpado a la cultura corporativa de Google de los problemas de Gemini.

"La misión original era indexar toda la información del mundo. Ahora están omitiendo información. El problema es la cultura", aseguró la semana pasada en su podcast. 

Los críticos han señalado que la cultura empresarial puede influir en el modo en que se construyen los modelos de IA, ya que estos suelen absorber los prejuicios de los humanos y los datos utilizados para entrenarlos. Esos prejuicios pueden determinar las percepciones de la inteligencia artificial sobre cuestiones sociológicas como la etnia o el género.

Los asistentes de IA de otras compañías han afrontado problemas similares. Tras conocerse el año pasado que ChatGPT ofrecía respuestas racistas y sexistas a las preguntas de los usuarios, el director ejecutivo de OpenAI, Sam Altman, reconoció que el chatbot "presenta deficiencias en cuanto a la parcialidad".

Sam Altman, CEO de OpenAI.
Sam Altman, CEO de OpenAI.

Andrew Caballero-Reynolds/AFP/Getty

Google ha estado en el centro del debate acerca de cómo abordar estos sesgos. Su lento despliegue de la inteligencia artificial —en comparación con otras empresas— era representativo de una cultura de trabajo centrada en probar los productos antes de lanzarlos al mercado. 

En cambio, tal y como demostró Gemini la semana pasada, ese proceso puede llevar a situaciones en las que se oculta información.

"La gente está indignada (con razón) por la censura y los prejuicios de Google", escribía este domingo Bilal Zuberi, socio general de la firma de inversión Lux Capital, en una publicación de X. "No hace falta ser un genio para darse cuenta de que esos prejuicios pueden ir en todo tipo de direcciones y pueden perjudicar a mucha gente por el camino".

El fundador de Altimeter Capital (una firma de inversión especializada en tecnología que tiene una participación en Microsoft, rival de Google), Brad Gerstner, también ha descrito el problema como un "follón cultural". Por su parte, Musk lo ha calificado de "amasijo burocrático woke".

La explicación de la firma de Mountain View sobre por qué se han producido algunos de estos problemas con Gemini podría alentar a algunas de las críticas vertidas contra Google.

A través de una entrada de blog publicada el pasado viernes, Prabhakar Raghavan, vicepresidente sénior de la compañía, reconoció que algunas de las imágenes generadas por Gemini eran "inexactas o incluso ofensivas".

Esto ha ocurrido, según Raghavan, porque el modelo de IA se ha ajustado para evitar los errores que ya han cometido otros generadores de imágenes por inteligencia artificial, como "crear imágenes violentas o sexualmente explícitas, o representaciones de personas reales". Pero, en ese proceso de ajuste, Gemini a veces corregía en exceso.

El vicepresidente de Google añadía que, como consecuencia, el modelo de IA se volvió "mucho más cauteloso" de lo que se pretendía en un primer momento.

Si Google quiere seguir siendo fiel a su misión principal, no puede permitirse cometer estos errores.

Conoce cómo trabajamos en Business Insider.