El fracaso de Google con Gemini plantea una pregunta: ¿Qué queremos que hagan nuestros chatbots exactamente?

Peter Kafka
| Traducido por: 
Un montón de aplicaciones de inteligencia artificial.

NurPhoto/Getty

  • El lanzamiento del chatbot de Google, Gemini, se ha visto empañado por las numerosas acusaciones de parcialidad ideológica.
  • La polémica ha agitado el debate acerca de los planteamientos woke dentro de las grandes tecnológicas.

Las críticas continúan tras el vergonzoso lanzamiento del chatbot de inteligencia artificial Gemini por parte de Google, en el que la empresa ha tratado de asegurarse de que su asistente de IA corrigiese los prejuicios que se achacan a este tipo de programas y ha acabado con una herramienta de inteligencia artificial ridículamente sesgada.

Parece el tipo de teoría de la conspiración woke que encandila a Elon Musk y al resto de perfiles conservadores de Estados Unidos, que acusan a las Big Tech de llevar a cabo este tipo de artimañas en la sombra. Google ha dado un paso al frente y les ha ofrecido munición de gran calibre para sus argumentos.

Recuerda a cuando Twitter bloqueó temporalmente la publicación de un artículo del New York Post de 2020 sobre el portátil de Hunter Biden (hijo del presidente estadounidense, Joe Biden), un vergonzoso error cometido por la red social y del que se aprovecharon personalidades como Ted Cruz, senador republicano de EEUU.

Max Read, experto analista especializado en la cultura de internet, ha realizado una valoración particularmente aguda sobre esta situación. Sí, todo esto es una tontería, pero también hay que preguntarse: ¿qué queremos que hagan nuestros chatbots?

No estoy seguro de que "¿cómo ha pasado esto?" o "¿por qué ha pasado esto?" sean preguntas tan interesantes o esclarecedoras comparadas con otras como "bueno, ¿qué querías que hiciese la máquina?". Personalmente, me resulta difícil imaginarme preocupándome —y mucho menos enfadándome— porque un ordenador que genere un texto en el que se equivoque entre Pol Pot y Martha Stewart, porque nunca le pediría a un ordenador que comparase a ambos. Todavía no he externalizado mis capacidades de investigación o mis facultades críticas o mi brújula moral a un generador de texto probabilístico, y "generar texto que compare de forma plausible figuras históricas sobre una base moral" es un caso de uso desconcertantemente extraño para los chatbots. Ni siquiera se me ocurre una situación en la que la negativa de Gemini a decir que Hitler es peor que Elon Musk tenga un terrible efecto secundario.

Dos cosas pueden ser ciertas al mismo tiempo: el dramatismo que ha presentado el entorno de Elon Musk con respecto a este problema es, efectivamente, dramático. Pero, además, el desastre de Gemini es realmente un desastre.

Se supone que este chatbot de inteligencia artificial tenía que ser la gran apuesta de futuro de Google y, aunque la mayoría de la gente que no se pasa el día en X —Twitter— no tiene ni idea de que ha ocurrido todo esto, gran parte de los trabajadores de la tecnológica ven este caso como una humillación hacia sí mismos. 

Además, la gente se encuentra cómoda con la idea de que no se puede confiar al 100% en los bots de IA, porque tienden a "alucinar", pero eso es una perspectiva diferente a preocuparse porque los chatbots se equivoquen intencionadamente porque han sido entrenados para cometer errores de esa manera.

 

Con respecto al otro punto de Read... Tiene razón.

¿Qué queremos que hagan estas cosas exactamente? Parecen muy buenos resumiendo textos, y eso por sí solo es bastante significativo en términos de disrupción económica. Pero muchos de los otros casos de uso planteados —especialmente aquel en el que los chatbots se convierten en un "aliado" para toda la vida, que te entiende a ti y a tus necesidades de forma exhaustiva— parecen difíciles de imaginar.

Quizá haya que tomarse un respiro, ir más despacio y averiguar qué puede y qué no puede hacer realmente esta tecnología.

Conoce cómo trabajamos en Business Insider.