No solo le pasa a Google: la inteligencia artificial de Microsoft también se equivocó en su puesta de largo

Aaron Mok
| Traducido por: 
Captura de pantalla del 'nuevo Bing'.
Captura de pantalla del 'nuevo Bing'.

Jason Redmond/AFP vía Getty

  • Dmitri Brereton, investigador especializado en inteligencia artificial y motores de búsqueda, asegura que el generador de texto por IA que emplea el nuevo Bing "se equivocó rotundamente en algunas respuestas" durante su presentación.
  • Tras el error cometido por la IA de Google, Bard, Brereton ha afirmado también que la tecnología de Microsoft no se encontraba "lista para su lanzamiento".

No solo el generador de texto por inteligencia artificial de Google comete errores

Este lunes, Dmitri Brereton, investigador especializado en IA y motores de búsqueda, señaló que la nueva tecnología de inteligencia artificial de Microsoft cometió una serie de errores durante su presentación al público y apuntó que "definitivamente no está lista para su lanzamiento".

Como parte de la presentación del nuevo buscador de Microsoft, se pidió a la IA de Bing que enumerase los pros y los contras de las 3 aspiradoras para mascotas más vendidas. El generador de texto hizo una lista para la aspiradora de mano "Bissel Pet Hair Eraser", que indicaba como puntos negativos su alto nivel de ruido y un cable demasiado corto.

¿Cuál fue el problema? Que, cuando Brereton comparó la respuesta que ofreció la herramienta con el artículo al que enlazaba como fuente, se dio cuenta de que esa reseña no mencionaba en ninguna parte el ruido de la aspiradora. Además, se trataba de una aspiradora inalámbrica. "Espero que a la IA de Bing le guste ser demandada por difamación", valoró el investigador.

En otro ejemplo se le pidió a Bing que diseñase un itinerario de 5 días para un viaje a Ciudad de México y se le pidió que hiciese recomendaciones acerca de la vida nocturna en la capital del país latinoamericano. La inteligencia artificial respondió con una lista descriptiva de bares y discotecas.

microsoft

Tras cotejar las respuestas del bot con su propia investigación, Brereton descubrió que algunas de las descripciones que ofrecía la herramienta eran erróneas

En un caso en particular, Bing recomendaba visitar la página web de un bar para hacer una reserva y consultar su menú, pero en la página del establecimiento en cuestión no se podía reservar mesa ni consultar la carta. Con otros 2 restaurantes, el bot aseguró que no había reseñas en internet. Sin embargo, al investigar sobre ellos, ambos contaban con centenares de valoraciones.

El error más flagrante que cometió Bing durante la demostración de su generador de texto, según Brereton, fue falsificar unas cifras cuando se le preguntó por las principales conclusiones de los resultados financieros de Gap en el tercer trimestre de 2022.

La tecnología de Microsoft identificó mal datos de los resultados trimestrales como el beneficio bruto y otros valores, como los beneficios por acción, eran "completamente inventados".

 

"Me sorprende que el equipo de Bing ofreciese esta demostración pregrabada plagada de información inexacta y la presentase con confianza al mundo, como dándola por buena", concluyó en su publicación el investigador especializado en IA. 

"Somos conscientes de este estudio y hemos analizado sus conclusiones en nuestro esfuerzo por mejorar esta experiencia", ha declarado a Business Insider un portavoz de Microsoft. "Reconocemos que aún queda trabajo por hacer y prevemos que el sistema cometa errores durante este periodo de prueba, por lo que el feedback es fundamental para aprender y ayudar a mejorar los modelos".

Brereton no ha sido el único usuario que ha detectado errores en el "nuevo Bing". Un periodista de The Verge pidió al buscador de Microsoft que elaborase una lista con las películas que se proyectaban en un determinado barrio de Londres. El bot incluyó Spider-Man: No Way Home y Matrix Resurrections, cintas relativamente antiguas que ya no se encuentran en cartelera.

La carrera armamentística de la IA puede conducir a la difusión de desinformación

Las valoraciones de investigadores especializados como Brereton se producen en un momento en el que las grandes empresas tecnológicas como Google o Microsoft parecen estar iniciando una carrera armamentística por la inteligencia artificial.

Tanto la firma de Redmond como la de Mountain View realizaron presentaciones públicas la semana pasada relacionadas con la IA. Aunque Microsoft fue la primera en presentar su nueva tecnología, Google tiene previsto lanzar la suya, Bard, en apenas unas semanas

Antes incluso de que Brereton diese a conocer los errores de Bing, Gary Marcus, un antiguo profesor de ciencias neuronales de la Universidad de Nueva York, apuntó en su blog cómo estaban afrontando esta batalla ambas empresas. La demostración de Microsoft "se presentó como una revolución", mientras que la de Google se presentó como un "desastre", valoró Marcus.

Alternativas a ChatGPT.

La intensa presión por presentar estas herramientas ha llevado a algunos directivos del sector tecnológico —incluido John Hennessy, presidente de la matriz de Google (Alphabet)— a afirmar que estas tecnologías se están lanzando apresuradamente. Empleados de Google expresaron que el anuncio de su propia compañía fue "chapucero" y "precipitado".

El lanzamiento apresurado de estos generadores de texto puede traer consigo una importante propagación de desinformación, sobre todo si los usuarios que los utilizan esperan respuestas rápidas y precisas como sucede con los motores de búsqueda. 

Aunque Brereton ha indicado a Business Insider que los buscadores que utilizan inteligencia artificial generativa, como el nuevo Bing, pueden ser "bastante innovadores", ha señalado que lanzarlos prematuramente "podría acarrear grandes problemas".

"Es peligroso que un motor de búsqueda en el que millones de personas confían para recibir respuestas correctas comience a arrojar basura con total confianza", concluye este investigador. "Bing intenta resolver este problema advirtiendo a la gente de que sus respuestas son inexactas, pero ellos saben y nosotros sabemos que nadie le va a hacer caso a eso".

Conoce cómo trabajamos en Business Insider.