Los chatbots como Bard van a destruir las búsquedas en internet: la competencia de ChatGPT lanzada por Google te ahorrará tiempo, pero también te mentirá

Adam Rogers,
Confiar en la inteligencia artificial para las búsquedas en internet contribuirá a que estemos más desinformados.
Confiar en la inteligencia artificial para las búsquedas en internet contribuirá a que estemos más desinformados.

Tyler Le/Insider

  • Tras la repentina popularidad de ChatGPT, empresas como Google trabajan en sus propios bots, cuyo objetivo es ser una referencia para las búsquedas a través de internet ofreciendo respuestas más cortas y sencillas que los habituales enlaces a páginas web.
  • Estos chatbots, sin embargo, tienen la desventaja de no filtrar la información, de modo que pueden ofrecer respuestas racistas, machistas y directamente falsas.
Análisis Faldón

Esta semana, Sundar Pichai, CEO de Google, anunció que el motor de búsqueda de internet de su empresa (el más utilizado del mundo) está a punto de cambiar. Introduciendo una consulta, ya no se obtendrán solo enlaces a páginas web y alguna respuesta sugerida. A partir de ahora, se recibirá ayuda de la inteligencia artificial.

"Pronto (declaraba el CEO en una publicación del blog de Google) verás funciones potenciadas por la IA con información compleja y distintas perspectivas en formatos sencillos, para que puedas enterarte rápidamente de cómo está el panorama general y aprender más de la web". 

El encargado de darte toda esta información será un chatbot llamado Bard, que contestará con frases completas, como lo haría una persona.

Un día después, Satya Nadella, CEO de Microsoft, anunció que el motor de búsqueda de su empresa, Bing, haría lo mismo, utilizando la tecnología del popular chatbot de inteligencia artificial ChatGPT. Hasta ahora, ningún motor de búsqueda ha desafiado realmente el dominio de Google, pero Microsoft ve en la IA su oportunidad de acercarse al rey.

Estos nuevos chatbots no son realmente inteligentes. La tecnología que se esconde tras ellos se denomina modelo de lenguaje amplio, es decir, un trozo de software capaz de extraer palabras relacionadas entre sí de una enorme base de datos y producir sofisticados textos y arte visual con una mínima ayuda. 

Sin embargo, en lo que respecta a la adquisición, clasificación y recuperación de conocimientos, este enfoque es objeto de una vieja batalla. Lleva gestándose al menos desde principios de la década de 2000, y quizá desde los años 0, en la Biblioteca de Alejandría. Fundamentalmente, se trata de un debate sobre la mejor manera de aprender cosas. ¿Nos enfrentamos a la complejidad de informaciones que compiten entre sí? ¿O dejamos que una autoridad reduzca todo a una respuesta simple?

Bard, responde de forma sencilla a esa pregunta. A partir de ahora, los chatbots te dirán cómo abrir una lata de judías, en vez de derivarte a una docena de enlaces con instrucciones sobre cómo hacerlo. Y si crees que la búsqueda eficaz es lo que ha hecho de internet la tecnología más importante de los siglos XX y XXI, este cambio aparentemente sencillo debería ponerte los pelos de punta. 

El daño colateral en esta guerra podría ser nada menos que la anulación de la información útil que hay en internet para siempre.

¿Por qué buscar casi cualquier cosa hoy en día —un tuit, un documento de Word, un correo electrónico— parece como buscar una aguja en un pajar?

Los chatbots alucinan

A veces, la opción de obtener una respuesta sencilla es buena. En lo que el sector denomina "búsqueda de elementos conocidos", únicamente se busca una respuesta objetiva a una pregunta concreta. ¿Cuál es la raza de perro más popular? ¿Cuántos años tiene Madonna? Google resuelve ese tipo de cosas muy bien.

El otro tipo de búsqueda, la "búsqueda exploratoria", es la difícil. 

Se trata de esos momentos en los que no sabes lo que no sabes. ¿Cuál es el teléfono móvil que debería comprar? ¿Qué pasa con la Guerra de los Treinta Años? Obtener una respuesta satisfactoria requiere de más esfuerzo por parte del usuario. Introduces un montón de palabras clave en el cuadro de búsqueda, te desplazas por los enlaces, pruebas con nuevos términos. No es perfecto, y está sesgado por los intereses publicitarios y los filtros que aplica Google sobre qué páginas cuentan como autorizadas. Pero es la herramienta que nos ha permitido informarnos.

Entonces, llegó ChatGPT. Como me dijo el vicepresidente de búsquedas de Google hace un año, cuando escribí un artículo sobre por qué las búsquedas en internet son una mierda, la empresa ya estaba utilizando inteligencia artificial para que su barra de búsqueda entendiera mejor lo que realmente queríamos decir quienes buscamos conocimiento. Pero el éxito aparentemente repentino de ChatGPT hizo que Google se apresurara a sacar su propio bot.

Sam Altman

Google lleva mucho tiempo soñando con esto. En una conferencia celebrada en 2011, su entonces presidente, Eric Schmidt, declaró que el objetivo final de las búsquedas era utilizar la IA para "calcular la respuesta correcta" a las consultas en lugar de identificar las páginas más relevantes. 

En un documento de 2021 de Google Research se expone esa aspiración con mucho más detalle. Un documento de 2021 de Google Research expone esa aspiración con mucho más detalle. "La visión original de la respuesta a preguntas", escriben los autores, "era proporcionar respuestas de calidad humana (es decir, hacer una pregunta en lenguaje natural y obtener una respuesta en lenguaje natural). Los sistemas de respuesta a preguntas sólo han cumplido la parte de la pregunta". 

Los chatbots con modelos lingüísticos podrían dar respuestas más parecidas a las humanas que las búsquedas normales, añadían, pero había un problema: "Esos modelos son diletantes". Es decir, no tienen "una verdadera comprensión del mundo" y son "incapaces de justificar sus expresiones haciendo referencia a documentos de apoyo en el conjunto de datos sobre el que se han entrenado"

Para que un chatbot de inteligencia artificial sea eficaz en la búsqueda, concluye el artículo, habría que incorporar más autoridad y transparencia. Habría que eliminar de algún modo los prejuicios de su base de datos de entrenamiento y enseñarle a incorporar perspectivas diversas. Si esto se consigue, el bot pasará del nivel de "aficionado" a algo más parecido a un experto. 

Hablé con muchos informáticos que no eran de Google sobre el estado de las búsquedas en internet para mi artículo del año pasado, y todos me dijeron lo mismo sobre lo que voy a afirmar a continuación: "No lo hagas".

Para empezar, los chatbots mienten. No a propósito, sino que no entienden lo que dicen. Se limitan a dar información que han absorbido en otro sitio, pero hay veces en las que esa información no es correcta. Los investigadores lo comparan con una tendencia a alucinar, es decir, producir traducciones completamente desvinculadas del material de origen. Los chatbots, advierten, son extremadamente vulnerables a divulgar cosas racistas, misóginas, teorías conspirativas y mentiras con tanta confianza como la verdad.

Por eso nosotros, los que buscamos, somos un componente crucial del proceso de búsqueda. A lo largo de los años de exploración del mundo digital, todos hemos mejorado a la hora de detectar la mala información y la desinformación. Ya me entiendes. Cuando te desplazas por los enlaces de una búsqueda en Google, buscando "mierdas esotéricas", como las llama un experto en búsquedas, ves algunas páginas que parecen poco fiables, quizá de una forma que ni siquiera puedes explicar. Las ignoras y abres las que parecen fiables en nuevas pestañas.

ChatGPT Racismo

Las respuestas conversacionales generadas automáticamente por los chatbots eliminarán prácticamente el elemento humano de la detección de mentiras. Míralo de esta manera: si eres el tipo de persona que lee este tipo de artículos, estás acostumbrado a pensar que una redacción medianamente decente implica un mínimo de competencia y experiencia. 

Los enlaces a fuentes o las citas de expertos indican que ha habido investigación y se habla de hechos confirmados. Pero los chatbots de búsqueda pueden falsificar todo eso. Ocultan las fuentes en las que se basan y los prejuicios incorporados a sus bases de datos tras la apariencia de una prosa aceptable, casi humana. Por muy equivocados que estén, parecerán correctos. No sabremos si están alucinando. 

Un primer ejemplo de lo que nos espera: un periodista de Mastodon que ha buscado fallos en los chatbots, preguntó en una demo a un modelo de Microsoft entrenado en literatura biocientífica si el fármaco antiparasitario ivermectina es eficaz en el tratamiento del COVID-19. Simplemente respondió "sí". (La ivermectina no es eficaz contra el COVID-19.) ¡Y se trataba de una búsqueda de elementos conocidos! El usuario buscaba un dato concreto y el chatbot le devolvió una información falsa como si fuera cierta.

Por supuesto, no es descartable que Google y Microsoft acaben descubriendo cómo hacer que sus bots separen mejor la realidad de la ficción. De hecho, el chatbot de Microsoft ofreció en su primera demostración una combinación de enlaces a páginas webs junto con la respuesta de la IA. 

Pero si los algoritmos fueran buenos detectando la desinformación, entonces QAnon y los negacionistas de vacunas e incluso Donald Trump no existirían… o, al menos, no serían tan visibles. En las búsquedas, la IA no puede funcionar como un detector de mentiras. En realidad, será más bien un divulgador de mentiras con autoridad y que sonará simpático.

Saber dónde hemos estado

En su blog, Pichai afirma que las respuestas a consultas complejas son más fáciles de entender que las largas listas de enlaces. Y, desde luego, ahorran tiempo: se acabaron los molestos desplazamientos y clics. 

Sin embargo, aunque un chatbot se base supuestamente en las mismas fuentes que un motor de búsqueda tradicional, es más probable que sus respuestas sean demasiado simples. El riesgo es que a partir de ahora los resultados de las búsquedas sean cuentos programados por idiotas, llenos de sonidos y vocabulario pero con respuestas que no significan nada. Eso no es un resultado. Es spam.

Pero lo realmente peligroso es que las respuestas del chatbot borrarán un elemento central de la comprensión humana: las citas, es decir, la bibliografía, que es el tejido conectivo de la investigación. No sólo sirven para establecer la procedencia. Son un mapa de caminos reproducibles para las ideas, los ligamentos que convierten la información en conocimiento. . Hay una razón por la que se denomina tren de pensamiento: las ideas surgen de unirlas entre sí y darles una vuelta. 

En eso consiste la búsqueda exploratoria: en descubrir lo que necesitas saber a medida que lo aprendes. Si ocultas esas vías, no hay forma de saber cómo un chatbot sabe lo que sabe, lo que significa que no hay forma de evaluar su respuesta.

 

"En muchas situaciones no hay una única respuesta. No hay una respuesta fácil. Hay que dejar que la gente descubra sus propias respuestas", me comentó el año pasado Chirag Shah, científico de la información de la Universidad de Washington. "Ahora tenemos la capacidad técnica para construir un gran modelo lingüístico que pueda captar básicamente todo el conocimiento humano. Digamos que podemos hacerlo. La cuestión es: ¿lo utilizaríamos para responder a todas las preguntas? ¿Incluso las preguntas que no son objetivas? Una cosa es preguntar cuándo es el Día del Trabajo, o el próximo eclipse solar. Otra es preguntar: "¿Debería Rusia haber invadido Ucrania?".

Los temas complejos no se prestan a respuestas únicas. Lo que se busca es hacer clic en los enlaces, seguir el propio instinto. Así es como la gente convierte la información y el arte en algo nuevo, mediante la innovación y la síntesis. Y eso es exactamente lo que no favorecerá la búsqueda con chatbot. En el peor de los casos, no podrás saber nada más allá de lo que un algoritmo considere más relevante (sea un hecho o no).

El bot de Microsoft ya está mostrando sus resultados, y es de suponer que Google también está trabajando en ello. Pero, sinceramente, puede que no sea una gran prioridad. "Quieren mantener las cosas tan simples y fáciles como sea posible para sus usuarios finales", señala Shah. "Eso les permite intercalar más anuncios en la misma pantalla y optimizar en función de las métricas que quieran en términos de clasificación. Pero ya sabemos que estas cosas no se clasifican únicamente en función de la relevancia. Se clasifican en función de la interacción. La gente no se limita a hacer clic y compartir cosas que son objetiva o autoritariamente correctas".

Al fin y al cabo, Google y Bing son empresas. Los chatbots que responden a nuestros términos de búsqueda no pueden ser honestos agentes de información, no solo porque sean tontos, sino porque un agente de información honesto no venderá tantos anuncios ni buscará aumentar la interacción

Las páginas de búsqueda de Google ya no son totalmente fiables: por ejemplo, sobreindexan los resultados de los vídeos de YouTube porque pertenece a Google. ¿Y si el mejor vídeo instructivo sobre cómo pintar minifiguras de juegos de mesa está en Vimeo? Difícil que sea el más visible.

Así que imagínate los resultados de un gran modelo lingüístico como Bard si, además de malinterpretar sus propias fuentes, está programado para favorecer el engagement. Mostrará primero lo que hace que sigamos haciendo clic

Y, como han demostrado los últimos años de redes sociales, lo más visible no siempre es lo más fiable a nivel informativo. Si un motor de búsqueda ofrece solo respuestas fáciles, nadie podrá hacer preguntas difíciles.

Conoce cómo trabajamos en Business Insider.