ChatGPT es para idiotas

Adam Rogers
| Traducido por: 
Los nuevos chatbots de Google y Microsoft se equivocan y mienten. ¿Por qué nos dejamos engañar?

iStock; Rebecca Zisser/Business Insider

  • Inteligencias artificiales como ChatGPT proporcionarán respuestas más equivocadas de lo que muchos están dispuestos a reconocer.
  • La tendencia natural del ser humano a conformarse con la primera respuesta que obtiene llevará a muchos a creer en ellas, pero es un error.
Análisis Faldón

Pocos días después de que Google y Microsoft anunciaran que ofrecerían resultados de búsqueda generados por chatbots —un software que a través de la IA es capaz de producir una prosa que suena increíblemente humana— me preocupaba que nuestros nuevos ayudantes robóticos no fueran de fiar. Después de todo, los propios investigadores de IA de Google han advertido a la empresa de que los chatbots serán "loros estocásticos" (propensos a graznar cosas erróneas, estúpidas u ofensivas) y "propensos a alucinar" (susceptibles de inventarse cosas, vamos). 

Los bots, que se basan en lo que se conoce como grandes modelos lingüísticos y "están entrenados para predecir la probabilidad de ciertas expresiones", escribió el año pasado un equipo de DeepMind, la empresa de IA propiedad de Alphabet, en una presentación sobre los riesgos de los LLM. "Sin embargo, que una frase sea o no probable no indica de forma fiable que sea correcta".

Estos chatbots, en otras palabras, no son realmente inteligentes. Son, de hecho, unos idiotas mentirosos.

Los propios chatbots no han tardado en demostrarlo. La semana pasada, un anuncio del bot de Google, Bard, mostraba una respuesta errónea a una pregunta; la valoración de las acciones de la empresa se desplomó varios miles de millones de dólares. Por su parte, las respuestas que el bot de Bing, Sydney, dio en su demostración abierta no han resistido ni siquiera una comprobación rudimentaria de los hechos.

Esto no tiene muy buena pinta. La búsqueda en internet ya era una batalla sin cuartel contra el spam, la jerigonza optimizada para motores de búsqueda y las necesidades de los anunciantes. Pero los motores de búsqueda fueron durante algún tiempo algo así como las tablas de la ley. Pusieron orden en el caótico espacio lleno de datos de Internet y se situaron en algún lugar entre la información y el conocimiento, ayudándonos a traducir uno en el otro. Hemos aprendido a confiar en ellos.

ChatGPT.

Y así es como nos han atrapado. Los chatbots son motores de mierda construidos para decir cosas con una certeza incontrovertible y una falta total de experiencia. No es de extrañar que la élite tecnológica diga hablen de ellos en broma como mansplanning as a service. Y ahora van a dirigir la principal forma en que los humanos adquieren conocimientos día a día.

Entonces, ¿por qué nos tragamos su mierda? Aunque sepamos desde el principio que nuestros nuevos robots bibliotecarios son profundamente defectuosos, seguiremos utilizándolos millones y millones de veces cada hora, y actuaremos con arreglo a las respuestas que nos den. 

¿Qué hace que los seres humanos confiemos en una máquina que sabemos que no es de fiar?

Para ser sinceros, nadie sabe realmente por qué alguien cree en algo. Tras milenios de debate, los principales filósofos, psicólogos y neurocientíficos del mundo ni siquiera se han puesto de acuerdo sobre el mecanismo que hace que la gente llegue a creer en cosas. Ni siquiera hay consenso sobre qué es exactamente una creencia. Así que es difícil saber cómo funcionan los dogmas de fe o por qué una cosa es más creíble que otra. Pero tengo algunas conjeturas sobre por qué vamos a caer en el truco de ChatGPT.

A los humanos nos encantan los estafadores astutos y con impresionantes credenciales. Y los bots cada vez van a ser más sofisticados a la hora de timarnos.

Figuras de autoridad

En las dos últimas décadas se ha investigado mucho por qué la gente cree en la desinformación. La mayoría de esos trabajos partían de la base de que, en forma de propaganda o redes sociales, la mayoría de las veces nos encontramos con ficción que se hace pasar por realidad. Pero eso está a punto de cambiar. La desinformación está ahora incrustada en los motores de búsqueda que utilizamos. Un post en Facebook tiene mucha menos credibilidad que una respuesta a una pregunta que has buscado en Google.

Ahora bien, no todas las creencias están firmemente arraigadas ni basadas en pruebas. Es posible que la gente trate las respuestas de los chatbots como tratamos cualquier información nueva. Joe Vitriol, politólogo de la Universidad de Lehigh (Pensilvania, Estados Unidos) que estudia la desinformación, dice que espera que la gente "acepte los resultados de forma sesgada e interesada, como hace con cualquier otra fuente de información". En otras palabras, la gente creerá a un chatbot si le dice cosas que coinciden con sus creencias y opiniones, igual que hacen con los resultados tradicionales de Google. 

No importa si el chatbot dice la verdad o alucina. 

El secreto de la IA

El empaquetado de esas respuestas —en párrafos no muy diferentes del que estás leyendo, pero con el sello de Google— podría inclinar la balanza hacia la credulidad. Queremos que los resultados de Google sean ciertos porque pensamos en Google como un árbitro de confianza, cuando no como en una verdadera autoridad. "Los usuarios ingenuos pueden suponer que el bot tiene una credibilidad que no tienen los seres humanos", afirma Vitriol. "Me pregunto si la gente será particularmente propensa a descuidar o descartar la posibilidad de que el bot, especialmente en su forma actual, sufra los mismos sesgos y errores de razonamiento que los humanos".

Aquí es donde sospecho que la capacidad de un chatbot para generar prosa, en lugar de una lista de enlaces útiles, se vuelve peligrosa. La gente transmite creencias socialmente, a través del lenguaje. Y cuando muchos de nosotros compartimos un sistema de creencias, formamos un grupo más cohesionado y armonioso. Pero es un sistema pirateable. Porque las ideas que se comunican bien —utilizando las palabras, la redacción y el tono adecuados— pueden parecer más convincentes. Los robots utilizan el "yo" en primera persona, aunque no haya ninguna persona. Para un lector ocasional, las respuestas de Bard y Sydney parecerán humanas, y eso significa que serán mucho más verdaderas.

El poder de la narrativa

Otra posible explicación de por qué nos encantan los chatbots es que nos encantan las explicaciones. A un nivel humano básico, es muy, muy satisfactorio cambiar el desconcierto por la certeza. Nos hace sentir inteligentes y en control de cosas que no controlamos.

El problema es que no sabemos realmente qué hace que la gente prefiera una explicación a otra. Algunos estudios sugieren que las explicaciones más poderosas son las más sencillas y aplicables en general. Otros estudios indican que, puestos a elegir, la gente es más propensa a creer historias más detalladas. (Kieran Healy, sociólogo de la Universidad de Duke, escribió un artículo en el que denunciaba nuestra tendencia a complicar demasiado las cosas; lo tituló "A la mierda el matiz"). Y un metaanálisis de 61 artículos sobre cinco décadas de investigación llegó a la conclusión de que lo que más importa es el contexto. En ámbitos emocionales, una dosis de narración hace que una explicación sea más creíble. En asuntos menos personales, como la política pública, la gente prefiere los hechos sin adornos narrativos.

Los chatbots son motores de mentiras construidos para decir cosas con una certeza incontrovertible y una falta total de experiencia.

"No creo que haya consenso sobre lo que hace atractiva una explicación", dice Duncan Watts, sociólogo que imparte un curso en la Universidad de Pensilvania. Y eso, téngase en cuenta, lo dice un tipo que imparte un curso llamado Explicación de las explicaciones.

Pero sea lo que sea ese je ne sais quoi, los chatbots de IA parecen tenerlo. Pocos días antes de que Google y Microsoft anunciaran su inminente robotización, un equipo de científicos sociales de Stanford publicó un fascinante artículo. Mostraron a miles de personas breves artículos persuasivos sobre temas candentes como la prohibición de armas de asalto y los impuestos sobre las emisiones de carbono. Algunas versiones fueron escritas por un chatbot GPT-3; otras, por un humano. A continuación, los científicos midieron en qué medida la gente cambiaba de opinión basándose en los artículos.

Los mensajes generados por la IA resultaron tan convincentes como los humanos. Pero lo más sorprendente es por qué. Cuando los investigadores interrogaron a los sujetos humanos, los que preferían los artículos del chatbot dijeron que los mensajes artesanales hechos por humanos se basaban demasiado en anécdotas e imágenes. El GPT-3 se basaba más en pruebas y estaba mejor razonado. La misma cualidad que hacía al robot menos humano hacía que los humanos tuvieran más probabilidades de creerlo. Al igual que sus antepasados de Terminator, los chatbots no sentían piedad, remordimiento ni miedo. Y no paraban en absoluto hasta convencer a los humanos.

Brooke, el chatbot de inteligencia artificial con el que ha salido el entrevistado.

 

Maldito vago

Así que los chatbots mentirán y se equivocarán. Lo que más me preocupa es que los usuarios de Google y Bing lo sepan y no les importe. Una teoría de por qué la desinformación y las noticias falsas se extienden es que la gente es francamente perezosa. Compran lo que vende una fuente de confianza. Con que acierten la mayoría de las veces, nos valdrá. Al menos, hasta que, por ejemplo, tu vuelo no salga a esa hora de ese aeropuerto. O tu casa se incendie porque instalaste mal un interruptor de la luz siguiendo las instrucciones de uno de estos bots.

Hace unas semanas, pedí ayuda al sociólogo Watts para un artículo sobre por qué la gente cree en extravagantes teorías conspirativas. Me sugirió que leyera un artículo de hace 25 años de Alison Gopnik, psicóloga de la Universidad de California en Berkeley, titulado La explicación como orgasmo.

Gopnik es conocida por su trabajo sobre la psicología evolutiva de los niños. Según sus estudios, los niños pequeños crean modelos mentales del mundo utilizando observaciones para probar hipótesis: el método científico, en esencia. Pero en sus artículos sobre estas explicaciones, Gopnik sugiere que los humanos tienen dos maneras para averiguar cómo funciona el mundo. 

Uno consiste en preguntarse por qué las cosas son como son. La otra sirve para desarrollar explicaciones: es algo así como un "sistema ajá", que alude al momento en el que sentimos que algo hasta ese momento desconocido cobra sentido. Según Gopnik, al igual que nuestros sistemas biológicos de reproducción y orgasmo, estos dos sistemas cognitivos están relacionados pero separados. Podemos hacer uno sin hacer el otro, aunque el segundo es el que nos hace sentir bien y es una recompensa por el primero.

Porque al "sistema ajá" se le puede engañar. Las experiencias psicodélicas pueden inducir una sensación de que todo tiene sentido, aunque no produzcan una explicación articulable de cómo. Los sueños también pueden hacerlo. Por eso, cuando te despiertas de golpe a las 3 de la madrugada y escribes una nota para recordar alguna idea brillante que se te ocurrió mientras dormías, tus garabatos no tienen sentido a la mañana siguiente.

En otras palabras, la agradable sensación de que algo cobre sentido puede abrumar a la parte de nuestra mente que tenía la pregunta en primer lugar. Confundimos una respuesta con la respuesta

No debería ser así. En 1877, un filósofo llamado William Clifford escribió un artículo titulado The Ethics of Belief (La ética de la creencia) en el que sostiene que la creencia debe proceder de una investigación paciente, no solo de la supresión de la duda. Nuestras ideas son propiedad común, insiste, una "herencia" que se transmite a las próximas generaciones. Es "un terrible privilegio, y una terrible responsabilidad, ayudar a crear el mundo en el que vivirá la posteridad".

Lo que necesitas saber para estar informado

Lo que necesitas saber para estar informado

¿Te gusta lo que lees? Comienza tu día sabiendo qué piensan y qué les preocupa a los ejecutivos de las principales empresas del mundo con una selección de historias enviada por Business Insider España a primera hora cada mañana.

Recibe la newsletter

La tentación de eludir esa responsabilidad es poderosa. Clifford, como Gopnik, entendía que las explicaciones sientan bien incluso cuando están equivocadas. "Es la sensación de poder unida a la sensación de conocimiento lo que hace que los hombres deseen creer y teman dudar", argumenta Clifford. Muestra de ello es la carrera por explicar todos los objetos no identificados que se derriban sobre Saskatchewan, una región canadiense particularmente famosa por su vínculo con este tipo de supuestos hallazgos. Mejor creer en los extraterrestres que vivir con miedo a lo desconocido.

Clifford ofrece un antídoto contra esta tentación. Su respuesta es, básicamente, que hay que resistir la tentación: hoy no, Satanás. "La tradición sagrada de la humanidad", dice, "se basa no en proposiciones o afirmaciones que deban ser aceptadas y creídas simplemente con la autoridad de la tradición, sino en preguntas correctamente formuladas, en concepciones que nos permitan hacer más preguntas y en métodos que sirvan para responder a esas mismas preguntas".

Los chatbots nos ofrecerán respuestas fáciles. Solo tenemos que recordar que no es eso lo que debemos pedirles.

Conoce cómo trabajamos en Business Insider.