ChatGPT ha estado actuando de forma extraña... y probablemente sea culpa nuestra

Tom Carter
| Traducido por: 
Una captura de pantalla de OpenAI, la herramienta de ChatGPT.

Florence Lo/Reuters

  • ChatGPT ha estado actuando de forma extraña, lo que ha llevado a los usuarios a quejarse de la "pereza" que muestra el chatbot.
  • Sin embargo, un investigador especializado en inteligencia artificial ha explicado a Business Insider que la afluencia de datos que conllevan las interacciones con los usuarios puede estar haciendo que ChatGPT cambie su comportamiento.

De un tiempo a esta parte ChatGPT se ha comportado de forma extraña

Los usuarios se han quejado de que el chatbot se ha vuelto cada vez más perezoso e incluso un poco descarado. OpenAI ha reconocido el problema y el mes pasado lanzó una solución

La naturaleza opaca del modelo de inteligencia artificial en el que se basa ChatGPT, GPT-4, hace que sea difícil averiguar qué es lo que le pasa al chatbot, pero un investigador cree que la enorme cantidad de información que recoge de las interacciones que mantiene con sus usuarios es lo que está haciendo que cambie de forma impredecible.    

"Un modelo como GPT4 no es un modelo único. Es un sistema de aprendizaje que cambia muy rápidamente con el tiempo", asegura James Zou, profesor e investigador especializado en IA de la Universidad de Stanford, Estados Unidos, a Business Insider

"Una de las principales razones por las que los sistemas evolucionan con el tiempo es que reciben continuamente información de millones de usuarios. Creo que esa es una gran fuente de posibles cambios en el modelo", añade. 

OpenAI se basa en las interacciones con los usuarios para entrenar a ChatGPT y convertirlo en un interlocutor más natural y más útil.

Este mecanismo funciona a través de un proceso llamado aprendizaje por refuerzo a partir de los comentarios humanos, en el que el modelo de inteligencia artificial aprende qué respuestas son más favorables para los usuarios y se ajusta en consecuencia. 

Los usuarios de ChatGPT dicen que el bot se está volviendo perezoso

En los últimos meses, los usuarios del chatbot de OpenAI —que al parecer cuenta ya con unos 1.700 millones— se han quejado de que se ha vuelto perezoso

Algunos han publicado en X, la red social anteriormente conocida como Twitter, que ChatGPT se ha negado a completar algunas tareas y ofrece respuestas más cortas de lo esperado, y un desarrollador llegó a sugerir que el modelo de IA se estaba tomando unas merecidas vacaciones de invierno

OpenAI ha reconocido el problema y ha puesto en marcha una solución. Sam Altman, CEO de OpenAI, ha afirmado que ahora ChatGPT debería ser "mucho menos perezoso".

Los expertos en inteligencia artificial suelen decir que los modelos como GPT-4 son esencialmente cajas negras, en las que incluso sus desarrolladores son incapaces de explicar completamente por qué toman algunas decisiones o responden de determinadas maneras. 

Como resultado, estas herramientas tienen tendencia a mostrar comportamientos inesperados y a menudo francamente extraños, como descubrieron recientemente algunos usuarios cuando se dieron cuenta de que ChatGPT proporcionaba respuestas más largas si prometían darle 200 euros de propina.

 

Según Zou, es probable que algunas de estas peculiaridades se deban a prejuicios humanos heredados de la gran cantidad de datos online con los que se entrena al chatbot: "Estos grandes modelos suelen entrenarse con datos a escala de internet, un enorme corpus de texto compuesto por millones de páginas web y debates online".

"Así que hay muchos comportamientos y sesgos humanos diferentes en el conjunto de datos de entrenamiento que también se reflejan en los modelos lingüísticos", ha agregado este experto de la Universidad de Stanford.

Zou sostiene que otro motivo de los cambios en el comportamiento de GPT-4 podrían ser los intentos de OpenAI de añadir barreras adicionales al modelo para evitar usos indebidos, lo que, en su opinión, podría perjudicar involuntariamente el rendimiento de ChatGPT.

El investigado ha hecho referencia a los experimentos llevados a cabo por su equipo en Stanford con modelos de inteligencia artificial de código abierto, que demostraron que el ajuste de esos modelos para hacerlos más seguros también los dejaba menos dispuestos a ofrecer respuestas a ciertas preguntas. 

"OpenAI ha decidido que sus valores están relacionados con la inocuidad, la utilidad y la honestidad, y esas son las áreas a las que da prioridad", apunta Zou. "Eso puede llevar a algunos objetivos contrapuestos: si haces que el modelo sea muy inofensivo, quizá eso haga que el modelo sea también menos creativo o menos útil para algunos de los usuarios".

"Creo que eso también podría ser parte de la razón por la que estamos viendo potencialmente algunas derivas o cambios en el comportamiento del modelo", ha valorado el experto.

OpenAI no ha respondido a la solicitud de comentarios de Business Insider, realizada fuera del horario de trabajo habitual.

Conoce cómo trabajamos en Business Insider.