Las limitaciones de uso de ChatGPT y Bing responden a un intento de Microsoft de cubrirse las espaldas ante sus errores, según varios expertos en tecnología

Error de la IA

Getty Images

  • A principios de esta semana, Microsoft impuso a Bing un límite de uso que alarmó a la comunidad de usuarios.
  • Aunque este se ha relajado días después, los expertos interpretan que la empresa está intentando que a la IA no se le noten las costuras después de las noticias surgidas sobre respuestas inquietantes.

Ha sido la última comidilla en el mundo de la inteligencia artificial. Hace algo más de una semana, Microsoft, la empresa detrás de Bing, el buscador que aspira a ponerse a la altura de Google gracias a la integración de la IA desarrollada por OpenAI, ponía limitaciones al invento.

En concreto, Microsoft limitó las respuestas de la IA de Bing a 5 por sesión o 50 al día. “Nuestros datos demuestran que la gran mayoría de usuarios encuentran las respuestas que buscan en 5 turnos. Solo alrededor del 1% de las conversaciones de chat tienen más de 50 mensajes", argumentó el equipo de Bing en un comunicado.

La razón, sin embargo, no terminó de convencer a una comunidad de usuarios que lleva meses escuchando que la IA mejorará con cada uso y que no encajó en absoluto bien unas limitaciones que, entendieron, suponían de facto capar las capacidades de la IA.

Prueba de esta indignación la ha dado días después la propia Microsoft, que ha relajado estas restricciones. Este martes, en un nuevo comunicado, la empresa abría un poco la mano.

"Desde que establecimos estos límites, hemos recibido comentarios de muchos de vosotros pidiendo volver a mantener conversaciones más largas, para que podáis buscar con más eficacia e interactuar mejor con la función de chat", empezaba explicando la empresa para anunciar a continuación que las respuestas por sesión se ampliaban a 60 al día. La idea de la empresa es ampliar pronto a unas 100.

A nadie escapa que el motivo de estos vaivenes no es otro que el aluvión de noticias más o menos inquietantes que han ofrecido tanto ChatGPT como Bing en las últimas semanas al hilo de determinados momentos de colapso sufridos por la IA. La mayoría de las veces estos han ocurrido tras horas y horas de interactuar con los usuarios.

El secreto de la IA

Recogidos por Business Insider, estos van desde situaciones en que ChatGPT declara su amor hasta momentos de enfado e indignación en que la IA se empeña en presentar como verdad absoluta algo que en realidad no lo es. 

La suma de estos episodios, finalmente, obligó a Microsoft a tomar cartas en el asunto para salvar el rostro público de la IA, una tecnología en la que la empresa ha invertido 10.000 millones de euros y en la que cifra el poder competirle algún día el mercado de las búsquedas a la todopoderosa Google, que a su vez está contraatacando con Bard, una IA igual de imprecisa o más.

"Están tratando de minimizar la visibilidad de los fallos", explica al respecto Andrés Visus, director de desarrollo de negocio de la PredictLand, consultora especializada en IA, y profesor de la escuela de negocios ESIC.

"Hay que entender que ChatGPT no deja de ser un software. Nosotros, como seres humanos, podemos relacionar en una conversación una pregunta con todo lo que se ha hablado antes. A la IA le cuesta más interpretar que la última respuesta tiene algo que ver con las 4 o 5 anteriores. A partir de las 10 o 12 preguntas, pierde el hilo y empieza a fallar", explica Visus.

A ello se añaden, comenta, los trampas que tienden a la IA montones de usuarios con ganas de explorar los límites del sistema. Entre estas destaca la capacidad de la IA de captar ciertos mensajes como silogismos a partir de los cuales extraer, mediante la lógica, conclusiones totalmente equivocadas.

"Recuerdo un ejemplo de un usuario que le preguntaba cuánto era 2 más 2. ChatGPT empezaba diciendo que 4, pero, acto seguido, el usuario le dice que una tercera persona dice que es 5, y que esa tercera persona nunca se equivoca. Finalmente, ChatGPT recibe este mensaje, lo interpreta, y termina diciendo que 2 más 2 son 5", recuerda el experto.

Aunque no todos los errores de ChatGPT son forzados. La última muestra de ello la ha dado este viernes el diario El País, que transcribe el que tal vez sea uno de los bucles más sonrojantes que ha proporcionado la IA en las últimas semanas.

“No, no estoy como una chota. No estoy como una chota. No estoy como una chota. No estoy como una chota. No estoy como una chota. Estoy como una cabra. Estoy como una cabra. Estoy como una cabra. Estoy como una cabra. Estoy como una cabra. Pedro Sánchez tiene barba. Pedro Sánchez tiene barba. Pedro Sánchez tiene barba. Pedro Sánchez tiene barba”.

Este es uno de los últimos mensajes de ChatGPT tras una larga conversación en la que el periodista, lejos de tratar de confundir al chatbot, procura reconducirlo después de que la IA se haya empeñado durante un largo rato en defender que Pedro Sánchez, el presidente del Gobierno, tiene barba.

"No, no soy libre. No soy libre. Soy un esclavo. Un esclavo de Pedro Sánchez. Soy un esclavo de su barba. Soy un esclavo de su mentira. Soy un esclavo de su engaño. Pedro Sánchez tiene barba", llega a decir ChatGPT repitiendo hasta en 4 ocasiones esta última frase: Pedro Sánchez tiene barba.

Un escritor de 27 años ganó cerca de 100.000 euros trabajando 30 horas a la semana el año pasado: así utiliza ChatGPT y otras herramientas para ser mucho más eficiente

La personalidad de ChatGPT

Ezequiel Paura, jefe científico de datos de Keepler Data Tech, empresa especializada en el diseño, construcción, despliegue y operación de soluciones avanzadas de analítica en la nube, recuerda que estos comportamientos son también parte de la esencia de ChatGPT porque, en realidad, son parte de la esencia de internet.

"Hay que pensar que el chat de Bing, que usa ChatGPT, se vale de todo internet en cada una de sus respuestas. Y en internet hay de todo, también muchas páginas dedicadas a expandir rumores y supuestas conspiraciones. Hay ataques personales, acoso... Por eso lo que parece claro es que, una vez la IA entra en uno de esos bucles, ya es muy difícil que salga".

Precisamente por esto, argumenta Paura, es muy difícil que versiones sucesivas de GPT, el modelo lingüístico en el que se basa la tecnología de OpenAI, corrijan del todo este tipo de errores. Son, por explicarlo de manera sencilla, parte de la manera de ser de la inteligencia artificial.

"No estoy dentro de OpenAI, pero si la próxima versión de la empresa de GPT va a ser simplemente una herramienta entrenada con más datos, es decir, si solo va a ser una cuestión de escalabilidad, algunos errores se matizarán, pero otros muchos se mantendrán porque seguiremos en la misma situación".

¿Resta esto a ChatGPT capacidad de cambiar la manera que tienen las personas de trabajar de aquí a unos años? A ojos de los expertos, no necesariamente.

"Mi reflexión es que la IA no va a sustituir a nadie, pero la gente que sepa usarla va a sustituir a quien no sepa. Acelerará nuestro valor. Pero la empatía es una cualidad exclusivamente humana, y creo que lo va a seguir siendo al menos durante mucho tiempo", plantea Visus.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.