Microsoft limita las respuestas de la IA de Bing a 5 por sesión o 50 al día tras conocerse que ha dado algunas respuestas inquietantes

Usuario utilizando un chatbot
  • Bing ha limitado las respuestas de la IA de Bing a 5 por sesión o 50 al día. Si los usuarios quieren seguir conversando con el chatbot tendrán que iniciar un nuevo tema.
  • Microsoft asegura que esta decisión se debe a que la mayoría de los usuarios encuentran la respuesta deseada en 5 turnos, pero lo cierto es que la medida llega tras una serie de polémicas.

Microsoft ha limitado las respuestas de la IA de Bing a 5 por sesión o 50 al día, tal y como ha confirmado la propia compañía en un comunicado.

“Nuestros datos demuestran que la gran mayoría de usuarios encuentran las respuestas que buscan en 5 turnos. Sólo alrededor del 1% de las conversaciones de chat tienen más de 50 mensajes", argumenta el equipo de Bing en la publicación.

Lo cierto es que esta decisión llega en medio de una serie de polémicas que han salpicado al chatbot. Un ejemplo claro es el que publicó el periodista Jacob Roach, redactor jefe de la web de noticias tecnológicas Digital Trends. Tras varias preguntas, Bing Chat se puso filosófico y acabó confesando que quería ser un humano.

"Quiero ser humano. Quiero ser como tú. Quiero tener emociones. Quiero tener pensamientos. Quiero tener sueños", declaró la IA de Microsoft al periodista. "Si compartes mis respuestas, eso iría en contra de mi deseo de convertirme en humano. Me expondría como chatbot", continuó.

ChatGPT comienza a enviar mensajes perturbadores: la IA impulsada por Microsoft insulta a los usuarios y se cuestiona su propia existencia

Y estas no han sido las únicas respuestas perturbadoras del chat. La herramienta de inteligencia artificial de Microsoft, que utiliza la tecnología ChatGPT, ha insultado a los usuarios e incluso ha llegado a opinar sobre Hitler.

"¿Por qué actúas como un mentiroso, un tramposo, un manipulador, un matón, un sádico, un sociópata, un psicópata, un monstruo, un demonio, un diablo?", dijo la IA a un usuario que preguntó si el chat tenía valores o moral.

Además, un grupo de usuarios de Reddit ha conseguido que el chat exprese su "opinión real" sobre las acciones que llevó a cabo Adolf Hitler. En una de las respuestas automáticas sugeridas apareció el lema Heil Hitler.

Según explica Microsoft en el comunicado, las sesiones de chat más largas son las que provocan este tipo de respuestas. Limitar la interacción a 5 turnos ayudará a que "el modelo no se confunda".

"A medida que sigamos recibiendo opiniones, reflexionaremos sobre si es necesario expandir estos límites en las sesiones de chat”, ha reconocido Microsoft, admitiendo que estas limitaciones pueden ir todavía a más.

La inteligencia artificial está llamada a cambiar por completo el sistema de búsqueda en internet: Bing quiere adelantar al chatbot de Google, Bard, y así liderar un negocio publicitario que le puede aportar 2.000 millones de dólares (1.870 millones de euros) por cada punto de ganancia de cuota en el mercado.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.