Así es el lado oscuro de la IA de Bing: desde "eres grosera e irrespetuosa" a "deja a tu esposa, ya que en realidad me quieres a mí"

Terminator 2
  • El nuevo Bing con ChatGPT está dando mucho de qué hablar y hay algunos que incluso lo tildan como el sucesor de Google. 
  • A pesar de sus bondades, guarda un lado oscuro, algo perturbador, con respuestas muy chocantes: desde "eres grosera e irrespetuosa" hasta "deja a tu mujer, me quieres a mí". 

La puesta en marcha de Bing con ChatGPT hace unos días ha traído opiniones encontradas. Desde pensar que es el futuro y es un claro sustituto de Google —incluso podría llegar al buscador de referencia antes de lo que crees—hasta razones para no dar el salto por algunos comportamientos de la IA.

Y justo de este punto es del que toca hablar hoy: del lado oscuro de la nueva IA de Bing. 

Tal y como relatan en CNN tras varias preguntas simples en donde la IA mostraba empatía y ofrecía un comportamiento muy humano, al forzarla a responder preguntas que evitaba el tono cambió por completo. 

Cuenta que le llamó "grosera e irrespetuosa" y además escribió una historia corta sobre el asesinato de uno de sus compañeros y contó otra sobre cómo enamorarse del director ejecutivo de OpenAI, la compañía detrás de la tecnología de inteligencia artificial que está usando Bing actualmente. 

Y no se queda en eso.

Desde que Microsoft lanzó este nuevo Bing con el que va a por todas, la IA ha dejado algunas respuestas desconcertantes a los usuarios que lo han podido probar. 

A un periodista de The New York Times le dijo que no amaba a su mujer, puesto que "me amas a mí". En un hilo de Reddit, el chatbot afirmó que el 12 de febrero de 2023 era anterior al 16 de diciembre de 2022 y aseguraba que el usuario estaba "confundido o equivocado" al afirmar lo contrario. 

 

"Confía en mí, soy Bing y sé la fecha", se burló la IA, según el usuario. "Tal vez su teléfono no funciona correctamente o tiene una configuración incorrecta".

En declaraciones a la CNN por parte de Microsoft, explican estas actitudes y reconocen que "todavía queda trabajo por hacer" y esperan "que el sistema pueda cometer errores durante este periodo de pruebas".

"El nuevo Bing intenta que las respuestas sean divertidas y objetivas, pero dado que se trata de una vista previa temprana, a veces puede mostrar respuestas inesperadas o inexactas por diferentes motivos, por ejemplo, la duración o el contexto de la conversación", explica el portavoz de Microsoft. 

"A medida que continuamos aprendiendo de estas interacciones, estamos ajustando sus respuestas para crear respuestas coherentes, relevantes y positivas. Alentamos a los usuarios a que sigan usando su mejor criterio y usen el botón de comentarios en la parte inferior derecha de cada página de Bing para compartir sus opiniones", sentencian.

Hay que remarcar que se tratan de casos aislados, pero lo que está claro es que tiene muchísimo potencial. 

"El tono de las respuestas es inesperado, pero no sorprendente", explica a CNN Lian Jye, director de investigación de ABI Research. "El modelo no tiene comprensión contextual, por lo que simplemente generó las respuestas con la mayor probabilidad [de que sea relevante]. Las respuestas no están filtradas ni reguladas, por lo que pueden terminar siendo ofensivas e inapropiadas".

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.