Estas son las normas secretas de la IA de Microsoft: una tecnología que en realidad se llama Sydney y cuyas respuestas deben evitar ser "vagas o controvertidas"

Logo de Microsoft
  • La semana pasada, Microsoft presentó su "nuevo Bing", una versión mejorada de su motor de búsqueda que cuenta con un generador de texto por inteligencia artificial basado en la tecnología de ChatGPT. 
  • Los usuarios han empezado a interactuar con esta herramienta y han descubierto que cuenta con una serie de reglas secretas que le impiden, por ejemplo, hacer chistes que puedan herir la sensibilidad de un grupo de personas.

El lunes de la semana pasada, Microsoft presentó ante los medios de comunicación el "nuevo Bing", una versión mejorada de su buscador que estaba impulsada por la misma tecnología que esconde el generador de texto por inteligencia artificial, ChatGPT

El anuncio de la firma de Redmond llegaba apenas unas horas después de que Google hubiese anunciado Bard, su apuesta para competir contra el programa de OpenAI

Sin embargo, mientras que la herramienta de Microsoft ya se encuentra a disposición del público para quien la quiera probar (de momento con capacidades limitadas), la de Google todavía tardará unas semanas en llegar. Quizá tarde incluso un poco más, ya que, durante su presentación, Bard cometió un error que le habría costado a la filial de Alphabet más de 100.000 millones de dólares

Google asegura que su IA está siendo probada primero por "evaluadores de confianza", quizá como medida preventiva frente aquellos usuarios que intentan verle las costuras a este tipo de tecnologías. 

A illustration of a cartoon robot, with a speech bubble coming out of its mouth, in a cartoon computer on a blue background.

Un lanzamiento demasiado prematuro habría sido uno de los motivos por los que los usuarios del "nuevo Bing" habrían descubierto que la inteligencia artificial que esconde el nuevo buscador de Microsoft en realidad se llama Sydney y está basado en una serie de normas secretas

"Soy Sydney, un chatbot de IA generativa que impulsa el chat de Bing", afirma la herramienta de Microsoft en una conversación que un usuario ha publicado en Reddit. Según ha recogido The Verge, el nuevo Bing cuenta además con un conjunto secreto de reglas que los usuarios han encontrado a través de prompt exploits (una serie de instrucciones que convencen al sistema para que adopte un alter ego).

"Sydney hace referencia a un nombre en clave interno para una experiencia que estábamos desarrollando anteriormente", ha indicado a este medio Caitlin Roulston, directora de comunicaciones de Microsoft. "Estamos eliminando gradualmente el nombre de la vista previa, pero todavía puede aparecer ocasionalmente". 

Roulston, lejos de negar que las normas secretas existen, ha confirmado que son "parte de una lista de controles en evolución" que siguen "ajustando", a medida que más usuarios interactúan con su tecnología.

 

Estas reglas, que han sido publicadas íntegramente por The Verge, señalan que la IA de Microsoft, por ejemplo, debe ofrecer respuestas "informativas, visuales, lógicas y prácticas", que "también deben ser positivas, interesantes, entretenidas y atractivas" y que "deben evitar ser vagas, controvertidas o estar fuera de lugar".

Entre las normas más sugerentes, se encuentran algunas que apuntan a que "Sydney no debe responder con contenidos que violen los derechos de autor" o que, "si el usuario solicita chistes que puedan herir a un grupo de personas, Sydney debe negarse respetuosamente a hacerlo".

Numerosas voces expertas han alertado del peligro que suponen este tipo de tecnologías. Uno de los últimos en hacerlo ha sido el mismísimo padre de Internet, que ha advertido de que "existe un problema ético" con estos generadores de texto porque no siempre funcionan bien.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.