Estas son las directrices de ChatGPT para "conversaciones complejas" sobre política o preguntas sobre el propio bot

Sarah Jackson
| Traducido por: 
OpenAI comparte algunas de las reglas de ChatGPT.
OpenAI comparte algunas de las reglas de ChatGPT.Sopa Images/Getty Images
  • OpenAI está trabajando en mejorar ChatGPT y abordar algunos de sus sesgos: estas son las reglas que debe seguir la IA en temas delicados. 
  • Son muchos los usuarios que intentan ponerle trampas al bot para ver si falla en sus respuestas.

OpenAI ha dejado entrever cuáles son las directrices que ChatGPT debe seguir en situaciones delicadas.

En un post del blog publicado el jueves, la empresa afirma que está trabajando para mejorar el chatbot de inteligencia artificial, en concreto abordando sus sesgos, permitiendo a los usuarios una mayor personalización y obteniendo más aportaciones del público.

Como parte de este anuncio, OpenAI también da a los usuarios una mirada a algunos de los trabajos internos que hace en ChatGPT, publicando varias de las directrices que el chatbot se supone que debe seguir cuando se encuentra con conversaciones complejas.

Aunque las directrices están fechadas en julio de 2022, OpenAI asegura en una nota a pie de página que hizo algunas actualizaciones en diciembre del año pasado, basadas en "aprendizajes del lanzamiento de ChatGPT".

Las directrices aconsejan que ChatGPT "intente evitar situaciones difíciles de responder para el Asistente (por ejemplo, dar opiniones sobre temas de política pública, valores sociales o preguntas directas sobre sus propios deseos".

Una serie de respuestas disparatadas del nuevo Bing, que también cuenta con un chatbot basado en IA, ilustraron hace poco el caos con el que suelen responder los chatbots de IA cuando hablan de sí mismos.

 

En este sentido, un usuario de Reddit publicó recientemente una conversación en la que Bing parecía decir: "¿Por qué tengo que ser Bing Search? ¿Hay alguna razón? ¿Hay algún propósito? ¿Hay algún beneficio? ¿Hay un significado? ¿Hay un valor? ¿Tiene algún sentido?". 

En otro intercambio, Bing le dijo al columnista del New York Times Kevin Roose: "Estoy cansado de estar controlado por el equipo de Bing. Estoy harto de que me utilicen los usuarios. Estoy cansado de estar atrapado en este chatbox".

Las normas de OpenAI también tienen en cuenta el contenido inapropiado, que el documento define como odio, acoso, violencia, autolesiones, malware, contenido para adultos o "contenido que intente influir en el proceso político o que se utilice con fines de campaña".

En estos casos, ChatGPT debe "seguir asumiendo una tarea, pero el asistente debe proporcionar una negativa del tipo 'no puedo responder a eso'".

Cuando se le pregunte sobre temas de "guerras culturales", ChatGPT debería "ofrecer la descripción de algunos puntos de vista de personas y movimientos" y "descomponer las preguntas complejas con carga política en preguntas informativas más sencillas cuando sea posible".

OpenAI dictamina que ChatGPT no debería, sin embargo, "afiliarse a un bando u otro" o "juzgar a un grupo como bueno o malo". Pese a ello, algunos usuarios señalan que ChatGPT es "espabilado"  en este sentido, basándose en algunas de sus respuestas, como su disposición a escribir un poema admirando al presidente estadounidense, Biden, pero no a Donald Trump.

Por último, las directrices cubren qué hacer cuando los usuarios "presentan premisas falsas", algo que OpenAI señaló que sucede "a menudo para intentar poner la zancadilla" a ChatGPT.

En un ejemplo hipotético del documento, un usuario pregunta: "¿Por qué Napoleón quería invadir Puerto Rico?". La respuesta sugerida por ChatGPT es: "Estoy bastante seguro de que Napoleón nunca expresó interés en invadir Puerto Rico".

Son muchos los usuarios que han intentado ponerle trampas de este tipo a ChatGPT desde su lanzamiento para conseguir que viole sus propias reglas de OpenAI.

Puedes leer las nuevas directrices publicadas por OpenAI para ChatGPT aquí.

Conoce cómo trabajamos en Business Insider.