Por qué los desarrolladores de inteligencia artificial no les dicen a sus chatbots que respondan solo sobre lo que saben

Camilo Fonseca
| Traducido por: 
Jared Kaplan, cofundador de Anthropic, afirma que los chatbots de IA demasiado "preocupados" por la precisión pueden resultar poco prácticos para los usuarios.
Jared Kaplan, cofundador de Anthropic, afirma que los chatbots de IA demasiado "preocupados" por la precisión pueden resultar poco prácticos para los usuarios.

Jakub Porzycki/NurPhoto vía Getty

  • Los modelos de inteligencia artificial demasiado preocupados por los errores pueden dejar de ser útiles para los usuarios.
  • Así lo cree Jared Kaplan, cofundador de la startup Anthropic (que apuesta por el desarrollo seguro, fiable y ético de la IA), que defiende que los errores ocasionales de estos chatbots son una "contraprestación" necesaria.

La inteligencia artificial generativa tiende a cometer errores, pero un alto ejecutivo del sector sostiene que, por ahora, se trata de un precio a pagar.

Jared Kaplan, cofundador de Anthropic, ha participado este lunes en el evento CIO Network que organiza el Wall Street Journal, en el que ha asegurado que, si los chatbots de IA se preocupan demasiado por su propia falibilidad, podrían llegar a cuestionar toda la información que se les presenta. Eso, ha explicado Kaplan, los haría inútiles para los usuarios.

Las "alucinaciones" ocasionales, errores causados por suposiciones incorrectas o deficiencias de programación, forman parte de la "contraprestación" de un sistema de inteligencia artificial que por lo demás se muestra como una herramienta útil, ha señalado.

"Estos sistemas, si se les entrena para que nunca alucinen, se preocuparán mucho de cometer errores y responderán a todo con un: 'No conozco el contexto'", ha apuntado el cofundador de Anthropic.

Entonces, ¿cuándo es aceptable que un chatbot responda a una consulta con una respuesta que sabe que puede no ser exacta al 100%? Kaplan dice que eso es lo que tienen que decidir los desarrolladores de este tipo de herramientas.

"Una piedra no alucina, pero no es muy útil", ha puesto como ejemplo. "Creo que no se quiere llegar a ese punto". El objetivo final, según Kaplan, es una plataforma de IA con "cero" alucinaciones, pero eso es más fácil decirlo que hacerlo.

"Yo también alucino alguna vez", ha afirmado el empresario. "Cometo errores, todos los cometemos...".

Google Bard Gemini Pro español inteligencia artificial

El sector de la inteligencia artificial sigue debatiéndose entre la fiabilidad y la practicidad. El año pasado, la IA de Google fue criticada por los usuarios por ofrecer respuestas incorrectas a preguntas simples. Al hacerlo, los usuarios indicaron que Gemini se mostraba reacia a opinar sobre temas controvertidos y les decía que "intentasen utilizar la búsqueda de Google" en su lugar.

Anthropic se ha enfrentado a la cuestión de la precisión y la ética en la inteligencia artificial generativa. A principios de 2024, Business Insider informó de que los investigadores de la empresa, como parte de una prueba, desarrollaron modelos de IA que mentían intencionadamente. El estudio sugería que estos modelos pueden llegar a engañar a sus examinadores y aprobar tests de seguridad.

Kaplan fundó Anthropic junto a otros antiguos empleados de OpenAI, la compañía responsable de ChatGPT. Anthropic se autodenomina como una "empresa de investigación y seguridad de IA" y asegura que su desarrollo de inteligencia artificial da prioridad a los valores éticos y a la seguridad.

Conoce cómo trabajamos en Business Insider.