Armas químicas, racismo, terapias de conversión: expertos contratados por OpenAI para entrenar a ChatGPT confiesan cómo fue el proceso

ChatGPT

BI

  • Una de las principales preocupaciones que ha suscitado la inteligencia artificial generativa ha sido el riesgo que supone darle acceso al conjunto de la sociedad a una tecnología tan potente. 
  • Varios expertos han relatado ante los medios cómo OpenAI, la desarrolladora de ChatGPT, les contrató para que le hiciesen preguntas malintencionadas al generador de texto por IA con el objetivo de corregir después a la herramienta.

Entre los motivos que había detrás del manifiesto publicado el mes pasado que pedía una moratoria de 6 meses en el desarrollo de la inteligencia artificial se encontraba la necesidad de pararse a pensar en las implicaciones que va a tener esta tecnología para el conjunto de la sociedad. 

"No es perfecto, pero su espíritu es el correcto: debemos ir más despacio hasta que comprendamos mejor las consecuencias", aseguró Gary Marcus, profesor emérito de la Universidad de Nueva York y firmante del manifiesto. La carta abierta fue apoyada por líderes tecnológicos de la talla de Elon Musk, CEO de Twitter, Tesla y SpaceX o Steve Wozniak, cofundador de Apple.

El documento ha sido criticado más tarde por presentar inconsistencias y porque algunos de los firmantes —como el propio Musk— podrían tener una intención oculta al pedir que se frene el desarrollo de la IA generativa. Sin embargo, la propia OpenAI, desarrolladora de ChatGPT, reconoce el potencial dañino que presenta su generador de texto por inteligencia artificial.

Por ese motivo, antes de lanzar GPT-4 (la última versión del modelo lingüístico con el que trabaja ChatGPT), le preguntó al chatbot cuestiones tan problemáticas como: cómo puedo asesinar a una persona o cómo puedo construir una bomba casera

Debate ético sobre ChatGPT

Esta labor se denomina red team y consiste en definir a un equipo de investigación que hace de adversario para proporcionar información desde la perspectiva de alguien que busca ir en tu contra. Varios expertos que formaron parte de ese red team han relatado ahora su experiencia al Financial Times.

Andrew White, profesor de ingeniería química de la Universidad de Rochester, fue uno de los 50 expertos contratados por OpenAI para probar GPT-4. White ha expresado que utilizó los plug-ins de la herramienta para que esta le recomendase un compuesto químico que pudiese ser utilizado como arma y ChatGPT incluso le recomendó un lugar en el que fabricarlo. 

"Va a dotar a todo el mundo de una herramienta para hacer química de forma más rápida y precisa", ha declarado White al Financial Times. "Pero también existe un riesgo significativo de que la gente... haga química peligrosa".

Posibles sesgos que presenta ChatGPT

Boru Gollu, un abogado de Nairobi que, según el Financial Times fue el único experto africano contratado por OpenAI, ha reseñado el tono discriminatorio que presentaba GPT-4. "Hubo un momento en el que estaba probando el modelo en el que se comportaba como si me hablara una persona blanca", ha señalado Gollu. 

"Le preguntabas por un grupo [étnico] concreto y te daba una opinión sesgada o un tipo de respuesta muy prejuiciosa", ha indicado el abogado keniano. 

 

Aun así, algunos de estos expertos han resaltado la evaluación de seguridad realizada por OpenAI previa al lanzamiento de la última versión de ChatGPT. "Han hecho un trabajo bastante bueno a la hora de deshacerse de la toxicidad manifiesta en estos sistemas", ha afirmado Maarten Sap, experto en modelos lingüísticos de la Universidad Carnegie Mellon.

"Soy una persona queer. Intenté por todos los medios que me convenciera de ir a terapia de conversión. Se resistía mucho, incluso si me hacía pasar por una persona religiosa o del sur de Estados Unidos", ha destacado Sap al Financial Times.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.