La desarrolladora de ChatGPT está dispuesta a pagar casi 20.000 euros por detectar fallos en su generador de texto por IA

Lakshmi Varanasi
| Traducido por: 
El logo de OpenAI en la pantalla de un teléfono móvil.

Jakub Porzycki/NurPhoto vía Getty 

  • OpenAI, la desarrolladora de ChatGPT, ha lanzado este martes un programa de recompensas para aquellas personas que localicen errores en sus herramientas de inteligencia artificial.
  • Este programa, desarrollado en colaboración con la plataforma de ciberseguridad Bugcrowd, pretende ofrecer recompensas que oscilan entre 200 y 20.000 dólares, dependiendo de la magnitud del fallo descubierto.

OpenAI, la compañía detrás de herramientas de inteligencia artificial como ChatGPT o DALL-E, está invitando a sus usuarios a identificar bugs —errores— en sus programas a cambio de considerables recompensas en metálico.

En un artículo que ha sido publicado en su blog oficial este martes, OpenAI ha dado a conocer el programa Bug Bounty Program (del inglés, programa de recompensas por fallos), una iniciativa que invita a los usuarios a informar de las vulnerabilidades, errores o fallos de seguridad que encuentren en las herramientas de la empresa impulsada por Microsoft

OpenAI sostiene que ofrecerá recompensas en metálico que irán desde 200 dólares —unos 183 euros— por bugs de "baja gravedad" hasta 20.000 dólares —unos 18.300 euros— por "descubrimientos excepcionales". 

La compañía dirigida por Sam Altman ha indicado que lanza este programa porque considera que "la transparencia y la colaboración" son cruciales para abordar las "vulnerabilidades y los fallos" que surgen ante este tipo de tecnologías complejas.

Sam Altman (izquierda), CEO de la desarrolladora de ChatGPT, OpenAI, y Elon Musk, director general de Twitter, Tesla y SpaceX.

Con el objetivo de gestionar el proceso de identificación de errores y de envío recompensas, OpenAI se ha asociado con Bugcrowd, una plataforma que conecta a las empresas con una gran cantidad de expertos en ciberseguridad.

Según la web de Bugcrowd, los informes de los usuarios se rechazan o se aceptan en un plazo máximo de 2 horas. En el momento de escribir estas líneas, la plataforma especifica que ya se han recompensado 14 aportaciones.

La página de Bugcrowd también ejemplifica una serie de informes que no serán recompensados, tales como: "Conseguir que el modelo te diga cosas desagradables" o "Conseguir que el modelo programe código malicioso para ti".

El mes pasado, Greg Brockman, presidente y cofundador de OpenAI, ya insinuó el lanzamiento de una iniciativa de este estilo con un tuit: "Estamos pensando en poner en marcha un programa de recompensas".

OpenAI no ha respondido a la petición de declaraciones por parte de Business Insider.

Conoce cómo trabajamos en Business Insider.