Otra empleada de OpenAI presentó su dimisión por temas relacionados con la seguridad de la IA horas antes de la renuncia de dos ejecutivos

Jyoti Mann
| Traducido por: 
Sam Altman, CEO de OpenAI, junto al logo de la desarrolladora de ChatGPT.
Sam Altman, CEO de OpenAI, junto al logo de la desarrolladora de ChatGPT.

Win McNamee y Didem Mente/Anadolu Agency vía Getty

  • Otra trabajadora de OpenAI ha relatado que dimitió por cuestiones relacionadas con la seguridad de la inteligencia artificial antes incluso de conocer la noticia de la renuncia de dos altos ejecutivos de la desarrolladora de ChatGPT por esa misma razón.
  • Gretchen Krueger ha confirmado su salida de OpenAI en redes sociales, haciéndose eco de las inquietudes de Ilya Sutskever y Jan Leike, y ha asegurado que las tecnológicas pueden "desautorizar a quienes tratan de exigirles responsabilidades".

La desarrolladora de ChatGPT se enfrenta a un nuevo escándalo al haber detallado otra empleada los pormenores de su dimisión, que se habría producido por motivos que tendrían que ver con la seguridad de la inteligencia artificial.

Este hecho se produce apenas unos días más tarde de que se produjesen las renuncias de los principales responsables en materia de seguridad de OpenAI, Ilya Sutskever y Jan Leike, encargados de dirigir el equipo de Superalineación de la startup de IA (ahora disuelto).

Gretchen Krueger ha confirmado este miércoles, a través de un hilo de X (la red social anteriormente conocida como Twitter), que dejó su puesto en la desarrolladora de ChatGPT el pasado 14 de mayo y que "no fue una decisión fácil de tomar".

 

Krueger ha declarado que dimitió "unas horas antes de conocer la noticia sobre @ilyasut y @janleike", haciendo referencia a las salidas de Sutskever y Leike de OpenAI, y ha expresado que tomó esta decisión "de forma independiente": "Comparto sus inquietudes. También tengo inquietudes añadidas y complementarias".

La extrabajadora de OpenAI ha añadido que, en la empresa dirigida por Sam Altman, habría que hacer más para mejorar: "Los procesos de toma de decisiones; la rendición de cuentas; la transparencia; la documentación; el cumplimiento de las políticas; el cuidado con el que usamos nuestra propia tecnología; y las mitigaciones de los impactos sobre la desigualdad, los derechos y el medio ambiente".

Esta antigua investigadora de la desarrolladora de ChatGPT, especializada en políticas, ha señalado que la sociedad y las comunidades de expertos comparten estas preocupaciones, que pueden "influir en cómo se pueden trazar los aspectos del futuro y por parte de quién" y ha indicado que no deben ser "malinterpretadas como limitadas, especulativas o desconectadas" de la realidad.

En otro post de X, Krueger ha afirmado: "Una de las formas en que las compañías tecnológicas en general pueden desautorizar a quienes tratan de exigirles responsabilidades es sembrar la división entre quienes plantean preocupaciones o desafían su poder. Me preocupa mucho evitarlo".

La semana pasada, el científico jefe y cofundador de OpenAI, Ilya Sutskever, anunció su dimisión, que fue acompañada de la salida de otro alto ejecutivo de la startup, Jan Leike. Ambos codirigían el equipo de Superalineación, encargado de crear salvaguardas para evitar que la IA general se corrompiese.

Leike acusó a OpenAI de anteponer los "productos relucientes" a la seguridad y defendió que el equipo de Superalineación estaba "pasando apuros para conseguir recursos informáticos" y que "cada vez era más difícil llevar a cabo" su "investigación crucial".

Las dimisiones que se han producido entre la semana pasada y esta han seguido a las de otros dos investigadores especializados en materia de seguridad de OpenAI, Daniel Kokotajlo y William Saunders, que renunciaron en los últimos meses por motivos similares. En su momento, Kokotajlo dijo que se marchó tras "perder la confianza en que [OpenAI] se comportaría de forma responsable".

Business Insider se ha puesto en contacto con la desarrolladora de ChatGPT y, por el momento, no ha obtenido respuesta.

Conoce cómo trabajamos en Business Insider.