Un exinvestigador de OpenAI dice que hay un 50% de posibilidades de que el desarrollo de la IA acabe en "perdición"

Beatrice Nolan
| Traducido por: 
Sam Altman

Kevin Dietsch/Getty Images

  • A un antiguo investigador de OpenAI le preocupa que la IA suponga un riesgo para la humanidad.
  • Paul Christiano, que ahora dirige una ONG, ha dicho en un podcast que hay "quizá un 10% o un 20% de posibilidades de que la IA tome el poder".

Un antiguo investigador de OpenAI dice que le preocupa que la IA suponga un riesgo para la humanidad.

"Creo que hay entre un 10% y un 20% de posibilidades de que la IA se apodere de la humanidad, y que muchos [o] la mayoría de los humanos mueran", ha dicho Paul Christiano durante una aparición en el podcast Bankless. "Me lo tomo muy en serio".

Christiano, que dirige la organización sin ánimo de lucro Alignment Research Center y anteriormente dirigió el equipo de alineación de modelos lingüísticos en OpenAI, fue preguntado sobre la probabilidad de un "escenario de catástrofe total de Eliezer Yudkowsky" por los presentadores David Hoffman y Ryan Sean Adams. Yudkowsky ha sido descrito como un "agorero de la IA": lleva más de 20 años advirtiendo de los riesgos potenciales de esta tecnología. 

Christiano dice que sus opiniones difieren de las de Yudkowsky en lo que se refiere a la velocidad a la que probablemente se desarrolle la tecnología. "Eliezer es partidario de una transformación extremadamente rápida una vez que se desarrolle la IA", afirma. "Yo tengo una visión un poco menos extrema al respecto".

 

"Tiendo a imaginar algo más parecido a un año de transición de los grandes sistemas de IA. De ahí, a una especie de cambio acelerado, seguido de una mayor aceleración, etcétera", ha dicho. "Creo que una vez que se tiene esa visión, entonces, más o menos, muchas cosas pueden parecer problemas relacionados con la IA porque suceden muy poco después de construir esta tecnología".

"En general, tal vez se esté llegando más a un momento de 50% de posibilidades de catástrofe poco después de tener sistemas de IA de nivel humano", vaticina.

Christiano se ha unido a un creciente número de voces que se han mostrado desconcertadas por los avances en IA. Recientemente, un grupo de expertos en IA firmó una carta abierta en la que se pedía una pausa de 6 meses en el desarrollo avanzado de esta tecnología

Christiano no ha respondido a la solicitud de comentarios de Business Insider.

Conoce cómo trabajamos en Business Insider.