El miedo a que la IA pueda destruir a la humanidad parece haber provocado la (probablemente breve) destitución de Sam Altman en OpenAI

Lakshmi Varanasi
| Traducido por: 
Sam Altman (izquierda) e Ilya Sutskever (derecha) pueden haber tenido diferencias sobre cómo compaginar la innovación en inteligencia artificial con la regulación.
Sam Altman (izquierda) e Ilya Sutskever (derecha) pueden haber tenido diferencias sobre cómo compaginar la innovación en inteligencia artificial con la regulación.

JACK GUEZ

  • Los temores sobre la velocidad de desarrollo de la IA en OpenAI pueden haber sembrado la discordia entre sus altos cargos.
  • Algunos miembros del consejo de OpenAI podrían no estar de acuerdo con el enfoque de Altman sobre la innovación en IA.

El despido, quizás temporal, de Sam Altman como CEO de OpenAI ha destapado un cisma entre los máximos dirigentes de la empresa sobre cómo frenar la amenaza existencial que supone la IA. 

Mientras que Altman ha hablado de los peligros de la IA "potencialmente aterradora" y de la necesidad "crítica" de regularla, el ya ex-CEO de OpenAI ha sido principalmente un ejemplo de rápida innovación en materia de inteligencia artificial.

Es bien sabido que Altman apostó de manera decidida por situar a OpenAI a la cabeza de la carrera armamentística de la IA, buscando grandes sumas de dinero para su financiación y un rápido desarrollo.

En septiembre, Altman intentó conseguir 1.000 millones de dólares de financiación de Softbank para desarrollar un dispositivo de hardware que permitiera usar herramientas como ChatGPT, por ejemplo. El CEO del conglomerado japonés, Mayoshi San, ha declarado que usa ChatGPT a diario y que es un creyente del potencial de la IA.

Por su parte, Ilya Sutskever, cofundador de OpenAI, científico jefe y miembro del consejo de administración que desempeñó un papel clave en la destitución de Altman, prefiere actuar con más cautela, dadas las amenazas potenciales que la IA plantea a la sociedad.

Según The New York Times, Sutskever creó un equipo de "superalineación" dentro de la empresa para garantizar que las futuras versiones de GPT-4, la tecnología en la que se basa ChatGPT, no fueran perjudiciales para la humanidad.

Otros dos miembros de la junta de OpenAI (Helen Toner, directora del Centro de Seguridad y Tecnología Emergente de la Universidad de Georgetown, y la empresaria tecnológica Tasha McCauley) también tienen vínculos con el llamado movimiento del altruismo efectivo, que trabaja para garantizar que los avances en inteligencia artificial se alineen con el bienestar de los seres humanos.

El CEO de OpenAI, Sam Altman.

Si lo que les preocupa es el compromiso de Altman con el movimiento del altruismo eficaz, no sería la primera vez que este tipo de desacuerdos sobre los peligros de la inteligencia artificial expulsan a gente de la empresa.

En 2021, Dario Amodei y otros empleados de OpenAI abandonaron la empresa para fundar Anthropic, una rival de OpenAI cuya misión principal es crear una IA más segura.

Incluso Elon Musk, que abandonó el consejo de OpenAI en 2018 alegando un conflicto de intereses con Tesla, estaba preocupado por lo mucho (o poco) que la empresa priorizaba la seguridad, según Wired.

El consejo de OpenAI no ha ofrecido más detalles sobre qué les llevó a despedir a Altman más allá de señalar que había "perdido la confianza" en él y que no era "consistentemente sincero" en las comunicaciones.

Sin embargo, las repercusiones del abrupto despido no se han hecho esperar. Varios ejecutivos han dimitido en señal de protesta, y ahora muchos de los empleados de OpenAI están pidiendo el regreso de Altman.

Conoce cómo trabajamos en Business Insider.