Un exdirectivo de OpenAI afirma que la IA podría ser la última tecnología que invente el ser humano

Katherine Tangalakis-Lippert
| Traducido por: 
Una ilustración sobre inteligencia artificial.

Andrea Verdelli vía Getty

  • Zack Kass, antiguo ejecutivo de OpenAI, se muestra optimista sobre la capacidad de la inteligencia artificial para resolver problemas globales.
  • Aunque la IA puede marcar el comienzo de una revolución, Kass asegura que también habrá que lidiar con los problemas que acarree ese crecimiento: ya no hay vuelta atrás, lo mejor es centrarse en una política eficaz y en gestionar la corrupción.

La inteligencia artificial ya influye en la forma de hacer negocios, estudiar, interactuar con el entorno e incluso cocinar los platos favoritos de determinadas personas, por lo que algunos expertos tienen miedo de que los últimos avances en este campo estén abriendo la caja de Pandora de los nuevos problemas tecnológicos que van a afectar a todo el mundo.

No es el caso de Zack Kass. Este exdirectivo de OpenAI, que fue uno de los primeros cien empleados de la desarrolladora de ChatGPT y comandó su división Go-to-Market antes de abandonar su puesto el año pasado, ve a la IA como un regalo caído del cielo.

Kass ha hablado en profundidad con Business Insider para tratar de explicar por qué se muestra tan optimista acerca de la capacidad de la inteligencia artificial para ayudar a resolver problemas globales, además de exponer por qué el mundo tiene que estar dispuesto a soportar algunos costes desagradables para desbloquear todo el potencial de esta tecnología.

La conversación ha sido editada para aportar mayor claridad y concisión.

¿Qué hacías en OpenAI y por qué te marchaste?

En OpenAI fui uno de los primeros 100 trabajadores y el primer empleado del equipo Go-to-Market, el jefe de Go-to-Market, así que pude construir los cimientos de lo que, hoy en día, es un negocio muy grande: las ventas, las asociaciones y el éxito de los clientes. Después de algunos problemas familiares, tomé la decisión probablemente más difícil de mi vida: volver a casa, a Santa Bárbara [Estados Unidos], y diseñar una carrera en torno a lo que realmente me inspira ahora, que es promover la IA como el futuro de la experiencia humana. Y, cuando me fui, pasé mucho tiempo hablando con Sam [Altman] sobre cómo podría tener el mayor impacto y donde aterricé fue en ser la voz de la contra-arrativa: que la IA no es catastrofista, que el futuro no es distópico y postapocalíptico, sino que es brillante y está lleno de más alegría y de menos sufrimiento. 

Así que ahora, básicamente, mi propósito y mi misión es promover un futuro brillante y realmente emocionante. A veces se me acusa de ser ingenuo y ciertamente me alegra llevar esa etiqueta, casi la llevo con orgullo. Pero básicamente creo que si no tenemos gente que promueva este futuro, no tendremos ninguna posibilidad de construirlo.

Te describes como un futurista de la inteligencia artificial. ¿Qué significa eso para ti?

Para mí, es ayudar a imaginar un futuro en los negocios y la cultura, en la medicina, en la educación, impulsado por la IA. Es ayudar a la gente a imaginar sus negocios y sus vidas influidos por la inteligencia artificial, y también cómo debería aprovecharse mejor la IA por consideraciones éticas o sociales, y cómo debería ser la mejor legislación.

Inteligencia artificial

A corto plazo, ¿cuáles crees que son los beneficios sociales más importantes de la inteligencia artificial?

A corto plazo, vamos a ver un montón de implicaciones del primer mundo que son realmente incómodas para la gente, pero que en realidad son buenas en términos netos. Vamos a acabar trabajando mucho menos y la gente está aterrorizada por esas implicaciones. Pero, francamente, yo le doy la bienvenida. Trabajemos menos, hagamos las cosas que nos aportan un propósito y nos dan esperanza. En el segundo y en el tercer mundo, no es difícil imaginar que cada niño tenga un profesor con IA que sepa lo que sabe, sepa cómo le gusta aprender y pueda trasladar a su familia cómo ayudarle mejor. 

No es difícil imaginar que todo el mundo tendrá un médico general con inteligencia artificial que pueda ayudarle a diagnosticar y, al menos, a derivar los problemas a un especialista. La semana pasada pasó desapercibido, pero descubrimos nuestro primer antibiótico nuevo en 60 años gracias a la IA. Así que ahora empiezas a agravar las implicaciones en las ciencias de la vida y las biociencias y se vuelve muy, muy emocionante.

¿Y todos los que conoces en la industria son tan optimistas?

Es una buena pregunta. Voy a decir esto, no creo que actualmente sea popular abrazar un sentimiento abrumadoramente positivo, porque esto es visto como ingenuo. Lo más evidente entre los profesionales del sector y sus homólogos es que todos reconocen el increíble potencial de esta tecnología, pero la gente parece dividida en cuanto a la probabilidad de que nos demos cuenta de ello como resultado de una mala legislación, una mala ejecución o un desajuste del modelo. 

No he conocido a nadie en la industria a quien respete que no reconozca el hecho de que esta podría ser la última tecnología que invente el ser humano y que, de aquí en adelante, la inteligencia artificial simplemente nos impulse a un ritmo excepcional y vivamos vidas cada vez más satisfactorias y alegres con menos sufrimiento y, ya sabes, exploremos otros mundos y galaxias, etc. Pero creo que también es muy, muy cierto que muchos de los que están dentro de la industria tienen una visión mucho más dudosa de los inconvenientes que yo. 

Hay gente que te dirá que el riesgo es tan grande que ni siquiera las ventajas merecen la pena. Yo no estoy de acuerdo. No veo ninguna prueba que sugiera que la IA quiera matarnos a todos.

¿Cuáles son los riesgos que ves, si la inteligencia artificial no es un exterminador al estilo Terminator?

Básicamente hay cuatro riesgos. Son: 1) la idiocracia, 2) el desplazamiento de la identidad, 3) el problema de la alineación, o lo que llamamos existencialismo, y 4) los malos actores.

Existe una posibilidad real de que una o varias generaciones dejen de evolucionar debido a los efectos de no tener que resolver problemas difíciles e interesantes. Si la IA resuelve todos nuestros problemas, ¿qué harán nuestros cerebros? Y creo que hay una probabilidad razonable de que, por un tiempo, nuestros cerebros dejen de evolucionar.

Ahora tengo un montón de razones para pensar que eso no es un problema a largo plazo, de la misma manera que Internet produjo las redes sociales y las redes sociales serán vistas como una plaga por las próximas generaciones, y luego vamos a resolverlo, de la misma manera que inventamos el carbón y el carbón mató a un montón de mineros e hizo un montón de cosas malas en el medio ambiente, y ahora estamos eliminando el carbón. En mi opinión, se trata de las consecuencias a corto plazo.

Ilustración de un robot.

La segunda es el desplazamiento de identidad. El verdadero problema son las personas que se han pasado la vida, durante generaciones, dedicándose a un oficio específico, como los carpinteros en la Revolución Industrial, o los herreros antes que ellos, que transmitieron estos oficios familiares y prácticas y aprendizajes, y, de repente, perdieron su identidad y su propósito cuando inventamos estas nuevas herramientas para hacer su trabajo. Su problema no era: "Eh, no puedo alimentar a mi familia". Fueron y encontraron otros trabajos. Su problema era: "Eh, este era mi propósito. Esto es lo que amo". Y me preocupa mucho el desplazamiento de identidad. Me preocupa mucho que, durante un tiempo, la gente se esfuerce por averiguar quiénes son.

El problema realmente grande es el existencialismo, y toda la idea en torno al existencialismo es súper razonable, que es: ¿podemos entrenar a un modelo para estar alineado con el interés humano? Y mi opinión es que sí, podemos y lo haremos. Hay tanta gente interesada en trabajar en esto que es casi seguro que será lo que se legisle más agresivamente. Es de esperar que un comité del Congreso [de Estados Unidos] quiera revisar todos los modelos que se publiquen. Para 2026 sería mi estimación, tal vez 2025, y tendrán que cumplir con las normas internacionales de alineación de la misma manera que construimos normas internacionales muy rápidamente o para el desarme nuclear y la energía nuclear. Haremos lo mismo aquí. 

Todo el mundo está interesado en resolver esto, incluso los actores más codiciosos querrían que este problema se resolviese. No puedes disfrutar de tus ganancias si la inteligencia artificial te ha esclavizado. Por lo que a todo el mundo le interesa que el problema de alineación esté resuelto.

¿Y estás seguro de que la IA no se volverá en contra del ser humano?

Nadie puede darme una razón por la que la inteligencia artificial querría esclavizarnos si está alineada y entrenada en la experiencia humana. ¿Por qué querría la IA dañar a los humanos? Tenemos tan interiorizada la idea de que los humanos somos malos, que cualquier cosa que creemos tendría que ser intrínsecamente mala, y no creo que eso sea cierto. También creo que es muy peligroso antropomorfizar la inteligencia artificial. Estamos tan inmersos en la idea de Skynet de Terminator... No creo que eso sea ni remotamente interesante teniendo en cuenta lo que pensamos que estamos construyendo.

Entonces, ¿cómo regular la industria para mantener las cosas alineadas y, al mismo tiempo, promover la innovación necesaria para llegar a la inteligencia artificial general (AGI)?

Las tres cosas que nos impedirían construir la AGI son un déficit de computación, un déficit de energía y una mala legislación o un exceso de la misma. La crisis climática actual la provocamos con políticas que ilegalizaron la energía nuclear en los años 70 y 80. Ahora estamos todos sentados lamentándonos por el cambio climático cuando hemos estado quemando billones de toneladas de carbón. Señalo a la energía nuclear como el mejor ejemplo de cómo una política, especialmente influida por la percepción pública, puede tener consecuencias realmente increíbles en la experiencia humana. 

Vamos a poder solucionar muchos de los problemas del cambio climático, pero no creo que tuviésemos que estar preocupándonos por esto si simplemente hubiésemos construido centrales nucleares y aceptado algunos de los costes del progreso. ¿Cuántos Three Mile Island y Chernóbil habríamos aceptado a cambio de no quemar billones de toneladas de carbón? No sé cuál es la cifra, pero, caramba, son más de dos y eso son matemáticas muy difíciles. Sin duda necesitamos una legislación, porque creo que decir simplemente: "Oye, todo el mundo va a comportarse adecuadamente" también es un poco ingenuo.

Sería muy inteligente que los responsables políticos exigieran a las compañías que publicaran el impacto económico anual de su adopción de la inteligencia artificial y que gestionasen la corrupción inherente a algo así. Es realmente difícil de gestionar, pero deberíamos ser muy conscientes de lo que está ocurriendo en nuestra sociedad y en nuestro mundo empresarial como consecuencia de ello.

 

Pero, ¿cómo afrontamos ese tipo de normativas cuando nos preocupa cómo otros países, como China, por ejemplo, están desarrollando la IA?

No se presta suficiente atención a la cuestión de la inteligencia artificial contra la inteligencia artificial. Y uno de los riesgos que muchos señalan es que avanzar tan rápido puede inspirar una especie de carrera armamentística. Es muy importante reconocer, por definición, que la IA, si está bien alineada, aporta valor a la especie humana. Por lo tanto, el objetivo debería ser que los buenos actores del mundo, sean quienes sean y se clasifiquen como se clasifiquen, construyan una inteligencia artificial general alineada y la compartan con el mundo.

Dicho esto, creo que sigue siendo imperativo que formemos coaliciones internacionales para crear normas razonables para la IA. Parece una buena manera de obligar a los actores a trabajar colectivamente, a construir hacia lo correcto. Y es lógico que, cuanto antes lo hagamos, antes empezaremos a definir realmente quién está intentando construir en beneficio de la humanidad frente a quién está intentando construir en beneficio de un Estado o en beneficio de un individuo o una empresa.

Conoce cómo trabajamos en Business Insider.