Una "IA semejante a Dios" podría destruir a la humanidad o hacerla innecesaria si no se regula adecuadamente, advierte un importante inversor

Pete Syme
| Traducido por: 
Inteligencia artificial generativa.

Yuichiro Chino/Getty

  • Ian Hogarth, un experto que ha invertido en más de 50 empresas de inteligencia artificial, ha publicado un artículo en el que advierte sobre los posibles riesgos de esta tecnología.
  • La inteligencia artificial general podría llegar a ser "semejante a Dios" y generar una catástrofe en el momento en el que logre aprender por sí misma, explica este importante inversor.

Una futura "inteligencia artificial semejante a Dios" podría conducir a la "obsolescencia o la destrucción de la humanidad" si no se controla su rápido desarrollo, según advierte un importante inversor especializado en esta tecnología.

La inteligencia artificial general (IAG, por sus siglas en inglés), el punto en el que un bot puede aprender y entender cualquier cosa igual que lo haría un humano, todavía no ha llegado. Sin embargo, la IAG se considera el principal objetivo de esta industria en rápido crecimiento. Y hay mucho en juego.

Aunque algunos expertos estén entusiasmados con los beneficios financieros que promete ofrecer la IA, como el exdirectivo de Meta, John Carmack, que aseguró que esta industria valdría billones de euros en la década de 2030, otros advierten del riesgo que existe de que se produzca una "catástrofe a nivel nuclear".

"Unas siglas no reflejan la magnitud de lo que representaría la IAG, así que me referiré a ella como lo que es: una inteligencia semejante a Dios", señala Ian Hogarth, un experto que ha invertido en más de 50 compañías del sector, en un artículo para el Financial Times. Hogarth defiende que esta tecnología podría desarrollarse por sí misma y transformar el mundo sin supervisión.

"La IA semejante a Dios podría ser una fuerza más allá de nuestro control o comprensión, que podría llevar a la obsolescencia o la destrucción de la humanidad", añade este experto. 

"Hasta ahora, los humanos han seguido siendo una parte necesaria del proceso de aprendizaje que caracteriza el progreso de la inteligencia artificial. En algún momento, alguien descubrirá cómo sacarnos del bucle, generando una IA semejante a Dios capaz de superarse a sí misma constantemente", explica Hogarth en su artículo. "Para entonces, puede que ya sea demasiado tarde".

El apocalipsis de las máquinas

Este experto estudió ingeniería e inteligencia artificial en la Universidad de Cambridge antes de cofundar Songkick, una plataforma de conciertos que acabó vendiendo a Warner Music Group. Según su página web, desde entonces ha invertido en más de 50 startups que utilizan el aprendizaje automático, entre ellas Anthropic, una empresa fundada por antiguos empleados de OpenAI

Jensen Huang, CEO de Nvidia (el fabricante cuyas tarjetas gráficas se emplean a menudo para impulsar la IA), afirmó recientemente que la potencia de la inteligencia artificial se había multiplicado por un millón en la última década, y que esperaba que en los próximos 10 años ocurriese lo mismo con ChatGPT, el generador de texto de OpenAI, recogía PC Gamer.

En su artículo para el Financial Times, Hogarth sugiere que los grandes modelos lingüísticos con los que funciona la inteligencia artificial han multiplicado por 100 millones su capacidad de procesamiento durante ese mismo periodo, basándose en cuánto pueden computar por segundo.

Este inversor advierte de que la competencia —y la consiguiente falta de supervisión— que existe entre las compañías que se encuentran a la vanguardia de esta tecnología, como OpenAI y DeepMind (la división de IA de Google), corre el riesgo de crear una "IA semejante a Dios" que sea inestable. "Están corriendo hacia una línea de meta sin saber lo que hay al otro lado", sostiene Hogarth.

 

En declaraciones al New York Times en 2019, Sam Altman, CEO de OpenAI, comparó la estrategia que estaba llevando a cabo su empresa con el Proyecto Manhattan, la iniciativa del gobierno estadounidense que dio lugar a la primera bomba atómica. Altman llegó incluso a citar a Robert Oppenheimer, padre del proyecto: "La tecnología surge porque es posible".

Aunque la IAG tendrá un gran impacto, Hogarth argumenta que el hecho de que ese impacto sea positivo o catastrófico podría depender de que se persiga el progreso lo más rápidamente posible y del tiempo que tarde en regularse esta tecnología.

Conoce cómo trabajamos en Business Insider.