EEUU y Reino Unido firman un acuerdo para velar por la seguridad de la inteligencia artificial

Ilustración de inteligencia artificial

Getty Images

  • Algunos líderes empresariales y expertos en la materia llevan meses alertando de los numerosos peligros que plantea el auge actual de la inteligencia artificial. 
  • Tanto es así que algunos Gobiernos están empezando a coordinarse entre sí. Es el caso de Estados Unidos y Reino Unido, que esta semana han firmado el primer acuerdo bilateral del mundo para regular los riesgos de esta tecnología emergente.

Quizá Elon Musk no sea el mejor ejemplo en este sentido, puesto que ha quedado más o menos demostrado que sus intenciones no siempre son honestas, pero forma parte de los numerosos líderes empresariales y expertos del sector tecnológico que en los últimos meses han estado alertando de los posibles riesgos que supone el desarrollo de la inteligencia artificial generativa.

A mediados de marzo, el multimillonario dueño de X —la red social anteriormente conocida como Twitter— y CEO de Tesla y SpaceX volvió a alertar en una cumbre empresarial acerca del peligro que representa el boom de la IA: "Hay alguna posibilidad de que acabe con la humanidad. Probablemente... Estoy de acuerdo con Hinton en que es de un 10% o un 20%, o algo así".

Musk hacía referencia así a Geoffrey Hinton, un investigador especializado en inteligencia artificial que se considera uno de los tres padrinos de la IA tras haber ganado en 2018 el Turing Award, un prestigioso premio de ciencias de la computación, junto a Yann LeCun y Yoshua Bengio.

Este antiguo directivo de Google concedió una entrevista en octubre de 2023 en la que aseguró que la inteligencia artificial podría tomar el control de la humanidad en el futuro: "Es una posibilidad. No digo que vaya a ocurrir. Si pudiéramos impedir que lo hiciera, sería estupendo. Pero no está del todo claro que podamos evitar que quiera hacerlo".

Hinton y Musk forman parte así del colectivo de líderes y expertos que han señalado los riesgos de la IA en los últimos meses, unas denuncias que parece que han comenzado a ser escuchadas por los organismos reguladores. 

Más allá del futuro Reglamento de la Inteligencia Artificial de la Unión Europea, que ya ha recibido la luz verde por parte del Parlamento Europeo, pero que todavía está a la espera de entrar en vigor, Estados Unidos y Reino Unido han firmado un acuerdo esta semana para velar por la seguridad de esta tecnología. 

 

Así lo ha recogido el Financial Times, que ha calificado el pacto entre ambos países angloparlantes de "histórico", al tratarse del primer acuerdo bilateral del mundo que va a tratar de evaluar y regular los posibles peligros que generen los modelos emergentes de IA.

Según publica el medio británico, el pacto ha sido firmado este lunes en Washington, EEUU, por la ministra de Ciencia del Reino Unido, Michelle Donelan, y por la secretaria de Comercio estadounidense, Gina Raimondo, y establece la forma en la que ambos gobiernos pondrán en común conocimientos técnicos, información y competencias en materia de seguridad de la inteligencia artificial.

"El año que viene es cuando realmente tenemos que actuar con rapidez, porque la próxima generación de modelos [de IA] está saliendo al mercado, lo que podría cambiar completamente las reglas del juego, y aún no conocemos todas las capacidades que ofrecerán", ha declarado la ministra británica al Financial Times.  

Donelan ha indicado que esta asociación va a permitir al nuevo Instituto de Seguridad de la Inteligencia Artificial —AISI, por sus siglas en inglés— del Reino Unido, creado en noviembre, y a su equivalente en Estados Unidos, que todavía no ha empezado a funcionar, intercambiar conocimientos mediante la adscripción de investigadores de ambos países. 

Además, ambos organismos también van a colaborar en la evaluación independiente de modelos privados de IA generativa, desarrollados por compañías como OpenAI, la desarrolladora de ChatGPT, o Google. 

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.