Agencias de EEUU, Reino Unido y 16 países más acuerdan sin China unas directrices para que la IA sea "segura" por defecto a la hora de desarrollarla

Dos militares prueban un 'script' de reconocimiento facial durante un curso de ciberseguridad.
Dos militares prueban un 'script' de reconocimiento facial durante un curso de ciberseguridad.

REUTERS/Amir Cohen

  • 18 países, entre los que se encuentran EEUU o Reino Unido, firman unas directrices básicas para garantizar que la seguridad se implemente en el diseño de la IA.
  • El documento no es vinculante pero los firmantes consideran que es un gran avance para que el desarrollo de esta tecnología sea siempre seguro para sus usuarios.

Este domingo se ha liberado un documento de unas 20 páginas firmado por las agencias estatales de unos 18 países. El propósito del texto es ofrecer unas directrices básicas para que el desarrollo de la inteligencia artificial cuente con la seguridad desde el momento en el que se diseña.

El problema: son unas guías muy básicas y ni siquiera vinculantes, firmadas por países tan dispares como EEUU, Reino Unido, Israel, Francia o Alemania; pero con el respaldo de empresas que al final sí se tendrán que atener a una regulación que sí será obligatoria, como es el futuro Reglamento de la IA que negocia todavía Europa: Google, Microsoft, OpenAI, Palantir...

Entre las grandes ausentes de estas directrices se encuentra China.

El documento arroja una serie de propuestas y directrices esenciales y tiene relevancia por ser "un hito clave en el compromiso colectivo de gobiernos de todo el mundo con el desarrollo y despliegue de capacidades IA que sean seguras por defecto", ha considerado Jen Easterly, la directora de la Agencia de Seguridad de Infraestructura y Ciberseguridad (CISA) de EEUU.

En términos similares se ha expresado la mandataria responsable del Centro de Ciberseguridad Nacional de Reino Unido, el NCSC, otro de los organismos firmantes. En palabras de Lindy Cameron, estas directrices son "un paso significativo para darle forma a una comprensión auténticamente global de los ciberriesgos y las estrategias para mitigarlas en el ámbito de la IA".

Este documento va firmado por organismos nacionales de Australia, Canadá, Chile, República Checa, Estonia, Francia, Alemania, Israel, Italia, Japón, Nueva Zelanda, Nigeria, Noruega, Polonia, Corea del Sur, Singapur, Reino Unido y Estados Unidos, y las directrices se detienen en cuatro áreas: seguridad en el diseño, seguridad en el desarrollo, seguridad en el despliegue y seguridad en la gestión.

Estos son los empleados de OpenAI que han conseguido parar uno de los mayores golpes de la historia de Silicon Valley

Las propuestas, sin embargo, son básicas. Recomienda a las empresas desarrolladoras o usuarias de esta tecnología advertir a su personal de los riesgos que la misma puede entrañar, así como que se tenga presente qué desafíos afronta cada modelo algorítmico a la hora de seleccionar el que mejor convenga al negocio.

El texto busca crear un ecosistema IA lo más seguro y fiable posible, teniendo en cuenta que muchas de las herramientas ahora en auge, como los modelos fundacionales o IA generativa, pueden ser empleados por ciberdelincuentes para sofisticar sus técnicas e incluso pueden ocasionalmente provocar brechas de seguridad en las empresas y negocios que opten por utilizarla.

La guía cuenta con la colaboración de grandes tecnológicas y de firmas más desconocidas pero igualmente controvertidas por el uso que hacen de la IA, como es el caso de la estadounidense Palantir, que saltó a la fama por el uso que hacían de sus servicios funcionarios de la agencia de migración estadounidense en redadas contra personas sin papeles.

La propia Easterly, directora de la CISA estadounidense, ha declarado a Reuters que este documento es "la primera ocasión en la que vemos afirmaciones distintas a lo chulas que son algunas de las características de la IA o lo rápido que las podemos desplegar en los mercados". Cree que este es un acuerdo sobre "las cosas importantes que hay que hacer en las fases de diseño".

Mientras tanto, la Unión Europea continúa negociando el esperado Reglamento de la IA, que sigue en fase de trílogos con el Parlamento y el Consejo intercambiando sus pareceres sobre lo que debería ser el texto definitivo: una de las primeras regulaciones a nivel global sobre esta tecnología, si bien la explosión de la IA generativa ha pillado a contrapie a las instituciones comunitarias.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.