España introduce en el debate del reglamento europeo nuevas formas de categorizar y regular las IA generativas

Un poster que simula la tecnología de reconocimiento facial durante una exhibición en China en 2018.
Un poster que simula la tecnología de reconocimiento facial durante una exhibición en China en 2018.
  • Los trílogos sobre el Reglamento de la IA se retoman la semana que viene y España ha presentado una serie de propuestas que se tendrán que debatir entonces.
  • El país preside el Consejo de la UE, uno de los dos colegisladores que negocian la nueva norma. Madrid concreta una propuesta para regular mejor la IA generativa.

El próximo 24 de octubre se reanudan los trílogos, las negociaciones entre Comisión Europea, Parlamento Europeo y Consejo de la Unión Europea para tratar de sacar adelante un texto definitivo del Reglamento de la Inteligencia Artificial.

Las últimas propuestas en torno a la nueva ley comunitaria han soliviantado a activistas y organizaciones de la sociedad civil, que consideran que la reescritura de su artículo 6, tal y como se filtró en algunos medios, abre la puerta a que las grandes tecnológicas disfruten de una laguna con la que poder escapar de los efectos de la regulación.

Estos trílogos comenzaron antes del verano y la idea es que se alcance un acuerdo definitivo sobre el texto antes de que acabe el año, coincidiendo con el fin de la Presidencia Española del Consejo de la Unión Europea. El Consejo es uno de los dos colegisladores comunitarios —junto a la Eurocámara— y su presidencia es rotatoria. Cada estado miembro la ostenta 6 meses.

Ahora ha sido España, como presidenta de dicho Consejo, la que ha concretado algunas visiones sobre cómo el inminente Reglamento de la IA debe abordar el auge y la popularidad de modelos y sistemas algorítmicos fundacionales, también conocidos como la IA generativa.

Según medios como Bloomberg o Euractiv, que han tenido acceso a un documento que el Consejo defenderá en el trílogo del día 24, Madrid ha incorporado una nueva definición sobre qué es esa IA generativa de la que todo el mundo habla desde el año pasado, en especial desde que se popularizan herramientas como DALL-E, Stable Diffussion o ChatGPT.

Este nuevo documento lo envió Madrid al resto de estados miembros este martes, y se trata de un informe que prepara precisamente la reunión tripartita de la semana que viene. "Modelos de IA capaces de asumir completamente una amplia gama de diferentes tareas" es la definición con la que, de prosperar esta propuesta, se podría acabar englobando la IA generativa en el reglamento.

El Ejecutivo comunitario presentó el borrador de este reglamento en 2021, mucho antes de que el concepto de la IA generativa se popularizara. Entonces, el documento ya aterrizaba un enfoque en el que categorizaba los sistemas IA en función de los riesgos que representaban, ante la posibilidad de que causaran daño a ciudadanos o colectivos, por ejemplo con los sesgos de sus algoritmos.

Las primeras normas sobre la IA están a punto de hacerse realidad: todo lo que debes saber

En ese sentido, los primeros esbozos del Reglamento de la IA se detenía con especial énfasis en el papel que juegan tecnologías como los sistemas de reconocimiento facial o biométrico en la vía pública, o los modelos capaces de predecir o al menos intentar intuir qué emociones están viviendo los ciudadanos con tan solo analizar sus rostros.

Fue la Eurocámara este mismo año la que, con la tramitación legislativa del Reglamento enfilando sus últimos retoques, puso pie en pared y llamó a regular también la IA generativa. El temor en Bruselas es que el Reglamento de la IA, para el que España, por cierto, también prepara un sandbox regulatorio —el primero de su clase en el continente—, acabara naciendo anticuado.

La nueva propuesta española que se podrá defender en el futuro trílogo pasa por introducir la categoría y definición de IA generativa y además añadir una segunda categorización para aquellas IA generativas "de alta capacidad". Estos modelos tendrán que sujetarse a más control por "capacidades que van más allá del actual estado del arte y pueden no ser entendidas".

Otra tercera categoría que propone la Presidencia Española se refiere a los IA fundacionales que se usan "a gran escala": aquellos modelos que tengan un mínimo de 45 millones de usuarios o 10.000 clientes corporativos.

Aunque en la segunda categoría se contempla una serie de controles, estos están todavía por definir y podrían quedarse sujetos a la acción ejecutiva de la Comisión. Se estudia que estas dos categorías necesiten tener sistemas de mitigación de riesgos y que sus desarrolladores determinen si sus modelos pueden ser usados para usos "de alto riesgo".

Además, el texto filtrado este martes de la Presidencia Española también esboza la idea de que estos modelos fundacionales tengan que estar sujetos al control externo de red teams —equipos especializados en llevar al límite la seguridad de un modelo o de una arquitectura de red para encontrar vulnerabilidades—.

El escrito de Madrid también incluye algunas ideas sobre cómo abordar el intenso debate sobre cómo estos modelos IA cumplen con los derechos de autor. Muchos de estos sistemas que generan textos o imágenes son entrenados con creaciones de artistas que suelen estar protegidas.

Por ello, en el trílogo del 24 también se debatirá que los desarrolladores de IA generativa que quieran operar en Europa deberán demostrar que la recopilación de datos para entrenar sus sistemas cumple escrupulosamente con las leyes relacionadas con la protección y los derechos de autor.

Los últimos cambios en la propuesta sobre análisis de emociones, reconocimiento facial policial o IA en controles fronterizos

El texto definitivo todavía demanda de varios retoques. Uno de ellos, por ejemplo, concierne sobre el veto o no del reconocimiento de emociones mediante modelos IA. La Presidencia Española, según Euractiv, es más propensa a incluir este tipo de modelos en sistemas de "alto riesgo" antes que prohibirlos definitivamente en la Unión Europea.

Madrid, por su parte, ha aceptado algunos preceptos que plantearon desde el Parlamento Europeo, como la creación de una Oficina IA que escrutará específicamente los avances y desarrollos en el ámbito de las IA generativas.

Sobre los sistemas de identificación biométrica, como los reconocimientos faciales en la vía pública, la Eurocámara ya aprobó una resolución no vinculante que instaba a prohibir estos sistemas. Sin embargo, la Presidencia Española y el Consejo son propensos a mantenerla con reservas. Por ejemplo, para buscar desaparecidos o terroristas.

La Policía Nacional quiere saber si hay soluciones en el mercado para romper cifrados, geolocalizar ciudadanos o detectar deepfakes

En ese sentido, los grupos del Parlamento Europeo plantearon que el uso de esta tecnología requisiera de una autorización judicial. España, por su parte, está trabajando en un modelo IA de reconocimiento facial que no funciona en directo en la vía pública, pero que sí servirá para investigar sospechosos a posteriori.

Sobre los sistemas de reconocimiento de emociones, España acepta vetar su uso en entornos como el centro de trabajo o los centros educativos, pero sí defiende mantener este tipo de tecnología para uso policial o para el control de pasos fronterizos. El uso de la IA en pasos fronterizos es donde el Gobierno español está haciendo más hincapié.

De hecho, para activistas de medio mundo, muchos esfuerzos comunitarios en materia de regulación IA arrojan una controvertida idea: Europa quiere protegerse de una tecnología dentro de sus fronteras que sí espera utilizar para quienes vengan de fuera.

Madrid, por ejemplo, quiere eliminar del ámbito del "alto riesgo" el uso de IA para identificar si los pasaportes y documentos de personas migrantes es auténtico o no.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.