El Reglamento de la IA tiene luz verde, pero también varias incógnitas: Sumar pregunta al Gobierno cómo usará la policía esta tecnología

Dos militares prueban un 'script' de reconocimiento facial durante un curso de ciberseguridad.
Dos militares prueban un 'script' de reconocimiento facial durante un curso de ciberseguridad.

REUTERS/Amir Cohen

  • Las diputadas de Sumar Tesh Sidi y Gala Pin presentan una nueva batería de preguntas al Gobierno, esta vez en torno al nuevo Reglamento de la IA.
  • La regulación logró la aprobación provisional del Consejo y el Parlamento Europeo y entrará en vigor en 2026, pero todavía hay lagunas y bastante certidumbre.

Hace escasos días el Consejo de la Unión Europea —que preside España hasta finales de mes— y el Parlamento Europeo alcanzaron un acuerdo en trílogo: el esperado Reglamento de la Inteligencia Artificial recibía luz verde. Todavía tendrá que superar el escrutinio del Comité de Representantes Permanentes (COREPER) de la Unión Europea y no entrará en vigor hasta 2026.

Sin embargo, aunque ya existe un texto a priori definitivo, alrededor de esta nueva legislación todavía existen varias incógnitas. Precisamente sobre algunas de ellas ha preguntado el grupo parlamentario Sumar en una nueva iniciativa parlamentaria. Las diputadas Tesh Sidi y Gala Pin han presentado este jueves una nueva batería de preguntas que el Ejecutivo tendrá que responder por escrito.

Todas ellas concernientes ante la nueva regulación. Las diputadas preguntan explícitamente si España delimitará qué se entiende por "delito grave" a la hora de regular "el reconocimiento facial retrospectivo". El empleo de los modelos de reconocimiento facial por parte de las autoridades policiales ha sido uno de los debates más intensos en las negociaciones del Reglamento de la IA.

Por ahora parece claro que las autoridades policiales sí podrán hacer uso de esos modelos de reconocimiento facial siempre de forma retrospectiva —la ley prohíbe, así, el empleo de sistemas de reconocimiento facial en espacios públicos y en tiempo real, por ejemplo, la detección instantánea de individuos en lugares como estaciones de trenes o autobuses—.

Lo que no está tan claro, por ejemplo, es el papel de la IA como tecnología prescriptiva y su uso por parte de la misma policía. Expertas y académicas vienen advirtiendo desde hace años cómo el uso de la IA para distribuir patrullas por los barrios de una ciudad acaban provocando una profecía autocumplida, criminalizando y, por tanto, perjudicando a cientos de vecinos de determinadas zonas.

"¿Está prevista la prohibición total del uso predictivo de la IA en el ámbito policial? ¿De qué manera piensa el Gobierno prohibirla?", cuestionan tanto Sidi como Pin en su escrito.

Meta usó libros protegidos por derechos de autor para entrenar su modelo de IA en contra de las advertencias de sus propios abogados

La tercera pregunta tiene que ver con los modelos de "reconocimiento de emociones". Las parlamentarias apuntan que este caso de uso es fundamentalmente una pseudociencia. Algunos desarrolladores defienden que sus tecnologías IA son capaces de detectar si una persona está feliz o triste en función de las expresiones de su rostro, cuando estas no son síntomas determinantes.

En ese sentido, preguntan directamente si el Gobierno de España "prevé renunciar al uso de la IA en el reconocimiento de emociones". Por último, la cuarta pregunta es si España "contempla establecer el marco de lo que es IA de alto, medio o bajo riesgo para evitar que sean las empresas las que se autorregulen".

Esta última cuestión ha sido otro de los debates más sonoros en los trílogos alrededor de este nuevo Reglamento de la IA, y las discusiones en torno a la redacción del artículo 6 de la norma han puesto en riesgo la posibilidad de que sean las autoridades públicas las encargadas de determinar el nivel de riesgo de los casos de uso de esta tecnología.

Ambas parlamentarias, que han comparecido ante los medios este jueves a mediodía para presentar la iniciativa, consideran que la nueva regulación "es un gran paso para permitir la innovación y, al mismo tiempo, garantizar la legitimidad de las instituciones a la hora de actuar frente a nuevas realidades que transforman el mundo en el que vivimos desde hace más de una década".

Sin embargo, también consideran que "el hecho de ser una regulación pionera y, al mismo tiempo, de intervenir en un ámbito de intereses contrapuestos, obliga a reconocer sus lagunas y deficiencias".

"En ese sentido, diversas organizaciones de derechos humanos, de defensa de derechos en el ámbito digital, alertan de los peligros que supone poder hacer uso de la IA para el reconocimiento facial en frontera, el uso predictivo de la IA en el ámbito policial, la identificación biométrica remota o el uso de sistemas de reconocimiento de emociones".

De hecho, las propias diputadas advierten de los riesgos de que esos sistemas de reconocimiento de emociones se hayan vetado en contextos laborales o educativos, pero no en contextos "migratorios o fronterizos".

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.