La Eurocámara se suma al veto de los sistemas de IA policiales para reconocimiento biométrico y vigilancia masiva con una votación no vinculante

Inteligencia Artificial desarrollada

Getty Images

  • El Parlamento Europeo saca adelante una votación no vinculante para vetar los usos de la IA con capacidades de vigilancia e identificación para fines policiales.
  • El acuerdo de los eurodiputados llega apenas unas semanas después de que se reiniciara el debate sobre la ampliación de usos del EURODAC, un almacén de huellas dactilares para inmigrantes.
  • Descubre más historias en Business Insider España.

La Comisión Europea presentó en abril el borrador del que será su reglamento sobre la IA, pero la conversación continúa.

La Eurocámara votó este miércoles una resolución no vinculante en la que se apoyó el veto de aquellos modelos de inteligencia artificial empleados por los cuerpos policiales para facilitar el reconocimiento de seres humanos a través de sus datos biométricos, así como para garantizar sistemas de vigilancia masivos.

"Esta es una gran victoria para los ciudadanos europeos", aseguró Petar Vitanov, el eurodiputado socialdemócrata que presentó esta resolución al Parlamento. Aunque el reglamento sobre la IA que enseñó la Comisión en abril excluye la posibilidad de que un sistema de inteligencia artificial esté exento de riesgo, mantenía la puerta abierta a determinados usos controvertidos de la misma.

La resolución salió adelante con 377 votos a favor, 248 en contra y 62 abstenciones, y profundiza en los riesgos que conllevan los sesgos en algoritmos. También enfatiza en la necesidad de que estos modelos estén bajo supervisión de seres humanos y sometidos a un intenso escrutinio legal, sobre todo en contextos transfronterizos.

Esta resolución, aunque no es vinculante, sale adelante en el mismo momento en el que la Eurocámara estudia la ampliación de usos de la EURODAC, un enorme almacén de huellas dactilares de inmigrantes que lleva lustros desplegado. 

China se adelanta a Europa y publica unas directrices éticas para regular los modelos de inteligencia artificial

La EURODAC nació como un sistema para prevenir que un inmigrante llegado a un país europeo solicitara asilo en más de un estado miembro. Sin embargo, un acuerdo de 2018 entre los ministerios de Interior de los 27 abría la puerta a ampliar sus usos. La iniciativa para tal fin la lidera un eurodiputado español de ultraderecha, Jorge Buxadé (Vox).

Hasta ahora, la EURODAC solo podía almacenar las huellas dactilares de niños inmigrantes mayores de 14 años. Lo que busca la iniciativa para ampliar sus usos es que, entre otras cuestiones, también tengan que depositar sus datos biométricos menores de tan solo 6 años, y que en esta instancia se almacenen incluso fotografías para permitir un posterior reconocimiento facial.

En otras palabras: Europa pretende emplear en sus fronteras tecnologías de IA y reconocimiento biométrico que precisamente busca mantener reguladas en su interior. La resolución aprobada esta semana es, por su parte, un paso dado en la otra dirección. De hecho, menciona expresamente iniciativas como iBorderCtrl, una "máquina de la verdad" que se ha instalado en fronteras.

Dicha resolución advierte de que los sistemas de identificación basados en la IA ya han tenido problemas identificando a minorías étnicas, personas LGTBI, personas mayores y mujeres. "Para asegurar que los derechos fundamentales se mantienen cuando se emplean estas tecnologías, los algoritmos deberían ser transparentes, rastreables y documentados".

Junto con la prohibición de los modelos de IA para reconocimiento biométrico en espacios públicos (por ejemplo, cámaras de reconocimiento facial como las que ya se han desplegado en algunas estaciones de autobús de Madrid), los eurodiputados también han acordado una prohibición permanente (aunque su acuerdo tampoco es vinculante) de los sistemas de puntuación social.

Huso horario, talento y nube: el cóctel con el que España se convierte en un campo de pruebas para el despegue de la inteligencia artificial

La premisa es que los ciudadanos solo deberían ser identificados cuando sean sospechosos evidentes de un crimen. Los riesgos de los sistemas de puntuación social es que pretendan categorizar a personas en función de su comportamiento o incluso su personalidad.

Vilanov considera que los derechos fundamentales "son incondicionales". "Por primera vez, estamos pidiendo una moratoria en el despliegue de sistemas de reconocimiento facial para fines policiales, ya que la tecnología ha demostrado ser inefectiva y a menudo arroja resultados discriminatorios. Nos oponemos claramente a técnicas predictivas policiales y a cualquier sistema de vigilancia masiva".

En términos similares se expresó el pasado mes de junio el Comité Europeo de Protección de Datos (EDPB), uno de los principales órganos consultivos comunitarios de esta temática. La entidad planteó el veto de sistemas de reconocimiento facial en espacios públicos. Una coalición de asociaciones está reuniendo cientos de miles de firmas para vetar definitivamente estas tecnologías en Europa.

Mientras tanto, el reglamento sobre la IA sigue su proceso para dejar de ser un borrador y pasar a ser una regulación definitiva. La secretaria de Estado de Digitalización, Carme Artigas, avanzó en Business Insider España sus planes para que el país se convirtiese en una región en la que hacer una prueba piloto de este proyecto de legislación.

Este anhelo del Gobierno ya ha tenido respuesta por parte del sector privado, con consultoras como BCG prestándose a colaborar en dicho piloto, que ya está negociándose con la Comisión. No obstante, el borrador ya ha recibido algunas críticas y advertencias de posibles riesgos: sobrerregular la inteligencia artificial podría acabar matando la innovación, según algunos expertos.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.