Europa quiere ser la vanguardia ética de los algoritmos, pero tiene un oscuro pasado: así son las IA financiadas por Bruselas que ya pueden generar discriminación

La frontera de Ceuta en mayo de 2021.
La frontera de Ceuta en mayo de 2021.

REUTERS/Jon Nazca

Hace apenas algo más de un año, la Comisión Europea puso sobre la mesa su propuesta de Reglamento de la Inteligencia Artificial. Es una norma que transformará el mercado de los algoritmos en la Unión, ya que, entre algunas de sus propuestas, asumía que todo modelo informático de este estilo conlleva un riesgo, ya sea este reducido o elevado.

En otras palabras: con los sistemas de IA, el riesgo cero no existe.

La recepción del texto, que todavía está discutiéndose en el corazón de los 27, fue dispar. A algunos expertos les pareció un buen primer paso. Otros consideraban que el texto podía quedarse obsoleto en seguida, a medida que la aparición de nuevos usos de esta tecnología pueden ir generando nuevos riesgos sociales que antes no se habían planteado.

Hubo quien incluso planteó que este tipo de regulaciones podrían socavar la capacidad innovadora de toda la industria tecnológica en el Viejo Continente.

De cualquier manera, el borrador de la norma también recibió aplausos de grandes tecnológicas como Google, que consideran adecuado que exista coto y certidumbre legal sobre cómo se deben desplegar estos sistemas algorítmicos, atendiendo siempre a sus posibles consecuencias y poniendo los valores europeos y al ser humano en el centro del debate.

Como sucediera con el Reglamento General de Protección de Datos (RGPD) que entró en vigor en 2018, las instituciones comunitarias quieren que este nuevo Reglamento de la IA se convierta en un referente internacional que acabe siendo emulado por otras jurisdicciones. Aunque sobre el papel es cierto, ante una pretensión de ese calibre no hay que olvidar cuál ha sido el pasado de la propia UE.

Han sido algunas instituciones comunitarias las primeras que han auspiciado, desarrollado o financiado modelos algorítmicos con evidentes riesgos sociales.Lo explicaba así el primer informe anual del Observatorio de Algoritmos de Impacto Social (OASI) que realiza Eticas, la fundación y auditora fundada por la española Gemma Galdon.

El OASI tiene un registro de más de un centenar de algoritmos desplegados tanto en el sector público como en el sector privado y en diversos países. Algunos de esos sistemas han sido desplegados a nivel europeo y, como advierte ese propio registro y análisis del OASIS, tienen enormes riesgos sociales.

Uno de esos modelos algorítmicos es Tensor, que fue desarrollado por un consorcio del mismo nombre entre 2016 y 2019 y fue financiado precisamente por el programa Horizon 2020 de la Comisión Europea. Tensor aparece en el registro del OASI sin pruebas de haber sido auditado de forma externa y generando tres grandes riesgos:

Más de 50 organizaciones sociales reclaman al Gobierno participar en el diseño de la futura Agencia de Supervisión de la Inteligencia Artificial

Debilitar la democracia, auspiciar la hipervigilancia por parte de los gobiernos, y amenazas a la privacidad. Tensor es un modelo algorítmico que están implementando diversos cuerpos policiales a lo largo del continente y pretende predecir posible actividad terrorista en base al contenido que recopile de la dark web y de la red superficial.

No es el único modelo de su naturaleza. A principios de 2021, meses antes de que se filtrara el borrador del Reglamento de la IA, varios expertos discutieron en el CPDP, uno de los mayores congresos de mundo sobre privacidad, cómo las instituciones comunitarias estaban convirtiendo Europa en un panóptico.

Un panóptico es un tipo de arquitectura carcelaria. Una instalación en la que todas las celdas pueden ser revisadas desde una enorme torre central. La metáfora sirvió para ilustrar el caso de otro modelo de IA, una 'máquina de la verdad' que se desplegó en pruebas en la frontera entre Serbia y Hungría. Un aparato hacía preguntas a los transeúntes. En una prueba ante un periodista, dio un falso positivo.

Aquel sistema se conoció como iBorderctrl y también recibió financiación europea. 4,5 millones de euros de los fondos Horizon 2020, como Tensor.

Otro ejemplo. Dante. Un modelo de IA preparado para rastrear contenido terrorista en internet. Tampoco existe constancia de que haya sido auditado. Fue desarrollado por un consorcio de empresas privadas y administraciones públicas de diversos países, entre ellos, España.

Junto a los riesgos que ya genera Tensor, Dante también tiene el potencial de generar discriminación racial y socioeconómica. También recibió financiación de los fondos Horizon 2020.

Tensor, iBorderctrl y Dante son solo la punta de un iceberg. Los estándares éticos pueden ser muy volátiles al hablar de una tecnología tan disruptiva y cambiante como puede ser la inteligencia artificial, para la que cada día se le encuentran nuevos e ingeniosos casos de uso. Entre tanto, el Reglamento de IA prepara una serie de estándares, pero estos podrían quedarse cortos pronto.

La despoblación, uno de los grandes argumentos para descentralizar el Estado, pasa a segundo plano en la búsqueda de sede para la Agencia de Supervisión de la IA

Muchos de esos modelos informáticos funcionan con datos personales e incluso biométricos. Pero antes de que entre en vigor ninguna regulación sobre la IA, hay debates que todavía se están manteniendo en otras partes del globo. Un ejemplo es hasta qué punto es recopilar los datos que generan las ciudades, y que no son necesariamente datos personales.

Un estudio realizado en Melbourne (Australia) durante la primera mitad del año pasado sirvió para determinar qué requisitos deberían reunir las administraciones locales que quisieran hacer de sus ciudades unos espacios "más inteligentes" que reaprovecharan los datos que generaran.

Entre esas conclusiones destacaba la necesidad de que los modelos de datos recopilados puedan ser fiables, explicables, transparentes, abiertos, y que se pudiera involucrar a los vecinos a la hora de desplegar los utensilios necesarios para captar esos datos: dónde serían necesarios, para qué, con qué objetivos. En síntesis: que el proceso fuese lo más participativo posible.

Otros debates que tampoco han terminado de abrirse, en cambio, pueden tener efectos nefastos y peligrosos. Giargia Meloni, política adscrita a la extrema derecha italiana, sugirió a finales del mes pasado que un algoritmo relacionara a los recién licenciados con ofertas de trabajo. Si un graduado rechazaba una oferta de trabajo, sería sancionado por ello.

La tecnología evoluciona rápido, los riesgos son exponenciales, los debates se amontonan y el Reglamento de Inteligencia Artificial de la Unión Europea tendrá que demostrar que no se limita a ser un simple papel: que la Unión Europea se cree de verdad su discurso cuando habla de una IA con "valores europeos".

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.