Así ponen España, Bruselas y el resto de Europa pies en pared ante los desafíos éticos y sociales que provoca el auge de la inteligencia artificial

Falla el reconocimiento facial con mascarilla
Reuters

Europa se ha quedado atrás en la carrera tecnológica y sabe que su única mano para empatar la partida es la de la regulación. Por eso, la Comisión Europea presentó a finales de 2020 sus esperadas leyes de Servicios Digitales (DSA) y Mercados Digitales (DMA), sobre las que los colegisladores ya están alcanzando algunos consensos.

Ambas normas están llamadas a regular los contenidos y la capacidad para competir de las grandes plataformas digitales. Aquellas que reúnan ciertos requisitos serán definidas como "garantes del acceso" (de los usuarios a la información y a otros servicios digitales, como redes sociales, reservas de hoteles o comercio electrónico).

Pero solo unos meses después de que la Comisión Europea presentara los borradores de la DSA y de la DMA, también se presentó el borrador del Reglamento de la Inteligencia Artificial. Fue en abril del año pasado y por ahora los colegisladores (Consejo de la Unión Europea y Parlamento Europeo) no han fijado sus posiciones, con lo que a su tramitación todavía le queda un largo recorrido.

Este Reglamento de la IA que ya se cocina en Bruselas define algunos modelos y usos de inteligencia artificial. Por ejemplo, los categoriza en función del nivel de riesgo que un despliegue de esta tecnología puede ocasionar. Una de las cuestiones más llamativas del borrador es que asume en la práctica que el riesgo cero, con esta tecnología, no existe.

El Parlamento Europeo todavía no ha fijado su posición, y en el Consejo de la UE las cosas no están muy distintas. La presidencia francesa espera que antes de que venza su mandato —en junio— al menos se haya logrado dar luz verde a una aproximación generalizada de la que será el texto, como detallan en Euractivcitando a varias fuentes diplomáticas.

Este borrador es uno de los ejemplos más palpables de cómo la preocupación por estos riesgos y desafíos algorítmicos sigue creciendo en el Viejo Continente. Al tiempo que el activismo y el debate sobre esta cuestión se amplía, también lo hace el volumen de algunas voces, que recuerdan que la sobrerregulación puede acabar ahogando la innovación.

Google cree que el reglamento de IA en el que trabaja Bruselas es "una buena manera" de abordar los desafíos de esta tecnología y confía en alcanzar acuerdos globales

Pero la Unión no es la única institución europea que quiere abordar los límites éticos de la inteligencia artificial. El Consejo de Europa, organismo que nada tiene que ver con Bruselas y del que forman parte todos los países del Viejo Continente, incluidos Suiza, Turquía o Rusia, también se ha reunido recientemente en Roma.

Lo ha hecho para constituir la Comisión de Inteligencia Artificial de este Consejo de Europa. CAI, por sus siglas en inglés, viene a reemplazar la comisión ad hoc que el mismo organismo supranacional constituyó en 2019. Y fruto de estos encuentros, que acaban de comenzar, esperan proponer un marco regulatorio y ético que concilien IA y derechos humanos.

También España creó y presentó su singular Carta de Derechos Digitales (ahora Bruselas también está trabajando en un documento similar) y el debate sobre los riesgos sociales que puede generar esta tecnología está más vivo que nunca.

Estos son los frentes activos que en Europa tratan de regular los algoritmos para ponerlos al servicio de los seres humanos, y evitar que suceda lo contrario.

Un reglamento europeo que España quiere probar antes que nadie

El Reglamento de IA de la Unión Europea ya está en desarrollo. Aunque el borrador ya reconoce que no hay prácticamente modelos de inteligencia artificial que estén exentos de riesgo, es eso, un borrador. El texto final tardará en llegar y pueden cambiar varias cosas.

De hecho, algunos organismos como el Comité Europeo de Protección de Datos (EDPB) han llegado más lejos que el borrador y han propuesto a las instituciones comunitarias vetar directamente el uso de sistemas de reconocimiento facial en la vía pública. El EDPB es la entidad que reúne a las agencias nacionales de protección de datos (como la española AEPD).

Algunos colectivos en defensa de la privacidad y de la justicia algorítmica han recibido con cierta decepción el borrador que se conoció el año pasado para este nuevo Reglamento. Consideran que el mismo nacerá muy encorsetado y rígido frente a los usos y potenciales riesgos de una tecnología que crece y se desarrolla muy rápido, como exponían algunas voces en TechCrunch.

La regulación europea para la IA se convertirá en un estándar global, pero tiene un riesgo: dejar atrás a pymes y startups que la usen, según expertos

España quiere ser región piloto del Reglamento de la IA. La Secretaría de Estado de Digitalización e Inteligencia Artificial (SEDIA) dependiente del Ministerio de Asuntos Económicos y Transformación Digital postuló al país como sandbox regulatorio a mediados del año pasado, una iniciativa que partió de la propia secretaria de Estado, Carme Artigas, y avanzó a Business Insider España.

Meses después no se ha vuelto a saber mucho sobre la idea. Fuentes del Ministerio recalcaron hace unas semanas a este medio que ya se estaban definiendo las líneas del proyecto con la Comisión Europea. Se espera, para ello, a que el debate esté más avanzado en la Eurocámara, que todavía no ha fijado su posición sobre el documento.

Con todo, desde la Secretaría de Estado confían en que después de verano se podría poner una fecha para que arrancase este piloto.

Un piloto para el que ya hay candidatos, por otro lado. Se trata de BCG Gamma, la división especializada en desarrollos de inteligencia artificial de la consultora Boston Consulting Group. Llorenç Mitjavila, socio responsable de BCG Gamma en España, explicó hace unos meses su interés en participar en este piloto, al tiempo que advirtió de los riesgos de sobrerregular.

Por ejemplo: grandes empresas podrán atenerse a este nuevo reglamento europeo, mientras que si lo que le exiges a una pyme es rellenar un informe con 300 KPI van a acabar "matando" muchas experiencias innovadoras.

Preocupación por el despliegue de la IA en las fronteras

El Reglamento de la IA buscará regular el uso y despliegue de la inteligencia artificial dentro del territorio Schengen, así como abordar los desafíos éticos que se le presupone. Automatizar procesos sin que estos sean auditados suficientemente puede provocar que se vulnerabilice a determinados colectivos.

Esto ocurre con las personas migrantes. Y el borrador del Reglamento no se detiene tanto en la recopilación de datos que se puede dar en una frontera exterior europea, como son los casos españoles de Ceuta y Melilla. Una comisión interministerial trabaja desde hace años en el desarrollo de una llamada "frontera inteligente".

Partidos como Unidas Podemos han presentado proposiciones no de ley para exigir garantías y transparencia con los modelos de IA que se desplieguen en las fronteras españolas, al tiempo que decenas de colectivos sociales han hecho un llamamiento similar.

El año pasado volvió a los medios el Eurodac. El Eurodac es el enorme almacén de datos biométricos (huellas dactilares) de los solicitantes de asilo que llegan a cualquiera de los 27 estados miembros. Representantes de la extrema derecha en la Eurocámara pretendían ampliar los tipos de datos biométricos recopilados de personas migrantes así como relajar los requisitos para incluirlos.

Con la propuesta sobre la mesa, Eurodac podría incluir incluso fotografías de niños de 6 años.

Europa estudia blindar sus fronteras con las mismas tecnologías que quiere reguladas en su interior: "Los migrantes merecen el mismo amparo que cualquier otra persona"

El debate no ha terminado. En febrero de este mismo año la presidencia francesa del Consejo de la Unión Europea ha expresado su interés en usar el Eurodac para incluir los datos no solo de los solicitantes de asilo, sino de todas las personas inmigrantes que lleguen al territorio Schengen.

El propósito inicial del Eurodac es tener una base de datos con la que comparar las huellas dactilares de los solicitantes de asilo, para evitar que una misma persona solicitara ese asilo en más de un estado miembro y poder de esta manera centralizar los procedimientos en el primer país de llegada.

Con la propuesta francesa, este no sería su único uso. Se trata de una propuesta que además ha apoyado públicamente la comisaria europea de Asuntos Domésticos, Ylva Johansson. "Necesitamos una gobernanza más fuerte para asegurarnos de que nadie llega sin ser detectado y proteger nuestras fronteras exteriores en línea con nuestros valores".

Todavía queda mucho para conocer el texto final del Reglamento de la IA, pero es cierto que la Eurocámara sacó adelante una votación no vinculante que instaba a vetar el uso de esta tecnología con fines de vigilancia policial. La posición del Parlamento Europeo sobre el borrador del Reglamento todavía no se ha consensuado, pero esta votación es un primer paso.

El Consejo de Europa crea su propio Comité para la IA

Mientras todo esto sucede en el seno comunitario, otros organismos internacionales como el Consejo de Europa también trabajan en sus propios mecanismos con los que abordarán una regulación de este tipo de tecnologías.

Mientras que el borrador del Reglamento de la IA europeo ya esboza un veto a usar el DNI para identificarse en un aeropuerto, el Consejo de Europa prácticamente acaba de comenzar a dialogar sobre estos temas.

Si bien es cierto que el CAHAI —el hasta ahora Comité de IA del Consejo de Europa, que era un comité ad hoc— celebró su último pleno en diciembre de 2021, algunas organizaciones civiles que ya han participado en sus debates confían en que la creación de este nuevo Comité (CAI) no suponga ningún retroceso o paso atrás en este debate.

China se adelanta a Europa y publica unas directrices éticas para regular los modelos de inteligencia artificial

Algorithm Watch, una organización que funciona como observatorio del algoritmo, ha publicado un comunicado conjunto con varias de esas organizaciones civiles que han participado de los debates previos que se han dado en esta institución, en la que están representados países que no forman parte de la Unión Europea.

En su comunicado (que puedes leer aquí) temen que los consensos alcanzados en el comité extinto se puedan quedar "cortos" y exigen al nuevo organismo incluir sin ambages a los modelos de IA empleados en seguridad nacional, o los modelos que tengan usos tanto militares como civiles, en el ámbito de las competencias del futuro instrumento jurídico a desarrollar.

También inciden en que los nuevos marcos legales que se desarrollen deberán "complementar y reforzar el marco de los derechos humanos y no minar ni reemplazar los estándares existentes que se apliquen a la inteligencia artificial".

Nuevos organismos en España listos para supervisar los riesgos

No solo en Europa se producen avances regulatorios para la IA. 

España se ha convertido, a ojos del resto del continente, en un referente por haber publicado su Carta de Derechos Digitales en 2020 y haber aprobado la ley rider del Ministerio de Trabajo, en cuyo articulado ya contempla la necesidad de que las empresas detallen a los representantes de sus trabajadores qué procesos se han automatizado en el ámbito laboral y cómo podría afectarles.

Ese articulado de la ley rider también esbozaba la creación de un observatorio del impacto laboral de los algoritmos. Aunque la norma (una reforma del Estatuto de los Trabajadores) venía a regir sobre la relación de los trabajadores de plataformas, lo cierto es que las circunstancias con las que un algoritmo determina si un empleado es productivo o no también afecta a otros sectores.

Estos algoritmos ya deciden si te dan la condicional o si tu denuncia es falsa: Eticas lanza un buscador para conocer las IA que ya inciden en tu vida diaria

De la misma manera, también la Secretaría de Estado de Digitalización e Inteligencia Artificial avanzó a finales del año pasado otro observatorio, este sobre el impacto "social" de los mismos algoritmos. No se ha vuelto a saber sobre él, aunque en los Presupuestos Generales del Estado ya en vigor está contemplada la creación de una nueva agencia.

Se trataría de la Agencia Estatal para la Supervisión de la Inteligencia Artificial. Hace unas semanas, fuentes gubernamentales confirmaron a Business Insider España que de momento se continúa "en fase de análisis y desarrollo" para crear este organismo, para el que de momento todavía no existen plazos.

Las intenciones son firmes, pero hoy por hoy la regulación y observación de los desafíos éticos, sociales y laborales de la inteligencia artificial sigue recayendo en manos privadas. En manos de empresas de auditoría como Eticas Consulting, fundada por Gemma Galdon, o una asociación-observatorio llamada OdiseIA que quiere acercar la necesidad de acercar los algoritmos éticos al mercado.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.