El Gobierno abre la puerta a que la sociedad civil participe en la Agencia Española de Supervisión de la IA con el futuro observatorio de algoritmos

Carme Artigas, secretaria de Estado de Digitalización, en los premios Top Insiders 2022 de Business Insider España.
Carme Artigas, secretaria de Estado de Digitalización, en los premios Top Insiders 2022 de Business Insider España.

Business Insider España

A mediados de septiembre, más de medio centenar de organizaciones sociales lanzaron una carta abierta dirigida a la Secretaría de Estado de Digitalización e Inteligencia Artificial (SEDIA) que dirige Carme Artigas. En ella, planteaban que la futura Agencia Española de Supervisión de la IA (AESIA), que ahora busca sede fuera de Madrid, no podía crearse de espaldas a la sociedad civil.

La respuesta por parte de la SEDIA no ha tardado en llegar. Este martes varias personas representantes de distintos colectivos firmantes de la carta mantuvieron un encuentro con la propia Artigas. En el encuentro, del que los colectivos informarán más adelante con una nota de prensa, se abordaron varias cuestiones. Y las sensaciones son positivas.

Aunque no se ha concretado nada, el Gobierno ha recibido como lógicas algunas consideraciones que estas entidades vienen trasladando desde hace meses. Por ejemplo, la necesidad de que la futura AESIA no cuente únicamente con tecnólogos y juristas: regular la inteligencia artificial también requiere contar con humanistas y expertos en ciencias sociales.

Para ello estará el futuro Observatorio del Impacto Social de los Algoritmos, que se enmarcará precisamente en la estructura de la AESIA y cuyo propósito es detectar aquellos procesos automatizados que, si bien superarían los exámenes que esbozan el futuro Reglamento de la IA que se cocina en Bruselas, pueden conllevar desafíos sociales que no sean tan medibles.

Hay ejemplos claros. A principios de mes elDiario.es exponía el caso de una IA con varios algoritmos desarrollada por una startup llamada Sanas que tiene la capacidad de "traducir la voz de una persona a muchos acentos diferentes". Sobre el papel, inofensivo. El Reglamento de IA que se desarrolla en Bruselas podría catalogarlo con un riesgo "medio".

Pero las implicaciones van mucho más allá. "Traducir" acentos en la práctica supone que muchos trabajadores de centros de atención al cliente deslocalizados verán cómo sus acentos se occidentalizan para que suenen igual que las entonaciones de ciudadanos en países ricos.

El futuro Observatorio del Impacto Social de Algoritmos ayudará a la AESIA, de esta manera, a detectar aquellos modelos de inteligencia artificial que aunque han superado los trámites de la futura regulación europea y a nivel de auditoría no se detecta ningún problema, en realidad están generando problemas sociales graves, como un refuerzo de ideas racistas, por ejemplo.

 

Entre el Gobierno y los colectivos sociales firmantes todavía no se ha concretado nada, aunque desde la Secretaría de Estado se mostraron receptivos en todo momento durante la reunión. Este Observatorio sería una de las vías en las que sería necesaria más participación de la sociedad civil o de perfiles más humanistas.

La incorporación de estos perfiles es algo que la propia SEDIA también valorará de forma casi inmediata, ya que se está trabajando en la memoria económica de la AESIA para negociar su partida en los Presupuestos Generales del Estado de 2023. Aunque la AESIA ya se incorporó en las cuentas de este 2022, se pondrá en marcha definitivamente casi a finales del año que viene.

Sin embargo, las presentes en el encuentro también reconocen que la mayor parte del funcionamiento de la AESIA vendrá marcado por el Reglamento de la IA europeo que todavía tiene que recibir luz verde de los colegisladores comunitarios. No es problema: muchas de las organizaciones firmantes de la carta a la SEDIA también están participando en el debate europeo.

El 'sandbox' para el Reglamento de la IA en España arrancará en semanas

Precisamente para ayudar en esa transposición, España será el único país de la Unión Europea en albergar un sandbox o campo de pruebas. Este sandbox ya fue anunciado en un acto en Bruselas por parte de la Comisión y por parte de la propia Secretaría de Estado de Digitalización. Gracias al encuentro se sabe que el mismo podría dar comienzo tan pronto como el mes que viene.

El sandbox se está desarrollando de manera sectorial, con lo que habrá diversos grupos metodológicos y, según abundaron algunas de las participantes en el encuentro entre colectivos sociales y la SEDIA de este martes, "será interesante que en al menos alguno de ellos esté la sociedad civil para participar tanto en la transposición como a la hora de hacer pruebas de estrés".

Aunque de la reunión no se ha arrancado ningún compromiso claro, sí se ha abierto la puerta a mantener una interlocución durante las próximas semanas que podría desembocar en futuros encuentros o puntos más concretos sobre el sandbox del mes que viene, la AESIA, el futuro observatorio de algoritmos u otros puntos de la Estrategia Nacional de la IA por desarrollar.

La carta de septiembre fue promovida por colectivos como Lafede.cat, Fundación Eticas, Civio, el Observatorio de Trabajo, Algoritmos y Sociedad, Algorights, Algorace o Komons, y respaldada por organismos como XNet, ArsGames o entidades internacionales como StateWatch o la European Digital Rights (EDRi).

Otros artículos interesantes:

China obtiene y publica 30 algoritmos utilizados por gigantes tecnológicos como Alibaba y Tencent

Microsoft, Telefónica o PwC colaboran con OdiseIA en su primer informe, que busca acercar al mercado la necesidad de trabajar con algoritmos "éticos"

He pasado una semana escuchando podcasts de tecnología sin parar, y lo que he aprendido de Sillicon Valley me da miedo

Te recomendamos