España y la mayoría de comunidades autónomas tienen planes o estrategias IA y sorpresa: no sirven para nada

Feria de tecnología de reconocimiento facial
  • La mayoría de comunidades autónomas ya tienen una estrategia IA propia y no sirven de mucho: repiten lugares comunes e ignoran debates como la soberanía digital.
  • Un acuerdo entre la Comunidad de Madrid y Microsoft para usar una IA generativa en centros médicos enciende este debate que preocupa en movimientos sociales.

La práctica totalidad de las comunidades autónomas ya cuenta con un plan o una estrategia de inteligencia artificial, o de al menos, digitalización. Las que no, tienen otros documentos marco que son sencillamente una lista de deseos en el camino hacia una transformación económica.

El problema es que estos documentos no sirven de nada.

Algunas regiones, como Castilla y León, todavía no cuentan con una estrategia de IA propia —aunque la oposición ya se lo reclama al Gobierno autonómico—. Otras las tienen aprobadas desde 2020, como es el caso de Cataluña, y otras, como Andalucía, las han presentado este mismo verano. 

La Comunidad Valenciana presentó la suya el año pasado, y rizando el rizo, este verano creó un Observatorio de la IA propio, distinto de la Agencia Estatal de Supervisión de la IA (AESIA) que se ubicará en A Coruña. Precisamente la Xunta gallega que dirigía el entonces hoy líder popular Alberto Núñez Feijóo fue precoz anunciando en 2021 su estrategia IA.

Asturias, Navarra o Madrid incluyen algunos retazos sobre IA en sus planes de digitalización. En algunos de los documentos más avezados se puede llegar a leer que la IA, además de un enorme potencial, presenta una serie de riesgos y desafíos. 

El Reglamento de la IA puede decepcionar: así se organiza ya parte de la sociedad civil para combatir los efectos más nocivos de esta tecnología

Muchos de esos riesgos y desafíos los llevan poniendo negro sobre blanco desde hace años los movimientos sociales y ahora Bruselas espera poner pie en pared con este tema con el inminente Reglamento de la IA, que está en fase de trílogos y cuya aprobación es inminente.

Las últimas negociaciones en Bruselas a cuenta de esa futura regulación han suscitado preocupación entre colectivos de activistas. Pero lo que sucede al mismo tiempo en varios puntos de España demuestra varias cosas: que la regulación no da respuesta a todos esos desafíos que se identifican en torno a la IA y que muchas estrategias IA nacen siendo papel mojado.

Un buen ejemplo está en el reciente anuncio de la Comunidad de Madrid: un acuerdo de colaboración con Microsoft y Fundación 29 para desplegar en los centros de salud de la región una herramienta de IA generativa llamada DxGPT, basada en GPT-4, de OpenAI.

Por qué un acuerdo de Madrid con Microsoft enseña las costuras de planes estratégicos y otros documentos marco

¿Por qué un acuerdo público-privado entre Madrid y Microsoft puede ser problemático? ¿Qué tiene de malo dejar al alcance de los facultativos de la comunidad autónoma una herramienta que a priori les ayudará a mejorar la detección temprana de enfermedades raras en la población?

Una pista. DxGPT no es un modelo preciso, es un experimento... que, de 200 casos en GPT-4, solo fue estrictamente preciso en 135: una eficacia del 67,5% —puedes ver el estudio completo en su repositorio en GitHub—. Otra. DxGPT tratará datos de salud de pacientes, que, aun estando anonimizados, se catalogan como sensibles en el Reglamento de Protección de Datos.

Otra pista más. La privatización sobrevenida, como criticó en este tuit el investigador Ekaitz Cancela. Y una más, esta aportada por Javier Sánchez-Monedero, investigador en la Universidad de Córdoba y en el Data Justice Lab de la Universidad de Cardiff (Gales): "No hay mucha experimentación seria sobre el tema".

Sánchez-Monedero explica al teléfono que ahora se están empezando a publicar "artículos interesantes" sobre si un modelo de lenguaje extenso como GPT-4 (LLM, por sus siglas en inglés) puede llegar a conclusiones útiles en campos determinados del conocimiento.

El investigador explica que una hipótesis fundamental "implícita o explícita" de productos como ChatGPT es que "el texto masivo en su forma visual —sin entender semántica, causalidad, contexto, etc— usado para alimentar un modelo que predice secuencias de palabras es condición suficiente para modelar cualquier tipo de conocimiento humano".

¿Lo es?

"ChatGPT sabe que 2 y 2 son 4 porque lo ha visto escrito millones de veces, no porque sepa sumar. Lo mismo aplica a cualquier valor numérico, dosis, umbrales en biomarcadores, etc. ¿Es suficiente trabajar en correlaciones de palabras e interpolar palabras a la salida para montar una máquina de análisis médico?", se pregunta.

Emily M. Bender, experta en computación lingüística de la Universidad de Washington, ironizaba estos días en redes sociales: "Lingüistas computacionales en España: tenéis trabajo. Parece que vuestras autoridades médicas necesitan entender qué es un generador de texto sintético. Y vergonzoso por parte de Microsoft el impulsar esta tecnología".

El anuncio de la Comunidad no ha pasado desapercibido. Más Madrid presentará una proposición no de ley para que toda herramienta IA que se aplique a la salud en la región deba atenerse a un protocolo de evaluación, avanzó esta misma semana en X (Twitter) Héctor Tejero, portavoz de digitalización del partido.

"La parte positiva es que será un piloto, pero será un piloto sin que sepamos cuál es el proceso experimental y cómo se evalúa, sin que haya una tercera parte vigilando", advertía Sánchez-Monedero. La Fundación 29 es una fundación privada en cuyo patronato hay directivos de Microsoft en España.

A finales del mes pasado un alto cargo del Gobierno andaluz también adelantó que se usaría la IA (¿pública, privada?) para la detección precoz de enfermedades raras, como en Madrid, sin que por el momento hayan trascendido nuevos detalles.

"Ninguna estrategia IA aterriza qué es exactamente la IA con humanismo digital"

El ejemplo de Madrid es paradójico para poner de relieve que las estrategias de digitalización o las estrategias IA que han desplegado distintas instituciones públicas, desde el Gobierno de España hasta la docena de comunidades autónomas que ya disfrutan de documentos del estilo, son textos que dejan muchas preguntas sin respuesta.

Quizá una es crucial. Javier Sánchez-Monedero piensa que una pregunta que se omite a menudo en ese tipo de documentos es si la IA realmente funciona. Judith Membrives i Llorens, técnica de digitalización en Lafede.cat y parte del colectivo AlgoRights, cree que a la hora de elaborar estos documentos marco falta ambición.

"Consideramos relevante que desde las instituciones públicas se manifieste la importancia que tienen estos procesos de implementación de automatización, IA y algoritmos, pero creemos que falta ambición, sobre todo desde la base del desarrollo tecnológico y la gobernanza de toda esta tecnología", apunta.

Sumar pregunta al Gobierno qué está haciendo para atender las demandas de ONG y expertos sobre el futuro reglamento europeo para la IA

Judith Membrives destaca cómo "ninguna de esas estrategias aterriza qué es exactamente y a nivel de mecanismos, por ejemplo, la IA basada en el humanismo digital". "En ningún sitio se describe cuáles son los marcos, los límites de desarrollo, el framework en el que se basa esa IA humanista digital", continúa.

Por supuesto, Membrives cree que también falta una visión colaborativa y ambición ante la idea de que sean procesos más participativos. Echa en falta una gobernanza con una visión "de inteligencia colectiva frente a un espíritu optimizador en pro de la eficiencia" que provoca que "el debate sobre la ética de las decisiones quede bastante alejado de estos documentos", lamenta.

Es lo que también opinan desde AlgoRace, un colectivo en el que diversos expertos y activistas promueven investigaciones para tratar de desracializar los sesgos algorítmicos.

"Creemos que una vez más se está desoyendo lo que las organizaciones de base estamos señalando. Si bien es verdad que algunas administraciones se abren a dialogar y a escuchar, a la hora de la verdad hacen caso omiso sobre nuestras denuncias y recomendaciones y no se nos da el peso que sí se da al lobby tecnológico", critican. 

"Además, hay una falta de transparencia e información enorme. Se dice a la sociedad que se han contratado determinados sistemas, como el caso de Microsoft en Madrid, sin explicarnos en qué se va a traducir realmente en materia de privacidad, gestión de los datos o cuáles son los riesgos y cómo se prevé evitarlos.

Desde AlgoRace inciden en que "de nada sirve" que las instituciones siquiera se reúnan con colectivos sociales "si luego otorgan subvenciones millonarias a un conglomerado de empresas cuyos intereses van en contra de los derechos e intereses de la sociedad en general y las personas más vulnerabilizadas en particular".

En estas estrategias aparecen términos como "paradigma" o "sinergia", pero es más difícil leer "soberanía digital"

En la actualidad, todas las comunidades se afanan en presentar sus estrategias IA. Acaban siendo documentos rimbombantes que carecen en realidad de una estrategia real, efectiva y aplicable para desplegar, controlar y regular esta tecnología. El debate de la participación que pone sobre la mesa Judith Membrives es, en ese sentido, urgente, sobre todo ante la carencia de esas guías:

"En el caso específico de Madrid hablamos de información altamente sensible, el hecho de que queden en manos privadas supone acumulación de poder para las grandes tecnológicas y ausencia de transparencia". Desde los movimientos sociales se echa de menos que las instituciones escuchen y permitan participar y asesorar.

En el mejor de los casos, las estrategias autonómicas consultadas por Business Insider España ponen de relieve la importancia de detectar casos de uso de esta tecnología en lo público, así como divulgar sobre las oportunidades y riesgos que presentan estas herramientas entre la población. También se habla de impulsar el tejido productivo y fomentar la colaboración público-privada.

Pero mientras eso sucede a nivel regional, Europa sigue debatiendo sobre cómo recuperar campo en la soberanía tecnológica, en una carrera geopolítica que sigue siendo vertiginosa.

La gran parte de estas estrategias, planes y guías no responden a las necesidades que en lo local, en lo estatal y en lo supranacional se están teniendo en el Viejo Continente ante el avance de las tecnológicas privadas. "Los datos médicos deberían estar gestionándose desde una estructura de datos pública, no desde compañías privadas", lamenta Judith Membrives.

La técnica sí cree que estas guías y estrategias ayudan en parte, pues "es importante que haya mensajes políticos en el ámbito local y estatal porque es necesario que el tema llegue a la ciudadanía", justo cuando el Reglamento de la IA está en fase de trílogos y su aprobación podría ser inminente, bajo la Presidencia Española del Consejo de la Unión Europea.

Una regulación que está llamada a llenar todos esos huecos con los que por el momento las instituciones públicas lanzan mensajes triunfalistas en torno a la adopción de la IA, con términos tan reconocibles como sinergia, enfoque holístico o paradigma.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.