No tan rápido, ChatGPT: la Eurocámara estudia el encaje de los bots que generan texto o imágenes en las categorías de "riesgo" del Reglamento de la IA

Dos militares prueban un 'script' de reconocimiento facial durante un curso de ciberseguridad.
Dos militares prueban un 'script' de reconocimiento facial durante un curso de ciberseguridad.

REUTERS/Amir Cohen

  • El Parlamento Europeo ya incluye casos de uso como los de ChatGPT o Stable Diffusion que serán catalogados como sistemas de riesgo en el Reglamento de la IA.
  • La Eurocámara debe alcanzar una postura común sobre la norma antes de negociarla con el otro colegislador para que reciba definitivamente luz verde.

El Reglamento de Inteligencia Artificial sigue debatiéndose en Bruselas. Mientras que el Consejo de la UE ya ha alcanzado un enfoque común, los eurodiputados a cargo de la norma ya están ultimando una postura que consensuar en el Parlamento y que se conocerá en cuestión de días, según ha avanzado Euractiv esta semana.

Este medio destaca que en el borrador que la Eurocámara podría llegar a aprobar se ha avanzado en el encaje de estos bots que generan texto o imágenes en una de las categorías de riesgo. OpenAI presentó el año pasado ChatGPT, la última iteración de su modelo de IA generador de texto GPT-3, desatando la locura en el mercado, y Bruselas no quiere que este reglamento nazca desfasado.

Como en todo reglamento europeo, el procedimiento requiere que los dos colegisladores de la Unión —el Consejo de la Unión Europea, en el que se representan los estados miembros; y el Parlamento Europeo— consensúen un texto final. Para llegar a ese punto es necesario primero que cada colegislador alcance una postura común. El Consejo ya comparte un enfoque propio.

Ilustración de inteligencia artificial

Ahora son los ponentes de dos comisiones del Parlamento los que están dándole los retoques finales a una norma que podría ver la luz a lo largo de este 2023, presumiblemente bajo la presidencia española del Consejo. Una vez que el Parlamento adopte su postura, empezarán las negociaciones con el Consejo en los conocidos trílogos —Consejo, Parlamento y Comisión—.

Aunque en la redacción de la versión de la Eurocámara colaboran varios eurodiputados, son el ponente de la Comisión de Derechos y Libertades Civiles (LIBE) y el de la comisión de Mercado Interior y Competencia (IMCO) los que negocian los últimos retoques. Algunas novedades, a las que ha accedido Euractiv, tienen que ver con la catalogación de riesgos de sistemas de IA.

Ya en la propuesta borrador de la Comisión que se conoció en 2021 se propuso la catalogación según la cual ninguna IA está exenta de riesgo: el riesgo cero no existe. Superado eso, estos sistemas podrán ser distribuidos en 4 categorías: "de riesgo inasumible" —los prohibidos—, "de riesgo alto", "riesgo limitado" o "riesgo mínimo".

La fiebre de la IA no pillará por sorpresa a Europa

Uno de los anexos del borrador del reglamento con el que trabaja el Parlamento Europeo incluye casos de uso de modelos de inteligencia artificial distribuidos en función del riesgo que representen. Los sistemas de riesgo inasumible no podrán ser comercializados, y los de riesgo alto tendrán que cumplir con una serie de requisitos para sí poder serlo.

En lo que respecta a los sistemas que generan texto, Euractiv destaca que se ha creado una categoría para las IA generadoras de texto, como ChatGPT, pero también generadoras de imágenes, como Stable Diffusion. Cualquier texto o imagen generada por un modelo de IA que pueda ser confundida con una producción humana podrá considerarse de riesgo.

Estos modelos podrán, eso sí, contar con mecanismos para esquivar esa catalogación de riesgo. Esas producciones —textuales o gráficas— deberán ser revisadas por un ser humano y alguien sea legalmente responsable de las mismas.

Europa quiere ser la vanguardia ética de los algoritmos, pero tiene un oscuro pasado: así son las IA financiadas por Bruselas que ya pueden generar discriminación

Según el borrador del Reglamento de la IA que presentó la Comisión en 2021, solo los modelos de inteligencia artificial de riesgo "mínimo" podrán comercializarse libremente.

Por otro lado, los motores IA que puedan generar deepfakes —sistemas capaces de sustituir un rostro por el de otra persona en un archivo audiovisual— y aquellas técnicas "subliminales" con propósitos terapéuticos o científicos que usen sistemas de automatización también serán considerados "de alto riesgo".

La irrupción de ChatGPT en el mercado ha supuesto un revulsivo de enorme escala, hasta el punto de que Microsoft presentó su asociación con la tecnológica primero y lanzó una versión de Bing con ChatGPT después. Esto ha llevado a Google a intensificar su trabajo en el área de la IA, lo que se constató en la presentación de sus últimos informes financieros. Por ahora, sin grandes éxitos.

El año pasado la palabra de moda fue el metaverso. Este año es el turno de la inteligencia artificial, con la salvedad de que es una tecnología mucho más tangible a día de hoy.

Otros casos de uso de alto riesgo o inasumibles

Mientras la Eurocámara consensúa su postura ante el futuro Reglamento de la IA, algunas claves se han pospuesto. Por ejemplo, la simple definición de inteligencia artificial se ha aparcado mientras se resuelven otras cuestiones igual de urgentes.

Desde que la Comisión presentó el borrador, siempre se ha tenido claro que uno de los casos de "riesgo inasumible" son aquellos en los que un modelo de IA es capaz de favorecer el reconocimiento biométrico de personas en espacios públicos y en tiempo real. Las cámaras de vigilancia inteligentes estarán totalmente prohibidas en el Viejo Continente.

Mercadona fue sancionada en 2021 por la Agencia Española de Protección de Datos con más de 2,5 millones de euros por tratar de imponer un sistema de esas características de la noche a la mañana.

Sin embargo, sí se deja la puerta abierta a casos en los que las cámaras podrán obtener imágenes y ese reconocimiento podrá ser a posteriori —por ejemplo, para colaborar en investigaciones policiales—. Es precisamente un caso en el que desde hace meses trabaja el Ministerio de Interior español, con lo que su controvertido algoritmo —ya en entrenamiento— podría ser amparado por la norma.

Eso sí, se tratará de un tratamiento de datos con un algoritmo de "riesgo alto", con lo que el modelo de IA tendrá que someterse a una serie de cláusulas. De prosperar este consenso de la Eurocámara y acabar llegando así a la aprobación en el trílogo, la IA policial que diseña España tendrá que ser mucho más transparente de lo que se ha sabido hasta ahora.

El algoritmo de reconocimiento facial que entrena la Policía Nacional lleva al límite las líneas rojas del futuro Reglamento de la IA

Otros casos de uso de IA de alto riesgo son los algoritmos que recomiendan a las empresas postulantes de empleo y los modelos del ámbito laboral, sistemas automatizados que ayudan en la confección del triaje en el ámbito sanitario —en una sala de Urgencias, por ejemplo— y aquellos modelos que impacten de forma decisiva en "colectivos vulnerables".

Además, según los últimos documentos a los que ha accedido Euractiv, los eurodiputados han ampliado la redacción que atañe a los modelos que afectarán a los migrantes en frontera para evitar que los países miembros pretendan eludir el cumplimiento de este reglamento delegando la gestión fronteriza en contratistas.

Lo que sí permanece inalterable es el veto absoluto a los algoritmos que favorecen supuestas capacidades predictivas en entornos policiales: un algoritmo que ayuda a distribuir a agentes de la policía en barrios de la ciudad puede generar desigualdad confirmando sesgos sociales y ampliando la brecha y la marginalidad.

Con todo, estos cambios se han introducido en la versión del Reglamento de IA que valorará el Parlamento Europeo. Después tocará negociar —y ceder— con el otro colegislador. Se espera que la norma reciba luz verde en la segunda mitad del año, bajo la presidencia española del Consejo de la Unión Europea que terminará el 31 de diciembre de 2023.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.