La propuesta de la Eurocámara para regular la IA será más estricta con modelos como ChatGPT: esto es lo que se les exigirá si llega al texto final

Empleados de una startup israelí trabajando en algoritmos para vehículos autónomos.
Empleados de una startup israelí trabajando en algoritmos para vehículos autónomos.

REUTERS/Amir Cohen

  • 2 eurodiputados lanzan una carta abierta para que Von der Leyen y Biden convoque un gran encuentro mundial para abordar los desafíos de la IA.
  • "Europa es el único dique global para los gigantes de la IA", escribe uno de ellos. La Eurocámara acepta ser más estricta con la IA generativa en el futuro reglamento.
  • Documentar sus riesgos, advertir si se ha usado contenido protegido con derechos de autor o garantizar más transparencia son algunas de sus nuevas exigencias.

El Reglamento de la Inteligencia Artificial sigue su curso legislativo. El Parlamento Europeo está terminando de concretar su propuesta, que tendrá que negociarse después con el otro colegislador comunitario, el Consejo de la Unión Europea. Por eso, aunque su aprobación en la Eurocámara pueda ser inminente, esta norma no tendrá luz verde hasta dentro de unos meses.

La norma aspira a regular el despliegue de modelos de inteligencia artificial (IA) en toda la Unión. Se presentó hace 2 años. El borrador inicial que la Comisión puso sobre la mesa ya ha recibido miles de enmiendas mientras se tramita en los distintos estamentos de Bruselas. Y la realidad en torno a esta tecnología también ha cambiado radicalmente en los últimos 24 meses.

En 2021 ya existía una extensa literatura académica que ponía de relieve los desafíos éticos y sociales de muchos modelos de IA que ayudan al reconocimiento biométrico —mediante facciones faciales, voz o huella dactilar— o sirven contenidos en plataformas digitales —y han acabado polarizando sociedades enteras—.

Lo cierto es que esos desafíos siguen estando ahí, pero en los últimos meses se ha puesto de moda el concepto de IA generativa y la expectación que la industria tecnológica tiene sobre este ámbito se ha disparado hasta nuevas cotas. Tanto es así, que los legisladores europeos temen que el futuro reglamento nazca anticuado.

Así ponen España, Bruselas y el resto de Europa pies en pared ante los desafíos éticos y sociales que provoca el auge de la inteligencia artificial

Antes de que el Parlamento Europeo adopte una postura común, es necesario que varios agentes se pongan de acuerdo. De un lado, los grupos políticos. Del otro, las comisiones parlamentarias que están participando en la redacción final del texto. 

Las negociaciones las lideran las comisiones de Mercado Interior y Protección del Consumidor y la de Libertades Civiles, Justicia y Asuntos de Interior, pero en el debate están participando otras 5 comisiones del Parlamento Europeo: Industria, Medio Ambiente y Salud Pública, Cultura y Educación, Transportes y Asuntos Jurídicos.

Hace unos días se produjo un encuentro clave en el seno del Parlamento Europeo. Una reunión política que buscaba cerrar un acuerdo se transformó en un debate más técnico dado que algunos eurodiputados advirtieron que modelos de IA generativa como ChatGPT o Stable Diffusion requerirían de más concreción en el texto legal.

Por esa razón, como advertía el medio Euractiv, las divergencias que se apreciaron en aquel encuentro han provocado que una votación clave en comisión parlamentaria fechada para este 26 de abril se haya acabado posponiendo. Politico ya avanzó a principios de mes de cómo el auge de este tipo de modelos habían introducido nuevos debates en el desarrollo legislativo del reglamento.

A pesar de este revés, Europa sigue convencida de la necesidad de legislar la IA y el futuro reglamento recibirá sus últimos vistos buenos probablemente coincidiendo con la presidencia española del Consejo de la Unión.

Documentar sus riesgos y advertir si se ha entrenado con material protegido: las exigencias propuestas a la IA generativa

En su borrador inicial, el Reglamento de la IA introducía 4 niveles de riesgo en función del modelo de inteligencia artificial que reglaba: desde el riesgo mínimo pasando por el riesgo limitado, el riesgo alto y el riesgo inasumible. Solo la comercialización de los modelos que encajen en esta última categorización será vetada en la Unión Europea.

Ahora, al margen de esas distinciones, el debate en el Parlamento Europeo se centra en inteligencias artificiales como ChatGPT o Stable Diffusion. Son modelos capaces de generar texto o imágenes gracias a que han sido entrenadas con vastas cantidades de datos, recogidos de internet en muchos casos sin la autorización de los autores o propietarios de esos contenidos.

Unas precisiones: ChatGPT en realidad es un producto, un chatbot, que se construye precisamente sobre un modelo de inteligencia artificial desarrollado por OpenAI conocido como GPT. GPT-4 ya está disponible, pero solo a los usuarios de pago de ChatGPT. Además, sin esperar al Reglamento de la IA, las autoridades de protección de datos europeas ya están investigando a OpenAI.

De este modo, una eventual nueva propuesta del reglamento por parte de la Eurocámara haría esa distinción, entre modelos de IA de propósitos generales de los modelos de IA "fundacionales". Este es un término acuñado en la Universidad de Stanford que hace referencia a esas IA "generativas" como el ChatGPT de OpenAI.

Estas son las webs secretas que entrenan a ChatGPT y similares para que parezcan inteligentes

El nuevo debate plantea que el Reglamento de IA incorpore nuevas exigencias antes de que los modelos fundacionales como ChatGPT se desplieguen y comercialicen en el Viejo Continente. Sus proveedores tendrán que comprobar qué riesgos puede entrañar su herramienta, y aquellos riesgos que no puedan mitigarse antes de su lanzamiento deberán ser documentados.

Ese es el principal compromiso que los eurodiputados alcanzaron el miércoles pasado. El cumplimiento de esos requisitos por parte de los proveedores deberán garantizarse tanto en la distribución del modelo al público como en su desarrollo: deberán garantizar que las fuentes de datos con las que se entrenan estos sistemas son sostenibles y sus sesgos son corregidos.

No todo estará listo una vez se sortee esa primera barrera regulatoria: los responsables de estos modelos de IA en Europa también tendrán que ofrecer garantías de que durante los 10 años siguientes al lanzamiento del modelo esa documentación permanecerá accesible, y garantizar transparencia con sus algoritmos.

Uno de los puntos calientes de la medida contempla la necesidad de que los proveedores adviertan de que sus modelos han sido entrenados con datos protegidos por derechos de autor. Muchos artistas critican con dureza las creaciones con herramientas como Stable Diffusion al considerar que sus creaciones en realidad son fruto de estilos artísticos robados.

Todas estas novedades se acordaron apenas horas después de que los principales ponentes del reglamento, los eurodiputados Dragoș Tudorache y Brando Benifei, publicaran una carta abierta en la que hacían varios llamamientos. 

Entre ellos, uno a que Ursula von der Leyen, presidenta de la Comisión Europea, y Joe Biden, presidente de EEUU, convocaran un gran encuentro global para discutir los potenciales usos y también los desafíos de la IA.

Expectación y algunas dudas ante el futuro Reglamento de la IA

La propuesta de la Eurocámara en estos momentos también pretende encomendar a la Comisión Europea la creación de unas cláusulas contractuales tipo, un mecanismo legal que también se ha usado en el Reglamento General de Protección de Datos para amparar las transferencias de datos a terceros países no miembros de la UE en circunstancias concretas.

Esas cláusulas no serían vinculantes pero servirían para regular el despliegue de estas IA generativas en sectores concretos.

Con todo, el Reglamento de la IA se espera en diversos sectores de la sociedad. Un encuentro que tuvo lugar este viernes en la Oficina del Parlamento Europeo de Madrid recogía algunos de los desafíos a los que la sociedad en su conjunto deberá hacer frente ante el despliegue sin control de modelos automatizados.

En el acto participaron expertas como Gemma Galdon, fundadora de Eticas, que remarcó la urgencia de regular ya la inteligencia artificial: "Hay un impacto en los derechos no solo individuales sino también colectivos que no se puede dejar de lado".

Las organizaciones participantes en el debate remarcaron la necesidad de vetar de forma absoluta aquellos algoritmos que entrenen para la detección de "emociones" en las personas, dado el amplio abanico de riesgos psicosociales que máquinas como esa pueden entrañar.

Google planea incluir IA generativa en su negocio publicitario

A pesar de todo, diversos colectivos de la sociedad civil ya han emprendido iniciativas como Acción por la Justicia Algorítmica, una coalición que nace de conversaciones entre la auditora algorítmica Eticas y el verificador Maldita a finales de 2021 y que entre sus propósitos está el emprender casos y litigarlos sin necesidad de esperar a que el Reglamento de la IA esté en vigor.

La coordinadora de esta coalición, en la que se han integrado plataformas de diverso tipo y sindicatos como UGT, desgranaba en una reciente entrevista con Business Insider España que las negociaciones sobre este Reglamento de la IA avanzan a nivel comunitario, y que encuentra la versión del Parlamento Europeo como la más esperanzadora.

"Ha habido cambios con respecto a la propuesta de la Comisión o la del Consejo, ha habido más interlocución y se ha abierto más a cómo podría estar afectando la IA", abundaba. "Aunque a nivel estructural veremos, porque eso de dividir el riesgo en sectores probablemente nos lleve a problemas".

"Está en la conversación la posibilidad de crear una nueva categorización de riesgo. Si ya hemos creado un reglamento todo escenario debería estar incluido en el mismo". El riesgo es ir actualizando el reglamento cada vez que se ponga de moda un nuevo caso de uso o una nueva iteración de los sistemas automatizados. "Imagínate qué sucederá dentro de 10 años".

"¿Qué haremos entonces?", preguntaba Orra. "¿Regularemos de nuevo porque ya no será válido el reglamento que tendremos?". "El Parlamento ha dado un paso más por los derechos y está aterrizando un poco más cómo está impactando la IA en la sociedad, pero en cuanto a llevarlo a la práctica puede pasar lo mismo que con el Reglamento de Protección de Datos".

"Que veamos empresas que destinan parte de su presupuesto anual a pagar sanciones sin ninguna intención de acabar con sus prácticas. No lo podemos permitir", zanjaba.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.