Alemania, Francia e Italia pactan que la IA generativa se autorregule sin sanciones, lo que puede complicar las negociaciones del reglamento

Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial.
Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial.

BI España

  • Berlín, París y Roma consensúan que la IA generativa se autorregule mediante "códigos de conducta" y que por el momento no cuenten con un régimen sancionador.
  • El debate sobre cómo regular la IA generativa en el futuro Reglamento de la IA continúa, y este papel podría alejar posturas entre el Consejo y con el Parlamento.

Alemania, Francia e Italia han alcanzado un acuerdo por el que los modelos fundacionales deberían autorregularse mediante códigos de conducta y hacerlo, por el momento, sin un régimen sancionador. Es lo que se detalla en un documento conjunto al que han accedido agencias como Reuters este mismo fin de semana.

El Reglamento de la IA se está negociando en la Unión Europea. Desde hace semanas se vienen celebrando las reuniones tripartitas o trílogos, encuentros en los que los distintos organismos de la Unión Europea —Consejo de la UE, Parlamento Europeo y Comisión Europea— debaten todos los flecos del texto final.

Lo esperado es que un pacto entre Alemania, Francia e Italia pueda acelerar esas negociaciones, ya que los Estados miembros están representados en uno de los dos colegisladores, el Consejo, que precisamente preside España hasta finales de año.

Sin embargo, un parlamentario europeo ha hecho una lectura antagónica sobre el documento ahora conocido. En declaraciones a Euractiv, realizadas bajo condición de anonimato, este eurodiputado ha sido bastante lacónico. Ha visto ese acuerdo entre Alemania, Francia e Italia como "una declaración de guerra".

La irrupción de la IA generativa tuvo un momento determinante a finales del año pasado: la aparición de ChatGPT. OpenAI, la compañía que lo lanzó, está ahora inmersa en una crisis tras conocerse el pasado viernes el fulminante y sorpresivo despido de su fundador, que hasta ahora había sido CEO, Sam Altman.

La Comisión Europea puso sobre la mesa el borrador del Reglamento de la IA en 2021, bastante tiempo antes de que estas herramientas generativas empezaran a marcar la conversación en la industria. La norma nacía más como un instrumento con el que poner coto a casos de uso de tecnologías IA que pudiesen causar daño o perjuicio a los ciudadanos europeos.

Las excepciones a la prohibición del reconocimiento biométrico son ahora "el centro del debate" sobre el Reglamento de la IA, según Carme Artigas

Ese espíritu se ha mantenido en la norma. Después de que durante toda la legislatura tanto el Consejo como la Eurocámara fijaran sus posiciones, los trílogos discurren ahora mismo sobre redacciones concretas del articulado de la ley. Sin embargo, la necesidad de meter a la IA generativa en cintura en una ley que puede quedar obsoleta en muy poco tiempo está siendo un quebradero.

Para esta semana no hay agendada ninguna reunión de los trílogos, pero sí un encuentro informal que en la práctica retomará las negociaciones sobre qué pintan esos modelos fundacionales como ChatGPT o Stable Diffusion en la esperada regulación. Será una cena este martes entre europarlamentarios y la Presidencia Española del Consejo de la UE, junto con la Comisión.

Esa cita se producirá además después de que este día 21 de noviembre el grupo de trabajo de Telecomunicaciones del Consejo de la UE aborde precisamente el papel de los modelos fundacionales —estas herramientas de IA generativas— en todo el meollo.

El Consejo de la Unión Europea ya estaba en conversaciones avanzadas sobre cómo incluir la IA generativa en el futuro Reglamento de la IA. 

En ese sentido, Madrid propuso una definición y categorización de estas herramientas, que obligaría a los modelos "muy capaces" a contar con equipos de red team —gente que hace tests de estrés sobre los modelos— para garantizar que sus casos de uso más peligrosos están bien atados y se bloquean ante un intento de uso por parte de actores maliciosos.

La propuesta de Francia, Italia y Alemania relaja esa presión al plantear que los modelos se autorregulen y que inicialmente no cuenten con un régimen sancionador. El debate que sobrevuela todas las negociaciones es el papel que puede tener la IA en el motor económico de la Unión Europea. En realidad, es un debate conocido: si una regulación constreñiría o no la innovación.

Así, el acuerdo alcanzado por París, Berlín y Roma abriría la puerta a que empresas locales pudieran experimentar con el desarrollo de estas tecnologías sin la constricción de una regulación que pudiera hacer inviable su desarrollo o sus innovaciones. Sin embargo, esto también abre la puerta a que las multinacionales tecnológicas dominen el mercado europeo como ha sucedido en otros ámbitos.

Días atrás, Carme Artigas, secretaria de Estado de Digitalización e Inteligencia Artificial en funciones —este lunes Pedro Sánchez anunciará la nueva composición de su Gobierno— concedió una entrevista en Euractiv, al ser la responsable de las negociaciones en nombre del Consejo en los trílogos por el Reglamento de la IA.

En aquella conversación, Artigas defendía que no se podía mirar hacia otro lado con la aparición de los modelos fundacionales e incidía en la necesidad de regularlos con esta nueva legislación. "No podemos decir que no los vemos porque ya están aquí, no podemos mirar a otro lado".

"Hay un consenso que dice que incluso cuando estos modelos fundacionales se despliegan con casos de uso no de riesgo, estos pueden propagar riesgo sistémico en toda la cadena de valor. Somos conscientes de ello". "Estamos aterrizando, y estamos cómodos con no regular estos modelos bajo la categoría de alto riesgo".

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.