Así ha presionado OpenAI en la Unión Europea para descafeinar el futuro Reglamento de la IA

Sam Altman, CEO y fundador de OpenAI.
Sam Altman, CEO y fundador de OpenAI.

Reuters

  • Numerosos expertos y líderes tecnológicos llevan semanas pidiendo que se legisle el desarrollo de los modelos de inteligencia artificial más avanzados. 
  • La Eurocámara ya ha aprobado la propuesta de Reglamento de la IA, una norma que está destinada a sentar las bases de esta tecnología, aunque podría haber sufrido presiones por parte de OpenAI, la desarrolladora de ChatGPT.

En abril de 2021, la Comisión Europea presentó el borrador del Reglamento de Inteligencia Artificial. Desde entonces, la IA ha experimentado una auténtica revolución gracias a herramientas que se han convertido en fenómenos de masas: ChatGPT, Dall-E, Midjourney...

La tramitación de la normativa europea ha seguido su curso, pero los reguladores se han visto obligados a prestar atención a la inteligencia artificial generativa con el fin de que esta nueva —y potente— tecnología no se quede fuera de la futura legislación. 

Desde que OpenAI lanzó al público ChatGPT, han sido muchos los expertos que han abogado por regular el desarrollo de los modelos de IA más avanzados. Una de las peticiones más llamativas fue la carta abierta que firmaron varios líderes tecnológicos de primer nivel, entre ellos, Elon Musk —curiosamente, uno de los fundadores de OpenAI— y Steve Wozniak, fundador de Apple. 

El manifiesto pedía una moratoria de 6 meses en el desarrollo de modelos similares a GPT-4, la última versión de la tecnología que esconde el software de OpenAI. Y, aunque el documento fue criticado en su momento por los supuestos intereses que podrían tener los firmantes, el fondo del texto ha sido respaldado por otras peticiones similares

verticalImage1686039152924

El giro de guion llegó el mes pasado cuando la propia desarrolladora de ChatGPT, con Sam Altman a la cabeza, reconoció ante el Senado estadounidense que debería existir una regulación que legislase la actividad de las desarrolladoras de inteligencia artificial y que los gobiernos deberían conceder licencias a las empresas y retirárselas en caso de que estas incumpliesen la normativa.

El CEO de OpenAI inició así una gira por el continente europeo —que le llevó a pasar por Madrid— en la que se ha reunido con varios líderes políticos y ha participado en coloquios en los que se ha mostrado a favor de la legislación de la IA. Sin embargo, el Reglamento de la Unión Europea en materia de inteligencia artificial ha supuesto un pequeño escollo para el creador de ChatGPT. 

Altman llegó a decir a finales de mayo que, si ChatGPT no cumplía con la futura norma europea, OpenAI abandonaría el continente. Aun así, el empresario rectificó pocas horas después y aseguró que no tenía planes de llevarse de Europa el generador de texto por IA. 

Las presiones de OpenAI a la Comisión

Sam Altman, CEO y fundador de OpenAI.
Sam Altman, CEO y fundador de OpenAI.

Reuters

En ese sentido la postura que mantuvo Altman hace unas semanas ya dejaba entrever lo que ahora ha revelado una exclusiva de la revista Time, la antipatía que siente OpenAI ante la nueva regulación de la inteligencia artificial en Europa. 

Según ha publicado el medio de comunicación estadounidense, que ha tenido acceso a varios documentos facilitados por la Comisión Europea y ha hablado con varios funcionarios de la UE, la desarrolladora de ChatGPT habría presionado en Bruselas para que varios elementos de la legislación se suavicen de forma que reduzcan la carga regulatoria de la compañía.

Al parecer, en 2022, la empresa contactó varias veces con los funcionarios europeos para argumentar que la futura norma no debería considerar sus programas como tecnologías de "alto riesgo", lo que las sometería a estrictos requisitos legales de transparencia, trazabilidad y supervisión. Según OpenAI, esa carga debería recaer sobre aquellos que quieran utilizar IA en casos de alto riesgo.

 

"Por sí mismo, el GPT-3 no es un sistema de alto riesgo, pero [posee] capacidades que pueden emplearse en casos prácticos de alto riesgo", defendía OpenAI en un documento publicado por Time que la compañía les envió a los funcionarios de la Comisión y del Consejo de la UE en septiembre de 2022 y que llevaba por título Libro Blanco sobre la Ley de Inteligencia Artificial de la Unión Europea.

Este documento sería una de las pruebas de que la desarrolladora de ChatGPT habría presionado a los organismos reguladores europeos para que su actividad no se viese afectada por la futura normativa, pero no sería la única.

Los empleados de OpenAI se reunieron con funcionarios de la Comisión Europea

Banderas de la Unión Europea

Getty Images

Meses antes de enviar el Libro Blanco a los funcionarios europeos, OpenAI envió a 3 empleados a reunirse con la Comisión en Bruselas. "Quería que la Comisión aclarase el marco de riesgos y saber de qué forma podían ayudar", recoge un registro oficial de la reunión conservado por la Comisión al que ha tenido acceso Time

"Les preocupaba que los sistemas de IA de propósito general [como ChatGPT o Dall-E] se incluyesen como sistemas de alto riesgo y les inquietaba que, por defecto, más sistemas se categorizasen como de alto riesgo".

Según ha informado la revista estadounidense, los funcionarios que asistieron a esa reunión se quedaron con la sensación de OpenAI quería evitar que hubiese un "exceso de regulación" que pudiese afectar a la innovación en el campo de la inteligencia artificial, pero no ofrecieron una alternativa a la normativa propuesta por Bruselas. 

Sam Altman, CEO de OpenAI (ChatGPT).

"Creemos que nuestro enfoque para mitigar los riesgos derivados de la naturaleza de propósito general de nuestros sistemas es líder en la industria", afirma la desarrolladora en una sección del Libro Blanco.

A finales de marzo de este año, OpenAI se volvió a reunir con los funcionarios europeos que trabajan en el Reglamento de IA. Según un acta de la reunión a la que ha tenido acceso Time, un empleado de la tecnológica expresó que "aprender con la práctica es de gran importancia".

Tal y como publica Time, la presión de la desarrolladora de ChatGPT parece haber surtido efecto. La propuesta de normativa que se aprobó la semana pasada no incluye expresiones presentes en borradores anteriores que daban a entender que las herramientas como las que desarrolla OpenAI debían considerarse intrínsecamente de alto riesgo. 

En su lugar, la norma acordada exige a los proveedores de los llamados "modelos fundacionales", los grandes modelos lingüísticos con los que trabajan programas como Dall-E o Bard, a que cumplan con pequeño número de requisitos como evitar la generación de contenidos ilegales o aclarar si un sistema ha sido entrenado con contenido protegido por derechos de autor.

Conocida la postura definitiva del Parlamento Europeo, se espera que las negociaciones entre este y el otro colegislador —el Consejo de la Unión Europea— arranquen en las próximas semanas, en julio. La intención es que el esperado Reglamento de la Inteligencia Artificial reciba luz verde antes de que acabe el año, es decir, bajo la propia presidencia española del Consejo.

Sin embargo, su aplicación podría demorarse durante varios años más.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.