España pone la lupa sobre ChatGPT y Europa da un paso al frente para definir una política común en torno a la IA

- Actualizado:
ChatGPT ilustración

REUTERS/Dado Ruvic

  • La Agencia Española de Protección de Datos ha iniciado actuaciones previas de investigación sobre OpenAI, la empresa detrás de ChatGPT, por un posible incumplimiento de la normativa.
  • Horas antes el Comité Europeo de Protección de Datos ha anunciado que creará un grupo de trabajo especializado sobre ChatGPT con el objetivo de alinear las posiciones políticas de los países europeos con respecto a la IA.

La relación entre la privacidad de los usuarios y los grandes modelos lingüísticos con los que trabajan herramientas de inteligencia artificial generativa como ChatGPT lleva un tiempo poniéndose en tela de juicio. 

Gigantes del sector tecnológico —como Amazon o Microsoft— ya habían pedido a sus trabajadores que no compartiesen "información sensible" con la tecnología desarrollada por OpenAI ante el temor a que esa información acabase formando parte del entrenamiento de ChatGPT y siendo compartida con otros usuarios.

Más allá de las preocupaciones que habían mostrado estas empresas, diversos organismos reguladores también habían pedido cierta cautela a los ciudadanos ante el uso de estas herramientas. Este sentimiento acabó consolidándose el mes pasado en la prohibición de ChatGPT por parte del Gobierno italiano, que alegó que el chatbot no respetaba su regulación en materia de protección de datos.

España fue un paso más allá esta semana y pidió al Comité Europeo de Protección de Datos —EDPB, por sus siglas en inglés— que incluyese el debate sobre el encaje de la IA en la privacidad de los ciudadanos europeos en el pleno que este organismo tenía previsto celebrar este mismo jueves. El EDPB ha aceptado la petición española y ha emitido una resolución al respecto.

Grupo de trabajo especializado en ChatGPT

"Los miembros del EDPB debatieron la reciente acción coercitiva emprendida por la autoridad italiana de protección de datos contra OpenAI sobre el servicio ChatGPT", ha estipulado el organismo europeo a través de un comunicado

En consecuencia, el Comité Europeo de Protección de Datos ha decidido poner en marcha "un grupo de trabajo específico" con el fin de "fomentar la cooperación e intercambiar información sobre posibles medidas coercitivas adoptadas por las autoridades de protección de datos".

Debate ético sobre ChatGPT

Una persona perteneciente a este organismo regulador ha declarado a Reuters que los Estados miembro tienen la intención de alinear sus posiciones políticas con respecto a la inteligencia artificial, pero que esto llevará su tiempo.

La Unión Europea, según esta persona (que ha pedido no ser identificada al no estar autorizada para hablar con los medios de comunicación), no busca castigar ni regular la actividad de OpenAI, compañía impulsada por Microsoft, sino establecer políticas generales que "sean transparentes" en todo el territorio europeo.

La AEPD inicia una investigación a OpenAI

La Agencia Española de Protección de Datos (AEPD) ha aprovechado esta coyuntura para anunciar que ha iniciado una investigación a OpenAI, la desarrolladora de ChatGPT, "por un posible incumplimiento de la normativa".

A través de un comunicado, la AEPD ha indicado que pidió al organismo europeo de protección de datos que tomase cartas en el asunto al considerar que "los tratamientos globales que pueden tener un importante impacto sobre los derechos de las personas requieren de acciones armonizadas y coordinadas".

"Con el inicio de la investigación en España y la participación en el grupo de trabajo europeo, la AEPD actúa en paralelo en el marco de sus potestades y competencias como autoridad nacional de supervisión y control, además de en coordinación con sus homólogas europeas", ha destacado el organismo español. 

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.