Italia bloquea ChatGPT por no respetar la protección de datos: OpenAI se enfrenta a una multa de 20 millones de euros

Ilustración sobre ChatGPT y OpenAI

 REUTERS/Dado Ruvic

  • El regulador italiano ha ordenado la prohibición hasta nuevo aviso de ChatGPT, el chatbot de inteligencia artificial desarrollado por OpenAI, por vulnerar la regulación en materia de protección de datos.
  • Según el regulador italiano, la compañía norteamericana no informa a sus usuarios acerca del uso que hace de los datos personales que recopila.

El regulador italiano de la privacidad ha ordenado el bloqueo de ChatGPT, el sistema de inteligencia artificial desarrollado por la compañía norteamericana OpenAI, por no respetar la normativa en materia de protección de datos.

El Garante per la Protezione dei Dati Personali (GPDP, por sus siglas en italiano), un órgano similar a la Agencia Española de Protección de Datos (AEDP), ha ordenado de inmediato el procesamiento de los datos de los usuarios italianos por parte de OpenAI y ha abierto una investigación contra la compañía.

Según el regulador italiano, la compañía norteamericana no informa a sus usuarios acerca del uso que hace de los datos personales que recopila, además de que no existe una base legal que justifique la recopilación y el almacenamiento masivo de datos personales con el propósito de entrenar a los algoritmos de la plataforma.

El GPDP asegura que tras las comprobaciones pertinentes realizadas, la información que facilita ChatGPT no siempre se corresponde con datos reales, algo que supone un tratamiento inexacto de los datos personales, ha señalado el organismo en un comunicado.

 

Otro de los puntos que destaca el GPDP y que motivan este bloqueo, es que aunque, según los términos de OpenAI, la plataforma está dirigida a mayores de 13 años, actualmente no existe ningún filtro para verificar la edad de los usuarios. Esto expone a los menores a respuestas absolutamente inadecuadas en comparación con su grado de desarrollo y autoconciencia, subraya el regulador italiano.

Ahora, OpenAI tiene un plazo de 20 días para adoptar las medidas oportunas y cumplir con la regulación italiana en materia de protección de datos. La compañía se puede enfrentar a una multa que puede llegar a ascender a los 20 millones de euros o hasta el 4% de su facturación global anual. 

Este requerimiento se produce después de que el pasado 20 de marzo, OpenAI sufriera una brecha de seguridad en su sistema que dejó al aire miles de datos de usuarios de la plataforma, como sus historiales de búsqueda hasta los números de las cuentas bancarias de un pequeño porcentaje de los usuarios de pago.

En las últimas semanas, desde diferentes colectivos y frentes se está pidiendo un mayor escrutinio sobre la inteligencia artificial por los riesgos inherentes de esta tecnología en cuestiones de ciberseguridad, privacidad y desinformación.

El 30 de marzo, el defensor del consumidor de la Unión Europea (BEUC por sus siglas en inglés), pedía intensificar los esfuerzos por regular la inteligencia artificial en general y a ChatGPT en particular, para proteger a los consumidores de posibles daños causados "por una tecnología que no está suficientemente regulada y para la que los consumidores no están preparados", señaló la organización en un comunicado.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.