Una denuncia en Austria abre un nuevo frente en Europa contra Sam Altman y OpenAI por sus políticas de protección de datos

Sam Altman, CEO de OpenAI, en un congreso sobre seguridad e IA celebrado en noviembre de 2023.
Sam Altman, CEO de OpenAI, en un congreso sobre seguridad e IA celebrado en noviembre de 2023.

REUTERS/Toby Melville/Pool

  • Noyb presenta una denuncia contra OpenAI y su ChatGPT ante la autoridad de protección de datos de Austria.
  • Considera que el chatbot genere información falsa sobre individuos y OpenAI no diga de qué fuentes extrae esas inexactitudes incumpliría el RGPD.

Sam Altman tiene en Europa un auténtico quebradero de cabeza. La Agencia Española de Protección de Datos (AEPD) suspendió provisionalmente las operaciones de Wordlcoin, su compañía cripto que estaba extrayendo datos biométricos de sus usuarios fotografiando sus iris mediante un dispositivo conocido como Orb.

El año pasado, Garante, la autoridad de protección de datos italiana, suspendió las operaciones de OpenAI y ChatGPT durante varias semanas en ese país. La razón: habían detectado algunas infracciones del Reglamento General de Protección de Datos (RGPD).

Ahora, Noyb, una asociación en defensa de la privacidad, ha presentado una denuncia ante la autoridad de protección de datos austríaca también contra OpenAI. En un escrito remitido este lunes a los medios la organización recuerda que el RGPD requiere que la información que se tenga sobre individuos sea la correcta y esté bien almacenada.

"Sin embargo, sorprendentemente, OpenAI admite abiertamente que es incapaz de corregir la información incorrecta de ChatGPT". "Además, la compañía reconoce que no puede decir de dónde viene su información o qué datos almacena sobre individuos concretos", enfatiza Noyb.

Esta organización es liderada por el activista Max Schrems, bien conocido por ser la auténtica pesadilla de Meta —antes Facebook— en el Viejo Continente. Noyb incide en que OpenAI es "consciente" de estos problemas, pero "no parece importarle". "OpenAI simplemente defiende que la exactitud de los grandes modelos de lenguaje es objetivo de constantes investigaciones".

Sam Altman, CEO de OpenAI, en un congreso sobre seguridad e IA celebrado en noviembre de 2023.

"ChatGPT sigue alucinando y ni siquiera OpenAI puede detenerla", lamenta Noyb, que por este motivo ha presentado esta denuncia ante la autoridad austríaca de protección de datos. "La información inexacta puede ser tolerada por un estudiante que hace sus deberes", reconoce. Pero en Europa hay artículos del RGPD que exigen que esta información sea manifiestamente la correcta.

"Generar información falsa es algo problemático per se. Pero cuando se trata de información falsa sobre individuos, puede tener consecuencias graves. Está claro que las empresas no pueden hacer que chatbots como ChatGPT cumplan con la legislación europea al procesar los datos de sus usuarios", expone Maartje de Graaf, abogada de Noyb.

Además, no es solo que ChatGPT genere información inexacta sobre personas concretas. El problema está en que OpenAI no sepa dónde almacena el modelo esa información sobre individuos.

"La obligación de atender peticiones de acceso aplica a todas las empresas. Es evidentemente posible mantener registros de qué datos de entrenamiento se han utilizado para al menos tener una idea de cuáles son las fuentes", continúa De Graaf. "Parece que con cada innovación un nuevo grupo de empresas cree que sus productos no tienen por qué cumplir con la ley".

Noyb recuerda la iniciativa de la Garante italiana, cuyo procedimiento todavía no ha terminado —este año la autoridad italiana volvió a reabrir el caso al entender que OpenAI estaba teniendo problemas para cumplir otros preceptos del RGPD—. La asociación austríaca pide a la autoridad de su país que investigue y multe a OpenAI para asegurarse de que cumple adecuadamente el RGPD.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.