ChatGPT filtra conversaciones privadas que incluyen contraseñas y otros datos personales de usuarios ajenos a esas consultas

Aplicación de ChatGPT en móvil.

NurPhoto / Getty Images

  • Cuando ChatGPT salió al mercado, hubo muchas grandes empresas que prohibieron a sus trabajadores utilizar la herramienta de inteligencia artificial ante el posible riesgo que planteaba para su seguridad.
  • Esta semana, un usuario del generador de texto por IA ha revelado que está filtrando conversaciones privadas que incluyen contraseñas y otros datos personales de usuarios que no tienen nada que ver entre sí.

A lo largo del año pasado, cuando la revolución de la inteligencia artificial generativa parecía ya imparable gracias al éxito que estaban teniendo herramientas como ChatGPT o Midjourney, numerosas compañías prohibieron a sus empleados el uso de estas tecnologías. 

En el caso de ChatGPT, fue especialmente llamativo que grandes empresas tecnológicas como Amazon, Apple o la propia Microsoftprincipal impulsora de OpenAI, la desarrolladora del chatbot de IA— alertasen a sus trabajadores del peligro significativo que existía a la hora de compartir "datos sensibles" con estas herramientas

Y es que algunos usuarios de ChatGPT fueron los primeros en descubrir las vulnerabilidades que presentaba el generador de texto en materia de seguridad. A través de la utilización de alter egos, los usuarios eran capaces de saltarse los parámetros preestablecidos por OpenAI, consiguiendo que ChatGPT ofreciese respuestas controvertidas sobre temas como el holocausto o el tráfico de drogas.

Además, algunos investigadores especializados han denunciado que el chatbot de inteligencia artificial puede llegar a filtrar información sobre personas reales. Al parecer, esto es lo que le ha ocurrido a un lector de Ars Technica, que ha revelado que ChatGPT está filtrando conversaciones privadas que incluyen contraseñalas y otros datos personales de usuarios que no tienen nada que ver entre sí.

 

Tal y como ha publicado el medio especializado en tecnología, Chase Whiteside, el lector en cuestión, ha compartido una serie de capturas de pantalla en las que se pueden ver nombres de usuario y contraseñas que parecen estar relacionados con un sistema de asistencia utilizado por los empleados de un portal de medicamentos con receta de una farmacia. 

Un trabajador que estaba utilizando el chatbot de IA parecía estar solucionando problemas que surgían al utilizar el portal. "ESTO es una p*ta locura, horrible, horrible, horrible, no puedo creer lo mal que se construyó esto en primer lugar", escribió el usuario. "Si estuviese en mi mano, despediría a [nombre censurado] solo por este sinsentido. Esto está mal".

Según Ars Technica, además de ofrecer acceso a un usuario ajeno a una conversación privada y a unas contraseñas, ChatGPT incluye el nombre de la aplicación que el empleado está solucionando y el número de la tienda donde se produjo el problema.

"Fui a hacer una consulta y cuando volví a acceder después, me fijé en estas nuevas conversaciones", ha asegurado Whiteside al medio especializado. "No estaban ahí cuando utilicé ChatGPT anoche (soy un usuario bastante habitual). No se hizo ninguna consulta, simplemente aparecieron en mi historial, y con toda seguridad no son mías (y tampoco creo que sean del mismo usuario)".

El lector ha afirmado que también ha tenido acceso a conversaciones filtradas que incluyen el nombre de una presentación en la que alguien estaba trabajando, detalles de una propuesta de investigación no publicada y un fragmento de código fuente que utiliza el lenguaje de programación PHP.

Desde OpenAI han expresado que van a investigar este problema, pero no se trata de la primera vez que los usuarios de ChatGPT denuncian este tipo de incidentes.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.