La IA de moda también tiene brechas de seguridad: un fallo en ChatGPT mostró a otras personas los mensajes de usuarios e incluso datos bancarios

Ilustración sobre ChatGPT y OpenAI

 REUTERS/Dado Ruvic

  • OpenAI tuvo que desactivar ChatGPT el lunes y la causa fue un fallo de seguridad que expuso información de los usuarios.
  • Los datos afectados por la brecha son los títulos de los chats de otros usuarios, los mensajes iniciales al chatbot e incluso datos bancarios de sus suscriptores de pago.

ChatGPT es la herramienta de inteligencia artificial de moda para personas de todos los sectores, tanto que ya los expertos alertan de que los ciberdelincuentes lo están utilizando también para simplificar su trabajo y escribir mensajes de phishing o código malicioso.

Pero ahora las preocupaciones de ciberseguridad se extienden también a la propia plataforma, ya que su desarrolladora, OpenAI, ha reconocido que el lunes ChatGPT sufrió un incidente de seguridad que le obligó a desconectar sus sistemas, como explica en un comunicado.

Más allá de los problemas en el servicio, la verdadera preocupación es que este error expuso la información personal de los usuarios de ChatGPT. En enero, solo 2 meses después de su lanzamiento, la IA de OpenAI sobrepasó los 100 millones de usuarios activos.

Debido a un fallo en una biblioteca de código abierto llamada Redis, ChatGPT permitió que algunos usuarios pudieran ver los títulos del historial de chat de otras personas, e incluso también el primer mensaje de las conversaciones recién creadas con el chatbot si ambos usuarios estaban activos a la vez.

GPT-4, la nueva versión de la IA de ChatGPT, difunde más información errónea que su antecesor, según un estudio

El problema afectó también a los suscriptores de pago de ChatGPT Plus, un modelo más completo que OpenAI ofrece desde febrero y que permite a sus usuarios acceder de forma prioritaria a la herramienta, con tiempos de respuesta más rápidos incluso cuando está saturada y la posibilidad de usar antes las nuevas funciones, previo pago de 20 dólares al mes.

OpenAI ha reconocido que la información bancaria del 1,2% de los suscriptores de pago de ChatGPT Plus estuvo expuesta accidentalmente durante 9 horas el lunes.

Debido al problema de la base de datos configurada erróneamente, algunos usuarios pudieron ver el nombre completo, el correo electrónico, la dirección de domicilio e incluso los 4 últimos dígitos de la tarjeta de crédito y su fecha de caducidad, aunque OpenAI asegura que los números completos de la tarjeta nunca estuvieron expuestos.

OpenAI asegura que la brecha de seguridad ya se ha solucionado y que el servicio de ChatGPT ya está completamente restablecido, con la excepción de algunas horas de historial.

También ha defendido que la cantidad de usuarios que pudieron ver esta información de otras personas es "extremadamente baja", ya que tuvo que darse una sucesión de acontecimientos poco probable: que los usuarios abriera un correo de confirmación entre las 9:00 de la mañana y las 18:00 de la tarde del lunes 20 de marzo, en horario de España peninsular, o que accediera a la configuración de su cuenta en ese momento.

OpenAI ha informado a los afectados por la información personal expuesta, pero la empresa dice estar "segura de que no hay un riesgo de seguridad para los datos de los usuarios".

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.