Deloitte pide a sus trabajadores en España que no compartan datos sensibles con ChatGPT

Oficinas de Deloitte en Londres.
Oficinas de Deloitte en Londres.

REUTERS/HANNAH MCKAY

  • El éxito que ha experimentado en las últimas semanas ChatGPT ha llevado a muchas empresas a advertir a sus empleados del riesgo que conlleva utilizar esta herramienta.
  • Ese riesgo es aún mayor para las grandes consultoras como Deloitte, que, ante el miedo a que la información confidencial que maneja sea divulgada sin autorización, ha avisado a sus trabajadores para que tengan cuidado con ChatGPT. 

El despegue meteórico que ha experimentado el generador de texto por inteligencia artificial de OpenAI, ChatGPT, ha llevado a muchos empleados a probar esta herramienta en sus respectivos trabajos. 

En concreto, 7 de cada 10 personas utilizan ChatGPT en su puesto de trabajo para mejorar su productividad y no se lo han contado a sus jefes, según un estudio elaborado por la red social profesional Fishbowl. Una situación que ha llevado a algunas compañías a advertir de los peligros que existen a la hora de utilizar este chatbot

Amazon fue una de las primeras grandes empresas en pedir a sus trabajadores que no compartiesen información interna con ChatGPT porque existía la posibilidad de que la IA estuviese captando datos confidenciales para su posterior utilización. Microsoft siguió los pasos del gigante del comercio electrónico y advirtió a su plantilla de que no ofreciese "datos sensibles" a la tecnología de OpenAI.

La postura de Microsoft llama especialmente la atención al haber invertido miles de millones de euros en la desarrolladora de ChatGPT, pero un ingeniero de la compañía alertó a sus compañeros de que la herramienta puede utilizar esa información para entrenar el modelo lingüístico con el que trabaja, incorporándola así a su base de datos. 

Una de las últimas empresas que han realizado una advertencia en este sentido ha sido Deloitte, que el pasado 11 de abril habría enviado un correo electrónico al que ha tenido acceso El País en el que habría advertido a sus empleados españoles para que tengan cuidado con la tecnología de OpenAI. 

PwC se asocia con la startup de inteligencia artificial Harvey para ofrecer un generador de texto a más de 4.000 empleados.

"No se debe aportar a estas plataformas de IA información confidencial propiedad del cliente, de terceros o de Deloitte", habría asegurado la consultora, que forma parte de las conocidas como Big Four junto a PwC, KPMG y EY

Deloitte alerta de que "si los datos ingresados son almacenados en un servidor o base de datos, existe un riesgo potencial de que sean divulgados a terceros sin autorización, bien sea por fallas de seguridad, ciberataques, o violaciones de datos". Además, "existen limitaciones en la capacidad de estas herramientas para entender el contexto y el significado detrás de las palabras". 

La compañía también ha pedido a sus consultores que sean cautos a la hora de emplear ChatGPT porque la inteligencia artificial puede contener sesgos: "Existe el riesgo de que las respuestas generadas por el modelo sean discriminatorias o injustas, incluso afectando a la privacidad de los individuos que interactúan con el modelo y a la reputación de las empresas que lo utilizan".

La postura de Deloitte contrasta así con la de otras grandes consultoras como PwC, que, si bien no ha recomendado a su plantilla que utilice ChatGPT, sí que le ha ofrecido una herramienta similar con la que poder agilizar su trabajo

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.