Microsoft sigue los pasos de Amazon y advierte a sus empleados de que no compartan "datos sensibles" con ChatGPT

| Traducido por: 
El CEO de Microsoft, Satya Nadella.
El CEO de Microsoft, Satya Nadella.
  • El área de Tecnología de Microsoft ha advertido a sus trabajadores: pueden utilizar ChatGPT en el puesto de trabajo siempre y cuando no compartan "datos sensibles" con el generador de texto por inteligencia artificial.
  • Recientemente, Amazon emitió una advertencia similar a sus empleados ante el temor de que OpenAI estuviese captando información confidencial de su compañía. 

A principios de este mes, un trabajador de Microsoft preguntó en un foro interno de la empresa si ChatGPT —o cualquier otra herramienta desarrollada por OpenAI— se podía utilizar en el puesto de trabajo.

Un ingeniero senior de la oficina del CTO de la compañía confirmó que el uso de estas tecnologías estaba permitido, siempre y cuando los empleados no compartiesen información confidencial con las herramientas de inteligencia artificial (IA).

"Por favor, no enviéis datos sensibles a un endpoint de OpenAI, ya que se pueden utilizar para entrenar nuevos modelos", afirmó el ingeniero del área de Tecnología, en un mensaje interno al que ha tenido acceso Business Insider.

La repentina obsesión de todo el mundo con ChatGPT ha llevado a algunas tecnológicas a advertir a sus trabajadores ante la posibilidad de interactuar libremente con estas tecnologías. Lo llamativo en este caso es que Microsoft es uno de los principales inversores de OpenAI, la desarrolladora de la herramienta. 

De hecho, la semana pasada, la compañía dirigida por Satya Nadella anunció una nueva y "multimillonaria" inversión en la empresa de Sam Altman. El gigante tecnológico también adelantó su intención de incorporar la tecnología de OpenAI a tantos servicios de Microsoft como sea posible: ya sea en el motor de búsqueda de Bing, en los servidores de Azure o en las distintas aplicaciones de Office.

Dos programadoras

Según el profesor de informática e investigador especializado en IA de la Universidad Carnegie Mellon, Vincent Conitzer, la estrecha relación entre las 2 compañías podría dar lugar a un conflicto de intereses para Microsoft, ya que, a su vez, puede beneficiarse de que OpenAI entrene su herramienta con los datos que la firma de Redmond posee. 

Eso no significa que Microsoft vaya a comportarse de forma irresponsable, según Conitzer, pero "siempre es bueno tener en cuenta los posibles alicientes".

La preocupación mayoritaria de estas empresas es que sus trabajadores compartan información confidencial sin darse cuenta, como código fuente de software interno, con el fin de que ChatGPT les resuelva algún error o les ayude a mejorar su trabajo. Esta herramienta, por su parte, podría utilizar esa información para entrenar su modelo y el día de mañana compartirla con otros usuarios.

"Los seres humanos firman acuerdos de confidencialidad y, en consecuencia, tienen incentivos para ser cuidadosos a la hora de compartir información, pero los grandes modelos lingüísticos como el de ChatGPT no tienen la capacidad de razonar sobre estas cuestiones, al menos a priori", ha señalado el profesor de informática a Business Insider.

Un portavoz de Microsoft ha declinado la petición de Business Insider de hacer declaraciones y un representante de OpenAI ha remitido a este medio a la página de preguntas frecuentes de ChatGPT para resolver cualquier duda acerca de su política de datos y privacidad.

Amazon se enfrenta al mismo problema

El pasado diciembre, pocas semanas después de que OpenAI lanzase la versión pública de ChatGPT, un grupo de empleados de Amazon preguntó en un canal de Slack de la compañía si podían utilizar el esta herramienta en su trabajo. 

En ese momento, un abogado corporativo de Amazon les advirtió de que no compartiesen "ninguna información confidencial de Amazon", incluido el código fuente en el que estuviesen trabajando en ese momento, con ChatGPT

"Esto es muy importante porque sus interacciones pueden ser utilizadas como datos de entrenamiento para una nueva iteración con ChatGPT, y no queremos que sus resultados incluyan o se parezcan a nuestra información confidencial (y ya he visto casos en los que el resultado coincide en gran medida con nuestros materiales)", indicó el abogado de Amazon.

¿De quién es la culpa?

Aunque los empleados que llevan a cabo estas prácticas tienen parte de responsabilidad a la hora de proteger los datos confidenciales de las empresas para las que trabajan, tampoco queda claro que Microsoft u OpenAI estén haciendo algo para intentar solucionar este problema.

"Vamos a tener que averiguar todos juntos qué habría esperar de cada uno en estas situaciones. ¿Es responsabilidad de los empleados no compartir datos sensibles o es responsabilidad de OpenAI utilizar esa información con cuidado, o una combinación de ambas?", sostiene Conitzer, el investigador especializado en inteligencia artificial. 

"Como uno de los líderes más consolidados de la industria tecnológica, Microsoft debería tener una influencia significativa en esta conversación", ha expresado el profesor universitario.

 

Las condiciones de servicio de OpenAI autorizan a ChatGPT a utilizar todas sus interacciones con los usuarios para entrenar su modelo de aprendizaje automático. Estas condiciones también estipulan que la herramienta elimina toda clase información personal identificable (PII, por sus siglas en inglés) de los datos que recoge.

Sin embargo, es prácticamente imposible que la compañía fundada por Elon Musk identifique y elimine "minuciosamente" esa información de los datos que recibe, debido al rápido crecimiento de ChatGPT, aseguró en entrevista con Business Insider la profesora de lingüística computacional en la Universidad de Washington, Emily Bender. 

Además, es probable que la propiedad intelectual de las empresas tampoco forme parte de lo que en este campo se define como PII, apuntó Bender.

"OpenAI dista mucho de ser transparente en relación el uso que hace de los datos que recoge, pero, si se están incorporando a su entrenamiento, cabe esperar que las empresas se lo pregunten: 'Después de unos meses de uso generalizado de ChatGPT, ¿será posible extraer información confidencial de las empresas a través de preguntas hábilmente elaboradas?'", explicó la profesora.

Conoce cómo trabajamos en Business Insider.