Las grandes empresas están utilizando esta herramienta de IA para rastrear los mensajes de Slack y Teams de más de 3 millones de empleados

Aaron Mok
| Traducido por: 
Un trabajador siendo vigilado por su empresa.

Thomas Jackson/Getty

  • Compañías como Starbucks o Walmart están utilizando inteligencia artificial para rastrear los mensajes de sus trabajadores.
  • La herramienta de Aware pretende ayudar a los clientes a controlar las actitudes de sus empleados e identificar posibles amenazas. La startup afirma que sus datos se mantienen en su mayoría anónimos, pero los expertos no parecen muy convencidos.

¿Estás pensando en enviarle un mensaje a tu compañero de trabajo por Slack para hacer comentarios dañinos sobre algún otro compañero? Piénsatelo dos veces o te arriesgas a que la inteligencia artificial señale tu mensaje como una posible infracción corporativa.

Aware, una startup de software, utiliza IA para leer los mensajes de los trabajadores que son enviados a través de plataformas de comunicación empresarial como Slack, Microsoft Teams o Workplace (de Meta). Su propósito: monitorizar el comportamiento de los empleados en un intento de comprender el riesgo.

Algunas de las mayores empresas estadounidenses —incluidas Starbucks, Chevron, T-Mobile, Walmart o Delta— utilizan Aware para evaluar hasta 20.000 millones de mensajes individuales de más de 3 millones de trabajadores, según ha informado la propia Aware a CNBC.

Pero, aunque este tipo de vigilancia en el lugar de trabajo no sea nada nuevo para los trabajadores de Estados Unidos, algunos expertos han expresado su preocupación por el hecho de que el uso de la incipiente inteligencia artificial para rastrear a los empleados pueda conducir a una toma de decisiones errónea y a una auténtica pesadilla para la privacidad.

Aware, Starbucks, Chevron, T-Mobile y Walmart no han respondido a las respectivas peticiones de declaraciones de Business Insider para intentar esclarecer los hechos antes de publicar esta información. Delta ha declarado a este medio de comunicación que utiliza Aware en su plataforma interna para "el seguimiento rutinario de las tendencias y el sentimiento", y para la gestión de registros legales.

Jeff Schumann, cofundador y CEO de Aware, ha explicado que las compañías utilizan su herramienta de IA, en parte, para evaluar cómo responden los miembros de su plantilla a los cambios en la política de la empresa o a las campañas de marketing. De ese modo, los jefes pueden ver cómo difieren las actitudes de sus trabajadores en función de características como su edad o su lugar de residencia.

Sam Altman, CEO de OpenAI (izquierda), junto a Satya Nadella, director ejecutivo de Microsoft.

La tecnología que ofrece Aware también sirve para identificar posibles riesgos en el entorno laboral

Entrenado en las interacciones de los empleados, el conjunto de grandes modelos lingüísticos de la startup tiene la capacidad de analizar el texto y las imágenes presentes en las conversaciones para señalar incidentes relacionados con lo que una empresa califica de intimidación, discriminación, acoso, pornografía, desnudez y otros comportamientos denominados tóxicos, ha señalado Schumann.

"Siempre está rastreando el sentimiento de los trabajadores en tiempo real y siempre está rastreando la toxicidad en tiempo real", ha asegurado en relación a la herramienta de inteligencia artificial.

El CEO de Aware ha defendido que los datos que recoge su software sobre el sentimiento y la toxicidad de los empleados no incluyen sus nombres, pero, en casos extremos, la confidencialidad puede ser revocada.

Aware ofrece una función, llamada eDiscovery, que permite a la IA extraer el nombre de una persona si la tecnología señala ciertas palabras clave y declaraciones en un mensaje de Slack o Teams como una infracción de su política. Si identifica el mensaje como un "riesgo extremo", el empresario puede enviar el nombre del presunto autor a recursos humanos, ha declarado Schumann a la CNBC.

"Algunos de los más comunes son la violencia extrema, la intimidación extrema, el acoso, pero varía según el sector", ha apuntado el CEO. Los incidentes como el uso de información privilegiada, ha añadido Schumann, también se rastrearían utilizando esta herramienta.

Mientras que el director ejecutivo de Aware ha declarado al medio de comunicación estadounidense que sus modelos de inteligencia artificial no son utilizados por las compañías para tomar decisiones, ni sirven de base para medidas disciplinarias, algunos expertos en privacidad parecen no estar del todo de acuerdo.

"Básicamente, ninguna empresa está en condiciones de hacer afirmaciones rotundas sobre la privacidad y la seguridad de los LLM [grandes modelos lingüísticos, por sus siglas en inglés] y este tipo de sistemas", ha indicado Amba Kak, directora ejecutiva del AI Now Institute de la Universidad de Nueva York, EEUU, a la CNBC.

"¿Cómo te enfrentas a tu acusador cuando sabemos que la explicabilidad de la IA todavía está en fase de desarrollo?", se ha preguntado Kak. Por su parte, Jutta Williams, cofundadora de Humane Intelligence, una organización sin ánimo de lucro, ha expresado al medio de comunicación que los resultados de la inteligencia artificial no ofrecen una imagen completa de un incidente laboral concreto.

 

Aunque Starbucks, Chevron, T-Mobile, Walmart y Delta no hayan reconocido a Business Insider si revelan sus prácticas de vigilancia a sus trabajadores, algunas leyes estadounidenses —como el proyecto de ley S2628 del Senado de Nueva York— exigen que los empresarios informen a sus empleados sobre sus prácticas de vigilancia digital.

El uso de IA para monitorizar a la plantilla es una de las últimas formas en las que las grandes compañías parecen estar vigilando a sus trabajadores, especialmente a medida que los empresarios les presionan para que vuelvan a la oficina.

En febrero del 2023, los empleados de Tesla en Nueva York que trabajan en el piloto automático del fabricante automovilístico denunciaron que la empresa estaba rastreando sus pulsaciones para asegurarse de que estaban trabajando activamente. Algunos relataron a Bloomberg que ese mismo sistema les había impedido ir al baño.

Poco menos de un año antes, una investigación de Business Insider reveló que JPMorgan Chase utilizaba una herramienta interna para rastrear la asistencia a la oficina, las llamadas y los calendarios de sus trabajadores, lo que fomentaba una cultura de "paranoia", "desconfianza" y "falta de respeto", según denunciaba un empleado.

En los casos más extremos, los mecanismos de vigilancia en el lugar de trabajo han estado directamente relacionados con el despido de algunos trabajadores.

Conoce cómo trabajamos en Business Insider.