"Recording in progress": Zoom podría estar usando las reuniones de sus usuarios para entrenar modelos de inteligencia artificial

Videoconferencia en un ordenador portátil

Getty Images

  • Las empresas desarrolladoras de inteligencia artificial han recibido bastantes críticas por la forma en la que han entrenado a sus modelos de IA para que estos sean capaces de ofrecer a los usuarios respuestas tan rápidas, documentadas y bien formuladas. 
  • La dudosa procedencia de los datos que utilizan estas herramientas ha generado bastantes suspicacias entre la comunidad de expertos y Zoom ha sido la última compañía en verse implicada. 

Prácticamente desde que ChatGPT vio la luz el pasado mes de noviembre y deslumbró al mundo con las posibilidades que ofrecía, ha habido expertos que han levantado una ceja ante ese mismo potencial.

Los investigadores y expertos en inteligencia artificial han señalado que estos chatbots de IA necesitaban una inmensa cantidad de información para poder funcionar correctamente. Por lo tanto, la primera pregunta que había que hacerse antes de utilizar estas herramientas era: ¿de dónde han sacado toda esa información?

"Han escaneado Internet, se han nutrido de la información volcada por todos", aseguraba Marc Almeida, programador y experto en ciberseguridad, en entrevista para Business Insider al ser preguntado precisamente por esta cuestión. 

Almeida, que en su lugar defendía las alternativas de código abierto, denunciaba que las empresas como OpenAI —ChatGPT, DALL-E— habían usado "un paradigma de acción yanqui": "Move fast and break things, que la traducción al castellano sería: más vale pedir perdón que permiso".

Debate ético sobre ChatGPT

De ese modo, los expertos han conseguido que algunos usuarios estén más pendientes del uso que hacen las compañías tecnológicas de su información, con el objetivo de que estas no la acaben utilizando para entrenar su modelo de inteligencia artificial. Precisamente eso es lo que denunciaba una publicación de Hacker News que ha sido recogida por TechCrunch.

Según esta publicación, la plataforma de videollamadas Zoom habría añadido una cláusula a sus términos legales en marzo de 2023 en la que los consumidores permitían a la empresa utilizar sus datos para entrenar modelos de IA "sin exclusión voluntaria".

TechCrunch ha compartido las cláusulas a las que hace referencia la publicación de Hacker News, que van del punto 10.2 al 10.4 de las condiciones generales de la aplicación, y estas indican que Zoom no utilizará el audio, el vídeo o el chat generado por los usuarios para entrenar su propio modelo de inteligencia artificial. 

Sin embargo, los consumidores que acepten esas mismas cláusulas sí que se estarán comprometiendo a concederle derechos expansivos a Zoom sobre todos los demás tipos de datos de uso (datos de telemetría, datos de uso del producto, datos de diagnóstico, etc.), así como para otros fines distintos al entrenamiento de modelos de IA.

Zoom ha respondido a la controversia que se ha generado con respecto a este tema con la publicación de un artículo en su blog en el que la afirma que no va a utilizar "contenidos de audio, vídeo o chat de los clientes para entrenar" sus modelos de inteligencia artificial "sin su consentimiento".

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.