Policía de EEUU contrata por 7,5 millones a una empresa cuya IA puede analizar las redes sociales y predecir futuros delincuentes

Policía de Nueva York, EEUU (NYPD)

Eduardo Munoz/Reuters

  • La Policía de Nueva York firmó un contrato por 7,5 millones de euros con Voyager Labs en 2018.
  • La empresa afirma que utiliza la IA para controlar el comportamiento online y que sus productos pueden predecir quién cometerá delitos en el futuro.

El Departamento de Policía de Nueva York (NYPD, por sus siglas en inglés; EEUU) ha gastado millones en la compra de productos de una empresa tecnológica que afirma poder utilizar las redes sociales para rastrear e incluso predecir delitos, según revela un nuevo informe.

El Surveillance Technology Oversight Project, una organización sin ánimo de lucro dedicada a combatir la vigilancia masiva y proteger la privacidad, ha publicado versiones redactadas de los contratos del NYPD con Voyager Labs que muestran que el departamento firmó un contrato por más de 8 millones de dólares (unos 7,45 millones de euros, al cambio actual) con la empresa en 2018.

Voyager Labs es una empresa tecnológica que dice producir "soluciones de investigación basadas en IA" (inteligencia artificial). Vende productos en varias industrias, incluidas las fuerzas del orden, el sector público estadounidense y la seguridad corporativa, según su sitio web.

Aunque el uso de análisis de redes sociales por parte de las fuerzas de seguridad no es nada nuevo, Voyager Labs afirma que sus productos pueden hacer algo más que vigilar, según informa The Guardian. La empresa ha sostenido que sus productos también pueden predecir futuros delitos, de acuerdo con una investigación del Brennan Center for Justice, un instituto de derecho y política pública.

"Voyager Discover lleva las capacidades de Voyager Analytics un paso más allá, analizando no solo quién es más influyente, sino también quién está más implicado en una postura determinada: emocional, ideológica y personalmente", recoge un pitch de venta de Voyager Labs al Departamento de Policía de Los Ángeles (EEUU), obtenido por el Centro Brennan para la Justicia: "Esta capacidad traslada el debate de quienes están más comprometidos en línea a quienes están más comprometidos en sus corazones".

Voyager Labs también ha manifestado que su IA puede asignar puntuaciones de riesgo a los usuarios de las redes sociales en relación con sus "vínculos o afinidad con el fundamentalismo islámico o el extremismo", según el informe del Centro Brennan para la Justicia.

Otro de sus productos, VoyagerCheck, "proporciona una indicación automatizada de personas que pueden suponer un riesgo", de acuerdo con el sitio web de Voyager Labs.

 

William Colston, vicepresidente de marketing global de Voyager Labs, declara a Business Insider que la empresa solo utiliza datos disponibles públicamente y que su software "no pretende ser un sustituto de la supervisión y el análisis humanos rigurosos".

"Rechazamos categóricamente cualquier idea de que nuestro software esté diseñado para vulnerar las libertades civiles o la libertad de expresión, o que esté sesgado de alguna manera", escribe Colston a Business Insider.

Will Owen, director de comunicaciones del Surveillance Technology Oversight Project, califica el uso de estos productos de "invasivo" y "alarmante" en un comunicado de prensa.

Un portavoz de la policía de Nueva York comparte a Business Insider que el departamento utiliza el software para vigilar a los sospechosos de una variedad de delitos —como la violencia armada, el terrorismo y la trata de personas—, pero aclara que actualmente no utiliza las herramientas predictivas que ofrece Voyager Labs.

"El Departamento utiliza este tipo de tecnologías para ayudar en las investigaciones activas y no utiliza características que podrían describirse como predictivas de la criminalidad futura", explica el portavoz.

Meta, la empresa matriz de Facebook e Instagram, demandó a Voyager Labs en enero, alegando que la empresa tecnológica creó miles de cuentas falsas para extraer datos de más de 600.000 usuarios, ha informado The Guardian.

Según Colston, Voyager Labs ha desestimado la demanda y está a la espera de una decisión judicial.

"Si Meta está realmente comprometida con la protección de sus usuarios y actúa en interés del público, entonces el uso de software analítico por parte de quienes intentan detener a los malintencionados debería ser aceptado y fomentado", escribe Colston.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.