Pasar al contenido principal

Una startup ha robado miles de millones de fotos de Facebook y otras webs para crear una base de datos de reconocimiento facial que ya usan policías de todo el mundo

Facebook.
Reuters/Johanna Geron
  • Clearwater AI, una startup de reconocimiento facial que se dedicó a rastrear redes sociales en busca de imágenes, ha sido adoptada por al menos 600 cuerpos de seguridad de todo el mundo, según un reportaje del New York Times.

  • Los desarrolladores del software contaron con la ayuda de algunos políticos estadounidenses afines al Partido Republicano para vender el software a las fuerzas de seguridad.

  • Las autoridades tienen poca información sobre el origen de Clearwater AI, que probablemente violó las políticas de webs como Facebook, Twitter, Instagram y YouTube para crear su base de datos de miles de millones de fotos.

  • Existe una preocupación cada vez mayor entre las fuerzas de seguridad por el uso de tecnologías de reconocimiento facial, particularmente por el temor de que las herramientas tengan un sesgo racial.

  • Descubre más historias en Business Insider España.

Una startup de reconocimiento facial está siendo utilizada por cientos de agencias de seguridad en Estados Unidos para resolver crímenes, pero por ahora se sabe muy poco sobre el software, según explica un reportaje publicado este sábado por el New York Times.

El medio estadounidense explica que el software, denominado Clearview AI, es fruto de la colaboración entre Hoan Ton-That, un australiano que se mudó a los Estados Unidos en 2007, y Richard Schwartz, un antiguo colaborador del exalcalde de la ciudad de Nueva York, Rudy Giuliani.

Los caminos de Ton-That y Schwartz se cruzaron en una conferencia en el Instituto Manhattan, un think thank de corte conservador, tal y como explica el NYT.

Kirenaga Partners, un pequeño fondo de inversión neoyorquino, también ha sido uno de los primeros inversores de Clearview AI, que ha recibido financiación también de Peter Thiel, según el artículo. Thiel, cofundador de PayPal y uno de los primeros inversores de Facebook, todavía formar parte del consejo de administración de Facebook.

Cuando un usuario sube una foto a la aplicación, que ha sido utilizada por más de 600 cuerpos de seguridad, Clearview AI rastrea coincidencias en su catálogo de miles de millones de fotos que ha extraído de diferentes redes sociales, normalmente violando los términos de servicio de esas plataformas, según explica el New York Times. A continuación muestra los resultados a quienquiera que haya hecho la búsqueda.

Leer más: Así está siendo entrenada la Inteligencia Artificial para reconocer a las personas más allá del reconocimiento facial

Clearview no ha compartido qué fuerzas de seguridad han utilizado su herramienta. La empresa también habría concedido licencias de su software a empresas privadas, según el NYT. Varios cuerpos y fuerzas de seguridad de los Estados Unidos han confirmado al periódico que han utilizado el software para ayudar a resolver crímenes que van desde el hurto en tiendas hasta el asesinatoLas fuerzas de seguridad han explicado al medio estadounidense que tienen poco conocimiento de quién ha desarrollado exactamente Clearview AI o de cómo funciona su software. 

Facebook está investigando a la startup por violar sus términos de uso

Los fundadores de la app habrían empezado a comercializarla por licencias de solo 2.000 dólares, según explica el diario estadounidense. Para ello contaron supuestamente con la ayuda de personas afines al Partido Republicano de los Estados Unidos con el fin de acercarse a los cuerpos y fuerzas de seguridad, a quienes ofrecían utilizar el software por un precio muy bajo o, en algunos casos, facilitaban una prueba gratuita del software.

El código de la aplicación, según el análisis realizado por el New York Times, desvela que el software ha sido diseñado para trabajar con tecnología de realidad aumentada, lo que significa que alguien que utilice unas gafas especiales podría —en teoría— utilizar el software de Clearview AI para visualizar de manera instantánea la identidad de una persona, la dirección de su casa e incluso otros detalles privados. Ton-That explica al New York Times en el reportaje que su empresa estaba desarrollando la tecnología de realidad aumentada como un prototipo, pero que no tenía planes de lanzar al mercado. 

En un comunicado, un portavoz de Facebook ha confirmado a Business Insider que la empresa estaba investigando la actividad de Clearview AI tras la denuncia.

Leer más: Por qué el reconocimiento facial y los datos biométricos solo deberían usarse en situaciones excepcionales, según los expertos

"Rastrear y guardar información de Facebook o añadirla a una base de datos está prohibido según nuestras normas, por lo que estamos revisando las denuncias sobre esta empresa y tomaremos las medidas apropiadas si detectamos que están violando nuestras reglas", ha explicado el portavoz.

El portavoz de Facebook no ha querido responder a la inversión de Thiel en la startup, aunque ha remitido a Business Insider una declaración del portavoz de Thiel facilitada al diario estadounidense. 

"En 2017, Peter dio a un joven y talentoso fundador 200.000 dólares, que 2 años más tarde se convirtieron en acciones de Clearview AI", explica el portavoz de Thiel, Jeremiah Hall, según el New York Times. "Esa fue la única contribución de Peter; él no está involucrado de ninguna otra manera en la compañía".

Una startup tomó miles de millones de fotos de Facebook y otros sitios web para crear una base de datos de reconocimiento facial, y cientos de agencias de seguridad la están utilizando.
El multimillonario inversor Peter Thiel invirtió en Trumid y Brex. Gettty/Neilson Barnard

Los representantes de otras redes sociales supuestamente utilizadas por Clearview AI, como Twitter, YouTube, Instagram o Venmo han confirmado que el rastreo y almacenamiento de imágenes publicadas en sus bases de datos violan las políticas de sus empresas. Twitter ha ido un paso más allá, asegurando al diario estadounidense que la mera utilización de las imágenes publicadas en su plataforma para el reconocimiento facial está expresamente prohibido en sus normas.

En el momento en el que el New York Times pidió a un organismo de seguridad que ejecutara el software para rastrear la fotografía de uno de sus periodistas los representantes de ClearView AI —que hasta entonces habían ignorado los correos y llamadas de los periodistas— se pusieron en contacto con sus clientes para preguntarles si habían estado hablando con los medios de comunicación.

Leer más: Las cámaras de reconocimiento facial se están enfrentando a un inesperado obstáculo para poder inundar las calles de todo el mundo: las personas

El New York Times concluye que la compañía había estado vigilando al periodista encargado del reportaje, Kashmir Hill, y que Clearview AI puede ver qué buscan exactamente las fuerzas de seguridad con su software y cuándo lo hacen.

Las preocupaciones sobre el uso de tecnología de reconocimiento facial se han centrado durante mucho tiempo en cuestiones en torno a la privacidad y en la posibilidad de que la tecnología tenga hoy por hoy cierto sesgo racial. En diciembre de 2019 el Instituto Nacional de Estándares y Tecnología de EEUU llegó a la conclusión de que la tecnología de reconocimiento facial tenía sesgo racial, ya que normalmente tiene más dificultades para identificar a las personas que no son blancas y a las mujeres.

El pasado miércoles la demócrata Alexandria Ocasio-Cortez expresó sus temores sobre la tecnología de reconocimiento facial durante una reunión del Comité de Supervisión y Reforma de la Cámara de Representantes de los Estados Unidos.

"Esto es algo de la vida real, similar a lo que vemos en Black Mirror", dijo Ocasio-Cortez, en referencia a la exitosa serie Netflix que a menudo se basa en los aspectos distópicos de la tecnología.

Alexandria Ocasio-Cortez en una audiencia del Comité de Servicios Financieros de la Cámara de Representantes en octubre de 2019.
Alexandria Ocasio-Cortez en una audiencia del Comité de Servicios Financieros de la Cámara de Representantes en octubre de 2019. MANDEL NGAN/AFP via Getty Images

A pesar de las preocupaciones sobre la tecnología, las agencias de seguridad en todo Estados Unidos parecen haber adoptado dicha tecnología, aunque su uso no suele trascender debido a la naturaleza de las investigaciones policiales.

Pero además de los típicos riesgos y polémicas asociadas con el uso de las tecnologías de reconocimiento facial, Clearview AI presenta nuevos riesgos ya que las fuerzas de seguridad comparten imágenes potencialmente sensibles con el software. Y se tienen pocos detalles de cómo gestiona esos datos la empresa que está detrás de Clearview AI.

Leer más: Europa está estudiando cómo imponer límites estrictos al "uso indiscriminado de la tecnología de reconocimiento facial"

 

Los organismos policiales han tenido acceso a tecnología de reconocimiento facial durante décadas, pero la diferencia es que herramientas como Clearview AI no limitan las búsquedas a las bases de datos gubernamentales, lo que durante mucho tiempo ha resultado una limitación para los cuerpos de seguridad.

Clearview AI dice que su software es efectivo en un 75% de las ocasiones, aunque tal y como señala el New York Times, es imposible determinar la tasa de falsos positivos que tienen el servicio ya que no ha sido examinado independientemente por nadie.

Y además