"Es la peor empresa de reconocimiento facial del mundo": varios proveedores de tecnología de videovigilancia se quejan de forma silenciosa de Clearview AI en una conferencia

Caroline Haskins,
Reconocimiento facial

Getty Images

  • Durante un evento sobre tecnología de reconocimiento facial celebrado recientemente los expertos se mostraron serios e irritados cuando se habló de Clearview.
  • El sector está molesto con la empresa por dar mala fama a la tecnología de reconocimiento facial.
  • El consejero delegado de Clearview se ha quejado, por su parte, de la falta de discreción que hubo en un encuentro al que pudieron asistir periodistas.
  • Descubre más historias en Business Insider España.

Cuando asistí recientemente a la conferencia sobre tecnología de vigilancia Connect:ID, el elefante en la habitación era Clearview AI, una empresa que compara imágenes de búsqueda con imágenes extraídas de Internet. 

Escuché varias conversaciones en las que se hablaba de Clearview con escepticismo, en el mejor de los casos. Varios profesionales del sector expresaron abiertamente que no les gustaba ni respetaban la empresa. 

Un contratista del gobierno dijo que Clearview era "espeluznante". Me dijo que había leído sobre los amplios vínculos de la empresa con la extrema derecha y que estaba alarmado por ello. 

En otra conversación, un asistente calificó a la empresa como "la peor compañía de reconocimiento facial del mundo". 

Cuando me puse a hablar con él (era Jeremy Grant, del bufete de abogados Venable LLP) me dijo que estaba consternado tras descubrir que iba a hablar en un panel con el consejero delegado de Clearview, Hoan Ton-That. Minutos antes de que comenzara, Grant fue informado de que Ton-That había declinado intervenir en la charla por causas desconocidas.

Hay diferencias estructurales entre Clearview y la mayoría de los proveedores de tecnología de reconocimiento facial, y la sensación que tuve en estas conferencias es que el sector está molesto con la empresa por dar mala fama a este tipo de soluciones. 

Clearview coteja las imágenes de búsqueda con miles de millones de fotografías que ha extraído de las redes sociales. Otros proveedores de reconocimiento facial, como NEC y Panasonic, suelen cotejar las imágenes de búsqueda con los rostros de una base de datos proporcionada por los propios clientes. 

La regulación europea para la IA se convertirá en un estándar global, pero tiene un riesgo: dejar atrás a pymes y startups que la usen, según expertos

A menudo, se trata de una base de datos con fotos de empleados, aunque muchas empresas entrenan sus algoritmos con fotos de Internet.

A lo largo de la conferencia, cuando Clearview salía en la conversación, los expertos se mostraban serios e irritados. "¿No son la empresa que ha sacado de las redes sociales todas sus fotos?", dijo un asistente. 

Había una cierta conciencia (incluso entre una industria que los críticos alegan que viola la privacidad de las personas) de que Clearview ha dado un paso más allá de lo permitido al recopilar fotos de personas publicadas en las redes sociales. 

Mientras que algunos expositores de la conferencia de diferentes proveedores de reconocimiento facial solían estar llenos de gente, la instalación de Clearview era relativamente tranquila

Sin embargo, en una mesa redonda abierta a preguntas la empresa contó con una gran asistencia. Ton-That y el nuevo vicepresidente de ventas federales de Clearview, Matt Jones, fueron los encargados de contestar.

Un hombre de la Oficina de Seguridad Diplomática del Departamento de Estado preguntó cómo había respondido la empresa a la controversia que surgió después de que el público se enterara de que había extraído miles de millones de imágenes de Internet. Ton-That respondió que solo había recopilado fotos que ya eran públicas. 

El mismo asistente preguntó más tarde si Clearview tiene alguna forma de informar sobre los falsos positivos, o de proporcionar información sobre sus resultados. Ton-That esquivó la pregunta, mientras que Jones dijo que siempre fomentan la retroalimentación. Pero, en esencia, no, no se puede informar de casos de falsos positivos a la empresa.

Amazon suspende indefinidamente la venta de sus sistemas de reconocimiento facial a policías

"Realmente no contemplamos algo como un falso positivo, se trata solo de coincidencias no afirmativas" le dijo a Ton-That el nuevo representante de relaciones públicas de Clearview, Josh Zecher, desde el otro lado de la mesa. Ton-That señaló entonces que los resultados de la búsqueda de Clearview son "pistas" y no coincidencias.

Se trata de una distinción importante, porque "coincidencia" implica que Clearview ofrece un resultado de búsqueda definitivo, mientras que "pista de investigación" sugiere que la tecnología es solo un punto de partida para indagaciones más amplias de las fuerzas del orden y otras autoridades. Esto probablemente exime a Clearview AI de responsabilidad en caso de un resultado de búsqueda incorrecto.

Sin embargo, Ton-That se desvía con frecuencia del comedido lenguaje que se usa comúnmente en el ámbito de la tecnología: "Nadie ha hecho lo que nosotros hacemos a esta escala con esta precisión", dijo más tarde, añadiendo que cualquiera "es capaz de resolver casos al momento si obtiene coincidencias en el sistema".

Ton-That tampoco quiso aclarar si Clearview respeta los avisos de cese y desistimiento que la empresa recibió de Facebook, Twitter, LinkedIn y otras redes sociales después de sacar fotos para sus bases en ellas. 

Cuando le pregunté al consejero delegado con qué frecuencia Clearview ha cumplido con las solicitudes de eliminación de imágenes de su base de datos, algo que afirmó hacer desde hace más de un año, este se limitó a sonreír y decir: "Podemos hablar de eso más tarde".

Mercadona paga una sanción de 2,5 millones de euros por sus cámaras de reconocimiento facial y no recurrirá "por la indefinición sobre esta tecnología"

Otra persona preguntó por la precisión de Clearview, incluso si la foto introducida tiene un ángulo extraño o una mala iluminación. Ton-That explicó que Clearview lo hacía "bien", y dijo que su base de datos cuenta ahora con 10.000 millones de fotos, frente a los 3.000 millones con las que contaban hace algún tiempo, y que lo único que necesitan hacer a partir de ahora es mejorar. 

Pero repitió una cifra de precisión (el 98,6% por cada millón de rostros) que utiliza desde 2019.

"La gente está constantemente subiendo fotos", dijo Jones, de Clearview, durante una mesa redonda en la que habló sobre el flujo constante de personas que publican fotos redes sociales. Bajo su punto de vista, todas quedan a disposición de la empresa para que esta las recoja. 

En un evento independiente celebrado esta semana, Ton-That entrevistó a Joshua Findley, un agente especial de Investigaciones de Seguridad Nacional que se centra en delitos de pederastia. 

Hablaron sobre el caso de un hombre que fue condenado a 35 años de prisión "por agredir sexualmente a un niño en repetidas ocasiones", según un comunicado de prensa del Departamento de Justicia. 

Findley dijo que había estado buscando al sospechoso, cuyo rostro aparecía en 3 fotogramas de un vídeo donde se cometían abusos contra menores, pero que no tuvo éxito. 

Después de enviar las fotos a un investigador que tenía acceso a Clearview AI, contó, este encontró al sospechoso en el fondo de otras fotos tomadas en una exposición de culturismo. 

Poco después, las autoridades pudieron dar con el nombre del hombre, obtener una orden de registro y confiscar el ordenador portátil del sospechoso y las cámaras con material incriminatorio, contó Findley.

Clearview ha mencionado con frecuencia este caso como un ejemplo de uso de su tecnología para el bien. El caso es notable, pero no está claro cuán representativo es. En 2019, Clearview afirmó que ayudó a atrapar a un sospechoso de terrorismo, pero la compañía simplemente buscó al sospechoso y envió los resultados a la policía de Nueva York cuando ya lo habían arrestado.

España ultima su observatorio para analizar el impacto social de los algoritmos y se postula como país piloto para probar el futuro reglamento europeo de la inteligencia artificial

Findley contó que las autoridades también han utilizado Clearview en casos de artistas que coaccionan a menores para que les envíen imágenes sexualmente explícitas. Esto ha sido un problema, especialmente para chicas jóvenes, durante décadas. "Es algo que no sabía que ocurría", dijo Ton-That.

Esta semana, Ton-That participó en una mesa redonda sobre privacidad organizada por la Federalist Society que fue transmitida en directo. El consejero delegado dijo que debería haber cierta privacidad en eventos a los que pueden ir periodistas.

"Creo que las expectativas de privacidad son muy diferentes cuando se busca algo en Google Maps o cuando se hace una búsqueda en Google, donde se espera que lo que uno hace no sea privado", adujo. "Es distinto cuando estás en un evento como este, alguien te hace una foto y quizás escriban un artículo sobre ti. Ahí la situación es diferente".

Conoce cómo trabajamos en Business Insider.