La tecnología de reconocimiento facial tiene sesgos raciales, según un nuevo estudio

La tecnología de reconocimiento facial tiene un sesgo racial, según un nuevo e histórico estudio federal
Alex Wong/Getty Images
  • Los algoritmos de reconocimiento facial son propensos a identificar erróneamente a las personas racializadas, según un estudio del Instituto Nacional de Estándares y Tecnología de Estados Unidos (NIST), publicado este jueves.
  • La investigación demuestra que los negros y los asiáticos tienen hasta 100 veces más posibilidades de dar un falso positivo que los hombres blancos, y que las mujeres son más propensas a ser identificadas erróneamente que los hombres en general.
  • Las autoridades policiales de EE. UU. están adoptando la tecnología de reconocimiento facial como herramienta para identificar a sospechosos, una tendencia que el estudio pone en duda.
  • Algunos de los programas de software de reconocimiento facial más importantes como Rekognition de Amazon, no se pusieron a disposición del estudio.
  • Descubre más historias en Business Insider España.

Un amplio estudio del gobierno de EE. UU. sobre la tecnología de reconocimiento facial descubrió que los sistemas tenían problemas para identificar a las mujeres y a las personas de color que a los hombres y a los blancos, según el Instituto Nacional de Estándares y Tecnología (NIST) estadounidense.

Los investigadores encontraron que el software de reconocimiento facial daba mayores índices de falsos positivos en personas negras y asiáticas que en los blancos. El software tenía un índice más alto de falsos positivos para esos grupos de 10 a 100 veces, dependiendo de los algoritmos que se usaran.

El estudio encontró que las mujeres también eran identificadas erróneamente con más frecuencia que los hombres en general. La población nativa americana tenía la tasa más alta de falsos positivos.

"Aunque por lo general es incorrecto hacer afirmaciones a través de los algoritmos, encontramos evidencia empírica de la existencia de diferenciales demográficos en la mayoría de los algoritmos de reconocimiento facial que estudiamos", explica en una declaración el investigador del NIST Patrick Grother, autor principal del informe. "Estos datos tendrán mucho valor para los responsables de las políticas, los desarrolladores y los usuarios finales a la hora de pensar en las limitaciones y el uso apropiado de estos algoritmos".

Leer más: Por qué el reconocimiento facial y los datos biométricos solo deberían usarse en situaciones excepcionales, según los expertos

Los organismos encargados de hacer cumplir la ley en todo Estados Unidos han empezado a adoptar la tecnología de reconocimiento facial como una herramienta para rastrear movimientos de ciudadanos e identificar sospechosos en el último año. Los defensores de las libertades civiles han hecho retroceder esta tendencia, y algunas ciudades han prohibido el uso del reconocimiento facial por parte de las autoridades.

El analista principal de políticas de la ACLU —Unión Estadounidense por las Libertades Civiles—, Jay Stanley, ha dicho que el estudio del NIST es una evidencia de que el reconocimiento facial es una "tecnología distópica" y ha pedido a las agencias gubernamentales que dejen de utilizarla. La ACLU se ha opuesto sistemáticamente al reconocimiento facial y está demandando al gobierno estadounidense para que publique información sobre el uso del software de reconocimiento facial hecho por Amazon y Microsoft.

"Hasta los científicos del gobierno están confirmando ahora que esta tecnología de vigilancia es defectuosa y sesgada", sentencia. "Una falsa coincidencia puede llevar a la pérdida de vuelos, largos interrogatorios, colocaciones en listas de vigilancia, tensos encuentros con la policía, falsos arrestos o algo peor".

Leer más: El reconocimiento facial de Amazon ya es capaz de detectar el miedo

El estudio del NIST confirma las investigaciones anteriores sobre el sesgo racial y de género de la tecnología de reconocimiento facial. Los investigadores del MIT encontraron que el software de reconocimiento facial de Amazon, Rekognition, identificaba erróneamente a las personas de color en una proporción mayor que a las personas blancas (Amazon criticó el estudio, argumentando que los investigadores estaban usando el software incorrectamente).

Sin embargo, Amazon no fue uno de los 99 proveedores de reconocimiento facial probados por el NIST — la compañía no puso su software a disposición del estudio, según The Washington Post. Entre los proveedores que participaron en el estudio se encuentran Intel, Microsoft, Panasonic, SenseTime y Vigilant Solutions.

Un portavoz de Amazon se ha negado a hacer comentarios. Amazon ya había advertido de que su software es un servicio basado en la nube y que tendría que ser alterado para someterse a la prueba del NIST.

Leer más: Cuáles son las empresas de reconocimiento facial vetadas por violar los derechos humanos en Xinjiang

El estudio del NIST también encontró que el software de reconocimiento facial fabricado por compañías asiáticas tenía menos probabilidades de identificar erróneamente los rostros asiáticos.

"Estos resultados son una señal prometedora de que datos de formación más diversos pueden producir resultados más equitativos, en caso de que sea posible que los desarrolladores utilicen dichos datos", señalaba Grother.

Conoce cómo trabajamos en Business Insider.