Investigadores, filósofos y académicos exigen al Gobierno que prohíba el uso de tecnologías de reconocimiento facial hasta que el Congreso las regule

Feria de tecnología de reconocimiento facial
Reuters
  • 70 investigadores españoles han exigido al Gobierno español, a través de una carta, que no apruebe las tecnologías de reconocimiento facial, debido a los problemas de privacidad derivados de su uso.
  • La misiva tiene lugar tras la retirada de la licitación de Renfe que planeaba instalar este tipo de tecnología en sus estaciones, algo que lleva haciendo la de Méndez Álvaro desde 2016, sin que los usuarios sean conscientes.
  • Descubre más historias en Business Insider España.

Hace relativamente poco, se conocía que Renfe quería introducir un programa informático a través del cual se pudieran detectar desmayos, caídas a las vías de las  estaciones e incluso si las personas visten mascarilla.

Además, también se reconocía el origen étnico de los pasajeros e incluso sus estados de ánimo, algo que sembró la polémica inmediatamente entre la comunidad de expertos en reconocimiento facial y ética en el uso de inteligencias artificiales.

Aun así, lo de Renfe no era nada nuevo, ya que la estación de autobuses de Méndez Álvaro (Madrid) utiliza una herramienta de reconocimiento facial, desde 2016, sin que los pasajeros se hayan percatado siquiera de su presencia.

Por ello, 70 investigadores de diferentes disciplinas, universidades y centros de transferencia de conocimiento, han recogido su preocupación respecto a la protección de la privacidad de los usuarios, en una carta dirigida al Gobierno español, a la que te puedes sumar en este enlace. Entre los firmantes de la carta hay académicos e investigadores, pero también filósofos, doctores o divulgadores.

En ella, han expresado su preocupación ante la instalación de estas cámaras de reconocimiento facial y han exigido "establecer una moratoria en el uso y comercialización de sistemas de reconocimiento  y análisis facial por parte de empresas públicas y privadas", hasta que el Congreso decida si esta tecnología responde de forma ética a una necesidad de la sociedad.

De esta forma, los investigadores han detallado en esta misiva al Gobierno los problemas relacionados con la privacidad de los usuarios, en caso de que esta herramienta sea instalada en las estaciones.

Los "efectos perniciosos" sobre los derechos fundamentales

Tal y como han recogido los investigadores en esta carta, exigen al Gobierno "que intervenga de manera rápida", ya que estos sistemas podrían tener "potenciales efectos perniciosos sobre el bienestar, los intereses y las necesidades y derechos fundamentales de la población española".

Además, como han asegurado en ella, muchas de estas herramientas no son precisas y "los algoritmos de aprendizaje automático que los sustentan computacionalmente tienen graves problemas", algo directamente relacionado con el deep learning de las inteligencias artificiales, que pueden llegar a tener juicios de valor que derivan del racismo o machismo presente en su aprendizaje.

Ante este hecho, peligroso a la par que desconcertante para el conjunto de la sociedad, los investigadores han enumerado los principales problemas de su aplicación en lugares públicos, como Méndez Álvaro o el Cercanías.

Hacer más preguntas y hablar más sobre la ética en los algoritmos es algo "urgente" para lo que es imprescindible "invertir en educación", advierten los expertos

En primer lugar, el reconocimiento facial utiliza una puntuación individual para ver si alguien es susceptible de cometer una acción ilegal, algo que vulnera directamente el libre albedrío de los seres humanos.

"Más allá de correlaciones estadísticas que no implican relaciones causa-efecto, no hay modelos científicos aceptados en psicología, antropología o sociología que indiquen que un tipo de nariz, un rictus particular o una manera de andar sean predictores adecuados de comportamientos individuales futuros", han alertado.

A ello hay que sumar que todos los prejuicios de la Inteligencia Artificial actúan cada vez con más "opacidad", es decir, que el aprendizaje automático del algoritmo imposibilita que se puedan corregir estos problemas, lo que podría dar lugar al reconocimiento de un criminal que en realidad no lo es, algo parecido a la distopía de Minority Report.

Mercadona está siendo investigada por su polémico reconocimiento facial

Ahora bien, el sector público no es el único en el que se han planteado este tipo de herramientas de reconocimiento facial, ya que Mercadona propuso la instalación de cámaras en 40 de sus tiendas, con el objetivo de evitar la entrada de consumidores peligrosos que atentasen contra sus establecimientos o los trabajadores.

Ante este movimiento de la cadena de supermercados de Juan Roig, la Agencia Española de Protección de Datos (AEPD) abrió una investigación, que derivó de las quejas de los clientes de Mercadona, quienes acusaron a la cadena de vulnerar su privacidad.  

Además, el Reglamento General de Protección de Datos de la Unión Europea prohíbe explícitamente el tratamiento de datos biométricos para la identificación de un individuo, aparte del consentimiento por su parte para garantizar la privacidad de sus datos tratados.

A pesar de esto, se prevé que la AEPD dicte sentencia en julio de este mismo año, lo que podría suponer un varapalo judicial, tanto para Renfe como para las cámaras que llevan grabando y recopilando datos, desde 2016, en la estación de Méndez Álvaro.

Otros artículos interesantes:

Imprimir documentos del trabajo en casa podría suponer la infracción de la Ley General de Protección de Datos

La Agencia Española de Protección de Datos multa a Vodafone con 8 millones de euros en un nuevo récord de sanción

Giro en China en defensa de la privacidad: el Gobierno pone coto a la recopilación de datos de los usuarios por parte de aplicaciones y plataformas