La IA que adivina tus emociones podría ser mal utilizada y no debería estar disponible para todo el mundo, según Microsoft

Reconocimiento facial

Getty Images

La IA de reconocimiento facial no será para todos. Al menos, en lo que dependa de Microsoft. La empresa fundada por Bill Gates ha dicho este martes en declaraciones recogidas por Fortune que planea detener la ventas de este tecnología.

Esta, explica Microsoft, no solo permite reconocer el rostro de una persona, sino que también da acceso a hacer predicciones sobre cuestiones como su estado de ánimo, si es hombre o mujer o su edad. A ojos del gigante tecnológico, demasiado poder como para que caiga en malas manos.

Porque para hacerlo, explica Microsoft, estos servicios de Inteligencia Artificial toman ingentes bases de datos, extraen generalizaciones y las aplican al sujeto que tienen delante, lo que puede someter a las personas a estereotipos, discriminación y, en última instancia, negación injusta de servicios.

Estos 8 algoritmos públicos sobre los que apenas se sabe nada ya toman decisiones que afectan a tu día a día

El tema ha generado no poca controversia en las últimas semanas a medida que han ido surgiendo cada vez más estudios que confirman que, alimentadas con datos humanos, las máquinas incurren en los mismos sesgos de percepción que puede tener cualquiera. 

Lejos de solucionar los problemas de discriminación, ponen al ser humano frente a un espejo.

Esto se deja notar especialmente, por ejemplo, en procesos de selección de personal en los que ya se ha aplicado la IA.  Dado que los sistemas de reconocimiento facial suelen entrenarse con bases de datos predominantemente blancas y masculinas, las máquinas tienden a optar por este tipo de perfiles en detrimento del resto. 

Para conocer bien el alcance de estos sesgos, Microsoft ha elaborado en los últimos dos años un documento interno de unas 27 páginas en el que trata de establecer un uso responsable y estándar de la IA. Este empieza por reconocer los problemas de este tipo de tecnología.

"El potencial de los sistemas de IA para exacerbar los prejuicios y las desigualdades sociales es uno de los daños más reconocidos asociados a estos sistemas", explica al respecto en una entrada en el blog de Microsoft Natasha Crampton, directora del departamento de IA de la empresa.

La experta pone un ejemplo. En marzo de 2020, un estudio académico llevado a cabo por la Universidad de Stanford, que todavía se puede consultar en su propia web, reveló que la tecnología de voz a texto en el sector tecnológico producía tasas de error para los miembros de algunas comunidades negras y afroamericanas que casi duplicaban las de los usuarios blancos

No, la IA capaz de sentir de una manera humana no está cerca, pero las máquinas capaces de encontrar nuevas maneras de discriminarte ya están aquí y afectan a tu vida diaria

En concreto, mientras que en hablantes blancos los dispositivos apenas se equivocan un 19%, entre hablantes negros las tasas se elevan por encima del 35%. El motivo es sencillo: los procesadores de voz a texto habían sido entrenados por hablantes mayoritariamente blancos.

"Dimos un paso atrás, examinamos las conclusiones del estudio y nos dimos cuenta de que nuestras pruebas previas al lanzamiento no habían tenido en cuenta de forma satisfactoria la rica diversidad del habla entre personas de diferentes orígenes y regiones".

Microsoft, cuenta Crampton, contrató entonces a un sociolingüista que asesoró a la empresa para tratar de cerrar la diferencia de rendimiento de sus dispositivos en hablantes de distintas variedades dialectales del inglés.

Los límites del reconocimiento facial

"Reconocemos que para que la IA sea fiable los sistemas deben ser adecuados a los problemas que supuestamente resuelven", afirma Crapmton.

Al introducir el Acceso Limitado a estas herramientas, Microsoft espera añadir una capa adicional de escrutinio al uso y despliegue del reconocimiento facial.

Para ello, según Crampton, la empresa va a retirar del mercado las capacidades de la IA que "infieren estados emocionales y atributos de identidad como el sexo, la edad, la sonrisa, el vello facial, el pelo y el maquillaje". 

Se mantienen, por otra parte, herramientas que mejoran la accesibilidad de los usuarios, como IA Seeing, un programa que puede describir los objetos que tienen alrededor personas con problemas de visión. EEUU y la UE, recuerda Fortune, debaten desde hace tiempo las implicaciones legales y éticas de la tecnología de reconocimiento facial. 

España quiere que las empresas empiecen a participar en el 'sandbox' del Reglamento de Inteligencia Artificial después de este verano

Como resultado de estas discusiones, por ejemplo, a partir del próximo año los empleadores de la ciudad de Nueva York se enfrentarán a una mayor regulación en el uso de herramientas automatizadas para la selección de candidatos. 

En Europa, desde hace un año distintos organismos han instado a la UE a prohibir por completo los sistemas de reconocimiento facial después de que el uso de estos quedara ya limitado en la primera normativa europea sobre la IA.

Académicos y expertos llevan años criticando herramientas como Azure Face API de Microsoft, que afirman poder identificar emociones a partir de vídeos e imágenes. 

Su trabajo ha demostrado que incluso los sistemas de reconocimiento facial más sofisticados cometen errores a la hora de evaluar los rostros de las mujeres en general y los de las personas con tonos de piel más oscuros. 

Los nuevos clientes tendrán que solicitar además la aprobación de Microsoft para utilizar otros servicios de la API facial de Azure. 

Otros artículos interesantes:

Una inteligencia artificial de Google ha desarrollado sentimientos, según un ingeniero al que han suspendido por denunciarlo

Los drones con inteligencia artificial aparecen en Ucrania: la tecnología que posee decidiría por sí misma cuál es el objetivo

Inteligencia artificial contra el cáncer: una prueba abre el camino para detectar la combinación de fármacos más eficaz en menos de 48 horas

Te recomendamos