Créditos más caros o con menor plazo de vencimiento: así penaliza el sesgo de género de los algoritmos financieros a las mujeres

Mujeres desarrollando un código de programación.
  • Las mujeres se incorporaron más tarde al mundo laboral fuera del hogar, las decisiones financieras estuvieron tradicionalmente en manos de los hombres y este contexto, marca ahora los algoritmos del mundo de la banca. 
  • Verónica López Sabater, consultora de Economía Aplicada de Afi, y Gema Galdón, socia fundadora y directora de investigación en @Éticas Research & Consulting, han debatido en un webinar de Asufin sobre cómo el sesgo de género penaliza a las mujeres en las finanzas. 
  • Descubre más historias en Business Insider España. 

Los algoritmos sirven a las empresas o a los organismos públicos en su toma de decisiones. Pero a veces la automatización de estas decisiones se basa en información previa que parte de una situación desigual y esto genera un sesgo de géneros. Las mujeres se incorporaron más tarde al mundo laboral fuera del hogar, las decisiones financieras estuvieron tradicionalmente en manos de los hombres y este contexto, marca ahora los algoritmos del mundo de la banca. 

Pedir un crédito para una mujer es probable que sea más caro o que se le dé a un menor plazo de tiempo porque los bancos consideran que existe un mayor riesgo de impago, ha explicado Verónica López Sabater, consultora de Economía Aplicada de Afi en un webinar organizado por la asociación de consumidores financieros (Asufin).

¿Por qué se produce esto? "Muchas veces las mujeres estamos infrarrepresentasdas en los servicios bancarios porque hemos pasado más tiempo en casa o porque los hombres históricamente han sido los que han tenido un rol en las finanzas",  ha dicho Gema Galdón, socia fundadora y directora de investigación @Éticas Research & Consulting. 

Cómo nacen los sesgos tecnológicos que combate Eticas, la consultora que audita algoritmos a empresas e instituciones para evitar que sean discriminatorios

"Si tú al algoritmo no le dices, 'ojo que hay un sector que son las mujeres están infrarrepresentadas', nos asigna más riesgos porque si hemos recibido menos servicios bancarios en el pasado eso se identifica como que somos un perfil de más riesgo", ha apuntado Galdón. 

Un caso concreto ocurrió con la tarjeta que Apple lanzó de la mano de Goldman Sachs. Esta tarjeta de crédito ofrecía una mayor liquidez y un mayor plazo de pago si eras hombre que mujer. Incluso, el fundador de Apple, Steve Wozniak, denunció que en el caso de él y su mujer —con condiciones financieras idénticas— habían visto cómo el algoritmo le asignaba a él un límite de crédito 10 veces superior al de su esposa. 

"Se trata de una revictimización de las mujeres", ha señalado Galdón. Este sesgo del algoritmo también afecta a la comercialización de productos y a la estrategia comercial de los bancos (o de otras empresas) penalizando su negocio. 

Los algoritmos también penalizan las acciones comerciales

"Los bancos no solo asignan riesgo, también usan los algoritmos en acciones comerciales. Los productos de inversión se ofrece menos a mujeres porque el algoritmo entiende que las mujeres no somos suficientemente ricas", ha explicado Galdón. 

Galdón, que trabaja en la auditoría externa de algoritmos, ha explicado que han mantenido reuniones de alto nivel con bancos, pero que todavía no han trabajado con ningún. Así, se muestra que hay un interés de las organizaciones en la estrategia, pero que no llega a materializarse. 

Se queda en el tintero, a pesar de que las expertas han explicado que el Reglamento de Protección de Datos europeo recoge que los algoritmos tiene que ser "entendibles". 

"Silicon Valley está matando la innovación": por qué hay que empezar a auditar los algoritmos a las tecnológicas para evitar distopías, según una experta

La posibilidad de corregir estos algoritmos no pasa por una discriminación positiva, sino por contextualizar los datos. Para ello, las expertas proponen equipos multidisciplinares con diversidad de perfiles que ayuden a contextualizar la sociedad en la que se lanza el algoritmo. 

"El trabajo que hacemos es muy poco técnico y más de conocimiento del entorno. Lo que hacemos es decirle al algoritmo que no lea esa discriminación del pasado, que los datos que entran sean realmente neutros", ha señalado Galdón. 

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.

Etiquetas: