Pasar al contenido principal

Amazon construyó una herramienta de inteligencia artificial para contratar gente, pero tuvo que cerrarla porque estaba discriminando a las mujeres

Jeff Bezos gana más de 4 millones de dólares (unos 3,4 millones de euros) la hora.
Jeff Bezos gana más de 4 millones de dólares (unos 3,4 millones de euros) la hora. David Ryder/Getty Images
  • Amazon ha intentado construir una herramienta de inteligencia artificial para ayudar con el reclutamiento de personal, pero el sistema mostraba un sesgo en contra de las mujeres, según Reuters.
  • Según se informa, los ingenieros descubrieron que la IA era desfavorable hacia las candidatas porque había revisado los currículos dominados por hombres para acumular sus datos.
  • Amazon ha explicado que abandonó el proyecto a principios de 2017.

Amazon ha informado sobre la construcción de una herramienta de inteligencia artificial para ayudar con la contratación, pero que este plan fracasó cuando la compañía descubrió que el sistema discriminaba a las mujeres, según Reuters.

Citando cinco fuentes, Reuters asegura que Amazon creó un equipo de ingeniería en Edimburgo, Escocia, en 2014 para encontrar una manera de automatizar su reclutamiento.

La compañía creó 500 modelos de computadora para rastrear los currículos de los candidatos pasados ​​y recoger alrededor de 50.000 términos clave. El sistema rastrearía la web para recomendar candidatos.

Leer más: Cómo va a transformar tu vida la revolución de la inteligencia artificial, según los expertos

"Literalmente querían que fuera un motor donde les voy a dar 100 currículos, ofrecerán a los cinco primeros y los contrataremos", explica una fuente a Reuters.

Sin embargo, un año después, los ingenieros notaron que había algo preocupante en su motor: no le gustaban las mujeres. Aparentemente, esto se debió a que la IA revisó los currículos predominantemente masculinos enviados a Amazon durante un período de 10 años para acumular datos sobre a quién contratar.

En consecuencia, la IA llegó a la conclusión de que los hombres eran preferibles. Según se informa, rebajó los currículos que contenían las palabras "mujeres" y eliminó a los candidatos que habían asistido a dos universidades solo para mujeres.

Los sesgos humanos transferidos a los algoritmos

Los ingenieros de Amazon aparentemente modificaron el sistema para remediar estas formas particulares de sesgo, pero no podían estar seguros de que la IA no encontraría nuevas formas de discriminar injustamente a los candidatos.

El sesgo de género no fue el único problema, explican esas fuentes de Reuters. Los programas de computadora también ofrecían candidatos que no estaban calificados para el puesto.

Remediar el sesgo algorítmico es un tema espinoso, ya que los algoritmos pueden detectar el sesgo humano subconsciente. En 2016, ProPublica descubrió que el software de evaluación de riesgos utilizado para predecir qué criminales eran más propensos a reincidir presentaba un sesgo racial contra los negros. El exceso de confianza en la inteligencia artificial para cosas como el reclutamiento, la calificación crediticia y los juicios de libertad condicional también han creado problemas en el pasado.

Leer más: Cómo puede la inteligencia artificial ayudar a eliminar los atascos

Amazon explica que abandonó el proyecto de reclutamiento de AI a principios del año pasado después de que los ejecutivos perdieran la fe en él. Las fuentes citadas por Reuters aseguran que los reclutadores de Amazon analizaron las recomendaciones generadas por la AI, pero nunca se basaron únicamente en su juicio.

Amazon ha explicado a Business Insider EEUU que está comprometido con la diversidad e igualdad en el lugar de trabajo, pero se ha negado a hacer más comentarios.

Te puede interesar