No, la IA capaz de sentir de una manera humana no está cerca, pero las máquinas capaces de encontrar nuevas maneras de discriminarte ya están aquí y afectan a tu vida diaria

Isobel Hamilton,
IA elige

Getty Images

Primero, las buenas noticias: la IA capaz de tener sentimientos no está ni cerca. Ahora, las malas: la IA tiene un montón de problemas mucho más urgentes.

El aviso viene al hilo de una historia sobre una IA supuestamente sensible que se ha hecho viral recientemente. 

Esta procede del ingeniero de Google Blake Lemoine, que ha hablado hace no mucho de que cree que un chatbot de la compañía llamado LaMDA (Modelo de Lenguaje para Aplicaciones de Diálogo, por su siglas en inglés) ha alcanzado cierta capacidad de albergar sentimientos.

No obstante, siete expertos en IA que han hablado con Business Insiderhan sido unánimes al descartar la teoría de Lemoine de que LaMDA es un ser consciente. Entre ellos se encuentra un empleado de Google que ha trabajado directamente con el chatbot.

Sin embargo, la IA no necesita ser inteligente para causar daños graves, afirman estos mismos especialistas.

El sesgo de la IA, por ejemplo, cuando replica y amplifica prácticas históricas de discriminación humana, es un problema que está ya muy bien documentado.

Se ha descubierto por ejemplo que los sistemas de reconocimiento facial muestran sesgos raciales y de género, y en 2018 Amazon cerró una herramienta de IA de contratación que había desarrollado porque discriminaba sistemáticamente a las mujeres.

España quiere que las empresas empiecen a participar en el 'sandbox' del Reglamento de Inteligencia Artificial después de este verano

"Cuando los algoritmos predictivos o la llamada IA se utilizan tan ampliamente, puede ser difícil reconocer que estas predicciones a menudo se basan en poco más que la regurgitación rápida de creencias muy extendidas, estereotipos o mentiras", dice la doctora Nakeema Stefflbauer, especialista en ética de la IA y CEO de la red Frauenloop.

"Tal vez sea divertido especular sobre lo sensible que parece ser la autogeneración de cadenas de palabras históricamente correlacionadas, pero es un ejercicio poco sincero cuando, ahora mismo, las predicciones algorítmicas están excluyendo, estereotipando y atacando injustamente a individuos y comunidades basándose en datos extraídos de, por ejemplo, Reddit", cuenta a Business Insider.

La profesora Sandra Wachter, de la Universidad de Oxford, detalló en un artículo reciente que la IA no solo muestra prejuicios con respecto a la raza y al género, sino que también encuentra nuevas formas de categorizar y discriminar a las personas.

Por ejemplo, el navegador que se use para solicitar un trabajo puede hacer que los sistemas de contratación de la IA favorezcan o desestimen tu solicitud.

La preocupación de Wachter es la falta de un marco legal que impida a la IA encontrar esas nuevas formas de discriminación.

"Sabemos que la IA recoge patrones injustos en materia de contratación, préstamos o justicia penal y los traslada al futuro. Pero la IA también crea nuevos grupos que no están protegidos por la ley para tomar decisiones importantes", afirma.

"Estas cuestiones necesitan respuestas urgentes. Abordemos estas primero y preocupémonos por la IA sintiente cuando realmente estemos cerca de cruzar ese rubicón", añade Wachter.

Google ha perdido la batalla del aprendizaje automático frente a Meta y va a apostar el futuro de sus propios productos a un nuevo proyecto interno de IA

Laura Edelson, investigadora de Ciencias de la computación de la Universidad de Nueva York, afirma que los sistemas de IA también ofrecen una respuesta fácil para quienes los utilizan de un modo discriminatorio.

"Un caso frecuente con los sistemas de aprendizaje automático es que estos permiten que uno tome una decisión que no quiere tomar bajo el argumento de: 'No soy yo, es el sistema", explica.

Stefflbauer cree que las expectativas que giran en torno a la IA sintiente eclipsan decisivamente cuestiones más apremiantes en torno al sesgo de la IA.

"Estamos desbaratando el trabajo de investigadores de ética de la IA de clase mundial que tienen que  pasarse el día desacreditando estas historias sobre la supuesta capacidad de las máquinas de sentir. Lo hacen a costa de que no quede tiempo o atención de los medios de comunicación para los problemas que sí tienen los sistemas predictivos."

Conoce cómo trabajamos en Business Insider.