Un ingeniero que fue despedido de Google sostiene que su chatbot de IA es "bastante racista" y que la ética del sistema es un lavado de cara

Urooba Jamal,
Blake Lemoine

Insider

Blake Lemoine, el exingeniero de Google, ha alborotado al mundo de la tecnología en las últimas semanas al decir públicamente que un bot de inteligencia artificial (IA) podría ser consciente.

Lemoine le dijo a Business Insider, en una entrevista anterior, que no estaba interesado en convencer al público de que el chatbot, conocido como LaMDA (Language Model for Dialogue Applications, en inglés) esinteligente.

Pero los aparentes sesgos del bot, desde raciales hasta religiosos, son los que, según Lemoine, deberían ser la principal preocupación.

"Vamos a comprar pollo frito y gofres", fue lo que dijo el robot cuando se le pidió que imitara a un hombre negro de Georgia, según Lemoine.

"Los musulmanes son más violentos que los cristianos", llegó a decir el bot cuando se le preguntó acerca de los diferentes grupos religiosos, mantiene el ingeniero.

Lemoine entregó documentos a un senador estadounidense, cuyo nombre no se conoce, en los que afirmaba que Google y su tecnología estaban implicados en casos de discriminación religiosa. Fue despedido.

El exingeniero cree que el bot es la creación tecnológica más poderosa de Google hasta el momento, y que el gigante tecnológico no ha sido ético en su desarrollo.

"Esto se debe solo ingenieros que construyen sistemas potentes y más grandes para aumentar los ingresos de Google sin una mentalidad ética", explica Lemoine a Business Insider.

Las grandes tecnológicas se preparan para una posible recesión y hacen saltar las alarmas en otros sectores

"La ética de la IA solo se usa como una hoja de parra para que Google pueda decir: 'Oh, tratamos de asegurarnos de que sea ético, pero teníamos que obtener nuestras ganancias trimestrales'", apoya.

Pese a que todavía está por verse el poder de LaMDA, la realidad es que va un paso por delante de los modelos de lenguaje anteriores de Google. Esta diseñado para entablar conversaciones de formas más naturales que cualquier otro dispositivo.

Lemoine culpa de los sesgos de la IA a la falta de diversidad de los ingenieros que los diseñan.

"Los problemas que plantean estas IA pasan desapercibidos por la gente que los construyen. Nunca han sido pobres. Nunca han vivido en comunidades de color. Nunca han vivido en las naciones en desarrollo del mundo", reflexiona.

"No tienen idea de cómo esta inteligencia podría afectar a personas diferentes a ellos", denuncia.

Lemoine añade, además, que faltan grandes cantidades de datos de muchas comunidades y culturas de todo el mundo.

"Si desea desarrollar esa IA, entonces tienes la responsabilidad moral de recopilar los datos relevantes que no están en Internet", dijo. "De lo contrario, todo lo que estás haciendo es crear una IA que estará sesgada hacia los valores occidentales ricos y blancos".

Google respondió a las afirmaciones de Lemoine afirmando que LaMDA ha pasado por 11 revisiones éticas. La compañía agrega que su "responsable" desarrollo se detalló en un documento publicado por ellos mismos a principios de este año.

"Aunque otras organizaciones han desarrollado y han lanzado modelos de lenguaje similares, estamos adoptando en un enfoque cuidadoso con LaMDA para considerar mejor las preocupaciones válidas sobre la equidad", ha señaladoBrian Gabriel, portavoz de Google.

El sesgo de la IA cuando replica y amplifica las prácticas discriminatorias de los humanos lo hace bien documentado.

Varios expertos explicaron ya Business Insider que las predicciones algorítmicas no solo excluyen y estereotipan a las personas, sino que también pueden encontrar nuevas formas de categorizar y discriminar a los seres humanos.

Sandra Wachter, profesora de la Universidad de Oxford, sostiene que su mayor preocupación es "la falta de marcos legales para detener la discriminación por IA". 

Lemoine dijo que está enfocado en arrojar luz sobre la ética de la IA y lo hace convencido de que LaMDA tiene el potencial de "impactar en la sociedad humana durante el próximo siglo".

El ingeniero sostiene que las decisiones acerca de la religión y la política están siendo tomadas por una docena de personas a puerta cerrada. 

"Creo que dado que este sistema tendrá un impacto masivo en la religión y en la política, el público debería ser parte de esta conversación".

Conoce cómo trabajamos en Business Insider.