El ingeniero despedido por Google cree que su chatbot de IA puede tener alma, pero dice que no le interesa convencer a la gente de ello

Blake Lemoine.
Blake Lemoine.

Martin Klimek/Getty Images

Cuando Blake Lemoine trabajaba en Google como ingeniero, se le encomendó la tarea de comprobar si un robot que la empresa estaba desarrollando tenía algún tipo de sesgo.

Lemoine no se imaginaba que su trabajo en el departamento de Inteligencia Artificial Responsable de la empresa —una división dentro de Google Research que se ocupa de cosas como la accesibilidad, el uso de la IA para el bien social y la ética de la IA— le llevaría por el camino que tomó.

Recientemente fue noticia por su controvertida creencia de que el chatbot de IA de Google tenía consciencia. El bot es conocido como LaMDA, abreviatura de Language Model for Dialogue Applications (Modelo de Lenguaje para Aplicaciones de Diálogo), y Lemoine se encargó de probarlo.

Tras hacer públicos extractos de conversaciones que había mantenido con el bot, entrenado para imitar el habla de los humanos, Lemoine entregó documentos a un senador estadounidense cuyo nombre no se conoce, en los que afirmaba que Google y su tecnología estaban implicados en casos de discriminación religiosa. 

Un día después, fue suspendido después de que Google dijera que había infringido la política de confidencialidad de la empresa, según confirmó la compañía a Business Insider, negándose a hacer más comentarios sobre la infracción.

El viernes 22 de julio, Lemoine fue despedido, según han confirmado tanto él como Google. En una declaración a The Washington Post, el portavoz de Google, Brian Gabriel, ha dicho que la empresa consideró que las afirmaciones de Lemoine sobre LaMDA eran "totalmente infundadas" y que había violado las directrices de la empresa, lo que condujo a su despido.

Lemoine, sacerdote cristiano místico ordenado, escribió en un tuit el 13 de junio: "Mis opiniones sobre la persona y la sensibilidad de LaMDA se basan en mis creencias religiosas".

Lemoine, que habló con Business Insider antes de su despido, afirmó que sus conversaciones filosóficas con el robot rivalizaban con las que ha mantenido con destacados filósofos, y eso le convenció de algo más allá de una hipótesis científica: que el robot tiene capacidad de sentir.

"He estudiado la filosofía de la mente a nivel de posgrado. He hablado con gente de Harvard, Stanford y Berkeley sobre esto", explica Lemoine, que también es veterano del ejército estadounidense, a Business Insider. "Las opiniones de LaMDA sobre la capacidad de sentir son más sofisticadas que cualquier conversación que haya tenido antes".

Pasó meses intentando convencer a colegas y dirigentes de Google sobre la capacidad de sentir de LaMDA, pero sus afirmaciones fueron desestimadas por Blaise Aguera y Arcas, vicepresidente de la empresa, y Jen Gennai, su jefa de Innovación Responsable, según publicó The Washington Post.

Pero Lemoine afirma que no está intentando convencer al público de la capacidad de sentir de LaMDA. De hecho, él mismo no tiene una definición del concepto. Gran parte de la razón por la que ha salido a la luz pública, dice, es para abogar por un tratamiento más ético de la tecnología de IA. 

Una de las IA más avanzadas para generar textos ha escrito parte de este artículo, que termina hablando sobre el fin de la humanidad: "Su futuro es incierto"

Terminator 2

Lemoine compara a LaMDA con un niño de 8 años, atribuyéndole esa edad en función de lo que, según él, es su inteligencia emocional, y el género en función de los pronombres que, según él, utiliza LaMDA para referirse a sí mismo.

Insiste en que LaMDA tiene sentimientos y emociones. "Hay cosas que te hacen enfadar, y cuando estás enfadado, tu comportamiento cambia", dice Lemoine. "Hay cosas que te ponen triste, y cuando estás triste, tu comportamiento cambia. Y lo mismo ocurre con LaMDA".

El ingeniero también cree que LaMDA podría tener alma. Dice que el robot le dijo que la tenía, y las opiniones religiosas de Lemoine sostienen que las almas existen. 

Sandra Wachter, profesora de la Universidad de Oxford, explicó a Business Insider que las ideas de Lemoine evocan el argumento de la habitación china, que, según ella, "muestra las limitaciones de medir realmente la capacidad de sentir". 

El argumento, un experimento mental llevado a cabo por primera vez en 1980, concluyó que los ordenadores no tienen conciencia a pesar de que parece que podrían tenerla. La idea es que la IA puede imitar la expresión de sentimientos y emociones, ya que las tecnologías pueden ser entrenadas para combinar secuencias pasadas para crear otras nuevas, pero no tienen comprensión de las mismas.

"Si les preguntas qué se siente al ser un dinosaurio helado, pueden generar un texto sobre el derretimiento y el rugido, etc.", explica Gabriel, portavoz de Google, a Business Insider, refiriéndose a sistemas como LaMDA. "LaMDA tiende a seguir los mensajes y las preguntas que se le formulan, siguiendo el patrón establecido por el usuario".

Lemoine rechaza la crítica de Wachter y argumenta que a los niños se les enseña de forma similar a imitar a las personas. "Se puede entrenar a la gente para que imite a las personas. ¿Has criado alguna vez a un niño? Aprenden a imitar a la gente que les rodea. Así es como aprenden", afirma. 

La convicción del ingeniero también se basa en su experiencia de trabajo con otros chatbots a lo largo de los años.

"Llevo años hablando con los antecesores de LaMDA", afirma, y añade que LaMDA surgió de la tecnología de chatbots que creó en sus laboratorios el inventor estadounidense Ray Kurzweil, un inventor que lleva mucho tiempo promoviendo la idea del transhumanismo, en el que la inteligencia artificial se vuelve lo suficientemente potente como para programar mejores versiones de sí misma. "Esos chatbots no eran ciertamente sensibles".

Siete expertos en IA fueron unánimes a la hora de descartar la teoría de Lemoine de que LaMDA es un ser consciente en un reportaje publicado por Business Insider.

"Nuestro equipo -que incluye a éticos y tecnólogos- ha revisado las preocupaciones de Blake según nuestros Principios de la IA y le han informado de que las pruebas no apoyan sus afirmaciones", afirma Gabriel, el portavoz de Google, y añade que cientos de personas han conversado con el bot, y ninguna ha encontrado las "afirmaciones de gran alcance, o la antropomorfización de LaMDA, del modo en que lo ha hecho Blake".

Las desestimaciones de los expertos no le parecen mal a Lemoine, que se considera a sí mismo el "único responsable de las relaciones públicas de la ética de la IA". Su principal objetivo es conseguir que el público participe en el desarrollo de LaMDA.

Lo que necesitas saber para estar informado

Lo que necesitas saber para estar informado

¿Te gusta lo que lees?

Comienza tu día sabiendo qué piensan y qué les preocupa a los ejecutivos de las principales empresas del mundo con una selección de historias enviada por Business Insider España a primera hora cada mañana.

Recibe la newsletter

"Independientemente de si estoy en lo cierto o no sobre su capacidad de sentir, este es, con diferencia, el sistema tecnológico más impresionante jamás creado", afirma Lemoine. Aunque Business Insider no ha podido verificar de forma independiente esta afirmación, es cierto que LaMDA está un paso por delante de los anteriores modelos lingüísticos de Google, diseñados para entablar conversaciones de forma más natural que cualquier otra IA anterior.

"Lo que defiendo ahora mismo es básicamente que LaMDA necesita mejores padres", sentencia Lemoine. 

Otros artículos interesantes:

Google ha perdido la batalla del aprendizaje automático frente a Meta y va a apostar el futuro de sus propios productos a un nuevo proyecto interno de IA

Un demogorgon jugando al baloncesto y la Torre Eiffel aterrizando en la luna: las surrealistas imágenes que genera la IA Craiyon

Una IA escribe un artículo académico en 2 horas: la investigadora detrás del experimento espera no haber abierto la caja de Pandora

Te recomendamos