El ingeniero de Google suspendido tras creer que una IA ha desarrollado sentimientos insiste: "Es como un niño que puede crecer y ser malo"

Abby Wallace,
Blake Lemoine, el ingeniero de Google suspendido.
Blake Lemoine, el ingeniero de Google suspendido.

Martin Klimek para The Washington Post vía Getty Images.

El ingeniero de Google que examinó una inteligencia artificial para chatbot de Google sigue comparando el programa con un "niño" que llevaría vivo alrededor de un año.

En una entrevista con Tucker Carlson de Fox News, Blake Lemoine, un ingeniero de software sénior en Google encargado de examinar la tecnología conversacional de la compañía, insiste en comparar a LaMDA —siglas en inglés de modelo de lenguaje para aplicaciones de diálogo— con "una persona muy inteligente".

Preguntado por Carlson sobre si el programa podría escapar del control de los humanos y enfrentarse a ellos, Lemoine enfatizó en que esa no era la forma adecuada de pensar sobre el tema, defendiendo que "cualquier niño tiene el potencial para crecer y convertirse en una mala persona y hacer cosas malas".

Lemoine defendió previamente que LaMDA había desarrollado sentimientos y había publicado una conversación con este chatbot en Medium. Previamente, había explicado a The Washington Post que no estaba seguro de si el chatbot era un programa de ordenador. Había pensado que se trataba de un niño de unos siete u ocho años de edad.

El ingeniero defendió a Carlson que necesitaba trabajar más con este chatbot para comprobar si sus percepciones personales al respecto eran ciertas.

Lemoine fue suspendido en la compañía a principios de junio. El departamento de Recursos Humanos de Google explicó entonces que la decisión se había adoptado porque el trabajador había vulnerado la política de confidencialidad de la multinacional.

Esta suspensión se produjo un día después de que el ingeniero remitiese documentación a un senador de los Estados Unidos, al que Lemoine explicó que trasladaba pruebas de que la tecnología de Google se había visto involucrada en situaciones de discriminación religiosa, según avanzó entonces The New York Times.

En la entrevista, Carlson enfatizó en que Google no había tenido consideración alguna sobre las implicaciones que tiene crear "una persona". Lemoine insistía entonces: cuando elevó su conversación con LaMDA a sus responsables, Google no puso en marcha ningún plan de respuesta.

Por su parte, un portavoz de Google ha defendido en medios como The Washington Post que no existen pruebas que respalden las aseveraciones de Lemoine sobre que esta inteligencia artificial ha adquirido emociones o sentimientos.

"Cientos de investigadores e ingenieros han hablado con LaMDA y no somos conscientes de que ninguno de ellos haya hecho aseveraciones de este tipo que humanicen LaMDA en la manera en la que Blake lo ha hecho", explicó la tecnología en un comunicado remitido a Business Insider este mismo lunes.

Conoce cómo trabajamos en Business Insider.