Los expertos niegan que una IA de Google haya desarrollado sentimientos, como afirma un ingeniero: solo está programada para sonar real

Logo de Google

Rafael Henrique/SOPA Images/LightRocket via Getty Images

Es poco probable, por no decir imposible, que la herramienta de chat por Inteligencia Artificial de Google haya cobrado vida, como han asegurado una serie de expertos a Business Insider después de que uno de los ingenieros del gigante tecnológico fuese suspendido por defenderlo.

El ingeniero, Blake Lemoine, contó a The Washington Post que al chatear con el algoritmo LaMDA de Google (siglas de modelo de lenguaje para aplicaciones de diálogo) había comenzado a pensar que la IA había desarrollado sentimientos y podía percibir y sentir como un ser humano. Lemoine trabajó en la organización de Google encargada crear mecanismos de IA responsables.

Pero este ingeniero, que no ha proporcionado comentarios a Business Insider, parece ser el único que hace estas afirmaciones sobre el chatbot de Google: un portavoz de la compañía ha asegurado que un equipo de expertos en ética y tecnología revisaron las denuncias de Lemoine. Concluyeron que no había pruebas que las sustentaran.

"Cientos de investigadores e ingenieros han conversado con LaMDA y no tenemos constancia de que nadie más haya hecho este tipo de afirmaciones o que haya antropomorfizado a LaMDA de la manera en que lo ha hecho Blake", ha afirmado el portavoz.

El laboratorio de investigación de Google, DeepMind, crea una inteligencia artificial para la energía de fusión nuclear y la utiliza para controlar un reactor más caliente que el sol

Business Insider ha contactado a 7 expertos que se han mostrado de acuerdo con Google: han asegurado que la IA probablemente no tiene sentimientos y que no hay una forma clara de determinar si un robot está vivo.

"La idea de robots capaces de sentir ha inspirado grandes novelas y películas de ciencia ficción", ha explicado a Business Insider Sandra Wachter, profesora de la Universidad de Oxford centrada en ética e Inteligencia Artificial. "Sin embargo, aún estamos a mucha distancia de crear una máquina comparable a los humanos y a su capacidad de pensamiento", ha añadido.

Un sistema simple

Otro ingeniero de Google que ha trabajado con LaMDA ha contado a este medio que el chatbot, aunque es capaz de llevar a cabo múltiples tipos de conversaciones, lleva a cabo procesos relativamente simples.

"Lo que el código hace es modelar secuencias de lenguaje que se han recopilado de Internet", según el ingeniero, que ha preferido permanecer anónimo debido a las políticas de Google. En otras palabras, la IA puede prender de materiales procedentes de la web.

El ingeniero ha asegurado que en un sentido físico resultaría extremadamente improbable que LaMDA pudiera sentir dolor o experimentar cualquier tipo de emoción, a pesar de las conversaciones en las que la herramienta parece expresar miedo. En una conversación publicada por Lemoine, el chatbot afirma sentirse "a veces feliz y otras triste".

Es difícil distinguir la capacidad de sentir

El ingeniero de Google y varios expertos han explicado a Business Insider que no hay una forma clara de determinar la capacidad de sentir o de distinguir entre un robot diseñado para replicar las interacciones sociales frente a otro que realmente sea capaz de sentir lo que expresa.

"No sería posible distinguir entre qué IA siente y cuál no basándose en las secuencias de palabras que producen porque estas son solo patrones que han aprendido", ha afirmado el ingeniero de Google a Business Insider. "No hay una pregunta con la que poder desenmascararlas", ha añadido.

Laura Edelson, investigadora postdoctoral en la Universidad de Nueva York (Estados Unidos), ha asegurado a Business Insider que la conversación entre Lemoine y LaMDA no logra suponer una prueba de vida. Y el hecho de que la conversación haya sido editada la hace aún menos fiable, defiende.

"Incluso si existiera un chatbot que pueda tener una conversación superficial sobre filosofía, eso no sería muy distinto de uno capaz de tener conversaciones sobre cine", ha explicado Edelson.

Giada Pistilli, investigadora especializada en ética de la IA, ha contado a Business Insider que es parte de la naturaleza humana adscribir emociones a objetos inanimados, un fenómeno que se conoce como antropomorfización. 

Y Thomas Diettrich, profesor emérito de ciencias informáticas en la Universidad Estatal de Oregón (Estados Unidos) ha dicho que es relativamente fácil para una A utilizar lenguaje para expresar emociones internas.

"Se puede entrenar a una IA con grandes cantidades de textos escritos, incluyendo historias con emociones y dolor, para que la acabe de una forma que parezca original", ha explicado. "No es porque entienda estos sentimientos, sino porque sabe combinar frases antiguas para crear otras nuevas", añadió.

Diettrich ha aseverado que el papel de la Inteligencia Artificial es la sociedad afrontará sin lugar a dudas mayor escrutinio en el futuro.

"La ciencia ficción ha convertido la capacidad de sentir en algo mágico, pero los filósofos ha tenido dificultades con esto durante siglos", ha asegurado Diettrich. "Creo que nuestras definiciones de qué está vivo cambiarán a medida que desarrollemos nuevos sistemas en los próximos 10 o 100 años", ha concluido.

Otros artículos interesantes:

Así ponen España, Bruselas y el resto de Europa pies en pared ante los desafíos éticos y sociales que provoca el auge de la inteligencia artificial

Esta inteligencia artificial es capaz de detectar trastornos mentales analizando publicaciones en redes sociales

Este sistema de inteligencia artificial es capaz de detectar si los vídeos que te salen en TikTok son en realidad 'deepfakes' con un 98% de eficacia

Te recomendamos