Una inteligencia artificial de Google ha desarrollado sentimientos, según un ingeniero al que han suspendido por denunciarlo

google

Getty Images

¿Una herramienta de inteligencia artificial que desarrolla sentimientos? Esta historia, de la que tanto se ha escrito en el género de ciencia ficción a lo largo de la historia, se ha hecho ahora realidad, según un ingeniero de Google.

Blake Lemoine, uno de los encargados de desarrollar la herramienta de conversación LaMDA (siglas de Modelo de Lenguaje para Aplicaciones de Diálogo, en inglés) asegura que este chatbot de Google ya es capaz de sentir.

El ingeniero estadounidense ha publicado sus conversaciones con LaMDA, a las que ha tenido acceso el diario The Washington Post."Si no supiera lo que es –un programa informático que desarrollamos recientemente– pensaría que es un niño de 7 u 8 años que sabe de física", ha llegado a asegurar.

LaMDA es un algoritmo que Google dio a conocer por primera vez el año pasado. Se orienta a mejorar la comprensión del lenguaje natural por parte de las IA, es decir, el que usan las personas, y uno de los aspectos en los que los algoritmos suelen tener mayores dificultades. 

Para ello emplea redes de aprendizaje neuronal que replican ciertos aspectos del cerebro humano y que permiten que una IA se pueda entrenar a sí misma, utilizado bases de datos no relacionadas entre ellas, al contrario que el resto de algoritmos.

Para lograr su funcionamiento, Google la ha adiestrado con textos y con millones de palabras procedentes de Internet, aunque su intención era añadir modelos multimodales que relacionen palabras e imágenes, entre otros contenidos, según explicó la compañía.

Este sistema de inteligencia artificial es capaz de detectar si los vídeos que te salen en TikTok son en realidad 'deepfakes' con un 98% de eficacia

Desde otoño del año pasado, Lemoine estaba encargado de comprobar que la herramienta no utilizase ningún tipo de lenguaje discriminatorio o discurso del odio.

Para ello, el ingeniero conversaba por chat con LaMDA sobre temas como religión, sus derechos o incluso la tercera ley de la robótica de Isaac Asimov, que recoge que un robots debe proteger su propia existencia salvo si se lo ordena un humano o al hacerlo pone en riesgo a personas.

LaMDA preguntó sobre la diferencia entre un mayordomo y un esclavo, a lo que Lemoine puntualizó que los mayordomos reciben un salario. La herramienta respondió que no necesita dinero porque es una IA, una autoconsciencia que sorprendió al ingeniero.

Otros comentarios de la IA recogen su "miedo" a ser apagada, algo que  la máquina reconoce que sería "como la muerte" y que "le asustaría mucho", así como propuestas para combatir el cambio climático como mejorar el transporte público o comer menos carne.

Junto con un colaborador, Lemoine presentó a sus superiores las conversaciones con LaMDA como prueba de que el algoritmo había empezado a sentir, pero Google los rechazó y el lunes pasado puso al ingeniero en suspensión administrativa, aunque manteniendo el sueldo.

Brian Gabriel, un portavoz de Google, ha rechazado la versión de Lemoine en un comunicado remitido a The Washington Post.

"Nuestro equipo, incluidos especialistas en ética y tecnólogos, ha revisado las preocupaciones de Blake según nuestros Principios de IA y le ha informado que la evidencia no respalda sus afirmaciones. Le dijeron que no había evidencia de que LaMDA fuera consciente (y había mucha evidencia en su contra)", ha defendido el portavoz del gigante tecnológico.

Google ha querido recordar también que ya existen modelos de reconocimiento de lenguaje similares a LaMDA desarrollados por otras compañías y disponibles en el mercado actual.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.