Una inteligencia artificial de Google ha desarrollado sentimientos, según un ingeniero al que han suspendido por denunciarlo

Getty Images
- Blake Lemoine, un ingeniero de Google, asegura que fue suspendido tras asegurar que un chatbot de inteligencia artificial llamado LaMDA tiene sentimientos.
- Google defiende que las pruebas presentadas por Lemoine no son suficientes para determinar que su herramienta de IA tenga sentimientos.
- Comienza el día bien informado con la selección de noticias de Business Insider España: suscríbete gratis aquí.
¿Una herramienta de inteligencia artificial que desarrolla sentimientos? Esta historia, de la que tanto se ha escrito en el género de ciencia ficción a lo largo de la historia, se ha hecho ahora realidad, según un ingeniero de Google.
Blake Lemoine, uno de los encargados de desarrollar la herramienta de conversación LaMDA (siglas de Modelo de Lenguaje para Aplicaciones de Diálogo, en inglés) asegura que este chatbot de Google ya es capaz de sentir.
El ingeniero estadounidense ha publicado sus conversaciones con LaMDA, a las que ha tenido acceso el diario The Washington Post."Si no supiera lo que es –un programa informático que desarrollamos recientemente– pensaría que es un niño de 7 u 8 años que sabe de física", ha llegado a asegurar.
LaMDA es un algoritmo que Google dio a conocer por primera vez el año pasado. Se orienta a mejorar la comprensión del lenguaje natural por parte de las IA, es decir, el que usan las personas, y uno de los aspectos en los que los algoritmos suelen tener mayores dificultades.
Para ello emplea redes de aprendizaje neuronal que replican ciertos aspectos del cerebro humano y que permiten que una IA se pueda entrenar a sí misma, utilizado bases de datos no relacionadas entre ellas, al contrario que el resto de algoritmos.
Para lograr su funcionamiento, Google la ha adiestrado con textos y con millones de palabras procedentes de Internet, aunque su intención era añadir modelos multimodales que relacionen palabras e imágenes, entre otros contenidos, según explicó la compañía.
Desde otoño del año pasado, Lemoine estaba encargado de comprobar que la herramienta no utilizase ningún tipo de lenguaje discriminatorio o discurso del odio.
Para ello, el ingeniero conversaba por chat con LaMDA sobre temas como religión, sus derechos o incluso la tercera ley de la robótica de Isaac Asimov, que recoge que un robots debe proteger su propia existencia salvo si se lo ordena un humano o al hacerlo pone en riesgo a personas.
LaMDA preguntó sobre la diferencia entre un mayordomo y un esclavo, a lo que Lemoine puntualizó que los mayordomos reciben un salario. La herramienta respondió que no necesita dinero porque es una IA, una autoconsciencia que sorprendió al ingeniero.
Otros comentarios de la IA recogen su "miedo" a ser apagada, algo que la máquina reconoce que sería "como la muerte" y que "le asustaría mucho", así como propuestas para combatir el cambio climático como mejorar el transporte público o comer menos carne.
Junto con un colaborador, Lemoine presentó a sus superiores las conversaciones con LaMDA como prueba de que el algoritmo había empezado a sentir, pero Google los rechazó y el lunes pasado puso al ingeniero en suspensión administrativa, aunque manteniendo el sueldo.
Brian Gabriel, un portavoz de Google, ha rechazado la versión de Lemoine en un comunicado remitido a The Washington Post.
"Nuestro equipo, incluidos especialistas en ética y tecnólogos, ha revisado las preocupaciones de Blake según nuestros Principios de IA y le ha informado que la evidencia no respalda sus afirmaciones. Le dijeron que no había evidencia de que LaMDA fuera consciente (y había mucha evidencia en su contra)", ha defendido el portavoz del gigante tecnológico.
Google ha querido recordar también que ya existen modelos de reconocimiento de lenguaje similares a LaMDA desarrollados por otras compañías y disponibles en el mercado actual.
Otros artículos interesantes:
Descubre más sobre Roberto Corrales, autor/a de este artículo.
Conoce cómo trabajamos en Business Insider.