Los rostros generados por IA no son solo ya indistinguibles de los naturales, sino que inspiran más confianza a ojos de los humanos, dice un estudio de científicos de Reino Unido y EEUU

Rostros e IA

Getty Images

A los seres humanos ya les resulta casi imposible distinguir entre un rostro generado por IA y otro natural.

Al menos, a esta conclusión han llegado científicos de la Universidad de Lancaster, en Reino Unido, y Berkeley, en California, EEUU, en una investigación de la que se ha hecho eco el medio especializado Neuroscience News y que aparecerá en la revista PNAS

Y no solo eso. En su investigación, la doctora Sophie Nightingale, de la Universidad de Lancaster, y el profesor Hany Farid, de la Universidad de California en Berkeley, llevaron a cabo experimentos en los que se pidió a los participantes que distinguieran los rostros sintetizados por StyleGAN2 de rostros reales y qué nivel de confianza evocaban.

Según los científicos, las creaciones de StyleGAN2, una IA capaz de generar rostros humanos, no solo resultan más humanos que los propios rostros humanos, sino que estas, a ojos de los participantes, eran incluso más merecedoras de confianza.

Agotado en 3 minutos: un creador de NFT que ha ganado 3,2 millones de euros con su colección revela 3 factores que le condujeron al éxito y cuál fue el más decisivo

"Nuestra evaluación del fotorrealismo de los rostros sintetizados por la IA indica que los motores de síntesis son capaces de crear rostros indistinguibles y más fiables que los reales", dice el estudio, que, por otra parte, advierte de las posibles implicaciones que puede tener esto.

"Quizá lo más pernicioso sea que, en un mundo digital en el que cualquier imagen o vídeo puede ser falsificado, la autenticidad de cualquier grabación inconveniente o inoportuna puede ponerse en duda".

En un primer experimento, 315 participantes clasificaron 128 caras tomadas de un conjunto de 800 como reales o sintetizadas. Su tasa de precisión fue del 48%, cercana a un rendimiento casual del 50%.

En un segundo experimento, se entrenó a 219 nuevos participantes y se les dio información sobre cómo clasificar las caras. Clasificaron 128 rostros tomados del mismo conjunto de 800 rostros que en el primer experimento, pero, a pesar de su formación, la tasa de precisión solo se fue hasta el 59%.

Los investigadores decidieron entonces averiguar si las percepciones de hasta qué punto ese rostro parecía de confianza o no podían ayudar a las personas a identificar imágenes artificiales.

"Las caras son una rica fuente de información, y una exposición de apenas milisegundos es suficiente para hacer inferencias implícitas sobre rasgos individuales como la fiabilidad. Nos preguntamos si los rostros sintéticos activan los mismos juicios que los humanos. Si no es así, esta percepción podría ayudar a distinguir las caras reales de las sintéticas".

En un tercer estudio se pidió a 223 participantes que calificaran la fiabilidad de 128 caras tomadas del mismo conjunto de 800 en una escala de 1, muy poco fiable, a 7, muy fiable.

Todo el mundo habla de repente del metaverso, pero yo no entiendo muy bien de qué va este negocio, ¿qué es y por qué es tan importante?

Lejos de servir para distinguir las caras sintéticas, la valoración media de la fiabilidad de las caras generadas por IA fue un 7,7% superior que la valoración media de las caras reales.

"Quizá lo más interesante es que descubrimos que los rostros generados sintéticamente resultan a ojos de los seres humanos más fiables que los reales", dice el informe.

Los rostros negros fueron calificados como más fiables que los de Asia meridional, y las mujeres generalmente recibieron más confianza que los hombres.

"Un rostro sonriente tiene más probabilidades de ser calificado como digno de confianza, pero el 65,5% de los rostros reales y el 58,8% de los rostros sintéticos son sonrientes, por lo que la expresión facial por sí sola no puede explicar por qué los rostros sintéticos merecieron más confianza".

Como hipótesis, los investigadores sugieren que los rostros sintéticos pueden considerarse más fiables porque se parecen a los rostros promedio.

Una alerta contra los deepfakes

La investigación llega en un momento especialmente sensible en el tema del tratamiento de imágenes. En EEUU, desde hace años surgen cada vez más noticias de usos éticamente reprochables de lo que se conoce como deepfakes.

Los deepfakes son imágenes creadas por IA en los que el rostro de una persona ha sido sustituido gracias a una técnica que permite poner a cualquier a hacer o decir casi cualquier cosa.

Si bien esta tecnología se popularizó inicialmente casi a modo de juego gracias a la gran popularidad que alcanzaron en redes sociales deepfakes de famosos como Tom Cruise, la deriva de estas herramientas preocupa a los expertos desde hace años.

Así, por ejemplo, se han denunciado ya una buena cantidad de software basados en tecnología deepfake que han servido, por ejemplo, para la creación de escenas pornográficas en las que se han situado rostros de mujeres sin el consentimiento de estas.

En las entrañas de Google Labs: este es el grupo secreto de personas que dirigirán los esfuerzos de la empresa en todo lo relativo al metaverso, la Web3, el blockchain y la realidad aumentada

Por otra parte, los sindicatos de actores llevan años denunciando a compañías como Hour One, una empresa israelí experta en deepfakes que, dicen los actores, les están quitando el trabajo a fuerza de crear y distribuir a gran escala videos corporativos para los que las empresas ya no han necesitado contratar a nadie.

La tecnología ha llegado también a España, donde Vidext, una empresa creada por un joven grupo de emprendedores vascos está también desarrollando tecnología para crear videos deepfakes que, por ahora, están encontrando muy buena recepción, por ejemplo, en academias de idiomas.

Estas, explicó Vidext a Business Insider España recientemente, encuentran muy interesante la posibilidad de poder crear, a partir de un solo modelo, infinidad de videos en diversos idiomas para adaptarlos a cada uno de los países en los que operan.

En mitad de estos debates, los autores del informe han querido alertar contra los deepfakes.

"Las barreras contra los deepfakes podrían incluir, por ejemplo, la incorporación de marcas de agua claras en imágenes y vídeos que proporcionarían un mecanismo posterior para una identificación fiable", han apuntado los investigadores.

Estos han avisado además contra los peligros del código abierto.

El mundo de la tecnología está en plena efervescencia por el metaverso, y las empresas están buscando los mejores talentos para ayudar a construirlo

"Dado que la democratización del acceso a esta poderosa tecnología es lo que plantea la amenaza más importante, también animamos a reconsiderar el enfoque, a menudo laissez-faire, de la liberación pública y sin restricciones del código para que cualquiera lo incorpore a cualquier aplicación.

"En este momento crucial, y como han hecho otros campos científicos y de ingeniería, animamos a la comunidad de gráficos y visión a desarrollar directrices para la creación y distribución de tecnologías de medios sintéticos que incorporen pautas éticas para investigadores, editores y distribuidores de medios", concluye el estudio.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.