Aunque parezca real, esta niña no existe, y la clave está en sus ojos: científicos crean una herramienta para detectar 'deepfakes', a través de la luz reflejada en la córnea

Retrato de una niña, generado por Inteligencia Artificial.
Retrato de una niña, generado por Inteligencia Artificial.

This Person Does Not Exist

  • La aparición y mejora de la Inteligencia Artificial ha provocado que circulen por Internet algunas imágenes y vídeos que no son reales, los conocidos como deepfakes.
  • Para intentar diferenciar las imágenes reales de las sintetizadas por IA, un equipo de científicos informáticos ha desarrollado un método que se centra en la luz reflejada en los ojos.
  • Descubre más historias en Business Insider España.

El mejoramiento de la Inteligencia Artificial (IA) ha provocado la proliferación de los conocidos como deepfakes, cuya traducción sería algo así como vídeos que parecen reales, pero no lo son, como este que apareció hace poco sobre Tom Cruise.

Con la aparición de las Redes Generativas Antagónicas (GAN, por sus siglas en inglés), un tipo de algoritmos de IA que implican un aprendizaje no supervisado por humanos, se han perfeccionado las falsificaciones de personajes en Internet, un hecho que afecta mayoritariamente a la privacidad de las mujeres.

Por todo ello, no son pocas las herramientas que se están desarrollando para prevenir un mal uso de este tipo de tecnología, como una nueva aplicación de IA, creada por científicos informáticos de la Universidad de Buffalo, en Nueva York (Estados Unidos), que proporciona una forma de detectar deepfakes, a través de los reflejos especulares de los ojos de un retrato.

Voces clonadas y máquinas que conversan: así son los desafíos éticos y legales de los robots que confundiremos con seres humanos por teléfono

Así, el equipo analizó imágenes generadas por GAN, del sitio web This Person Does Not Exist –'Esta persona no existe', por su traducción al castellano–, en el que aparecen deepfakes aleatorios cada vez que se ingresa a la misma.

De esta forma, compararon los ojos de estas imágenes con los de otras obtenidas del banco de rostros de Flickr, a través del método de reflexión especular corneal, es decir, los reflejos de luz propios de los ojos.

Para ello, hicieron uso de lo que denominaron ajuste del retrato y tuvieron en cuenta diferentes factores, como la línea imaginaria que atraviesa el centro de los ojos y si su posición es paralela a la cámara; si los reflejos del entorno están presentes en ambos ojos, y la distancia de estos en relación a la fuente de luz. A pesar de su método, los científicos han añadido que aún existen algunas inconsistencias.

Aún existen algunos puntos por mejorar

Como han asegurado los científicos en su estudio, detectaron algunas "inconsistencias" en los ojos sintetizados por IA, como formas geométricas diferentes o localizaciones en diferentes regiones de dichos brillos especulares en ambos ojos.

Sin embargo, aunque este método "expone los reflejos especulares corneales inconsistentes entre los 2 ojos, dichas inconsistencias pueden ser arregladas por un procesamiento manual posterior", según han advertido los informáticos en el estudio.

A esto cabe añadir algunas limitaciones propias de este método, citadas en el propio estudio por los responsables. Una de ellas es que solo se compara la diferencia de píxeles, sin tener en cuenta las inconsistencias propias de la geometría del entorno.

"Además, podemos tener falsos positivos, por ejemplo, si la fuente de luz está muy cerca del sujeto o si una fuente de luz periférica no es visible en ambos ojos", han añadido. "En el futuro, investigaremos estos aspectos, con el objetivo de mejorar aún más la eficacia de nuestro método".

Esta herramienta supone un paso más en la lucha por hacer de la IA un aliado y no un enemigo de la privacidad de las personas, para crear imágenes o vídeos falsos, como los deepfakes.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.