Más del 78% de participantes de un estudio fueron incapaces de identificar el 'deepfake' de Tom Cruise, lo que abre una nueva era de desconfianza en Internet

'Deepfake' del actor Tom Cruise que se hizo popular en TikTok.
'Deepfake' del actor Tom Cruise que se hizo popular en TikTok.

TikTok

  • La proliferación de imágenes no reales creadas mediante el aprendizaje automático y los algoritmos de la inteligencia artificial podría abrir un mundo de desconfianza en Internet donde los medios pierdan credibilidad.
  • Según un estudio llevado a cabo por la Royal Society, al mostrarles imágenes con un deepfake del actor Tom Cruise a los participantes, más del 78% de esstos fueron incapaz de distinguirlo del real.
  • Descubre más historias en Business Insider España.

La inteligencia artificial ha avanzado hasta tal punto en el que es capaz de crear imágenes que no son reales a través del aprendizaje automático. Si un vídeo es alterado de esta forma, te encontrarás ante un deepfake.

Desgraciadamente, es bastante difícil de saber si estás en frente de uno, ya que el aprendizaje de la IA mediante algoritmos se ha perfeccionado hasta tal punto de que existen cuentas en TikTok sobre personajes que no son reales.

Es el caso de un perfil en la plataforma que se hace pasar por Tom Cruise y que, a simple vista, se puede confundir fácilmente con el actor real. Precisamente, la Royal Society, según informa Independent, ha realizado una investigación con el perfil @deeptomcruise.

Dicha institución, junto a la Universidad de Oxford y la Universidad de Brown, mostraron a una parte de los participantes 5 vídeos sin alterar; por el contrario, otro grupo vio 4 vídeos sin alterar y uno que era un deepfake sobre esta cuenta.

Al pedirles que identificaran la imagen que no eral real, más del 78% de participantes fue incapaz de distinguir el deepfake y tan solo un 20% de los que estaban avisados lograron identificarlo.

Voces clonadas y máquinas que conversan: así son los desafíos éticos y legales de los robots que confundiremos con seres humanos por teléfono

Datos preocupantes que ilustran el peligro que puede conllevar esta tecnología si cae en manos equivocadas, se difunde por la red para difamar sobre ciertas personas o, simplemente, se hace un uso inapropiado de ella.

“La dificultad de detectar manualmente los vídeos reales de los falsos (es decir, a simple vista) amenaza con reducir por completo el valor informativo de los medios de vídeo”, inciden los investigadores.

El incremento de la desconfianza en Internet

Con este panorama presente y, a medida que siga mejorando la tecnología en un futuro próximo, la comunidad en Internet sufrirá en lo que a confianza en los contenidos se refiere.

“A medida que la gente interiorice la capacidad de engaño de los deepfakes, racionalmente depositará menos confianza en todos los vídeos online, incluidos los contenidos auténticos”, alertan los investigadores.

Por desgracia, la creación de deepfakes no implica un alto coste, sino que es dec libre acceso en línea, con lo cual el peligro aumenta si alguien tiene malas intenciones, como ya ocurrió con un deepfake en 2020 en el que Obama llamaba "tarado" a Donald Trump.

Simplemente, dicho evento nunca ocurrió, sino que fue inventado y distribuido a través de Facebook, de forma casi imparable. 

Aunque Miguel Hernández Boza, investigador de seguridad, y José Ignacio Escribano Pablos, investigador en ciberseguridad y aprendizaje automático, de BBVA Next Technologies, ya ofrecieron algunas soluciones a Business Insider España.

A pesar de que reconocieron la dificultad de identificarlos, aparecen algunos detalles que pueden desenmascararlos, como una oreja por encima del pelo, pendientes distintos, dientes no alineados con el centro del rostro, pérdida de calidad en los cambios de plano o movimientos bruscos de la cara.

"El mejor consejo que se puede dar frente a este tipo de contenido es contrastar toda la información que nos llega, ya que es la mejor forma para detectar este tipo de contenido", advirtieron.

Por último, existen algunas herramientas digitales para identificarlos, aunque pueden tener algún margen de error. Son Faceforensics++, Sensity o Medifor, entre otras

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.