El FBI dice que la gente está usando 'deepfakes' para solicitar trabajos a distancia y robar datos a las empresas al ser contratados

Deepfake

Getty Images

Una entrevista de trabajo remota para un trabajo en remoto: la nueva normalidad tras la pandemia. La empresa es una entidad financiera, y el puesto de trabajo es el de un desarrollador de software con acceso a información delicada de la entidad como los datos personales de los clientes.

Todo parece encajar. El supuesto candidato presenta unas experiencia y unas credenciales casi inmejorables, y cada respuesta que da a su entrevistador o entrevistadora a través de Teams, de Meet o de alguna otra aplicación para reuniones a distancia es mejor que la anterior.

Pero hay un problema: el candidato no existe. O, al menos, no como el entrevistador cree. Su imagen y su voz han sido creada ex profeso a través de tecnología deepfake por ladrones expertos en este tipo de herramientas para presentar ante la empresa en cuestión a un supuesto candidato ideal.

"La única forma de evitar una guerra nuclear desatada por una IA es no contar con ella": una inteligencia artificial se muestra contraria a su propio desarrollo

Su intención no es otra que la de, una vez aceptado el trabajo, tener acceso a través de las credenciales de este falso empleado a la clase de datos delicados que solo pueden manejar en las empresas trabajadores de alto rango y desarrolladores de tecnología.

Todo para, una vez dentro de la compañía, desvalijarla.

Parece el argumento de una película futurista de policías y ladrones cibernéticos, pero se trata de un modus operandi denunciado este martes por el FBI. Es real y está ocurriendo.

"El Centro de Denuncias de Delitos en Internet (IC3) del FBI advierte del aumento de las denuncias que informan del uso de deepfakes y del robo de información de identificación personal para solicitar una variedad de puestos de trabajo a distancia y de trabajo en casa", reza el escrito policial.

Los deepfakes, añaden, incluyen un vídeo, una imagen o una grabación alterada y manipulada de forma convincente para hacer creer que alguien está haciendo o diciendo algo que en realidad no se ha hecho o dicho.

Amazon cumple 25 años: una mirada retrospectiva a cómo cambió el mundo

Aunque el FBI no aporta información sobre cuántas empresas han denunciado este tipo de suplantaciones ni, sobre todo, cuántos de estos falsos candidatos han tenido éxito en su intento, sí está claro lo que buscaban todos ellos: información sensible.

"Los puestos de trabajo a distancia o de trabajo desde casa identificados en estos informes incluyen funciones de tecnología de la información y de programación informática, bases de datos y software. En particular, algunos de los puestos denunciados incluyen el acceso a información personal de los clientes, datos financieros, bases de datos informáticas corporativas y/o información de propiedad", añaden los agentes.

Los estornudos y las sombras, dos maneras de pillar a los ladrones

Desde hace casi una década, la tecnología deepfake se vale del aprendizaje automático (también conocido en el argot del sector como machine learning) para crear videos de personas diciendo cosas que en realidad nunca han dicho.

En otras palabras, puede tomar la imagen de cualquiera y, mediante herramientas digitales, como si se tratara de un muñeco ventrílocuo, poner a esa persona a hablar.

La ingeniera española detrás del laboratorio de innovación que trabaja mano a mano con Amazon y que quiere que las tecnológicas asuman la responsabilidad de sus algoritmos

Aunque prometedora, pues muchas empresas ven en el deepfake la herramienta ideal para generar, por ejemplo, asistentes robotizados pero de apariencia humana de muy bajo coste para sus webs, la tecnología ha estado más de una vez bajo la lupa de las autoridades.

Popularizados hace años gracias a los deepfakes que circularon en internet del actor Tom Cruise, con el paso del tiempo la broma ha ido perdiendo gracia.

Hoy, son muchos los usuarios que piden poner coto al deepfake tras descubrirse que hay infinidad de webs consagradas, por ejemplo, a la posibilidad de introducir la imagen de cualquier hombre o de cualquier mujer en mitad de una escena pornográfica.

Pero hay trucos para identificarlos. En este caso, dice el FBI, detalles como errores de sincronización entre la voz y la imagen, sombras que no actúan como deberían, y, sobre todo, estornudos que se producen con la boca cerrada del candidato, delataron a más de un ladrón.

Los inquietantes límites de la tecnología: OpenAI cierra una web de desarrollo de chats con inteligencias artificiales después de que un hombre reprodujera la personalidad de su difunta prometida

El problema es que van mejorando. Cuando el vídeo es generado por profesionales, dicen los expertos, no es tan fácil detectar que el vídeo es falso, especialmente si quien está al otro lado de la pantalla no está buscando deliberadamente errores en la imagen que está viendo.

Sin ir más lejos, ha recordado el portal Gizmodo, un reciente estudio de la Carnegie Mellon University cifra entre el 30% y el 97% la precisión de la propia inteligencia artificial a la hora de detectar deepfakes, unas cifras que suben o bajan dependiendo de la pericia del creador. 

Otros artículos interesantes:

Más del 78% de participantes de un estudio fueron incapaces de identificar el 'deepfake' de Tom Cruise, lo que abre una nueva era de desconfianza en Internet

¿Videollamada de trabajo en pijama? Una startup de IA cambia tu ropa con tecnología 'deepfake' en tiempo real

Este sistema de inteligencia artificial es capaz de detectar si los vídeos que te salen en TikTok son en realidad 'deepfakes' con un 98% de eficacia

Te recomendamos