Usan una herramienta de IA para clonar la voz del director de un banco y robar más de 30 millones de euros

Interfaz cerebro ordenador

Getty

  • Unos 17 ladrones utilizaron a principios de 2020 la IA para clonar la voz del director de un banco y robar más de 30 millones de euros, según Forbes.
  • Estos, creen los investigadores, utilizaron la tecnología para hacerse pasar por un ejecutivo de la entidad y solicitar la transferencia de elevadas sumas de dinero a diversas cuentas.
  • El caso encuentra un precedente en 2019, cuando la misma técnica sirvió a otros delincuentes para robar más de 200.000 euros.
  • Descubre más historias en Business Insider España.

Un grupo de unos 17 ladrones utilizaron en enero de 2020 un software de inteligencia artificial para clonar la voz del director de un banco de Emiratos Árabes y solicitar la transferencia de 35 millones de dólares (más de 30 millones de euros) a diversas cuentas.

El caso salió a la luz el pasado jueves gracias a una filtración de documentos a la revista Forbes. En ellos, la Fiscalía del país emiratí solicita a EEUU su cooperación para dar con los titulares de una cuenta estadounidense a la que llegaron unos 400.000 dólares que podrían estar relacionados con el robo. 

El caso ha sembrado dudas acerca de los potenciales usos de la inteligencia artificial en cuestiones relativas al uso de voces sintéticas.

Todo ocurrió, según las autoridades de Emiratos Árabes, el 15 de enero de 2020, cuando el director de la sucursal de un banco de Emiratos Árabes recibió la llamada de un alto directivo de la empresa.

Este tenía buenas noticias: la entidad acababa de cerrar la adquisición de una empresa. Para cerrar la operación, necesitaba que el banco transfiriera de manera urgente 35 millones de euros a diversas cuentas bancarias.

Para resolver el papeleo, decía aquella voz que al profesional del banco atribuyó en todo momento a la persona que supuestamente llamaba, el banco había contratado los servicios de un abogado, Martin Zelner.

Esta es la explicación científica de por qué no te gusta tu voz cuando la escuchas en un audio

Este, decía, se había encargado de coordinar todos los trámites. Por si había dudas, el responsable de la sucursal podía ver en su bandeja de entrada los correos intercambiados entre el directivo y el propio Zelner.

Después, nada. Una vez completadas las transferencias, el director de la sucursal bancaria, cuya identidad preserva el documento filtrado a Forbes (al igual que la identidad de la empresa) no volvió a saber nada de quienes llamaban ni, por supuesto, de la supuesta operación.

Era todo mentira. Un grupo de ladrones acababa de suplantar por teléfono a uno de los hombres fuertes de la compañía.

Gracias a un software de Inteligencia Artificial los ladrones habían clonado su voz y se acababan de hacer con más de 30 millones de euros distribuidos en diversas cuentas.

El informe de los investigadores no aporta más detalles ni concreta la identidad de más víctimas. Por ahora, ni la Fiscalía de Dubai, que dirige la investigación, ni el abogado Martin Zelner han querido hacer declaraciones a Forbes.

“En la robótica la obsolescencia programada es un secreto a voces, y los responsables son los principales fabricantes del sector”, asegura Víctor Mayoral, experto en ciberseguridad en Alias Robotics

El robo, en todo caso, ha servido para poner de manifiesto los potenciales peligros del desarrollo de software de suplantación de voz, que gozan cada vez de más predicamento entre las empresas.

Hace un mes, Sanas, una startup ubicada en California, anunció una ronda de financiación por valor de 5,5 millones de dólares que contribuirán a que la empresa se acerque cada vez más a su objetivo: homogeneizar el acento de los telefonistas que trabajan para el servicio técnico de las empresas.

No son los únicos. Desde la inglesa Aflorithmic hasta la ucraniana Respeecher y la canadiense Resemble.AI, ha recordado Forbes, son muchas las empresas que están explorando las posibilidades de utilizar IA para generar voces sintéticas. 

Por supuesto, también existen compañías dispuestas a ofrecer respuestas más o menos especializadas. Es el caso de Pindrop, una empresa valorada en 900 millones de dólares que afirma que su tecnología es capaz de detectar las voces sintetizadas y evitar así los fraudes.

Un nuevo informe de la Universidad de Stanford advierte de que el riesgo real de la IA es la confianza de la industria en que la tecnología pueda solucionar todos los problemas del mundo

"Las falsificaciones de video y audio (lo que en inglés se conoce como deepfakes) representan un fascinante desarrollo de la tecnología del siglo XXI, pero también son increíblemente peligrosas, ya que suponen una enorme amenaza para los datos, el dinero y las empresas", ha explicado a Forbes Jake Moore, experto en ciberseguridad de la empresa ESET.

"Los intentos de manipulación del audio, que son más fáciles de orquestar que los videos deepfake, van a aumentar, y sin la educación y la concienciación adecuadas, junto con mejores métodos de autenticación, es probable que más empresas sean víctimas de conversaciones falsas realmente convincentes".

El de Emiratos Árabes no ha sido el único intento exitoso de suplantación de identidad vía clonación de voz. 

En verano de 2019, Wall Street Journal se hizo eco de otro robo en el que un grupo de ciberdelincuentes se hicieron pasar por el director general de una empresa de energía con matriz en Alemania. 

Este le pidió al director de una filial ubicada en Londres que enviara unos fondos a un proveedor húngaro.

En aquella ocasión la cuantía del dinero sustraído se elevó por encima de los 220.000 euros. La persona que llamó dijo que se trataba de una petición urgente e indicó que la operación debía hacerse en menos de una hora, contó entonces la empresa aseguradora, Euler Hermes Group.

Otros artículos interesantes:

La inteligencia artificial de Google ya es capaz de predecir con precisión si lloverá en los próximos minutos

Huso horario, talento y nube: el cóctel con el que España se convierte en un campo de pruebas para el despegue de la inteligencia artificial

China se adelanta a Europa y publica unas directrices éticas para regular los modelos de inteligencia artificial

Te recomendamos

Y además