Los estafadores están clonando voces con IA para hacerse pasar por familiares que piden ayuda económica

IA malvada

Getty Images

  • Las autoridades están advirtiendo en EEUU del aumento de un nuevo tipo de estafa que consiste en suplantar una identidad mediante una voz imitada por IA.
  • Aunque aún no hay constancia de que la práctica se haya extendido especialmente por España, los expertos están desarrollando ya herramientas que buscan evitar estos delitos.

Una llamada en mitad del día o de la noche. Sobresaltada, la víctima atiende el teléfono. Se trata de su hijo, su nieto, su pareja o de un amigo. Este le explica que está metido en un lío y que necesita dinero urgentemente.

Aunque algunos de los detalles de la historia no le cuadran a quien escucha al otro lado, un factor le termina de convencer de que lo que le están diciendo debe de ser verdad: la voz. La voz que escucha, se convence, pertenece sin duda a la persona que dice que llama. De inmediato, quien ha recibido la insólita petición transfiere la cantidad solicitada. Cuelgan. Estafa completada.

La escena descrita no es ciencia ficción ni una advertencia de algo que podría suceder pero todavía no ha ocurrido. Se trata, advierten las autoridades de EEUU, de un nuevo tipo de estafa en el que los ladrones se valen de voces generadas por IA para hacerse pasar por amigos o familiares que extraen dinero de sus víctimas.

Tanto es así que medios como el Washington Post han documentado ya por lo menos un par de casos. En uno de ellos los desgraciados protagonistas fueron Ruth Card y Greg Grace, un matrimonio de 72 y 75 años respectivamente que acudió solícito a una llamada de su nieto. Este les contó que se encontraba en la cárcel sin cartera y que tenía que pagar urgentemente una gran cantidad de dinero.

Cuando Card y Grace se apresuraban ya a acudir a una segunda sucursal para mandar más dinero tras haber enviado ya una primera remesa de más de 2.000 euros, el director de la oficina les hizo pasar a su despacho: al igual que otros clientes, les informó, habían sido víctimas de una estafa de suplantación de identidad mediante una voz generada por IA.

Más rocambolesca incluso fue la historia de los padres de Benjamin Perkin, a quienes un supuesto abogado llamó para decirles que su hijo había atropellado a un diplomático y que necesitaba su ayuda urgentemente. No contento con eso, este les pasó al propio Perkin, que tan solo pudo decir que les quería.

Convencidos de que acababan de hablar con su hijo, los preocupados padres mandaron más de 10.000 euros al falso abogado. No fue hasta que les llamó su hijo esa misma noche que pudieron darse cuenta del engaño. Aunque han denunciado ya el caso a las autoridades, por ahora no han podido recuperar su dinero, explica el Washington Post.

"La voz sonaba lo bastante cercana como para que mis padres creyeran de verdad que habían hablado conmigo", explica Perkin a este mismo medio.

 

Un delito fruto de la mejora tecnológica: con un TikTok basta

La suplantación de identidad por teléfono es un delito en auge al menos en EEUU, donde, según la FTC (Comisión Federal de Comercio, por sus siglas en inglés), se dieron más de 36.000 denuncias de personas supuestamente estafadas en 2022. De estas, en más de 5.000 casos los ladrones optaron por la vía telefónica.

Tiene sentido por dos motivos. En primer lugar, el abuso que se ha dado en las últimas décadas de vías como el email ha hecho que ya casi nadie se crea la historia del príncipe de una remota nación africana que está dispuesto a premiar generosamente a quien le mande antes una determinada cantidad.

En segundo lugar, los avances tecnológicos están animando a explorar otros caminos. S bien hace unos años se necesitaban muchas horas de muestra para clonar sintéticamente una voz, hoy basta un vídeo de TikTok de apenas medio minuto para lograr copias bastante logradas.

En el caso de Perkins, sin ir más lejos, la familia y las autoridades sospechan que bastaron unos pocos vídeos en YouTube hablando de motos de nieve para que los estafadores tuvieran material necesario para hacerse pasar por él por teléfono.

"Es una especie de tormenta perfecta con todos los ingredientes necesarios para crear el caos", explica a Washington Post Hany Farid, profesor de análisis forense digital en la Universidad de California en Berkeley.

El FBI dice que la gente está usando 'deepfakes' para solicitar trabajos a distancia y robar datos a las empresas al ser contratados

Este explica que el software de generación de voz por IA analiza qué hace única la voz de una persona (edad, sexo, acento) y busca en una amplia base de datos de voces para encontrar otras similares y predecir patrones.

A continuación, puede recrear el tono, el timbre y los sonidos individuales de la voz de una persona para crear un efecto general similar, añade. La tecnología requiere hoy tan solo una muestra corta de audio: YouTube, pódcast, anuncios, TikTok, Instagram o vídeos de Facebook pueden servir a los ladrones como fuente de datos.

Aunque en España aún no hay demasiadas noticias que hablen de la proliferación de este tipo de estafas, la inquietud que generaron en su día noticias como la del grupo de 17 ladrones que robaron 30 millones de euros mediante este método han generado cierta inquietud entre los expertos.

Como respuesta, en España han surgido ya empresas como Biometrix Vox especializadas en tratar de distinguir originales y copias en todo lo que tiene que ver con la identificación mediante la voz.

El problema forma parte de un fenómeno más grande, el de los deepfakes. Surgidos hace años bajo la forma de bromas más o menos pesadas por parte de desarrolladores que conseguían por ejemplo mediante IA que Tom Cruise dijera cosas que nunca ha dicho, hoy se han convertido en todo un problema a atajar.

La última muestra de ello la ha dado un vídeo viral de Emma Watson leyendo el Mein Kampf. Ni su rostro ni su voz fueron nunca reales, pero la reproducción de los mismos, elaborada por IA, fue lo suficientemente creíble como para que muchos cayeran en la trampa. 

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.