El terrorífico auge de las estafas telefónicas con inteligencia artificial

Eve Upton-Clark
| Traducido por: 
Si un conocido te llama desde un número desconocido pidiéndote dinero, ten cuidado, podría ser una voz generada por IA que le imita.
Si un conocido te llama desde un número desconocido pidiéndote dinero, ten cuidado, podría ser una voz generada por IA que le imita.

Tyler Le/Insider

  • Recibió una llamada de su hijo pidiéndole dinero tras tener un accidente de coche pero, por suerte, este padre se dio cuenta a tiempo de que se trataba de una estafa.
  • El avance de la inteligencia artificial ha permitido el desarrollo de herramientas que pueden copiar de forma casi exacta la voz de una persona.

Eddie Cumberbatch estaba sentado en su apartamento de Chicago en abril cuando recibió una llamada de su padre, hablando de forma frenética. En cuanto oyó su voz, Eddie, un tiktoker de 19 años, supo que algo pasaba. Su padre le preguntó si estaba en casa y si todo iba bien. "Fue una forma muy rara de empezar la llamada", explica Eddie.

Cuando el joven respondió que estaba bien, en su casa, su padre le preguntó si había tenido un accidente de coche. Eddie se quedó perplejo: no solo no había tenido ningún accidente, sino que llevaba 6 meses sin conducir. Su padre se mostró aliviado, pero Eddie estaba confuso: ¿por qué creía que había tenido un accidente de coche?

Su padre le explicó que alguien había llamado al teléfono de su casa desde un número extranjero. Cuando el abuelo de Eddie descolgó, parecía que era Eddie el que estaba al teléfono. Este "Eddie" decía que había tenido un accidente de coche y que necesitaba dinero inmediatamente. Afortunadamente para la familia de Eddie, su padre sospechó inmediatamente de la llamada. Cuando encontró al abuelo de Eddie al teléfono y se enteró del incidente, llamó a Eddie para verificar la historia. Sabía que no era normal que su hijo pidiera dinero y, además, ni siquiera tenía coche en Chicago. La llamada de su padre a Eddie le confirmó que no había sido él quien había hablado por teléfono. En realidad, su familia había sido objeto de una nueva y aterradora estafa: una reproducción artificial de la voz de un conocido generada por inteligencia artificial.

Hacerse pasar por alguien para robar, no es nada nuevo. De hecho, es uno de los tipos de estafa más comunes. Y no solo no están remitiendo, sino que cada vez se reportan más casos.

La nueva tecnología está ayudando a perfeccionar este tipo de engaños. En marzo, la Comisión Federal de Comercio de EEUU (FTC) dijo que los estafadores estaban empezando a utilizar la inteligencia artificial para mejorar las estafas de "emergencia familiar", en las que convencen a las personas de que un familiar está en peligro para conseguir efectivo o información privada. En una encuesta realizada en abril por la empresa de software de seguridad McAfee entre adultos de 7 países, una cuarta parte de los encuestados declararon haber sufrido algún tipo de estafa por voz con inteligencia artificial: uno de cada 10 dijo haber sido víctima personalmente, mientras que el 15% afirmó que le había ocurrido a algún conocido.

Con solo un pequeño desembolso, unos minutos y una conexión a internet, los delincuentes pueden convertir la IA en un arma para su beneficio personal. El informe de McAfee descubrió que, en algunos casos, todo lo que un estafador necesitaba eran 3 segundos de audio para clonar la voz de una persona. Y con las redes sociales, es fácil encontrar un fragmento de la voz de alguien que luego se puede convertir en un arma. 

Aunque Eddie y su familia pudieron evitar la estafa, muchas víctimas no tienen tanta suerte. Y a medida que la tecnología de IA avance, los engaños serán cada vez más sofisticados.

Albertina Geller

Estafas sobrealimentadas

Las estafas se presentan de muchas formas, pero suelen funcionar de la misma manera: un estafador se hace pasar por alguien en quien confías para convencerte de que le envíes dinero. Según la web de la FTC, hay casos en los que se hacen pasar por parejas, funcionarios de Hacienda, cuidadores, técnicos informáticos y familiares.

La mayoría de las estafas se producen por teléfono, pero también pueden tener lugar en las redes sociales, a través de mensajes de texto o por correo electrónico. En un caso traumático, Richard Mendelstein, ingeniero de software de Google, recibió una llamada de lo que parecía su hija Stella pidiendo ayuda a gritos. Le ordenaron que retirara 4.000 dólares en efectivo como pago del rescate. Solo después de enviar el dinero a un centro de remesas de Ciudad de México se dio cuenta de que le habían estafado y de que su hija había estado a salvo en el colegio todo el tiempo.

Las versiones anteriores de secuestros virtuales, como de la que fue víctima la familia de Mendelstein, utilizaban producciones de voz genéricas que coincidían vagamente con la edad y el sexo del niño. Los delincuentes contaban con que los padres entrarían en pánico al oír el sonido de un joven aterrorizado, aunque la voz no coincidiera realmente con la de su hijo. Pero con la inteligencia artificial, la voz al otro lado del teléfono puede parecerse inquietantemente a la real. El Washington Post publicó en marzo que a una pareja canadiense le habían estafado más de 20.000 euros tras escuchar una voz generada por IA que se parecía a la de su hijo. En otro caso de este mismo año, unos estafadores clonaron la voz de una chica de 15 años y se hicieron pasar por secuestradores para intentar conseguir un rescate de un millón de dólares. 

Coger mis fotos y subirlas a un perfil falso de Instagram es una cosa. Pero intentar clonar mi voz es algo realmente espeluznante, y me asustó

Como creador online con más de 100.000 seguidores en TikTok, Eddie sabía que inevitablemente aparecerían cuentas falsas imitándole. De hecho, el día anterior a la estafa, apareció en Instagram una cuenta falsa de Eddie que empezó a mandar mensajes a sus familiares y amigos. Pero la inteligencia artificial está llevando los engaños al siguiente nivel. 

"Coger mis fotos y subirlas a un perfil falso de Instagram es una cosa. Pero intentar clonar mi voz es algo realmente espeluznante de pensar, y me asustó", me dice Eddie.

El joven llamó al resto de su familia para advertirles de la estafa e hizo un vídeo en TikTok sobre su experiencia para concienciar a la gente.

Es probable que la mayoría de nosotros pensemos que reconoceríamos las voces de nuestros seres queridos en un abrir y cerrar de ojos. Pero McAfee descubrió que alrededor del 70% de los adultos encuestados carecían de confianza para distinguir entre voces clonadas y reales. Otro estudio de 2019 descubrió que el cerebro no registra una diferencia significativa entre las voces reales y las generadas por ordenador. Los sujetos del estudio confundían grabaciones alteradas por software como reales el 58% de las veces, lo que deja mucho margen para el estafador. Además, cada vez más personas ponen su voz real a disposición de los estafadores: según McAfee, el 53% de los adultos comparte semanalmente sus datos de voz en internet.

Sea un secuestro, un robo, un accidente de coche o simplemente estar atrapado en algún lugar sin dinero para volver a casa, el 45% de los encuestados por McAfee dijeron que responderían a un mensaje de voz o nota de voz que sonara como su amigo o ser querido, especialmente si parecía provenir de su pareja, padre o hijo. McAfee también descubrió que más de un tercio de las víctimas perdieron más de 1.000 dólares en estafas con IA, y un 7% más de 5.000 dólares. La FTC informó que las víctimas de este tipo de estafas han perdido una media de 750 dólares en el primer trimestre de 2023.

 

Falsificación de voces

Si bien la tecnología que hace posible estas estafas existe desde hace tiempo, cada vez es mejor, más barata y más accesible. 

"Una de las cosas que es más importante reconocer con los avances en IA este año es que se está facilitando su acceso a muchas personas, incluyendo ciberdelincuentes", afirma el director de tecnología de McAfee, Steve Grobman. "Los ciberdelincuentes son capaces de utilizar IA generativa para voces falsas y deepfakes mucho más sofisticados que antes", añade.

Grobman añade que los ciberdelincuentes son similares a los empresarios: buscan las formas más eficientes de hacer dinero. "En el pasado, estas estafas eran muy lucrativas porque cuando funcionaban, reportaban grandes cantidades de dinero. Ahora, en lugar de tener que mantener un engaño durante 3 meses en una estafa romántica para conseguir 10.000 dólares, pueden crear un audio falso que se ejecuta en 10 minutos y obtener el mismo resultado, lo que resulta mucho más lucrativo", explica Grobman.

Las estafas telefónicas antes dependían de las dotes interpretativas del estafador o de la credulidad de la víctima, pero ahora la IA se encarga de la mayor parte del trabajo. Las plataformas de audio con IA más conocidas, como Murf, Resemble y ElevenLabs, permiten a los usuarios crear voces realistas utilizando tecnología de texto a voz. Los escasos límites de acceso a estas herramientas (la mayoría de los proveedores ofrecen pruebas gratuitas, y no requieren grandes conocimientos de informática) las hacen atractivas para los estafadores. El delincuente carga un archivo de audio con la voz de alguien en una de estas plataformas, y esta construye un modelo de IA de la voz. Con un pequeño fragmento de audio, los estafadores pueden obtener una coincidencia de voz del 95%. Entonces, el estafador puede teclear lo que quiera y la voz de la IA dirá lo que ha tecleado en tiempo real.

Una vez que han perpetrado su delito, los delincuentes son difíciles de atrapar. Las víctimas suelen disponer de poca información para que la policía se base en ella, y como los estafadores operan desde todo el mundo, los organismos encargados de hacer cumplir la ley se enfrentan a una serie de problemas logísticos y jurisdiccionales. Con poca información y unos recursos policiales limitados, la mayoría de los casos quedan sin resolver. En el Reino Unido, por ejemplo, solo uno de cada 1.000 casos de fraude acaba en acusación.

Sin embargo, Grobman cree que si se es consciente de que existen estas estafas, no hay por qué preocuparse especialmente. Todo lo que tienes que hacer si recibes una de estas llamadas es hacer algunas preguntas que solo el ser querido al otro lado del teléfono sabría responder. La FTC también ha recomendado que si un familiar dice que necesita dinero, se ponga esa llamada en espera y se intente llamar a la persona para confirmar la historia, tal como hizo el padre de Eddie. Incluso si una llamada sospechosa procede del número de un familiar, también puede ser falsa. 

Otra señal reveladora es si la persona que llama pide dinero a través de canales dudosos y difíciles de rastrear, como transferencias, criptomonedas o tarjetas regalo. Los expertos en seguridad recomiendan incluso establecer una palabra de seguridad con los seres queridos que sirva para distinguir entre una emergencia y una estafa.

Richard Mendelstein es muy precavido en lo que se refiere a ciberseguridad, pero todo su escepticismo desapareció cuando escuchó a su hija pedir ayuda por teléfono.

Riesgos de la IA

Con el auge de la inteligencia artificial, este tipo de estafas ponen en juego nuestra capacidad de confiar incluso en nuestros familiares más cercanos. Afortunadamente, los Gobiernos están empezando a intentar establecer límites a este tipo de tecnología. El juez del Tribunal Supremo de EEUU, Neil Gorsuch, subrayó en febrero las limitaciones de las protecciones legales que salvaguardan a las redes sociales de demandas judiciales en lo que respecta a los contenidos generados por IA, lo que significa que las webs están en gran medida protegidas de la responsabilidad por lo que publican terceros. 

Y la vicepresidente estadounidense Kamala Harris dijo en mayo a los CEO de las principales empresas tecnológicas que tenían la responsabilidad "moral" de proteger a la sociedad de los peligros de la IA. Del mismo modo, la FTC dijo a las empresas en febrero lo siguiente: "Deben conocer los riesgos razonablemente previsibles y el impacto de su producto de IA antes de sacarlo al mercado".

Ally Armeson, responsable de programas de Cybercrime Support Network, una ONG dedicada a ayudar a empresas y personas a combatir la ciberdelincuencia, está de acuerdo en que es necesaria cierta regulación: "La IA generativa está evolucionando muy rápidamente. Como cualquier tecnología, puede ser mal utilizada o explotada con fines dañinos, por lo que ciertamente la regulación será necesaria a medida que estas herramientas de IA generativa continúen desarrollándose".

En Europa, por otra parte, se está trabajando en el Reglamento de Inteligencia Artificial que, se espera, esté aprobado a finales de 2023.

Pero aunque se están desplegando una serie de soluciones de ciberseguridad de IA, Armeson cree que en este momento, lo mejor que cualquiera puede hacer es mantenerse alerta: "Hasta que todos los consumidores tengan acceso a estas soluciones de seguridad, la responsabilidad recae en nosotros como individuos para comprender el nuevo panorama de las ciberamenazas y protegernos."

Conoce cómo trabajamos en Business Insider.