Estas son las estafas de inteligencia artificial más utilizadas y cómo puedes enfrentarte a ellas

Ilustración sobre ciberestafas y estafas generadas por inteligencia artificial.

id-work/Getty

  • La inteligencia artificial está sirviendo para hacer cosas extremadamente positivas que antes hubiesen sido impensables, especialmente desde el punto de vista del procesamiento de datos a mayor escala. 
  • Sin embargo, como se suele decir en España: "Hecha la ley, hecha la trampa". 
  • Los ciberdelincuentes también han empezado a utilizar la tecnología para cometer sus fechorías. Aquí puedes ver cómo puedes defenderte de los peores usos de la IA. 

A pesar de las advertencias que han realizado muchos expertos en inteligencia artificial —muchas de ellas bien fundadas— con respecto a los importantes riesgos que plantea esta tecnología (que podría llegar incluso a ser un peligro para la supervivencia del ser humano), la IA generativa ya está siendo utilizada para hacer cosas muy buenas. 

Sin ir más lejos, una de las cuestiones que más se le han criticado a la tecnología —de nuevo, con razón— ha sido la procedencia de los datos que han sido utilizados para entrenar a los principales modelos de inteligencia artificial. Artistas gráficos, escritores, medios de comunicación y compañías discográficas, han presentado sus quejas ante una posible violación de sus derechos de autor.

Sin embargo, en el caso de los artistas, por ejemplo, la IA ya ha demostrado su enorme capacidad a la hora de detectar plagios u obras de arte que han sido falsificadas, una labor que podría ayudar mucho a estos profesionales. Además, esta tecnología está siendo utilizada ya para abordar temas como la lucha contra el cambio climático, la investigación sanitaria o la desigualdad en la educación.

Cada vez está quedando más claro que, en las manos adecuadas, la inteligencia artificial puede ser una herramienta muy poderosa para hacer el bien. En cambio, en las manos equivocadas, podría llegar a ser incluso más peligrosa que una bomba nuclear. Quizá sea por eso por lo que algunos de sus principales responsables se comparaban hace un tiempo con el mismísimo Oppenheimer

Uno de los mayores riesgos que plantea la IA son las ciberestafas. Los delincuentes están llevando a cabo todo tipo fechorías apoyándose en la tecnología para mejorar su modus operandi. Tal y como ha indicado TechCrunch en un reportaje sobre esta cuestión, cada vez existen más casos en los que la inteligencia artificial juega un papel fundamental. 

Aquí puedes ver cuáles son los principales delitos en los que se está utilizando la IA y qué es lo que puedes hacer al respecto. 

Los deepfakes generados por inteligencia artificial

El medio de comunicación especializado en tecnología ha publicado una suerte de guía en la que detalla algunas de las estafas en las que los ciberdelincuentes están utilizando la IA y qué es lo que puede hacer cada uno al respecto. Uno de esos casos sería los deepfakes generados por inteligencia artificial, una tecnología sobre la que Business Insider ha informado en multitud de ocasiones

Grosso modo se trataría de esos ejemplos en los que se utiliza la IA falsificar la imagen de una persona para hacerla pasar por verídica cuando realmente no lo es. Desde TechCrunch sostienen que ya se están utilizando este tipo de imágenes, por ejemplo, para chantajear a las personas con imágenes pornográficas en las que supuestamente aparecen. 

Una de las "ventajas" de los deepfakes generados por inteligencia artificial es que no pueden reproducir marcas distintivas del cuerpo de las personas que supuestamente están representando, porque no han sido entrenados con esas imágenes. Además, las víctimas siempre pueden obligar legalmente a las plataformas que alojan estas imágenes —las redes sociales— a que las retiren.

El phishing o el spam que te llega por mail 

Otro tipo de delito en el que cada vez se utiliza más la IA es el phishing. Este medio de comunicación también ha hablado largo y tendido sobre estas estafas, correos electrónicos que te llegan a la bandeja de entrada —o pasan directamente a spam— y que buscan robar tu información personal, cuando no directamente tus datos bancarios, utilizando para ello enlaces maliciosos. 

En ese sentido, lo más recomendable es ser especialmente precavidos, ya que, la inteligencia artificial ha permitido que este tipo de mensajes sean cada vez más convincentes, pareciendo efectivamente que han sido redactados por el banco en el que depositas tus ahorros, tu portal de comercio electrónico de confianza o la propia Correos (en mi caso, casi siempre son de Correos). 

El artículo de TechCrunch sugiere no clicar en ningún hipervínculo del que no se sepa realmente su procedencia —normalmente, cuando sitúas el ratón encima de un enlace sin clicar en él, en la parte inferior izquierda de la ventana de tu navegador te dice hacia dónde te va a llevar— ni descargar ningún archivo sospechoso, además de revisar siempre que el destinatario es conocido. 

La clonación de voz por teléfono

Entrando en terreno un poco más pantanoso también habría que ser cuidadosos con la suplantación de identidad o la clonación de voz por teléfono, una técnica que los delincuentes están perfeccionando gracias a la IA hasta el punto de que prácticamente es imposible saber si la persona que nos está hablando efectivamente es nuestra madre o nuestro hijo, o es una persona haciéndose pasar por ellos.

Business Insider también ha informado acerca de casos en los que se ha utilizado la inteligencia artificial para suplantar la identidad de alguien y obtener así un rescate para un secuestro que nunca se llegó a producir. Si te sirve de consuelo, le  ha llegado a pasar incluso al propio presidente de Estados Unidos, Joe Biden

A través de su guía de recomendaciones, el medio tecnológico aconseja no intentar molestarse en detectar una voz falsa, ya que la tecnología ha mejorado tanto en ese sentido que en un futuro no muy lejano será prácticamente imposible hacerlo. 

En su lugar, lo más recomendable es revisar de dónde procede la llamada, la dirección de correo electrónico o la cuenta de redes sociales desde la que el remitente de ese audio está tratando de ponerse en contacto. Si no se reconoce, lo mejor es hablar con la persona a la que pertenece esa voz para verificar que efectivamente se encuentra bien y que ese audio en realidad era una estafa.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.