Los deepfakes y la IA van a generar estragos en el año de las elecciones

Hasan Chowdhury,
Deepfake electoral

Business Insider

  • Diferenciar la realidad de la ficción nunca había sido algo tan difícil para los votantes.
  • Los deepfakes generados por IA son una auténtica amenaza para la información real en un momento en el que millones de personas están llamadas a las urnas.
  • Algunos electores ya han recibido llamadas automatizadas de un falso Joe Biden, y ya se han visto anuncios electorales falsos del primer ministro británico Rishi Sunak.

Se dice a menudo que la inteligencia artificial va a hacer que la vida sea más fácil. Sin embargo, las personas que tendrán que participar en elecciones en este 2024 tienen razones para dudarlo.

Este año prácticamente la mitad de la población mundial se dará cuenta de lo problemáticos que son los modelos de IA en el marco de procesos democráticos. Países como EEUU, Reino Unido, India o México celebrarán elecciones, al igual que comunidades autónomas en España, como Galicia y el País Vasco, o la propia Unión Europea.

Los votantes ya suelen asumir una difícil tarea: la de comprobar qué candidatos y qué partidos concurren a las elecciones. Ahora, las amenazas de la IA van a hacer esa tarea mucho más compleja.

"Incluso si paralizamos el desarrollo de la IA, el ámbito de la información después de 2023 jamás va a ser como lo era antes", avisaba este mes Ethan Mollick, profesor asociado de Wharton.

Los últimos avances en el ámbito de la IA generativa, impulsados por el auge de OpenAI y su ChatGPT, hacen que esta tecnología represente un problema mucho mayor.

Aunque la Unión Europea te suene algo lejana, este 2024 será el gran año electoral en el que hay mucho más en juego de lo que parece

Los votantes en New Hampshire, un estado de EEUU, ya se han dado cuenta de lo complicado que va a ser este año electoral: en unos días el estado celebra elecciones primarias para elegir al candidato de los demócratas para los presidenciales y muchos votantes han recibido llamadas automatizadas en las que se oye una voz que parece la del presidente Joe Biden.

Ha sido NBC News el primer medio en recoger la noticia de que estas llamadas telefónicas falsas se estaban produciendo. Al descolgar, una voz como la de Joe Biden, que posiblemente ha sido manipulada digitalmente, dice el clásico eslogan del presidente, "¡qué montón de tonterías!", antes de invitar a la gente a no votar en las primarias.

Las llamadas automatizadas con la voz de Biden son especialmente perniciosas por lo difícil que es distinguir una voz real de una fabricada digitalmente.

Una investigación revisada por pares y publicada el pasado mes de agosto en la revista académica PLOS ONE descubría que las personas tienen dificultades para detectar voces generadas artificialmente al menos una de cada cuatro veces.

"La dificultad para detectar voces deepfake confirma los potenciales malos usos que esta tecnología podría tener", advertían los investigadores entonces.

Los deepfakes generados por IA han provocado otros problemas en otros lugares del mundo. En Reino Unido, una investigación de Fenimore Harper Communications descubrió que había más de 100 vídeos promocionales con deepfakes que suplantaban al primer ministro Rishi Sunak en Facebook.

El primer ministro británico, Rishi Sunak.
El primer ministro británico, Rishi Sunak.

REUTERS/Hollie Adams

Según los autores del estudio, los anuncios pagados —143 de los cuales se promocionaron entre el 8 de diciembre y el 8 de enero— podrían haber llegado "a unas 400.000 personas". El dinero con el que se pagó la promoción en la plataforma habría llegado de al menos 23 países, incluyendo "Turquía, Malasia, Filipinas y Estados Unidos".

"Parece que es la primera distribución pagada de vídeos deepfake sobre una figura política de Reino Unido", abunda el informe de Fenimore Harper. Meta no ha respondido por el momento a las preguntas que le ha trasladado Business Insider.

Aunque no está claro quién está detrás de los deepfakes políticos tanto en EEUU como en Reino Unido, su reciente proliferación demuestra que casi cualquiera con acceso a herramientas IA y acceso a internet puede provocar un desastre.

El profesor Ethan Mollick lo contó en una entrega de su newsletter: pudo crear un vídeo deepfake en unos pocos minutos enviando solo un vídeo de 30 segundos de su rostro y un audio de también 30 segundos de su voz a una herramienta IA conocida como Heygen.

"Tenía un avatar y podía hacer que este dijera cualquier cosa, en cualquier idioma. De hecho, usó varias de mis expresiones corporales usadas en el vídeo e incluso se ajustó el micrófono, pero también clonó mi voz y alteró el movimiento de mi boca, mis parpadeos y todo lo demás", escribió.

Salvaguardas

Las compañías IA están haciendo algunos esfuerzos para tratar de contener estos problemas. A principios de mes, OpenAI desveló sus planes para prevenir malos casos de uso de sus herramientas en el año 2024, uno de los años más electorales de la historia.

Sus planes incluía el despliegue de salvaguardas en herramientas como DALL-E, el modelo capaz de convertir texto a imagen. De esta forma, con esas salvaguardas, se evitaría que DALL-E generara imágenes artificiales de personas reales. También se prohibiría el uso de ChatGPT para fines políticos o lobistas.

Prepárate, esta campaña que acaba de terminar puede ser la última antes de que la IA participe en los programas, carteles e incluso mensajes de los partidos

"Proteger la integridad de las elecciones requiere de colaboración de todos los agentes de los procesos democráticos, y queremos asegurarnos de que nuestra tecnología no será empleada de cualquier manera que pueda minar esos mismos procesos", defendió OpenAI en su blog corporativo.

Otras firmas están intentando plantar batalla a la distribución de falsedades generadas por IA. Lisa Quest, consultora en Oliver Wyman, ya explicó a Business Insider en el foro de Davos cómo es el trabajo que hace su equipo de impacto social junto a ONG en "el reino digital" para tratar de frenar la desinformación en línea.

Todos ellos libran, como poco, una batalla que cada vez va a más. Una batalla como la de los votantes, que ahora tendrán que esforzarse todavía más en saber en qué pueden y en qué no pueden confiar.

Conoce cómo trabajamos en Business Insider.