Esta entrevista de Donald Trump generada por IA alerta de cómo la suplantación de voz puede convertirse en una inquietante y peligrosa arma política: "Esto no ha hecho nada más que empezar"

Donald Trump.

REUTERS/Marco Bello

  • Un vídeo viral de una entrevista de Donald Trump generada completamente con inteligencia artificial ha hecho aumentar los temores sobre las peligrosas capacidades de la IA.
  • La suplantación de voz por parte de la inteligencia artificial conlleva el riesgo a ser utilizada como arma política y puede llegar a generar terremotos democráticos.
  • Los expertos consultados por Business Insider España aseguran que existen mecanismos para identificar la falsificación de identidad, pero también alertan de que "esto no ha hecho nada más que empezar". 

La inteligencia artificial generativa no parece tener límites. 

Hace poco saltó a Twitter una entrevista a Sam Altman, CEO de OpenAI, completamente generada por IA imitando al famoso pódcast de Joe Rogan, The Joe Rogan Experience. Pero la semana pasada se difundía un nuevo capítulo, esta vez con Donald Trump de invitado. 

Estos 2 vídeos, en los que se alternan las imágenes de los interlocutores —también creadas con IA—, se inician recordando a los oyentes que lo que van a escuchar a continuación está generado por la inteligencia artificial y no es real. 

Sin embargo, aunque las imágenes de Joe Rogan y los invitados sean una fotografía bastante bien conseguida, estos vídeos han ido un paso más allá: la voz de los interlocutores es prácticamente la misma que Rogan, Saltman y Trump en la vida real. 

ChatGPT no es la única herramienta de inteligencia artificial desarrollada por OpenAI: estas son DALL-E, Whisper y Codex

Captura de pantalla de una imagen de Donald Trump generada por inteligencia artificial en el podcast de Joe Rogan AI Experience.
Captura de pantalla de una imagen de Donald Trump generada por inteligencia artificial en el podcast de Joe Rogan AI Experience.

Joe Rogan AI Experience

Cualquiera que haya escuchado más de 2 minutos un mitin de Trump o cualquiera que sea asiduo de los pódcast de Joe Rogan puede afirmar con rotundidad que tanto el contenido de las afirmaciones como el tono de la voz con la que se expresan los interlocutores ficticios es prácticamente la misma en la vida real. 

"Tengo que recordarle a todo el mundo que cada una de las palabras de este pódcast ha sido generada por la inteligencia artificial usando ChatGPT, así que este no soy yo, Joe Rogan, hablando, y estas no son las voces reales de las personas que estaremos hablando. Esto es simplemente tecnología de IA demostrando lo que es capaz de hacer y déjame decir que es malditamente impresionante".

Así empezaba el segundo episodio de The Joe Rogan AI Experience, un canal de YouTube que pretende imitar a base de IA al podcast más escuchado de Estados Unidos y del mundo. 

El rápido avance de la inteligencia artificial ha despertado la preocupación sobre los derechos de autor en cuanto al texto, pero también sobre los derechos de imagen respecto a la generación de imágenes como la del papa Francisco en un abrigo de plumas. Sin embargo, ChatGPT4 ha ido más allá: la imitación de la voz por parte del bot puede suponer un problema mucho más grave. 

Hasta que no se regule la IA o se implanten mecanismos de verificación generalizados, no sabremos lo que es real o no

Los expertos consultados por Business Insider España ya hablan de la posrealidad. Nos encontramos en un punto en el que ahora mismo no es posible identificar qué es real y qué no lo es. 

"El paradigma del testimonio en vídeo y en audio, ha perdido ya su legitimidad", afirma Pablo F. Iglesias, CEO de la consultora reputacional CyberBrainers". De hecho, el experto ya en 2018 se imaginaba mundos distópicos en su primer libro, paradójicamente, poniendo el ejemplo de un deep fake con la cara de Donald Trump. 

La realidad puede dejar de existir y este vídeo es una prueba de ello. Si de algo se caracteriza el pódcast de Joe Rogan y sus episodios de casi 3 horas es por la multitud y la complejidad de  los temas que se abordan y se debaten, algunos de ellos de lo más exóticos. 

Si antes era fácil crear noticias falsas, ahora la ingeniería de la desinformación se ha vuelto mucho más técnica y realista. "Corremos el riesgo de llenar internet con contenido falso y de confundir a los ciudadanos con lo que es real o no", afirma Mikel Sánchez, director de innovación de Veridas, una empresa de verificación de identidad que usa tecnología biométrica. 

"La idea de falsabilidad va a ser cada vez más difícil de definir por imágenes, por textos, por audios y en un futuro próximo, por imágenes en movimiento", apunta Fernando Castelló Sirvent, economista, doctor y experto en estrategia y marketing político.

Cómo la Inteligencia Artificial podría convertirse en un riesgo para la Humanidad: el mundo necesita más regulación y menos teorizar

La suplantación de voz, un mecanismo más de las deep fakes

El economista apunta a que el avance de las nuevas tecnologías y su aplicación en nuestro día a día tendrá 2 vertientes principales en un futuro: que haya personas "que rehúsen de ella y que no quieran sobreexponerse" y, por otro lado, personas que compitan por ver quién tiene más integrado las aplicaciones tecnológicas.

Siguiendo con el ejemplo del vídeo de la entrevista fake a Donald Trump, aunque los más lúcidos puedan diferenciar que se trata de un discurso generado por un modelo de lenguaje, lo cierto es que además de la similitud de la voz, las preguntas y la conversación son exactamente iguales a cómo el presentador suele abordar las entrevistas

En otras palabras: se trata de un calco no solo de la voz, sino también de los argumentos, de las expresiones y de la dinámica del lenguaje, característica en este caso de Joe Rogan y Donald Trump. Es el ejemplo perfecto para poner en alerta el peligro de la suplantación de voz, especialmente para aquellos que se encuentran en puestos de responsabilidad. 

A nivel político, "se convierte en un arma muy importante, no solo para el adversario político, sino en términos del propio partido y de las dinámicas internas", avisa Castelló Sirvent. "Se trata de una herramienta que tiene inflexiones de la voz humana, que sabe imitar sensaciones y quiebros de voz". 

F. Iglesias asegura que estas tecnologías ya se están usando con otras características en la guerra en Ucrania donde se están generando vídeos falsos para demonizar al enemigo y en Venezuela, donde se están usando para fines partidistas y políticos. 

Si bien antes "las fake news eran especialistas en sacar declaraciones de contexto, ahora tan siquiera necesitamos esas declaraciones", explica el CEO de CyberBrainers.

Cualquiera que escuche una voz como la de Donald Trump sin la advertencia de que está generada por una IA, puede fácilmente creer que es la persona real la que ha hecho esas declaraciones, con el especial peligro de ir más allá de las fake news en el ámbito político y generar auténticos terremotos democráticos.

Pero no solo los políticos están en el punto de mira de los generadores de deep fakes, sino que estas herramientas ya están siendo utilizadas para campañas de fraude tanto a empresas como a particulares. "Esto no ha hecho más que empezar". 

A pesar de que se han incrementado las estafas por suplantación de voz, el director de innovación de Veridas llama a la calma. Del mismo modo que la IA puede emplearse para fines perversos, la inteligencia artificial tiene las capacidades de detectar situaciones fraudulentas que el ser humano no es capaz de identificar, entre ellas identificar si una voz es real o no. 

Para la detección de la suplantación de identidad por voz, desde Veridas trabajan con tecnología biométrica de voz para evitar ataques, especialmente para entidades financieras, donde los datos son especialmente sensibles y más propensas a sufrirlos. 

"Existe tecnología para evitar este tipo de situaciones", asegura Sánchez. En vez de que la IA genere las voces, "el sistema utiliza bases de datos muy grandes, de imágenes, de vídeo o de audio, para que un sistema automático aprenda a reconocer la información biométrica de una persona". Eso sí, previo consentimiento del individuo. 

España está metiendo presión a Europa para legislar cuanto antes la IA, después de que varios expertos en la materia firmaran un manifiesto para frenar su investigación ante los posibles peligros de sus avances. Mientras tanto, toca poner en cuarentena todo aquello que veamos o escuchemos.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.