Los peligros de la inteligencia artificial llevada al extremo

Inteligencia Artificial

Si existe una tecnología capaz de transformar el mundo ésa es la inteligencia artificial, cuyo desarrollo se ha acelerado en los últimos años y amenaza con superar a los humanos en todos los campos a lo largo del próximo siglo según un estudio de la Universidad de Oxford (Reino Unido).

"La inteligencia artificial es probablemente lo más importante en lo que ha trabajado nunca la humanidad, creo que su impacto será más profundo que la electricidad o el fuego", resumía esta misma semana nada menos que el CEO de Google, Sundar Pichai.

Claro que una cosa es la teoría y otra, bastante bien diferente, la práctica. Que se lo digan a Robert Oppenheimer​. En los últimos meses se han multiplicado las aplicaciones basadas en inteligencia artificial que prometen ayudar a salvar vidas, transformar la sociedad en un mundo más justo y revolucionar todo tipo de industrias. Pero la inteligencia artificial tiene su propio lado oscuro.

El último ejemplo de los posibles riesgos que entraña esta tecnología es FakeApp, una herramienta capaz de crear vídeos falsos cambiando las caras de los que aparecen en él por medio de redes neuronales y 'machine learning', la técnica que permite a las máquinas aprender de manera autónoma sin que tengan que ser expresamente programadas.

En teoría se trata de una aproximación muy interesante para el mundo del cine o de los videojuegos. Por ejemplo, la herramienta se ha utilizado para 'colocar' la cara de una joven Carrie Fisher en una escena de la película Rogue One en apenas veinte minutos, un trabajo que le llevó mucho más tiempo (y dinero) a la productora Lucasfilm en su momento, ya que para colocar la imagen de Fisher tuvo que hacerlo a través de imágenes generadas por ordenador a partir de los movimientos captados sobre el decorado de una doble de la actriz.

Leer más: '¿Te espían Google y Facebook a través del micrófono de tu móvil?'

El problema es que el software se está utilizando para crear vídeos pornográficos falsos de famosas que son espeluznantemente realistas y dibujan un escenario muy preocupante que deja a las víctimas totalmente desprotegidas. En comunidades como Reddit se han compartido durante las últimas semanas clips pornográficos falsos de estrellas como Gal Gadot, Taylor Swift, Scarlett Johansson, Maisie Williams, Daisy Ridley, Sophie Turner o Emma Watson. Y eso quizás solo sea el principio.

La cara de la actriz Daisy Ridley 'pegada' en un vídeo porno usando FakeApp.
La cara de la actriz Daisy Ridley 'pegada' en un vídeo porno usando FakeApp.

Un usuario ha "empaquetado" todos esos algoritmos en un programa que se puede descargar fácilmente en cualquier ordenador. El software es capaz de identificar las expresiones faciales a través del análisis de múltiples fotografías de la misma persona, lo que le permite después colocar su cara sobre la de otra persona en cualquier vídeo.

Crear un vídeo de este tipo no es tan sencillo como parece. Hace falta contar con un ordenador medianamente potente que disponga de una buena tarjeta gráfica y un puñado de paciencia, ya que se pueden tardar hasta 12 horas en terminar el proceso. Los resultados no son del todo perfectos pero sí son suficientes para engañar a alguien que no se preocupe demasiado en contrastar si lo que está viendo es real.

La técnica mejorará, seguro, con el paso del tiempo. Y eso es alarmante, no solo por el daño que puede sufrir la imagen de estas famosas, sino porque la universalización de este tipo de programas (FakeApp está al alcance de cualquiera) puede generar una nueva forma de extorsión y humillación en internet.

El daño de aparecer en un vídeo falso

Las famosas no son las únicas víctimas de los falsos montajes en internet. Según un estudio de Microsoft la 'sextorsión' ya afecta al 3% de la población y la policía calcula que hay más de 6.000 víctimas en España aunque alrededor de un 30% ni siquiera se atreve a denunciar.

La 'sextorsión' es una forma de chantaje a una persona que habitualmente afecta a hombres (aunque no de manera exclusiva) y en los últimos meses se ha extendido a través de las redes sociales, especialmente en Facebook.

La mecánica es sencilla y bastante recurrente. En primer lugar, la víctima recibe una solicitud de amistad de alguien desconocido, normalmente una mujer bastante atractiva con la que en principio no tiene lazos ni amistades en común. Nada más aceptarla se inicia una conversación que va subiendo progresivamente de tono, a menudo compartiendo fotografías de alto contenido erótico y a menudo manteniendo sesiones de 'sexting' a través de la webcam.

Leer más: 'Slaughterbots: un futuro distópico de drones asesinos pululando'

Sin embargo, no es más que una burda estafa en la que el ciberdelincuente solo busca conseguir un vídeo de la víctima con su webcam. Una vez tiene su objetivo destapa sus verdaderas intenciones: publicar las imágenes íntimas que acaba de compartir en todas las redes sociales posibles y con todo su círculo de amigos y familiares a menos que pague una elevada cantidad de dinero.

Si la víctima ha encendido la webcam la historia se complica porque normalmente los ciberdelincuentes lo capturan todo en vídeo para realizar posteriormente montajes. Ni siquiera hace falta que la víctima se haya desnudado frente a la webcam ya que su vídeo se mezclará para que parezca que sea la persona que se está masturbando frente a la cámara. En los casos más extremos el chantaje cobra unos tintes macabros ya que los ciberdelincuentes utilizan las imágenes de la víctima para vincularlas al supuesto uso de pornografía infantil.

De nuevo, estas herramientas de inteligencia artificial plantean un futuro en el que no suena demasiado descabellado que un ciberdelincuente recopile fotografías de su víctima a través de las redes sociales, sin ni siquiera establecer primero contacto con él, para realizar el montaje. 

Experimentos que engañan al ojo humano

Aunque parezca una novedad FakeApp es solo el último ejemplo de la tecnología de intercambio de rostros, un campo en el que se lleva experimentando desde hace más de un lustro con resultados cada vez más realistas.

Un equipo de investigadores de la Universidad de Stanford (Estados Unidos) saltó a los medios de comunicación de medio mundo en 2016 al presentar Face2Face, un programa que era capaz de cambiar en tiempo real las expresiones faciales de una persona en un vídeo en función de las muecas que hacía otra persona a través de una webcam.

Los resultados fueron todavía más aterradores en el proyecto Synthesizing Obama (Sintetizando a Obama) de la Universidad de Washington (Estados Unidos) en el que un grupo de investigadores desarrolló un software capaz de emparejar sonidos con movimientos faciales, permitiendo crear vídeos falsos de Barack Obama extremadamente realistas, con todo lo que ello implica.

El fabricante de chips Nvidia es una de las grandes empresas tecnológicas que más ha experimentado con el aprendizaje automático e inteligencia artificial en los últimos tiempos. Hace solo unos meses la compañía desvelaba los detalles de un sistema creado por sus ingenieros capaz de generar imágenes en alta resolución de famosos que en realidad nunca habían existido al combinar la actividad de dos redes neuronales.

Todas estas caras son falsas: han sido creadas por ordenado a través de inteligencia artificial.
Todas estas caras son falsas: han sido creadas por ordenado a través de inteligencia artificial.

A finales de 2017 la misma compañía presentaba otro sistema basado en inteligencia artificial capaz de transformar una escena grabada en invierno a un día de verano como por arte de magia o cambiar una escena grabada a plena luz en una toma nocturna.

El riesgo de un falso mensaje de Trump

Toda esta tecnología puede llegar a tener un impacto brutal, no solo en la industria del cine, sino en el universo de los videojuegos al poder crear personajes de aspecto humano mucho más realistas. Sin embargo, la herramienta en manos equivocadas puede llegar a hacer mucho daño, sobre todo en entornos de rápida propagación como pueden ser las redes sociales.

¿Qué pasaría si alguien publicara un vídeo falso de Donald Trump diciendo que acaba de lanzar un misil nuclear a Corea del Norte?

Puede que los más expertos y los peritos informáticos forenses puedan detectar los montajes fácilmente, pero para el ciudadano de a pie estas falsificaciones creadas con ayuda de la inteligencia artificial lo están poniendo cada vez más complicado para diferenciar la realidad de la ficción.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.