Facebook veta los 'deepfakes' y los vídeos manipulados

Silhouettes of laptop users next to a screen projection of Facebook logo in a picture illustration.
Silhouettes of laptop users next to a screen projection of Facebook logo in a picture illustration.Reuters
  • Facebook hizo un anuncio este lunes sobre deepfakes y contenidos manipulados: serán vetados de la plataforma.
  • La compañía dice estar haciendo una investigación con múltiples enfoques para abordar este problema, como el de los contenidos engañosos generados por inteligencia artificial; y se ha asociado con la universidad, la administración y la industria para identificar mejor este tipo de vídeos.
  • Los contenidos que sean reportados serán revisados por terceros que hagan fact-check y determinen si su contenido es falso.
  • En septiembre, el director de Tecnología de Facebook, Mike Schroepfer, dijo que la compañía estaba haciendo su propio contenido deepfake para detectar mejor los contenidos manipulados a eliminar, como informó Alexei Oreskovi en la edición global de Business Insider.
  • Descubre más historias en Business Insider España.

Facebook ha anunciado este lunes que los vídeos deepfake y los contenidos manipulados serán vetados de su plataforma.

En un comunicado, la compañía dice que ha estado desarrollando una investigación con múltiples enfoques para abordar este problema, incluyendo estudios sobre contenidos engañosos generados por inteligencia artificial. Ha concretado acuerdos con la academia, la administración y la industria para identificar mejor estos vídeos manipulados.

"Los montajes se pueden realizar mediante tecnología simple como Photoshop o mediante herramientas más sofisticadas que utilizan la inteligencia artificial o el aprendizaje automático que crean vídeos que distorsionan la realidad, normalmente llamados deepfakes", dice la firma en un comunicado. "Aunque estos vídeos son todavía raros en la red, el incremento de su uso representa un importante desafío para nuestra industria y nuestra sociedad".

Leer más: Amazon, Facebook, Twitter y YouTube tienen problemas para moderar sus contenidos: así intentan las tecnológicas controlar a sus comunidades

La compañía ha determinado qué tipo de deepfakes serán vetados de su plataforma:

  • Aquellos que han sido editados o recortados más allá de los ajustes de claridad y calidad, de manera que puede confundir a un espectador medio o hacer pensar que el protagonista del vídeo dice algo que no ha dicho.
  • Si es un vídeo realizado con inteligencia artificial o aprendizaje automático que mezcla, reemplaza o superpone contenido de un vídeo sobre otro, haciéndole aparentemente auténtico.

Esta política no afectará a los contenidos manipulados con el propósito de hacer comedia o sátira, advierte Facebook en su comunicado.

Los vídeos reportados serán objeto de una revisión por parte de verificadores de terceros que serán los que determinarán si un contenido es falso o no. En este punto, Facebook reducirá "significativamente su distribución" en los muros de los usuarios, o cancelarán sus promociones publicitarias.

Además, todas las personas que intenten compartir este contenido después de ser eliminado de la plataforma recibirán un aviso de que el contenido es falso.

La red social ha remarcado que ha firmado una alianza con la agencia Reuters para ayudar a las redacciones de todo el mundo a "identificar deepfakes y contenidos manipulados mediante un curso en línea gratis".

Leer más: Facebook está probando a ocultar el número de "me gusta" en las publicaciones, alterando una de las métricas que lleva utilizando desde 2009

"Las organizaciones de noticias han incrementado su confianza en terceros para verificar grandes cantidades de imágenes y vídeos, e identificar los falsos es un desafío significativo", incide el comunicado. "Este programa pretende apoyar a las redacciones a la hora de hacer su trabajo".

En septiembre, el director de Tecnología de Facebook, Mike Schroepfer, dijo que la compañía estaba desarrollando su propio contenido deepfake para detectar contenidos manipulados a eliminar, según informaba Alexei Oreskovic en una información de Business Insider.

"El objetivo de este desafío es producir tecnología que permita a todo el mundo detectar cuándo una inteligencia artificial ha sido empleada para alterar un vídeo para confundir al espectador"; detallaba Schroepfer en un artículo publicado en su blog en septiembre.

El año pasado, la compañía se enfrentó a importantes críticas por parte de parlamentarios del Congreso estadounidense, como la representante demócrata Alexandria Ocasio-Cortez o la senadora y candidata demócrata Elizabeth Warren, por la política de Facebook a la hora de verificar anuncios políticos.

Facebook dijo que en la mayoría de las ocasiones no verificaría estos anuncios para proteger la libertad de expresión. La controversia política comenzó después de que el presidente Donald Trump comenzara la campaña con falsas aseveraciones sobre el exvicepresidente Joe Biden.

"Publicaciones y anuncios de políticos no están generalmente sujetas a la verificación de contenidos"; según la política de Facebook. "A la hora de evaluar cuándo aplicar esto, pedimos a nuestros socios verificadores que vigilen a todos los políticos y a todos los niveles".

Conoce cómo trabajamos en Business Insider.