Pasar al contenido principal

Facebook destinará más de 10 millones de dólares a luchar contra los deepfakes: contratará actores para ayudar a los investigadores

Facebook está haciendo videos ultrafalsos utilizando actores pagados para ayudar a los investigadores a detectar mejor las imágenes falsas.
Facebook
  • Facebook anunció el jueves el Deepfake Detection Challenge, Reto de la Detección de Deepfakes (DFDC, por sus siglas en inglés).

  • La empresa dijo que aportará 10 millones de dólares para financiar investigaciones y programas que ayuden a detectar y combatir los vídeos falsos, más conocidos como deepfakes, que utilizan la inteligencia artificial para crear imágenes que hacen que parezca que una persona dijo algo que en realidad no, o que apareció en un vídeo en el que no estaba.

  • Facebook ha señalado que contratará actores remunerados para crear una biblioteca de características y rasgos faciales, lo que ayudará a la industria a detectar videos falsificados.

  • Descubre más historias en Business Insider España.

Facebook está utilizando actores para crear una biblioteca de vídeos "deepfake", como parte de un esfuerzo de toda la industria para mejorar las herramientas de lucha contra la creciente amenaza de los vídeos falsificados realizados con tecnología de inteligencia artificial.

El esfuerzo es parte de un Reto de la Detección de Deepfakes (DFDC, por sus siglas en inglés) más extenso que Facebook anunció el jueves. La iniciativa se está llevando a cabo en asociación con Microsoft y varias instituciones académicas, según la organización.

"El objetivo del reto es producir tecnología que todo el mundo pueda utilizar para detectar mejor cuándo se ha utilizado la IA para alterar un vídeo con el fin de engañar al espectador", dijo Mike Schroepfer, director de tecnología de Facebook, en un artículo publicado en el blog el jueves.

Schroepfer dijo que Facebook contribuirá con más de 10 millones de dólares para financiar el esfuerzo, que incluirá investigación y premios.

Los vídeos deepfake, que utilizan la tecnología de la IA para que parezca que una persona está diciendo o haciendo algo que en realidad nunca hizo, son un problema creciente que ha hecho sonar la alarma en un momento en el que la desinformación se ha arraigado rápidamente en las redes sociales.

Leer más: Facebook acaba de poner en marcha su alternativa a Tinder en Estados Unidos y tiene una clara ventaja para conquistar el mercado: así funciona exactamente

El problema es que parecen increíblemente realistas, pero por lo general se pueden detectar gracias a signos reveladores como sombras inconsistentes y cejas dobles, dijo Facebook. A medida que la tecnología avance, será fundamental contar con un conjunto establecido de herramientas para detectar las falsificaciones. Por esa razón, Facebook dijo que creará una biblioteca de deepfakes que los investigadores pueden usar para crear nuevas herramientas de detección.

"Es importante tener datos que estén disponibles de forma gratuita para que la comunidad los use, con participantes que consientan claramente y con pocas restricciones de uso", dijo Schroepfer en la entrada del blog. "Por eso, Facebook está encargando un conjunto de datos realistas que utilizarán actores remunerados, con el consentimiento necesario, para contribuir al reto. No se utilizará información de usuarios de nuestra red".

Los otros participantes en la iniciativa incluyen a Microsoft, The Partnership on AI, y académicos de Cornell Tech, MIT, la Universidad de Oxford, Universidad de California en Berkeley, Universidad de Maryland, College Park, y la Universidad de Albany-SUNY.

Facebook ha sido criticado por no ser más rápido a la hora de eliminar vídeos falsos de su red social. En junio, el director ejecutivo de Facebook, Mark Zuckerberg, dijo que uno de los desafíos es definir lo que constituye un deepfake en comparación con otras formas de desinformación. Un famoso o un político puede afirmar que un reportaje de noticias, editado para mostrar solo un fragmento limitado de un discurso, constituye, por ejemplo, información errónea.

"Este es un tema que se puede politizar muy fácilmente", dijo Zuckerberg. "La gente a la que no le gusta la forma en que algo fue cortado a menudo argumenta que no reflejaba la verdadera intención, o que era desinformación".

Puedes leer la entrada del blog de Facebook sobre el Deep Fake Challenge aquí.

Y además