Pasar al contenido principal

Facebook apuesta por la inteligencia artificial para acabar con el porno vengativo

Mark Zuckerberg Facebook
Brian Solis www.briansolis.com
  • Facebook e Instagram han decidido apostar por la inteligencia artificial como forma de detectar mejor los contenidos susceptibles de ser porno vengativo y eliminarlos más rápidamente.
  • El sistema de detección automatizado identificará las imágenes o vídeos susceptibles de contener elementos íntimos sin consentimiento, para posteriormente ser revisados por un profesional "especialmente capacitado" del departamento de operaciones comunitarias de Facebook.
  • Cada imagen o vídeo inapropiado -detectado por el sistema o reportado manualmente por los usuarios- será convertido en una "huella digital" que impedirá que ese mismo contenido vuelva a ser compartido por otros usuarios.

Una de las tendencias más preocupantes y que está proliferando con mayor rapidez en la arena online es el conocido como 'revenge porn', o porno vengativo. Se trata de contenidos audiovisuales en los que se muestran actividades sexuales o desnudos de una expareja, compartidos por el otro miembro de la relación una vez ésta ha acabado.

Una lacra que afecta no solo a la privacidad de la persona afectada, sino también a su dignidad misma, y que contraviene las políticas de uso básicas de cualquier red social. Y, sin embargo, estos vídeos se propagan a la velocidad de la luz en plataformas como Twitter, Facebook o Instagram.

Para luchar contra este problema, estas dos últimas redes sociales han decidido apostar por la inteligencia artificial como forma de detectar mejor los contenidos susceptibles de ser porno vengativo y eliminarlos más rápidamente. "Al utilizar el aprendizaje automático y la IA, ahora podemos detectar de manera proactiva imágenes o vídeos casi desnudos que se comparten sin permiso en Facebook e Instagram", explica Antigone Davis, jefe de seguridad global de Facebook, en un comunicado.

Leer más: Los usos más inquietantes de la Inteligencia Artificial con Deep Fakes: de las fotos de gatos al porno de venganza

"A menudo, las víctimas temen las represalias, por lo que son reacias a reportar el contenido por sí mismas o no saben que el contenido ha sido compartido", continúa la nota de Facebook.

El sistema de detección automatizado identificará las imágenes o vídeos susceptibles de contener elementos íntimos sin consentimiento, para posteriormente ser revisados por un profesional "especialmente capacitado" del departamento de operaciones comunitarias de Facebook. Será este humano, y no la máquina, el que decida si el contenido infringe las normas de uso de la red social y procederá, en su caso, a eliminarlo.

Igualmente, la plataforma de Mark Zuckeberg se reserva la posibilidad de inhabilitar las cuentas que comparten este 'porn revenge' (con su correspondiente período de apelación por si se hubiera cometido algún error). Además, cada imagen o vídeo inapropiado -detectado por el sistema o reportado manualmente por los usuarios- será convertido en una "huella digital" que impedirá que ese mismo contenido vuelva a ser compartido por otros usuarios.

"Después de recibir comentarios positivos de las víctimas y las organizaciones de apoyo, ampliaremos este programa piloto en los próximos meses para que más personas puedan beneficiarse de esta opción en una emergencia", culmina Davis. "También haremos que sea más fácil y más intuitivo para las víctimas informar cuando sus imágenes íntimas se compartan en Facebook. Y en los próximos meses, crearemos un conjunto de herramientas de apoyo a las víctimas para brindarles a las personas de todo el mundo más información con un apoyo relevante a nivel local y cultural".

¿Quieres conocer las últimas tendencias digitales y plataformas de comunicación?

Nuestro servicio de investigación premium, Business Insider Intelligence, cuenta con todos los informes necesarios para estar al día de todas las novedades y tendencias sobre realidad virtual, realidad aumentada, inteligencia artificial, vod...

Y además