Cierran esta aplicación que desnudaba a mujeres reales mediante Inteligencia Artificial porque su creador cree que "no estamos preparados" para esta tecnología

Iván Cernadas
deepnude
Business Insider España
  • Cierran DeepNude, una aplicación que usaba la Inteligencia Artificial para manipular fotos de mujeres desnudas y colgarlas en internet.
  • Esta tecnología es reciente y tiene un lado oscuro, los Deep Fakes o desnudos falsos que se pueden conseguir mediante la combinación de miles de fotografías.
  • Los creadores de la aplicación afirman que "no quieren ganar dinero de esta manera".
  • La exposición en los medios y redes sociales ha forzado su cierre. 
  • Descubre más historias en Business Insider.

La tecnología no siempre es una bendición. Si no que se lo digan a todos los famosos que han sido víctimas de los vídeos falsos o deep fakes. Y es que hasta el mismísimo Mark Zuckerberg ha sufrido en sus carnes la consecuencias de estas imágenes falsas.

Pero lo peor es poner esta tecnología en manos de todo el mundo. Si no que se lo digan a Deepnude, una app que desnudaba mediante Inteligencia Artifcial a cualquier mujer y que se ha visto forzada a cerrar debido a la polémica que ha generado estos días.

Leer más: Deep Fakes: los usos más inquietantes de la Inteligencia Artificial

Los creadores de DeepNude afirman en un comunicado publicado en las redes sociales que "el mundo no está preparado para esta tecnología". Y vaya si no lo está, este software es más peligroso de lo que parece.

En la nota de prensa publicada sus responsables refuerzan esta visión del mal uso que le podrían dar los usuarios: "la probabilidad de que la gente lo use mal es demasiado alta".

Sin embargo, aunque el objetivo final haya sido otro, la meta de los creadores era lanzar al mercado DeepNude con dos versiones: una gratuita y una de pago para conseguir fondos.

Lo que no contaron los propietarios es con el éxito de estas descargas de imágenes falsas femeninas. Es más, horas antes de anunciar el cierre de la app, decían desde su perfil de Twitter que estaban solucionando los problemas ante la avalancha de visitas. 

Al rato, parece ser que se arrepintieron, cerraron el software e hicieron público el comunicado que vuelve a poner en la mesa el debate del machismo sobre la manipulación de fotografías femeninas.

Se trata de un problema muy serio, ya que el hecho de que esta tecnología esté disponible para todo el mundo hace que cualquier mujer se pueda llegar a ver afectada.

Y es que estas aplicaciones permiten que las imágenes personales de la gente se usen rápidamente y de forma muy sencilla, por lo que no hay protección al respecto en caso de que suceda. 

De hecho, aunque la app haya sido retirada, "seguramente algunas copias saldrán al mercado", tal y como aseveran sus responsables.

Conoce cómo trabajamos en Business Insider.