Apple podrá escanear tus fotos con iOS 15, pero puedes evitarlo apagando un solo botón

Tim Cook, CEO de Apple.
Tim Cook, CEO de Apple.

Reuters

  • La llegada de iOS 15 trae una función que permitirá a Apple comparar las fotos que se carguen en iCloud con una base de datos de CSAM, es decir, sabrá perfectamente lo que tienes almacenado en el dispositivo. 
  • Por suerte es muy sencillo desactivar esta función, pero puede traer consecuencias graves a largo plazo. 
  • Descubre más historias en Business Insider España

A pesar de que Apple lleva años luchando por la privacidad de los usuarios contra gigantes como Google y Facebook, una de las características que llegarán a iOS 15 en otoño de este año parece socavar esta filosofía que propone Cook. 

Cuando el nuevo sistema operativo de Apple aterrice a finales de año, Apple empezará a comparar las fotos que se carguen a iCloud con una base de datos de CSAM (material de abuso sexual infantil). Es decir: sabrá perfectamente lo que tienes almacenado en el dispositivo

Por suerte, existe una manera muy sencilla de evitar este escrutinio de Apple del que se hace eco BGR. ¿Lo único que tienes que hacer? Deshabilitar el uso compartido de fotos en iCloud

El gran problema de todo esto es que, sí sales del ecosistema de Apple no te vas a encontrar nada nuevo, ya que casi todos los proveedores de servicios en la nube hacen este tipo de escaneo. 

Lo que ha llamado la atención es la manera tan sencilla sobre como Apple puede acceder a esta información y que no viene a proteger a los niños, sino simplemente a evitar que su marca se ensucie en el futuro

"Si usted es un pedófilo emprendedor con un sótano lleno de iPhones contaminados con CSAM", escribe Edward Snowden en su blog. "Apple le da la bienvenida para que se exima por completo de estos escaneos simplemente presionando el interruptor 'Desactivar fotos de iCloud'". Es "un desvío que revela que este sistema nunca se diseñó para proteger a los niños, como quieren hacerles creer, sino para proteger su marca".

En otras palabras: tratan de mantener este tipo de material fuera de sus servidores y así mantener a Apple fuera de titulares negativos. 

El problema, como es lógico, viene a largo plazo

"Entonces, ¿qué sucede cuando, a más tardar en unos pocos años, para proteger a los niños, se aprueban proyectos de ley en la legislatura para prohibir esta omisión [Desactivar iCloud], lo que obliga a Apple a escanear fotos que no tienen copia de seguridad en iCloud?", explica Snowden. 

"O, ¿qué pasa si un partido en India comienza a exigir que Apple busque memes asociados con un movimiento separatista? ¿Cuánto tiempo nos queda antes de que el iPhone en su bolsillo comience a archivar silenciosamente informes sobre encuentros con material político 'extremista' o sobre su presencia en un 'disturbio civil'?", agrega. 

Todo es hipotético, pero entra dentro del ámbito de lo posible

La respuesta de Apple hasta el momento ha sido muy insatisfactoria para los usuarios defensores de la privacidad: "confíe en nuestro salvavidas". Y en cuanto a las dudas que sugieren que el sistema podría usarse para encontrar otro tipo de material que no sea CSAM, la compañía de Cupertino se mantiene en sus trece: "Nuestro proceso está diseñado para evitar que eso suceda".

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.

Etiquetas: