El desaprendizaje automático cobra fuerza: ¿Se puede enseñar a las máquinas a olvidar?

Reconocimiento facial

Reuters

  • Un área de la informática busca formas de inducir a la amnesia selectiva en los software de inteligencia artificial.
  • El objetivo es eliminar el rastro de una persona o un punto de datos concreto de un sistema de aprendizaje automático sin afectar a su rendimiento. 
  • Descubre más historias en Business Insider España. 

Un área de la informática que está despuntando busca formas de inducir a la amnesia selectiva en los software de inteligencia artificial con el objetivo de eliminar el rastro de una persona o un punto de datos concreto de un sistema de aprendizaje automático sin afectar a su rendimiento. 

Tal y como explica Ars Technica, si se aplica el desaprendizaje automático, tal y como se le conoce, podría dar a las personas más control sobre su información y evitar que las empresas se beneficien de ella.  

Esta línea de investigación requiere la introducción de nuevos conceptos en la informática. 

Hasta ahora, las empresas luchaban por desarrollar algoritmos de aprendizaje automático lo más precisos posible para resolver problemas más rápidamente que los codificadores humanos. 

Sin embargo, una vez entrenado, estos sistemas no se modificaban de forma fácil y la única forma de eliminar la influencia de un punto de datos particular era reconstruirlo desde el principio, algo que resultaba sumamente costoso. 

Así, el desaprendizaje automático busca un punto medio, concienciado sobre la forma en la que la inteligencia artificial puede afectar a la privacidad. 

Investigadores del MIT descubren un potente antiobiótico gracias al aprendizaje automático

Según explica la misma fuente, este área de investigación se enfrenta a algunas de las cuestiones prácticas y matemáticas planteadas por los cambios regulatorios relacionados con la protección de datos en diferentes países del mundo.

Los investigadores han demostrado que pueden hacer que los algoritmos de aprendizaje automático se olviden en ciertas condiciones, pero la técnica aún no está lista para salir al mundo. 

"Como es común en un campo tan joven, existe una brecha entre lo que esta área aspira a hacer y lo que sabemos hacer ahora", explica Aaron Roth, profesor de la Universidad de Pensilvania que trabaja en el desaprendizaje automático. 

Los investigadores explican que aún se necesita bastante trabajo antes de poder aplicar esta tecnología a las empresas para ofrecer a sus usuarios o clientes un mayor control sobre el destino de sus datos. 

Además, precisan que, incluso entonces, es posible que aún existan riesgos de privacidad en la era de la inteligencia artificial. 

La misma fuente apunta que, una comparación útil podría ser la privacidad diferencial, una técnica utilizada para poner límites matemáticos a lo que un sistema puede filtrar sobre una persona.

Compañías como Apple, Google y Microsoft celebran esta tecnología, pero la usan con poca frecuencia, lo que hace que los peligros de privacidad sean aún abundantes.

Los expertos señalan que, a pesar de que el desaprendizaje automático puede suponer un cambio relevante en la protección de los datos personales, es necesario seguir teniendo cuidado sobre cómo y con quién se comparte información.

Otros artículos interesantes:

He contado todas las cámaras de vigilancia que he visto por la calle en el trayecto de casa al trabajo y tengo claro que la privacidad ya no está solo en nuestras manos

4 claves para mejorar la privacidad y proteger tus datos en YouTube

Microsoft presenta toda una batería de mejoras para desarrolladores con el foco puesto en la nube, la privacidad o el trabajo en remoto

Te recomendamos

Y además