Los hackers ya pueden robar contraseñas con IA escuchando el teclado de tu ordenador, con un acierto de hasta el 95%, según un estudio

Kai Xiang Teo
| Traducido por: 
  • La inteligencia artificial (IA) puede robar contraseñas a partir de sonidos de teclas grabados con Zoom con una precisión de hasta el 93%, de acuerdo con un nuevo estudio.
  • El índice de precisión aumenta hasta el 95% cuando las pulsaciones se registran con un iPhone 13 mini.
  • "Las contraseñas que contienen palabras completas pueden correr un mayor riesgo de ataque", advierten los autores.

Una herramienta de inteligencia artificial podría descifrar texto —incluidas contraseñas— a partir de sonidos de teclas grabados con Zoom y acertar en más de nueve de cada diez ocasiones, según afirma un grupo de investigadores en un artículo publicado el 3 de agosto.

Un modelo de IA desarrollado por los investigadores ha mostrado una tasa de precisión del 93% a la hora de descifrar pulsaciones de teclas a partir de una grabación de las pulsaciones de un Macbook realizada a través del software de videoconferencia Zoom, de acuerdo con ellos, afiliados a la Universidad de Durham, la Universidad de Surrey y la Universidad Royal Holloway de Londres (todas en Reino Unido).

Además, la tasa de precisión se ha elevado al 95% cuando las pulsaciones se han grabado con un iPhone 13 mini.

El grupo afirma que los "ataques acústicos de canal lateral" son una amenaza creciente para los teclados. Los ataques de canal lateral son utilizados por los hackers para explotar información —como cuánta energía está utilizando el ordenador o los sonidos de las teclas que se pulsan— en lugar de atacar directamente el código del sistema.

Para su experimento, el equipo ha utilizado un MacBook Pro 2021 de 16 pulgadas, en el que destaca su diseño de teclado coherente con otros modelos recientes de MacBook.

Su herramienta de IA se basa en el "aprendizaje profundo", un subconjunto del aprendizaje automático (machine learning, en inglés) que entrena a los ordenadores para analizar datos de forma similar al funcionamiento del cerebro humano.

Inteligencia artificial: ¿cómo combatir el 'deepfake' y los nuevos métodos de ciberdelitos?

El estudio también destaca posibles contramedidas. "Las contraseñas que contienen palabras completas pueden estar expuestas a un mayor riesgo de ataque", señalan los autores. Además, la escritura táctil y la adición de ruido de fondo parecen reducir la tasa de precisión de la herramienta de IA.

Los autores afirman que, aunque este tipo de ataques están poco estudiados, tienen una larga historia. Las "emanaciones acústicas" se mencionaban incluso como una vulnerabilidad en un documento de la NSA (Agencia de Seguridad Nacional de EEUU, por sus siglas en inglés) de 1982 parcialmente desclasificado, escriben.

El estudio se suma a las recientes preocupaciones sobre cómo las herramientas de IA podrían utilizarse para comprometer la seguridad y la privacidad.

Las herramientas de inteligencia artificial pueden hacer que las estafas en línea sean más difíciles de detectar porque la IA facilita la personalización de las estafas para cada objetivo, ha informado Business Insider recientemente.

Dos especialistas dieron la voz de alarma en 2019 sobre cómo el avance de la IA y la tecnología 5G aumentarían las vulnerabilidades de los dispositivos conectados a internet, amplificando las amenazas a la ciberseguridad.

Maryam Mehrnezhad, una de las autoras del estudio y profesora asociada de la Universidad Royal Holloway de Londres, declara a Business Insider que no cree que la presión para salvaguardarse deba recaer en el usuario final. En su opinión, la comunidad de la ciberseguridad debe encontrar mejores soluciones para que los ciudadanos puedan utilizar las tecnologías modernas sin miedo.

Conoce cómo trabajamos en Business Insider.