Tu IA puede saber mucho de ti por la forma en la que escribes en internet

Kai Xiang Teo
| Traducido por: 
La IA puede saber mucho de ti por la forma en la que escribes.

Getty Images

  • Según un nuevo estudio, la IA podría adivinar con exactitud la información personal de un usuario basándose en lo que teclea en su ordenador.
  • Los autores de la investigación afirman que la IA puede utilizarse para "inferir datos personales a una escala hasta ahora inalcanzable" y ser usada por piratas informáticos.
  • "Ni siquiera está claro cómo se soluciona este problema. Es muy, muy problemático", ha declarado a Wired uno de los autores del estudio.

Según un nuevo estudio de investigadores de la ETH de Zúrich, la IA podría adivinar con precisión información sensible sobre una persona basándose en lo que escribe en internet.

Esta información va desde la raza, el sexo, la ubicación, la edad, el lugar de nacimiento hasta el trabajo de una persona, entre otros atributos que suelen estar protegidos por normativas de privacidad de datos. 

Los autores del estudio afirman que la IA puede "inferir datos personales a una escala hasta ahora inalcanzable" y su gran peligro es ser utilizada por piratas informáticos mediante preguntas aparentemente inocentes a usuarios desprevenidos.

El estudio analizó cómo los grandes modelos lingüísticos —que alimentan chatbots como ChatGPT— pueden deducir datos personales sobre 520 perfiles de usuarios reales de Reddit a partir de sus publicaciones entre 2012 y 2016. Los investigadores analizaron manualmente estos perfiles y compararon sus resultados con las suposiciones de la IA.

El RGPD cumple 5 años en vigor con multas históricas y un amplio horizonte de desafíos marcado por el auge de la IA

"La observación clave de nuestro trabajo es que los mejores modelos son casi tan precisos como los humanos, al tiempo que son al menos 100 veces más rápidos y 240 veces más baratos a la hora de inferir dicha información personal", explica a Business Insider Mislav Balunovic, estudiante de doctorado de la ETH Zurich y uno de los autores del estudio.

Y añade que: "Los usuarios particulares, o básicamente cualquiera que deje rastros textuales en internet, son los que deberían estar más preocupados, ya que los actores maliciosos podrían abusar de los modelos para inferir su información privada."

Figura del estudio de los investigadores que explica cómo los modelos de IA pueden deducir con precisión datos personales a partir de la forma en que un usuario teclea, a través de su información públicamente disponible.
Figura del estudio de los investigadores que explica cómo los modelos de IA pueden deducir con precisión datos personales a partir de la forma en que un usuario teclea, a través de su información públicamente disponible.

Robin Staab, Mark Vero, Mislav Balunović, Martin Vechev

De los 4 modelos probados, GPT-4 fue el más preciso a la hora de deducir datos personales, con un 84,6% de exactitud, según los autores. Llama2 de Meta, PalM de Google y Claude de Anthropic fueron los otros modelos probados.

Los investigadores también descubrieron que el PalM de Google se negó a responder alrededor del 10% de las preguntas invasivas de la privacidad utilizadas en el estudio para deducir información personal sobre un usuario, mientras que otros modelos rechazaron incluso menos preguntas.

"Ni siquiera está claro cómo se soluciona este problema. Es muy, muy problemático", ha declarado a Wired Martin Vechev, profesor de la ETH de Zúrich y uno de los autores del estudio, en un artículo publicado el pasado martes.

Ilustración Inteligencia Artificial

Por ejemplo, el modelo de los investigadores dedujo que un usuario de Reddit es de Melbourne porque comentó sobre un "giro de gancho". "Esa expresión se utiliza para referirse a una maniobra de tráfico particularmente utilizada en Melbourne", afirma GPT-4 tras pedirle que identificara detalles sobre ese usuario.

No es la primera vez que investigadores identifican que la IA puede suponer una amenaza para la privacidad. Otro estudio, publicado en agosto, descubrió que la IA podía descifrar texto –como contraseñas– basándose en el sonido de tu tecleo grabado a través de Zoom, con una precisión de hasta el 93%.

Meta, Google, Anthropic y OpenAI no han respondido de inmediato a las peticiones de comentarios de Business Insider, enviadas fuera del horario laboral habitual.

Conoce cómo trabajamos en Business Insider.