ChatGPT podría usarse muy fácilmente para escribir correos de phishing

ChatGPT y el Phishing

GettyIMages

  • ChatGPT es la sensación del momento y promete cambiar el modo en que se hacen búsquedas en internet. 
  • Sin embargo, también puede usarse con fines maliciosos, como una herramienta para escribir correos de phishing capaces de superar los filtros con mucha facilidad. 

El avance de ChatGPT en los últimos meses está fuera de toda duda. Muchas voces de la industria ya hablan de que su aplicación en el mundo real es fascinante, pero lo que está claro es que también puede ser peligrosa. 

Para ser claros, además de mandar mensajes perturbadores y de usos francamente polémicos, podría ser una herramienta para escribir correos de phishing muy fácilmente

Tal y como apuntan en CNET, la periodista decidió pedirle a la inteligencia artificial escribir una nota de soporte técnico sobre una necesaria actualización de software del sistema y, a pesar de que no la envió, dejó un resultado francamente convincente

A día de hoy es fácil detectar un correo phishing por algunos parámetros básicos: errores gramaticales o idioma deficiente, entre otras cosas. El avance de la IA y sobre todo de ChatGPT se salta estos fallos y, por tanto, tiene más facilidades para superar los filtros de correo electrónico y que caigas en la trampa. 

Eso sí, algunos expertos no culpan a la herramienta. 

"No es buena o mala", revela Randy Lariar, director de práctica de big data, IA y análisis de la empresa de ciberseguridad Optiv. "Es solo una herramienta que hace que sea más fácil y menos costoso para los buenos y los malos hacer las cosas que ya están haciendo".

Otros, por el contrario, sí que andan preocupados por las posibles implicaciones en la privacidad de datos. Si bien los datos con los que se entrenó la IA de ChatGPT generalmente se consideran públicos y están disponibles en línea, podría decirse que son mucho más accesibles de lo que solían ser.

Es decir, la IA se alimenta de lo que dejan los usuarios y no se sabe qué control se tiene sobre esta información. 

Hay que remarcar que ChatGPT tiene algunos muros para evitar que los ciberdelincuentes usen la herramienta con fines perversos, pero están lejos de ser infalibles.

Los expertos advierten de que ChatGPT no siempre es preciso, e incluso Sam Altman, CEO de OpenAI, no debería usarse para "nada importante en este momento".

Pero a los ciberdelincuentes generalmente no les preocupa que su código sea 100 % perfecto, por lo que los problemas de precisión no son un problema, según José López, científico principal de datos e ingeniero de aprendizaje automático de la empresa de seguridad de correo electrónico Mimecast. 

"Si eres un codificador promedio, no te transformarás en un súper hacker de la noche a la mañana", asegura López. "Su principal potencial es como amplificador".

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.