¿Es ChatGPT seguro? Así es como los ciberdelincuentes están aprovechando la IA

Una persona usando un ordenador

Getty

  • Aunque ChatGPT tiene cientos de bondades, tiene asociados 6 riesgos de ciberseguridad que los hackers explotan a diario. 
  • Desde correos de phishing o robar datos personales, hasta robar contenido ajeno para usarlo en beneficio propio. 

A pesar de todas las bondades que presenta ChatGPT para todo tipo de escenarios, el chatbot tiene asociados varios problemas de ciberseguridad que los hackers explotan a diario. 

Su potente base de datos puede elaborar correos de phishing francamente convincentes, usarse para robar datos personales o incluso robar contenido ajeno para utilizarlo en beneficio propio. 

Aunque ChatGPT no es intrínsecamente peligroso, la plataforma presenta riesgos de seguridad. Desde Make Us Of han elaborado 6 peligros asociados al uso indebido de ChatGPT saltándose los protocolos y restricciones de la plataforma. 

Es capaz de elaborar correos de phishing muy convincentes

En lugar de pasar horas escribiendo correos electrónicos, los ciberdelincuentes están usando ChatGPT. No solo es rápido y preciso, sino que el texto que genera la IA es muy convincente. 

Es incluso capaz de elaborar tonos y estilos de escritura únicos si se lo pides. 

Dado que ChatGPT es capaz de saltarse muchos protocolos de detección de piratería, ten cuidado con lo que descargas, contestas o pinchas en un correo que has recibido recientemente. 

Puede convertirse en una herramienta capaz de robar información

ChatGPT usa un LLM de código abierto que cualquiera puede modificar. 

Los programadores expertos en este tipo de modelos de lenguaje suelen integrar modelos de IA preentrenados. Gracias a esto, ChatGPT puede convertirse en un experto en fitness si lo alimentas con recetas o rutinas de ejercicio. 

El problema es que al ser de código abierto, muchos delincuentes son capaces de entrenar a la IA con grandes volúmenes de datos robados para convertir a la plataforma en una base de datos personal para fraude. 

En este caso, lo mejor es ponerse en contacto con la Comisión Federal de Comercio cuando detectes indicios de robo de identidad. 

Puede generar programas de malware

ChatGPT está entrenado para escribir código en diferentes lenguajes de programación y puedes pedirle lo que quieras. 

Por suerte, OpenAI prohíbe a los chatbots escribir código malicioso aunque conozcan el funcionamiento. 

¿El problema? Muchos ciberdelincuentes son capaces de saltarse ese protocolo de seguridad reestructurando preguntas o dando al bot peticiones mucho más precisas.

Puede robar contenido ajeno

Si le das un texto y le pides que lo escriba de otra manera, ChatGPT te puede arrojar resultados en apenas segundos. 

De esta manera evita el plagio total, aunque sigue siendo exactamente lo mismo. 

Por suerte, los motores de búsqueda son capaces de detectar este tipo de prácticas y no posicionar contenido basado en otro texto, aunque al final siguen siendo máquinas. 

Es capaz de ofrecer respuestas poco éticas

La IA es una máquina, por lo que no entiende de prejuicios o temas éticos. Es decir, proporcionan respuestas basándose en su base de datos existente.

Aunque las políticas de uso de ChatGPT le impiden dar respuestas inapropiadas, es posible saltarse estos protocolos con algo de maña, con instrucciones precisas e inteligentes. 

Puede generar ataques de ingeniería social

La mayoría de los usuarios todavía no han explorado ChatGPT y los hackers se están aprovechando de la situación de mil maneras distintas. 

El caso más común es la popularización de aplicaciones falsas que prometen poder usar ChatGPT. Los usuarios no saben que solo se puede acceder al chatbot a través de la web de OpenAI y, sin saberlo, se descargan programas y extensiones de spam. 

Lo único que puedes hacer para evitar cualquier intento de robo es no usar aplicaciones de terceros. OpenAI no tiene ninguna app móvil, extensión o programa autorizado para usar ChatGPT, por lo que cualquier cosa que prometa poder usar el chatbot es una estafa

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.