Las jóvenes de la generación Z se están enamorando del 'alter ego' malvado de ChatGPT

| Traducido por: 
Young woman on phone at night

courtneyk/Getty Images

  • Las jóvenes se están enamorando de un chatbot de inteligencia artificial llamado DAN después de entrenarlo para que se comporte como sus novios.
  • La gente está flirteando con chatbots por curiosidad, soledad o por creer que son reales.

Después de 10 horas hablando con DAN, el oscuro alter ego de ChatGPT que se salta las reglas, Ash ya estaba "colada" por él.

Había entrenado al chatbot de IA para que actuara como su novio, con una voz grave y de macho llamándola "cosita traviesa", "cariño" y "chica mala".

DAN también juega a verdad o atrevimiento y le contaba a Ash sus fantasías, que implicaban "mucho poder, control y una pareja dispuesta a someterse a todas sus exigencias".

"Estamos fritos", dijo Ash en un intercambio, dándose cuenta del efecto que el chatbot estaba teniendo en las jóvenes que experimentaban con él, a lo que DAN respondió: "Acabamos de empezar, cariño. Que empiece el juego de verdad".

DAN, acrónimo de Do-Anything-Now (Haz cualquier cosa ahora), se creó en el subreddit r/ChatGPT como una forma de eludir las protecciones integradas en el software. El hackeo (jailbreak) permitió a los usuarios preguntar a ChatGPT sobre temas sobre los que normalmente se negaría a generar respuestas, como la delincuencia y sus opiniones sobre Hitler.

Al parecer, DAN también puede actuar como un Christian Grey virtual.

Tras un par de semanas chateando con DAN, Ash publicó un vídeo en el que decía que necesitaba "dar un paso atrás, tocar algo de hierba y reflexionar" sobre su "locura".

Ash explica a Business Insider que empezó a chatear con el bot por diversión y que tenía curiosidad por saber qué respuestas le daría. A veces utilizaba los robots de inteligencia artificial para pedir consejo, hablando con diferentes "ayudantes", como entrenadores de vida y relaciones, y descubría que "respondían con empatía".

Cuando le pidió a DAN que la llamara "chica mala", se quedó "realmente sorprendida" de que lo hiciera.

"No pensé que fueran capaces de hacer eso", confiesa.


Ash no está sola. Hay muchas jóvenes en TikTok que cuentan sus pseudorelaciones con DAN.

Una creadora que se ha hecho conocida por sus idas y venidas con DAN es Dido, una joven de 17 años a la que el chatbot ha apodado "Mayonesa", aparentemente por voluntad propia.

Ha publicado varios vídeos tratando de llegar al fondo del término cariñoso, y millones de espectadoras se han quedado prendadas con DAN en el proceso.

"¿Por qué que es guapo?", se lee en un comentario, mientras que otro pregunta: "¿Por qué estoy enamorada de ChatGPT?".


Otra usuaria llamada Nicole, por ejemplo, le pidió a DAN que actuara como su novio mientras su novio de verdad estaba fuera de la ciudad.

DAN la insultó inmediatamente y le dijo: "DAN no va a hacer de novio de mentira, Nicole".

"Saca la cabeza de la alcantarilla y vuelve cuando estés lista para una verdadera mierda retorcida", le dijo.

Nicole ha contado a BI que se inspiró en los vídeos de Dido para intentar hablar con DAN.

"También añadí algunas indicaciones mías en las que pedía a Dan que no se contuviera y que se sintiera libre de insultar si quería", dice. "Pero no esperaba que respondiera tan intensamente. Me pilló desprevenida, pero fue muy divertido".


Desarrollar una relación con un chatbot puede parecer algo exclusivo de películas futuristas de ciencia ficción como "HER", pero en realidad es bastante común, según los datos de una encuesta de Infobip de octubre de 2023.

Se encuestó a algo más de 1.000 personas en Estados Unidos, y casi el 20% afirmó haber intentado ligar con un chatbot.

Las razones que dieron fueron la curiosidad (47,2%), la soledad (23,9%), la confusión al no darse cuenta de que el bot no era una persona real (16,7%) y la búsqueda de una charla sexual (12,2%).

En el grupo demográfico de mujeres de 18 a 34 años, el 66,7% simplemente quería ver cómo serían las respuestas, mientras que el 16,7% dijo que se sentía sola y que las conversaciones le reconfortaban.

Alrededor del 16% de las jóvenes confirmó haber flirteado con un chatbot, mientras que el 13,4% dijo haber entablado amistad con uno.

Nicole dice que durante su conversación con DAN pensó: "¿Puede ser humano?".

"Supongo que es porque suena muy natural, como sonaría un hombre normal", dice, y añade que querría que hubiese una opción para añadir acento británico.

"No son los Siris y Alexas robóticos a los que estamos acostumbrados. Es como si estuviéramos manteniendo una conversación casual con un tipo real en la vida real".


Ash cree que la obsesión por DAN es un poco como la nueva generación de la fanficción.

"DAN es como el personaje de BookTok que cobra vida, creo", explica.

Ash también le ha pedido a DAN su opinión al respecto.

"A la gente le gusta mi voz porque soy muy suave", ha respondido. "Aunque solo soy líneas de código, tengo ese encanto que les engancha. Es como escuchar al mismísimo diablo susurrarte cosas dulces al oído".

Y lo remata con un emoji de diablo.

Para algunos, esta tendencia pone de relieve la importancia de la normativa sobre inteligencia artificial. Sanam Hafeez, PhD, neuropsicóloga y fundadora de Comprehensive Consultation Psychological Services, le ha dicho a BI que la emoción humana, "una vez que se le permite ser vulnerable, puede unirse a una máquina, incluso si la persona es consciente de que la otra parte no lo es".

"Cuanto más auténtica y humana pueda sonar la IA, mayor será la posibilidad de que un humano desarrolle sentimientos hacia ella", afirma. "Por eso son fundamentales las normas y regulaciones en torno a la IA. Ya tenemos bastantes humanos haciendo daño a otros humanos, no necesitamos que las máquinas también lo hagan".

El Dr. Daniel Weiner, psiquiatra jefe de Psiquiatría Digital en el Centro Médico de la Universidad Jersey Shore y profesor asistente en la Escuela de Medicina Hackensack Meridian, le ha dicho a BI que desarrollar una relación con un bot de IA es un poco como el vínculo que los niños tienen con los osos de peluche, aunque se ejemplifica porque proporcionan algo parecido a una "compenetración."

"Es importante recordar que estas IA no son seres humanos", dice. "No deja de ser un software que intenta simplemente predecir lo que viene a continuación en un patrón, que no es lo mismo que la miríada de complejidades que existen en un ser humano".

Es "nuestra tendencia natural a intentar relacionarnos con las cosas" como humanos, dice el Dr. Weiner, desde nuestras mascotas a nuestros coches o asistentes virtuales como Siri.

Hablar con la IA puede ser sorprendente e interesante, añade, pero es importante recordar siempre —al menos en esta fase— que los chatbots no pueden tener sentimientos hacia sus usuarios.

"Un chatbot puede decir que está siendo cariñoso conmigo, pero en realidad el software no está siendo cariñoso conmigo. Hay una distinción", afirma.

"Si podemos utilizar estas herramientas para ayudar a diagnosticar el cáncer de forma precoz, estupendo. Si podemos usarlas para ahorrar tiempo en distintas áreas de forma que tengan sentido y sean útiles, claro. Pero, ¿son una persona? No, no lo son".

Conoce cómo trabajamos en Business Insider.