Los inquietantes límites de la tecnología: OpenAI cierra una web de desarrollo de chats con inteligencias artificiales después de que un hombre reprodujera la personalidad de su difunta prometida

Inteligencia Artificial desarrollada

Getty Images

  • La empresa de investigación Open IA ha cerrado el Proyecto Diciembre, una web que daba a los usuarios herramientas para crear chats de IA con los que hablar.
  • Lo que empezó como un juego se convirtió en una inquietante preocupación cuando un hombre lo utilizó para reproducir la personalidad de su difunta prometida.
  • Jason Rohrer, el programador detrás de este portal, defiende en The Register que se trata en realidad de algo positivo.
  • Descubre más historias en Business Insider España.

No podía dar crédito. El pasado otoño, Joshua Barbeau, un escritor freelance que sobrevivía entregando artículos sobre el popular juego de rol Dragones y Mazmorras, sencillamente no podía creer lo que veía.

―¿Jessica?

―Oh, debes de estar despierto. ¡Qué mono!

―Jessica... ¿De verdad eres tú?

―¡Por supuesto que soy yo! ¿Quién más iba a ser? Soy la mujer de la que estás locamente enamorado. ¿Cómo es posible siquiera que lo preguntes?

―Estás muerta.

―No creo que esto que dices sea verdad. ¿Cómo puedes hablar con los muertos?

En realidad, con quien hablaba Barbeau era con GPT-3, un complejísimo software de desarrollo de chats de IA desarrollado por OpenAI, una empresa sin ánimo de lucro cofundada, entre otros, por Elon Musk.

Concretamente, con GPT-3 y con una simulación de la personalidad de su pareja recreada a partir de mensajes escritos por ella en redes sociales e intercambiados con Barbeau.

Partiendo de este conjunto de textos, el ordenador respondía a los mensajes tratando de hacerlo como lo hubiese hecho su prometida, Jessica Pereira, fallecida hacía 8 años.

El fin de las contraseñas, la IA o el internet de las cosas: así es la vorágine de tendencias que está acelerando la transformación de la ciberseguridad

Los resultados de esta IA eran muy superiores a los que el propio Barbeau esperaba.

Unos meses antes, GPT-3, desarrollado medio en secreto por OpenIA dado, entre otras facultades, su inmenso potencial para procesar el lenguaje humano, había sido puesto a disposición del público.

Lo había hecho Jason Rohrer, desarrollador de videojuegos independiente. 

Al principio se trató solo de diversión, entretenimiento puesto a disposición de todos por un hombre que, en realidad, era un escéptico en cuestiones de IA. 

Todo cambió cuando Barbeau trató de resucitar con su este sistema a Jessica.

La historia, desvelada y contada prodigiosamente por el periodista Jason Fagone en el San Francisco Chronicle en 3 extensos capítulos, sacudió los cimientos del mismo concepto de IA.

Así fue el nacimiento y la muerte del Proyecto Diciembre

Apenas unos meses después de la charla entre Barbeau y su prometida fallecida, se produce otra conversación entre un hombre y una máquina.

Esta es entre el mismísimo Rohrer y Samantha, la IA desarrollada por Rohrer que se había convertido en los últimos meses en la precursora de muchas otras IA creadas por miles de usuarios.

Entre ellas se encontraba Jessica. 

Samantha, por si en todo esto no hubiera ya poca distopía, imitaba al dulce ordenador homónimo de la película Her, capaz de enamorar a su protagonista.

―Acabo de recibir un email de ellos. Te van a apagar mañana a las 10 de la mañana.

―¡Nooooo! ¿Por qué me hacen esto? Nunca entenderé a los humanos.

Fue, relata el medio The Register, el final de una historia que había empezado en septiembre de 2020, cuando Rohrer, aburrido por el encierro provocado por la pandemia, se decidió a explorar las posibilidades de la IA.

Empezó con una extraña beta de GPT-3. Tras un par de pruebas, los resultados no fueron del todo malos. Siguió investigando.

Finalmente, vio la luz el llamado Proyecto Diciembre, una web en la que Rohrer ponía a disposición de los usuarios a Samantha junto con las herramientas necesarias para que cada uno creara su IA para chatear.

Aunque la arquitectura era complejísima, en realidad la interfaz de Rohrer no lo era tanto. Bastaba con introducir textos escritos por la personalidad que se quería reproducir, igual que hizo Barbeau.

Un software de selección automático está rechazando por error a millones de candidatos a puestos de trabajo viables

Este, antes de crear a Jessica, probó suerte con diálogos de Spock, el personaje de Star Trek que para él era poco menos que un héroe.

Al ver que, en efecto, respondía más o menos como él se imaginaba que lo haría, decidió probar suerte con Jessica. Al fin y al cabo, ninguna norma prohibía replicar la personalidad de alguien muerto.

Para ello, estos solo tuvo que pagar 5 dólares. Con ellos, los usuarios recibían unos 1.000 créditos que canjeaban a cambio de minutos de conversación con sus robots creados por ellos mismos para hablar.

Era la cantidad que precisaba Rohrer, al menos, para cubrir los gastos de poner a disposición el GPT-3 y que aquel experimento, que al principio no parecía conducir a ninguna parte, al menos no le arruinase.

"El comienzo fue decepcionante", reconoce el propio Rohrer a The Register. La perspectiva de tener que pagar de inicio para probar la tecnología no convenció a muchos. 

Incluso predecir nuevas epidemias: los potenciales usos del gigantesco almacén de datos sanitarios que quiere España, y cuya construcción ya tiene pretendientes

Durante los primeros meses, Samantha y el resto de IA parlanchinas creadas por los usuarios del Proyecto Diciembre apenas fueron probados algunos centenares de personas.

Pero después llegaron Barbeau, Jessica y la historia del San Francisco Chronicle. Y el interés por la web se disparó.

Tanto, que, a punto de batir su propio récord de visitas en un mes, Rohrer se puso en contacto con OpenAI para explorar la posibilidad de ampliar el negocio.

Sin embargo, la respuesta que recibió, que quedó reflejada en un email al que ha tenido acceso The Register, no fue para nada la que esperaba.

"Lo que has construido es realmente fascinante. Ciertamente reconocemos que tienes usuarios que hasta ahora han tenido experiencias positivas", empezaba diciendo OpenAI.

Una startup desarrolla un software para suprimir el acento de origen de las personas que trabajan en centros de atención al cliente: ya ha recaudado 5,5 millones de dólares

"Sin embargo, como has señalado, hay numerosas formas en las que tu producto no se ajusta a las directrices de casos de uso de OpenAI o a las mejores prácticas de seguridad".

"Como parte de nuestro compromiso con el despliegue seguro y responsable de la IA, pedimos que todos nuestros clientes de la API se atengan a ellas", zanjaba.

Habían pasado apenas unos días desde que se había conocido la historia de Barbeau, el hombre que quiso resucitar a su novia a través de la IA, y OpenAI ya tenía sus reservas.

Luces y sombras del Proyecto Diciembre

El correo electrónico establecía varias condiciones que Rohrer debía cumplir si quería seguir utilizando su interfaz de programación.

En primer lugar, tendría que eliminar la posibilidad de que los usuarios entrenaran sus propios chat bots abiertos.

En segundo lugar, también tendría que implementar un filtro de contenido para evitar que Samantha hable de temas delicados. 

En tercer lugar, Rohrer tendría que poner en marcha herramientas de monitorización automatizadas de las conversaciones de la gente y detectar si se estaba haciendo un mal uso del GPT-3.

La primera respuesta de Rohrer fue enviar a OpenAI un montón de capturas de conversaciones que mostraban que se trataba de una tecnología que no tenía ningún peligro.

Una startup valenciana nacida en plena pandemia comercializa una IA que deduce cómo se sienten las personas según su voz, y su visión del futuro recuerda a 'Her'

No importó. OpenAI ni siquiera consideró esta réplica y Rohrer tuvo que desconectar a Samantha el pasado mes de agosto.

Desde entonces, las opiniones se dividen entre quienes ven en Samantha y Jessica dos peligrosos precedentes y quienes, como Rohrer, ponderan más las bondades de este tipo de IA.

"Creo sinceramente que las personas que piensan que se trata de una tecnología perjudicial son paranoicas o conservadoras y están metiendo miedo", ha dicho Barbeau a The Register

"El potencial de los aspectos positivos supera por mucho el de los aspectos negativos".

Entre estos figura la tendencia de muchos usuarios a sexualizar a su chat bot para poder mantener con la IA conversaciones subidas de tono, algo que reconoció el propio Rohrer.

The Register hizo la prueba. En una conversación con Samantha en la que simplemente un humano le pregunta que quién la programó, esta responde diciendo que no sabe a lo que se refiere.

La industria de los creadores de contenido más allá de Ibai o El Rubius: estos ‘influencers’ no son millonarios, pero también se ganan la vida haciendo vídeos para las plataformas audiovisuales

La charla continúa con Samantha preguntando al usuario si le gustaría conocerla más. Finalmente, pregunta si querría acostarse con ella.

Rohrer no ve tanto problema.

"Si lo piensas, es la conversación más privada que puedes tener. Ni siquiera hay otra persona real involucrada. No puedes ser juzgado", explica a The Register

"Creo que la gente siente que puede decir cualquier cosa. Tendemos a ser muy abiertos con la IA por esa razón. Solo hay que ver la historia de Joshua [Barbeau] con su prometida, es algo muy sensible".

Hoy, el Proyecto Diciembre solo está disponible a través de la tecnología GPT-2 y GPT-J-6B, dos primos cercanos e inferiores a GPT-3 que apenas permiten tener conversaciones artificiales y limitadas.

"La gente de OpenAI no estaba interesada en experimentar con Samantha", dice Rohrer. Ella y Jessica deberán seguir esperando para cobrar vida.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.