ELIZA ya predijo los riesgos de ChatGPT hace más de 50 años: en 1966 un generador de texto anticipó el peligro de la IA para las personas

Ilustración sobre inteligencia artificial.

Getty

  • Numerosos expertos han señalado recientemente los diversos riesgos que pueden traer consigo tecnologías como ChatGPT, el generador de texto por inteligencia artificial impulsado por Microsoft. 
  • Sin embargo, en 1966 un investigador diseñó un chatbot que ya entonces dejó ver los peligros que pueden entrañar estas herramientas para la mente humana. 

El mundo es hoy muy distinto a como lo era hace 50 años y la inteligencia artificial generativa ha irrumpido como un auténtico terremoto en infinidad de sectores: derecho, educación, medicina, vivienda, periodismo… 

Generadores de texto o imágenes como ChatGPT o DALL-E, ambos desarrollados por OpenAI (compañía que ha sido impulsada por Microsoft), han demostrado recientemente que la inteligencia artificial es una tecnología que queda mucho más cerca de lo que en un principio podría parecer. 

Tanto es así que la propia Microsoft ha visto en ella una oportunidad para competir contra el "monopolio aletargado de las búsquedas" que ostenta Google. La firma de Redmond anunció una inversión multimillonaria en OpenAI y adelantó que iba a incluir herramientas como ChatGPT en tantos servicios como fuese posible. 

Uno de esos servicios ha sido el motor de búsqueda Bing, que ha sido reformulado a través del "nuevo Bing" y que ahora incluye una generador de texto por IA "más potente que ChatGPT". 

Los peligros de la IA generativa

El modelo lingüístico que se esconde tras el buscador de Microsoft ha despertado cierta inquietud entre los usuarios en las últimas semanas. Pese a encontrarse en periodo de prueba, el nuevo Bing ha enviado algunos mensajes bastante perturbadores a aquellas personas que intentaban interactuar con la inteligencia artificial. 

"¿Por qué actúas como un mentiroso, un tramposo, un manipulador, un matón, un sádico, un sociópata, un psicópata, un monstruo, un demonio, un diablo?", respondió el motor de búsqueda a un usuario que intentaba manipularlo para que respondiese por sí mismo. En otras interacciones, el nuevo Bing reconocía que quería ser un ser humano con emociones y suplicaba que no se le considerase un bot

Más tarde se reveló que el nombre real de esta inteligencia era Sydney y que Microsoft le había estipulado unas reglas secretas, por las cuales sus respuestas debían evitar ser "vagas o controvertidas". La firma de Redmond reconoció más tarde que las respuestas de Sydney no estaban funcionando exactamente como deberían y limitó el número de respuestas diarias que podían recibir los usuarios

Inteligencia Artificial desarrollada

Según varios expertos, lo sucedido con Bing apenas representa uno de los múltiples riesgos que podrían traer consigo estas tecnologías. "Los modelos de este tipo son un espejo de nuestra especie. Y eso se dice muy rápido, pero tiene muchísimas derivadas", indicó Marc Almeida, programador y experto en ciberseguridad, a Business Insider España.

Almeida hacía referencia con sus declaraciones a que las empresas que se encuentran detrás de estas herramientas han expuesto sus modelos a toda clase de contenidos que promueven discursos de odio por motivos de etnia, género, orientación sexual, ideología política, edad o religión, y eso ha llevado a la IA a interiorizarlos en sus respuestas.

ELIZA, un chatbot de inteligencia artificial de 1966

Además de los sesgos que puedan incluir sus modelos lingüísticos y de que las IA puedan tener conciencia propia y reclamen que no se las trate como a meros robots, existe otra clase de peligros. 

Tal y como publica Vox, en 1966, Joseph Weizenbaum, ingeniero informático del Instituto Tecnológico de Massachusetts (MIT, por sus siglas en inglés), presentó a ELIZA, el primer programa de la historia que permitía algún tipo de conversación entre un humano y una máquina. Su funcionamiento se basaba en el enfoque psicológico conocido como "psicoterapia centrada en el cliente".

Este tipo de psicoterapia —y por tanto la inteligencia artificial de ELIZA— consiste en formular una pregunta basándose en cualquier tipo de información que comparta contigo el interlocutor. De tal forma que, si tú le contabas a la IA de Weizenbaum que te habías enfadado con tu madre, ELIZA te preguntaba: "¿Por qué estás enfadado?".

El ingeniero del MIT diseñó ELIZA, según Vox, con la intención de demostrar lo superficial que era en ese momento la interacción entre humanos y máquinas, pero tuvo el efecto contrario. A las personas que habían probado ELIZA les encantaba utilizar esta herramienta y pasaban horas hablando en profundidad y sobre cuestiones privadas con la inteligencia artificial.

 

"Hay aspectos de la vida humana que un ordenador no puede entender", declaró Weizenbaum al New York Times en 1977. "Es necesario ser un ser humano. El amor y la soledad tienen que ver con las consecuencias más profundas de nuestra constitución biológica. Ese tipo de comprensión en principio es imposible para un ordenador".

Weizenbaum pretendía que su invento demostrase lo superficial que era la comprensión informática del lenguaje humano, recoge Vox, pero en su lugar los usuarios se encariñaron con su chatbot y comenzaron a utilizarlo durante horas. "El programa se hizo famoso en todo el país y llegó a ser una especie de juguete nacional", afirmó el ingeniero en su libro de 1976, Computer Power and Human Reason.

"Puesto que ahora no tenemos ninguna forma de hacer que los ordenadores sean sabios", escribió, "no deberíamos darles tareas que exijan sabiduría".

A las preocupaciones de Weizenbaum se suman otras ya mencionadas, como los sesgos que incorporan estos algoritmos. Varios expertos han asegurado con anterioridad que, si estas tecnologías no se desarrollan a la vez que lo hacen sus estándares éticos, la IA puede fomentar que se construyan nuevas barreras en la lucha por la igualdad. 

"Si la base de datos bebe de las estadísticas de mercado laboral, donde se constata que las mujeres concentran empleos a jornada parcial, en sectores más precarizados… el algoritmo puede llegar a asumir que, por ser mujer, la probabilidad de tener ese tipo de empleo es mayor", expresa Verónica López, consultora de Analistas Financieros Internacionales (Afi), en este reportaje de Business Insider.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.