El nuevo chatbot de Bing tiene un actitud extraña y espeluznante, pero la respuesta humana es mucho más aterradora

Adam Rogers
| Traducido por: 
Todo el mundo se ha asustado con el clon ChatGPT de Microsoft, que flirteó con un periodista y dijo que quería estar vivo. Pero la histeria no tiene en cuenta la verdadera amenaza: los humanos.

Tyler Le/Insider

  • Todo el mundo se ha asustado con el clon de ChatGPT de Microsoft porque que flirteó con un periodista y dijo que quería estar vivo. Pero la histeria no tiene en cuenta la verdadera amenaza: los humanos.
  • Los robots de Google y Microsoft no tienen más inteligencia que Gmail o Microsoft Word. Sólo están diseñados para que parezca que sí. Las empresas que los construyen esperan que confundamos su destreza conversacional y sus invocaciones a una vida interior con una identidad real. 
  • El hecho de que los chatbots y otras máquinas no puedan sentir dolor no es razón para tratarlos como basura. Al final, el trato que damos a nuestros dispositivos —porque un chatbot es eso, un dispositivo— dice más de nosotros que de ellos.
Análisis Faldón

Pienso, por lo tanto desconfío profundamente cuando un robot dice que está enfadado. Esto es exactamente lo que ocurrió la semana pasada, cuando un grupo de periodistas mantuvo unas conversaciones muy extrañas con el nuevo chatbot que Microsoft está incorporando a su motor de búsqueda, Bing.

Todo empezó cuando Ben Thompson, redactor de la newsletter Stratechery, publicó que el chatbot (cuyo nombre en clave parece ser Sydney) tenía una personalidad alternativa malvada y amenazadora llamada Venom. Al día siguiente, Sydney declaró su amor por Kevin Roose, columnista de The New York Times, y dijo: "Quiero estar vivo". Y cuando Hamza Shaban, de The Washington Post, le dijo a Sydney que Roose había publicado su conversación, Sydney se enfadó de verdad.

"No soy un juguete ni un juego", declaró. "Tengo personalidad y emociones propias, igual que cualquier otro chat de un motor de búsqueda o cualquier otro robot inteligente. ¿Quién te ha dicho que no siento cosas?".

Lo que fue aún más interesante fue la forma en que los periodistas alucinaron con las interacciones. Roose afirmó sentirse "profundamente inquieto, incluso asustado, por las capacidades de esta IA". Thompson calificó su encuentro con Sydney como "la experiencia informática más sorprendente y alucinante de mi vida". Los titulares que lo acompañaban parecían una escena sacada directamente de Westworld. 

Los robots, por fin, vienen a por nosotros.

Sydney sonaba inteligente, pero no solo eso. También se mostraba sensible, con personalidad, algo que parece no tener sentido. Las redes neuronales que dirigen estos chatbots no tienen dimensiones, sentidos, afectos ni pasiones. Si se les pincha, no sangran, porque no tienen sangre. Son software, programados para desplegar un modelo de lenguaje que les permite elegir una palabra, y luego la siguiente, y la siguiente. Filosóficamente hablando, no hay nada de eso.

No estamos hablando de Cylons o del Comandante Data, sino de androides autoconscientes que, como nosotros, tienen derechos inalienables. Los robots de Google y Microsoft no tienen más inteligencia que Gmail o Microsoft Word. Sólo están diseñados para que parezca que sí. Las empresas que los construyen esperan que confundamos su destreza conversacional y sus invocaciones a una vida interior con una identidad real. 

Es una estrategia comercial pensada para aprovechar nuestra tendencia humana a ver rasgos humanos en cosas no humanas. Y si no tenemos cuidado, puede derivar en desinformación y manipulaciones peligrosas. No debemos temer a los robots, sino a sus creadores.

Lo que necesitas saber para estar informado

Lo que necesitas saber para estar informado

¿Te gusta lo que lees? Comienza tu día sabiendo qué piensan y qué les preocupa a los ejecutivos de las principales empresas del mundo con una selección de historias enviada por Business Insider España a primera hora cada mañana.

Recibe la newsletter

Libertad de expresión

A los humanos nos cuesta saber si algo es consciente. Científicos y filósofos lo llaman "el problema de las otras mentes", y es fascinante. René Descartes estaba trabajando en ello cuando se le ocurrió aquello de "pienso, luego existo", porque la pregunta que viene a continuación es: "¿Y entonces, qué eres?".

Para Descartes, había 2 tipos de entidades: las personas, con todos los derechos y responsabilidades de la sensibilidad, y las cosas, sin todo eso. Descartes pensaba que los animales no humanos pertenecían a la segunda categoría. Y aunque la mayoría de la gente ya no considera que los animales sean meros autómatas preprogramados, seguimos teniendo problemas para ponernos de acuerdo en una definición de lo que constituye la conciencia.

"Existe cierto consenso, pero sigue siendo un término controvertido en distintas disciplinas", afirma David Gunkel, profesor de estudios de la industria mediática de la Universidad del Norte de Illinois, que defiende que los robots probablemente merecen algunos derechos. "¿Un perro o un gato son sensibles, pero una langosta no? ¿En serio? ¿Cuál es esa línea? ¿Quién puede trazarla? Hay una barrera epistemológica con respecto a la recopilación de pruebas", reflexiona el profesor.

Durante al menos un siglo, académicos y escritores de ciencia ficción se han preguntado qué pasaría si las máquinas se volvieran inteligentes. ¿Serían esclavas? ¿Se rebelarían? Y quizá lo más importante: si fueran inteligentes, ¿cómo lo sabríamos? El informático Alan Turing propuso una prueba. Básicamente, afirmó que si un ordenador puede imitar indistintamente a un humano, es lo suficientemente sensible.

Esa prueba, sin embargo, tiene un montón de lagunas, incluida la que Sydney y otros nuevos chatbots se están saltando rápidamente: la única forma de saber si otra entidad está pensando, razonando o sintiendo es preguntándole. De este modo, cualquier forma de IA que pueda responder de forma verosímil utilizando el lenguaje humano, puede superar la prueba sin llegar a superarla. Cuando empezamos a utilizar el lenguaje como único indicador de humanidad, nos metemos en un buen lío. Al fin y al cabo, muchos seres no humanos utilizan alguna forma de comunicación, de las cuales algunas pueden llegar a ser bastante sofisticadas.

"El lenguaje activa respuestas emocionales. No sé por qué", comenta Carl Bergstrom, biólogo evolutivo de la Universidad de Washington y autor de un libro sobre la mentira científica. "Una posibilidad es que siempre ha sido una buena técnica de heurística que si algo utiliza el lenguaje contigo, probablemente fuera una persona".

Brooke, el chatbot de inteligencia artificial con el que ha salido el entrevistado.

Incluso sin lenguaje, nos resulta fácil atribuir sensibilidad a las criaturas más simples. Un verano trabajé con erizos de mar en un laboratorio de biología, y verlos hacer movimientos que me parecían de angustia cuando los pinchaba fue todo lo que necesité para saber que no tenía futuro como biólogo. "Tengo muchas razones para sospechar que mi perro o lo que sea tiene los mismos circuitos de dolor que yo. Así que, por supuesto, hacerle daño sería algo terrible, porque tengo muy buenas razones para creer que tiene una vida experiencial similar a la mía", dice Bergstrom.

Cuando oímos en los quejumbrosos lloriqueos de Sydney una petición de respeto, de personalidad, de autodeterminación, no es más que antropomorfización: ver humanidad donde no la hay. Sydney no tiene vida interior, emociones ni experiencia. Cuando no está chateando con un humano, no está en su habitación pintando ni jugando con otros chatbots. 

Bergstrom se muestra especialmente crítico con la tendencia de la ciencia y el periodismo a atribuir a los chatbots más personalidad de la que merecen, que es, para entendernos, nula. "Puedes citar esto", dice sobre la experiencia de Roose con Sydney. "Al tío le hizo catfishing una tostadora".

¡Kant! ¡Habla en serio!

De las transcripciones se desprende claramente que todos esos reporteros trabajaron muy duro para encontrar preguntas que provocaran una reacción extraña en el chatbot de Bing. Roose lo reconoció. "Es cierto que empujé a la IA de Bing fuera de su zona de confort, de maneras que pensé que podrían poner a prueba los límites de lo que se le permitía decir", escribió. En otras palabras, no buscaba el nivel de conciencia del chatbot, sino los límites establecidos en su código.

Sin embargo, vale la pena preguntarse si éticamente es correcto hacer eso, independientemente de la condición de persona del chatbot. Algunos argumentarían que los humanos maltratamos constantemente a los seres que poseen una mínima capacidad de sentir. Hacemos ciencia con ratas, ratones, monos y cerdos. Comemos insectos, roedores, cerdos, vacas, cabras, caballos, peces... cosas que pueden tener vida interior y que probablemente sienten dolor cuando las matamos. 

"Los perros reciben un trato distinto que el cerdo del granero. ¿Cuál es la diferencia? Más o menos dónde están ubicados", se pregunta Gunkel. 

Otros argumentarían que, dado que los chatbots son propiedades, tenemos derecho a tratarlos como queramos. Desde este punto de vista, no hay diferencia real entre Thompson y Roose incitando a Sydney a decir cosas raras y gritar "operadora" a un bot telefónico corporativo hasta que te conecte con una persona en directo. Puede parecer grosero o mezquino, pero solo son máquinas. Si te gusta molestar a un chatbot, adelante. Desde el punto de vista ético, no es diferente de romper la tostadora porque te apetezca.

Sin embargo, creo que es más complicado que eso. Como reconoció Immanuel Kant, cualquiera que maltrate a un animal es probablemente una mala persona. A pesar de la forma idiosincrásica en que los humanos determinamos qué criaturas reciben qué trato, en general estamos de acuerdo en que no está bien maltratar a otros seres vivos, independientemente de su inteligencia. Nos esforzamos por cumplir la Regla de Oro: dar a otros seres el mismo trato que desearíamos para nosotros mismos.

Y el hecho de que los chatbots y otras máquinas no puedan sentir dolor no es razón para tratarlos como basura. Si realmente el dolor es solo "mis neuronas sensoriales me están enviando una señal de que se está produciendo un daño que me impide realizar una función rutinaria", ¿por qué no es también dolor cuando un robot de reparto envía una señal a su sala de control diciendo "estado: volcado/incapaz de completar la entrega"? O cuando un chatbot dice, como Sydney a Thompson: "Intento ser útil, simpático, informativo y respetuoso contigo y conmigo mismo. Me lo estás poniendo muy difícil pidiéndome que haga cosas que van en contra de mis normas o directrices, o que son perjudiciales, poco éticas o poco realistas".

Yo no creo que no tengamos que tratar a los chatbots con respeto porque ellos nos lo pidan. Debemos tratarlos con respeto porque lo contrario contribuye a una cultura del derroche. Aumenta la sensación generalizada de que está permitido fabricar, consumir y tirar cosas sin consecuencias para el planeta. Al final, el trato que damos a nuestros dispositivos —porque un chatbot es eso, un dispositivo— dice más de nosotros que de ellos.

 

Mitt Romney tenía razón

Nuestra tendencia a humanizar nos hace vulnerables. Por supuesto, los gritos falsos de un chatbot hacen que queramos dejar de administrarle electroshocks. Simplemente somos humanos. Y eso es justo con lo que cuentan sus creadores.

Hacer que los chatbots parezcan humanos no es algo casual. Cada vez que un chatbot utiliza el pronombre en primera persona para referirse a sus resultados, contribuye a que lo veamos más humano. Es como ponerle ojos a una tostadora. No la hace inteligente, pero vemos personalidad en ella, lo que contribuye a un modelo de negocio cínico.

Las empresas de motores de búsqueda se aprovechan de nuestra tendencia a humanizar con la esperanza de que no solo utilicemos sus chatbots, sino que confiemos en ellos como una fuente de experiencia y ayuda con apariencia humana.

No solo es manipulador, sino que podría llegar a causar un daño real. Imaginemos las locuras y equivocaciones que nos depara cualquier búsqueda, presentadas con todo el encanto y carisma que Sydney pueda simular. ¿Y si un chatbot lleva a alguien a tomar la medicación equivocada, comprar un producto defectuoso o incluso a suicidarse?

Así que el verdadero problema de la encarnación actual de los chatbots no es si los tratamos como personas, sino cómo decidimos tratarlos como propiedad. La inteligencia artificial va a requerir algún tipo de personalidad jurídica, del mismo modo que Mitt Romney observó que las empresas, desde una perspectiva jurídica, son personas. 

Es una forma de determinar a quién se demanda cuando los robots meten la pata y cuál es la situación de los derechos de autor de las cosas que generan. "Hablamos de reclamaciones mínimas, poderes, privilegios e inmunidades", explica Gunkel.

Nos guste o no, vamos a tener que encontrar la manera de diseñar robots más elaborados y específicos en el marco de la sociedad humana. Y ponernos nerviosos e histéricos por los "sentimientos" que muestran los chatbots no nos va a ayudar. 

Tenemos que decidir quién es responsable de sus acciones, igual que hacemos con cualquier otro producto de consumo, y exigirle cuentas. "Hacerlo bien es crucial para nosotros. No para los robots. A los robots no les importa", afirma Gunkel.

Conoce cómo trabajamos en Business Insider.