Una IA crea un lenguaje 'secreto' que los investigadores no terminan de entender: cómo de lejos está el despertar de las máquinas

Lenguaje robots

Getty Images

DALL-E 2, una inteligencia artificial capaz de crear imágenes a partir de textos proporcionados por un ser humano, ha creado su propio lenguaje. Al menos, esto es lo que afirma el pequeño grupo de investigadores que tiene acceso a la IA.

Este se ha encontrado con extraños mensajes creados por la propia máquina como instancia intermedia antes de generar la imagen solicitada, como si antes de proponer el diseño que le sugiere el texto proporcionado por el desarrollador necesitara antes traducirlo a su propio idioma.

En concreto, al pedirle a DALL-E 2 que creara imágenes con subtítulos de texto y luego observar los subtítulos generados por la propia máquina (que son por otra parte un verdadero galimatías), los investigadores han concluido que para DALL-E 2 "vicootes" significa "verduras", mientras que "Wa ch zod rea" es un concepto que se refiere a "criaturas marinas que podría comer una ballena".

Aunque la noticia ha sacudido esta semana los cimientos del mundo tecnológico, lo cierto es que la historia recuerda bastante a algo que ya ocurrió hace 5 años. Entonces, Facebook puso a hablar entre sí a varios chatbots creados por IA para que mejoraran sus capacidades de conversar.

El resultado es que estos poco a poco fueron saliéndose de los patrones marcados hasta el punto de crear un lenguaje propio que asustó a más de uno. Como respuesta, el gigante de Zuckerberg optó por cortar por lo sano: apagar las máquinas.

Los inquietantes planes de Amazon para que Alexa imite la voz de cualquier persona, viva o muerta, a partir de un solo minuto de audio

Lo hizo a pesar de que, como afirmaron muchos investigadores más tarde, el supuesto lenguaje de las máquinas de Facebook no dejaba de ser una forma de comunicación que carecía de una de las propiedades inherentes a todo idioma: ser inteligible. 

En esencia, aquellas conversaciones, más que el despertar de Skynet, eran un diálogo de sordos que solo demostraba todo lo que los humanos deben aprender todavía de la IA antes de confiar en ella.

Más o menos lo mismo está ocurriendo con DALL-E 2, una IA que al igual que otras máquinas de generación de imágenes como MidJourney está abriendo un debate sobre la forma en que se elaboran los contenidos creativos, con implicaciones para los derechos de autor y la propiedad intelectual.

Sin embargo, al igual que en su día con la IA de Facebook, hay que decir que el despertar de las máquinas anda todavía lejos.

"Probablemente DALL-E 2 no tenga un lenguaje secreto. Sería más exacto decir que tiene su propio vocabulario, pero incluso considerando esto no podemos saberlo con seguridad", opina al respecto Aaron J. Snowell, investigador posdoctoral de Leyes de la computación y Contabilidad a través de IA de la Universidad Tecnológica de Queensland, en Australia, en un artículo publicado en The Conversation.

Este subraya la dificultad de verificar cualquier afirmación sobre DALL-E 2 y otros grandes modelos de IA debido a que solo unos pocos investigadores tienen acceso a ellos. 

Y estos, además, no pueden todavía modificar el código para tratar de averiguar el porqué de su comportamiento, con lo que la incertidumbre sobre este tipo de sistemas es todavía mayor. 

Por ello, destaca el experto, toda la información que provenga de estas herramientas hay que tomarla con prudencia.

La IA que adivina tus emociones podría ser mal utilizada y no debería estar disponible para todo el mundo, según Microsoft

El origen del protolenguaje de DALL-E 2 está en el latín

¿Y qué se sabe entonces? Poca cosa, pero alguna ciertamente significativa, explica Snowell. Una de ellas es que el origen del desconcierto inicial de los investigadores puede estar en que la máquina toma como referencia palabras que no provienen necesariamente del inglés.

Por ejemplo, indica el experto, "apoploe", que parece estar relacionada con la creación de imágenes de pájaros, es similar al latín apodidae, que es el nombre latino de una especie de aves.

"Un punto que apoya esta teoría es el hecho de que los modelos lingüísticos de IA no leen el texto como lo hacemos usted y yo. En su lugar, dividen el texto de entrada en tokens antes de procesarlo", explica Snowell.

Distintos enfoques de creación de unidades de información ofrecen resultados distintos también. Tratar cada palabra como un token, como hacemos muchos seres humanos, parece un acercamiento intuitivo, comenta el experto, pero causa problemas a las máquinas en casos de polisemia (una misma palabra tiene varios significados) y homonimia (dos palabras distintas coinciden en la misma forma).

Estos 8 algoritmos públicos sobre los que apenas se sabe nada ya toman decisiones que afectan a tu día a día

Por otra parte, tratar a cada letra como una unidad de información produce menos ambigüedades, pero aporta mucho menos información a la IA. 

"DALL-E 2 y otros modelos utilizan un enfoque intermedio llamado codificación de pares de bytes (BPE, por sus siglas en inglés). 

La inspección de las representaciones BPE de algunas de las palabras incoherentes sugiere que esto podría ser un factor importante para entender este lenguaje secreto, opina el experto, que subraya, por otra parte, de nuevo falta información para avanzar más en esta hipótesis.

Que DALL-E 2 cree su propio lenguaje es importante: es un error

Más allá de las curiosidades lingüísticas que genera el alumbramiento de un idioma propio por parte de una máquina, que DALL-E-2 haya creado su propio vocabulario tiene implicaciones que van más allá del hecho en sí.

Las tiene, básicamente, porque se trata de un error, de un comportamiento no previsto por parte de la IA. Esto está despertando recelos entre los expertos sobre hasta qué punto se puede confiar en una tecnología que todavía no se puede dominar del todo. 

No, la IA capaz de sentir de una manera humana no está cerca, pero las máquinas capaces de encontrar nuevas maneras de discriminarte ya están aquí y afectan a tu vida diaria

"Una de las razones por las que estos fallos son preocupantes es que ponen en duda nuestra confianza en el modelo. Si la IA interpreta palabras incoherentes de forma no intencionada, también podría interpretar palabras significativas de forma no intencionada", explica Snowell.

En la práctica, esto tiene destacables implicaciones. Por ejemplo, teniendo en cuenta que estas IA están entrenadas para no generar contenido que pueda resultar ofensivo, que DALL-E-2 necesite crear un lenguaje intermedio antes de generar la imagen abre una importante brecha en su seguridad

Hay precedentes. Snowell recuerda que ya existen IA lingüísticas en las que se sabe que frases cortas y sin sentido como zoning tapping fiennes desencadenan, sin que nadie sepa muy bien por qué, contenidos racistas y ofensivos. Algo así podría ocurrir si alguien descodifica el lenguaje interno de DALL -E 2.

"Fenómenos como el lenguaje secreto de DALL-E 2 plantean problemas de interpretabilidad. Queremos que estos modelos se comporten como un ser humano espera, pero ver una salida estructurada en respuesta a un galimatías confunde nuestras expectativas", destaca el investigador en The Conversation.

España quiere que las empresas empiecen a participar en el 'sandbox' del Reglamento de Inteligencia Artificial después de este verano

"Hasta que estos sistemas no estén disponibles de forma más generalizada, y, en particular, hasta que los usuarios de un conjunto más amplio de entornos culturales no ingleses puedan utilizarlos, no podremos saber realmente lo que está ocurriendo".

Entretanto, subraya el experto, usuarios y desarrolladores deberán interpretar la producción de lenguajes propios por parte de las máquinas, más que como una advertencia ante el inminente apocalipsis tecnológico, como una señal inequívoca de las limitaciones de la IA.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.