Una IA crea un lenguaje 'secreto' que los investigadores no terminan de entender: cómo de lejos está el despertar de las máquinas

Getty Images
- DALL-E 2, una IA capaz de generar imágenes a partir de texto, parece haber creado algo semejante a un lenguaje propio como paso intermedio antes de lanzar sus diseños.
- Alimentado con infinidad de textos extraídos de internet, la IA toma como referencia palabras de idiomas que no son necesariamente el inglés.
- Comienza el día bien informado con la selección de noticias de Business Insider España: suscríbete gratis aquí.
DALL-E 2, una inteligencia artificial capaz de crear imágenes a partir de textos proporcionados por un ser humano, ha creado su propio lenguaje. Al menos, esto es lo que afirma el pequeño grupo de investigadores que tiene acceso a la IA.
Este se ha encontrado con extraños mensajes creados por la propia máquina como instancia intermedia antes de generar la imagen solicitada, como si antes de proponer el diseño que le sugiere el texto proporcionado por el desarrollador necesitara antes traducirlo a su propio idioma.
En concreto, al pedirle a DALL-E 2 que creara imágenes con subtítulos de texto y luego observar los subtítulos generados por la propia máquina (que son por otra parte un verdadero galimatías), los investigadores han concluido que para DALL-E 2 "vicootes" significa "verduras", mientras que "Wa ch zod rea" es un concepto que se refiere a "criaturas marinas que podría comer una ballena".
Aunque la noticia ha sacudido esta semana los cimientos del mundo tecnológico, lo cierto es que la historia recuerda bastante a algo que ya ocurrió hace 5 años. Entonces, Facebook puso a hablar entre sí a varios chatbots creados por IA para que mejoraran sus capacidades de conversar.
El resultado es que estos poco a poco fueron saliéndose de los patrones marcados hasta el punto de crear un lenguaje propio que asustó a más de uno. Como respuesta, el gigante de Zuckerberg optó por cortar por lo sano: apagar las máquinas.
Lo hizo a pesar de que, como afirmaron muchos investigadores más tarde, el supuesto lenguaje de las máquinas de Facebook no dejaba de ser una forma de comunicación que carecía de una de las propiedades inherentes a todo idioma: ser inteligible.
En esencia, aquellas conversaciones, más que el despertar de Skynet, eran un diálogo de sordos que solo demostraba todo lo que los humanos deben aprender todavía de la IA antes de confiar en ella.
Más o menos lo mismo está ocurriendo con DALL-E 2, una IA que al igual que otras máquinas de generación de imágenes como MidJourney está abriendo un debate sobre la forma en que se elaboran los contenidos creativos, con implicaciones para los derechos de autor y la propiedad intelectual.
Sin embargo, al igual que en su día con la IA de Facebook, hay que decir que el despertar de las máquinas anda todavía lejos.
"Probablemente DALL-E 2 no tenga un lenguaje secreto. Sería más exacto decir que tiene su propio vocabulario, pero incluso considerando esto no podemos saberlo con seguridad", opina al respecto Aaron J. Snowell, investigador posdoctoral de Leyes de la computación y Contabilidad a través de IA de la Universidad Tecnológica de Queensland, en Australia, en un artículo publicado en The Conversation.
Este subraya la dificultad de verificar cualquier afirmación sobre DALL-E 2 y otros grandes modelos de IA debido a que solo unos pocos investigadores tienen acceso a ellos.
Y estos, además, no pueden todavía modificar el código para tratar de averiguar el porqué de su comportamiento, con lo que la incertidumbre sobre este tipo de sistemas es todavía mayor.
Por ello, destaca el experto, toda la información que provenga de estas herramientas hay que tomarla con prudencia.
El origen del protolenguaje de DALL-E 2 está en el latín
¿Y qué se sabe entonces? Poca cosa, pero alguna ciertamente significativa, explica Snowell. Una de ellas es que el origen del desconcierto inicial de los investigadores puede estar en que la máquina toma como referencia palabras que no provienen necesariamente del inglés.
Por ejemplo, indica el experto, "apoploe", que parece estar relacionada con la creación de imágenes de pájaros, es similar al latín apodidae, que es el nombre latino de una especie de aves.
"Un punto que apoya esta teoría es el hecho de que los modelos lingüísticos de IA no leen el texto como lo hacemos usted y yo. En su lugar, dividen el texto de entrada en tokens antes de procesarlo", explica Snowell.
Distintos enfoques de creación de unidades de información ofrecen resultados distintos también. Tratar cada palabra como un token, como hacemos muchos seres humanos, parece un acercamiento intuitivo, comenta el experto, pero causa problemas a las máquinas en casos de polisemia (una misma palabra tiene varios significados) y homonimia (dos palabras distintas coinciden en la misma forma).
Por otra parte, tratar a cada letra como una unidad de información produce menos ambigüedades, pero aporta mucho menos información a la IA.
"DALL-E 2 y otros modelos utilizan un enfoque intermedio llamado codificación de pares de bytes (BPE, por sus siglas en inglés).
La inspección de las representaciones BPE de algunas de las palabras incoherentes sugiere que esto podría ser un factor importante para entender este lenguaje secreto, opina el experto, que subraya, por otra parte, de nuevo falta información para avanzar más en esta hipótesis.
Que DALL-E 2 cree su propio lenguaje es importante: es un error
Más allá de las curiosidades lingüísticas que genera el alumbramiento de un idioma propio por parte de una máquina, que DALL-E-2 haya creado su propio vocabulario tiene implicaciones que van más allá del hecho en sí.
Las tiene, básicamente, porque se trata de un error, de un comportamiento no previsto por parte de la IA. Esto está despertando recelos entre los expertos sobre hasta qué punto se puede confiar en una tecnología que todavía no se puede dominar del todo.
"Una de las razones por las que estos fallos son preocupantes es que ponen en duda nuestra confianza en el modelo. Si la IA interpreta palabras incoherentes de forma no intencionada, también podría interpretar palabras significativas de forma no intencionada", explica Snowell.
En la práctica, esto tiene destacables implicaciones. Por ejemplo, teniendo en cuenta que estas IA están entrenadas para no generar contenido que pueda resultar ofensivo, que DALL-E-2 necesite crear un lenguaje intermedio antes de generar la imagen abre una importante brecha en su seguridad.
Hay precedentes. Snowell recuerda que ya existen IA lingüísticas en las que se sabe que frases cortas y sin sentido como zoning tapping fiennes desencadenan, sin que nadie sepa muy bien por qué, contenidos racistas y ofensivos. Algo así podría ocurrir si alguien descodifica el lenguaje interno de DALL -E 2.
"Fenómenos como el lenguaje secreto de DALL-E 2 plantean problemas de interpretabilidad. Queremos que estos modelos se comporten como un ser humano espera, pero ver una salida estructurada en respuesta a un galimatías confunde nuestras expectativas", destaca el investigador en The Conversation.
"Hasta que estos sistemas no estén disponibles de forma más generalizada, y, en particular, hasta que los usuarios de un conjunto más amplio de entornos culturales no ingleses puedan utilizarlos, no podremos saber realmente lo que está ocurriendo".
Entretanto, subraya el experto, usuarios y desarrolladores deberán interpretar la producción de lenguajes propios por parte de las máquinas, más que como una advertencia ante el inminente apocalipsis tecnológico, como una señal inequívoca de las limitaciones de la IA.
Otros artículos interesantes:
Descubre más sobre David Vázquez autor/a de este artículo.
Conoce cómo trabajamos en BusinessInsider.