OpenAI está trabajando en 'marcas de agua' para evitar confusiones sobre si textos han sido generados con una IA o escritos por personas

Ilustración de inteligencia artificial

Getty Images

  • La responsable de ChatGPT está trabajando en una tecnología que introduzca una especie de 'marcas de agua' en los textos que generen sus modelos.
  • Sin embargo, algunos expertos advierten que esta tecnología podría ser inútil en un mundo en el que estas generadoras de texto seguirán proliferando.

OpenAI es una empresa especializada en sistemas de inteligencia artificial capaces de generar imágenes con solo recibir una somera descripción, o capaces de generar textos. Es la responsable de la IA GPT-3, que fue capaz de escribir un artículo académico sobre sí misma o incluso publicar un artículo en Business Insider España, y de ChatGPT, que lleva siendo viral en redes varios días.

ChatGPT emplea toda la tecnología desarrollada en sus modelos anteriores —GPT-2, GPT-3— para ofrecer a los usuarios la posibilidad de interactuar con esta IA generadora de texto, invitándola a disertar sobre cualquier tema. Es gratis, aunque a cambio, los usuarios que están probando la herramienta la están entrenando y mejorando sin saberlo.

Los resultados que ChatGPT está lanzando desde que se viralizase hace unos días están sorprendiendo a muchos, hasta el punto de que la pregunta sobre si un texto lo ha generado una inteligencia artificial o una persona es más que legítima. Eso implica todo un desafío ético, no solo tecnológico.

Por eso, un investigador invitado a OpenAI, Scott Aaronson, ha reconocido en una conferencia en la Universidad de Austin —Texas, EEUU— que esta compañía ya está trabajando en una especie de marcas de agua que se incrustarán en los textos e imágenes que generen sus modelos de IA. Aunque serán imperceptibles al ojo humano, sí serán reconocibles por otras herramientas informáticas.

Soumith Chintala

El propósito de esas marcas de agua es evitar que nadie pueda dudar sobre si detrás de un texto la autoría es humana o es de una máquina. "Eso ayudará a evitar el plagio académico, por supuesto, pero también a evitar la generación masiva de propaganda: ya sabes, comentarios spameando cualquier blog apoyando la invasión rusa de Ucrania".

"O incluso suplantar el estilo de escritura de una persona para incriminarla".

Las palabras de Aaronson, que ha recogido TechCrunch, evidencian cómo en el mundo que desarrolla estas inteligencias artificiales son cada vez más del valle inquietante al que se asoma esta tecnología. Y lo que es peor, tal y como recoge el mismo medio: expertos del sector dudan de que una tecnología que implante estas 'marcas de agua' acabe siendo efectiva.

Estas marcas de agua, por ejemplo, podrían servir para detectar si un texto ha sido generado por el ChatGPT de OpenAI. Pero en un mundo en el que cada usuario podrá tener su propio generador de texto, todos serán libres de hacerlo compatible con la herramienta, y por lo tanto, de decidir si su generador no puede ser autenticado de manera efectiva.

Si estas tecnologías proliferan tanto, "las medidas de seguridad deberán ser más arduas", y no habrá certeza de que puedan abarcar todo el campo de desarrollo "a no ser que exista regulación gubernamental", reconocía el propio Aaronson. "En un mundo en el que todo el mundo podría crear su propio modelo de textos, ¿qué haremos?".

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.