Detectar un texto generado por IA es imposible, según un nuevo estudio

Inteligencia artificial.

Getty

  • Un nuevo estudio revela que detectar un texto generado por IA es indetectable. 
  • Según Soheil Feizi, uno de los autores del estudio, solo tenemos que aprender a vivir con el hecho de que "es posible que nunca podamos decir de forma fiable si un texto está escrito por un humano o por una IA".

Con la explosión de ChatGPT, Bard y demás inteligencias artificiales generativas, ha surgido una duda clave: ¿Es posible detectar un texto generado por IA?

A pesar de que la respuesta hace unos meses podría ser afirmativa, el momento en el que sea imposible está más cerca que nunca. 

Según un estudio elaborado por 5 científicos de la Universidad de Maryland del que se hace eco Techspot es que cualquier texto generado por LLM no se puede detectar en escenarios prácticos, tanto desde un punto de vista teórico como práctico. 

¿El problema? Es que el uso no regulado de esta IA generativa puede tener consecuencias maliciosas como plagios, noticias falsas, spam y muchos otros casos, advierten los científicos. 

El estudio ha analizado los métodos de detección LLM de última generación que están en el mercado, lo que demuestra que un simple "ataque de paráfrasis" es suficiente para engañarlos a todos. 

Los investigadores afirman que una reorganización ligera de palabras del texto generado originalmente, un servicio LLM inteligente o malicioso, puede "romper una amplia gama de detectores". 

Y van a más: incluso utilizando esquemas de marcas de agua o escáneres basados en redes neuronales, es "empíricamente" imposible detectar texto basado en LLM. 

En el peor de los casos, la precisión baja desde el 97% al 57% con una simple paráfrasis. Es decir, un detector no funcionaría mejor que un "clasificador aleatorio" o un simple lanzamiento al aire de una moneda. 

Estos algoritmos que dotan de marca de agua a un texto generado por IA se borran por completo al cambiar algo de la frase y pueden conllevar riesgo de seguridad adicional. 

Es decir, una persona con malas intenciones podría "inferir firmas de marcas de agua ocultas y agregarlas a su texto generado", explican los investigadores, de modo que el texto sea detectado como texto generado por LLM. 

Según Soheil Feizi, uno de los autores del estudio, solo tenemos que aprender a vivir con el hecho de que "es posible que nunca podamos decir de forma fiable si un texto está escrito por un humano o por una IA".

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.