¿Cómo detectar un texto escrito por IA? Esta nueva herramienta podría tener la solución definitiva

Kali Hays
| Traducido por: 
Las herramientas de IA generativa, como ChatGPT, han tenido una gran acogida entre los estudiantes.
Las herramientas de IA generativa, como ChatGPT, han tenido una gran acogida entre los estudiantes.
  • Hasta ahora era difícil detectar con precisión la escritura generada por herramientas de inteligencia artificial como ChatGPT.
  • Investigadores afirman haber dado con una nueva herramienta y un método precisos para detectar el texto de la IA. 

Un grupo de investigadores afirma haber creado una herramienta muy precisa para identificar textos producidos por aplicaciones de inteligencia artificial generativa y grandes modelos lingüísticos.

En un artículo publicado el lunes, ocho investigadores, en su mayoría de la Universidad de Maryland, afirman que la herramienta que han bautizado como Binoculars supera a otras herramientas disponibles, como GPTZero y Ghostbuster, diseñadas para detectar textos generados por aplicaciones de IA como ChatGPT de OpenAI. 

Los investigadores probaron Binoculars en grandes conjuntos de datos con redacción de noticias, escritura creativa y ensayos de estudiantes. Afirman que la herramienta detectó "más del 90%" de las muestras de los conjuntos de datos escritas por IA, con una tasa de precisión del 99,9%, o una tasa de falsos positivos del 0,01%.

A medida que herramientas de IA generativa como ChatGPT han ido ganando popularidad, ha aumentado la preocupación de que haya estudiantes que utilicen IA para realizar trabajos académicos haciéndolos pasar por suyos. Al mismo tiempo, muchos estudiantes han sido acusados erróneamente de utilizar IA basándose en los resultados de las herramientas de detección de IA. Esto hizo temer que se les acusara injustamente de copiar. 

El año pasado, las escuelas y universidades empezaron a desactivar estas herramientas de detección de IA. Cuando la Universidad de Vanderbilt dijo que había decidido dejar de utilizar Turnitin, citó la tasa de falsos positivos del 1% de la herramienta de detección, diciendo que eso significaría que cientos de estudiantes podrían ser acusados de copiar cuando no lo habían hecho.

Otros motivos de preocupación son la proliferación de falsas reseñas de productos y la desinformación política.

Los investigadores de Binoculars afirman que la tasa de falsos positivos con su nueva herramienta es mucho menor. El equipo ha declarado que está considerando la posibilidad de convertir Binoculars en un producto más manejable que pueda comercializarse bajo licencia.

"El lanzamiento prematuro de productos defectuosos ha llevado a la gente a pensar que la detección de LLM es imposible, o que los detectores de LLM nunca pueden llegar a funcionar lo bastante bien como para ser útiles", explica a Business Insider Abhimanyu Hans, investigador de la Universidad de Maryland. [LLM o modelo de lenguaje de gran tamaño, es un modelo de lenguaje compuesto por una red neuronal con diversos parámetros, entrenados y cotejados con grandes cantidades de texto sin etiquetar a través del aprendizaje autosupervisado o aprendizaje semisupervisado]

"La realidad es que la investigación científica sobre la detección de LLM ha dado pasos de gigante en los últimos seis meses y ha llegado a un punto en el que puede utilizarse eficazmente para algunas aplicaciones".

Los investigadores trabajan para la Universidad de Maryland, la Universidad Carnegie Mellon, la Universidad de Nueva York y el Centro de Inteligencia Artificial de Tubinga. La investigación fue financiada por Capital One, el programa Amazon Research Awards y Open Philanthropy, financiado principalmente por el dúo multimillonario de marido y mujer Dustin Moskovitz y Cari Tuna.

Binoculars podría contribuir a la "integridad de la plataforma"

Los investigadores probaron Binoculars con modelos de IA de código abierto como Meta's Llama y Abu Dhabi's Falcon. Lo probaron con datos formados a partes iguales por texto escrito por humanos y texto de salida de ChatGPT.

Los investigadores afirman que Binoculars no ha recibido ningún tipo de ajuste, es decir, no se ha ajustado, entrenado ni ponderado como un modelo de IA lo hace, para que funcione como alguien que lo utiliza o lo prueba quiere que lo haga, pero también afirman que ha funcionado mejor que otros "sistemas de detección privados" que han sido ajustados para detectar el texto generado por ChatGPT.

Los investigadores afirman que su modelo de detección "no ha sido ajustado ni entrenado para detectar ChatGPT en particular" y que, por lo tanto, es "agnóstico en cuanto a modelos" en sus capacidades de detección, algo que es "fundamental para la moderación de las redes sociales y la garantía respecto a la integridad de la plataforma".

Hans dice que, aunque él y sus colegas investigadores tienen "dudas sobre el uso de detectores LLM en las escuelas", están "motivados por el uso de detectores LLM por los equipos de integridad de plataforma de las webs" para "mantener las campañas de ingeniería social, la manipulación electoral y el spam alejadas de las redes sociales".

 

Así funciona Binoculars

Los investigadores afirman en su artículo que su modelo "funciona completamente en un entorno de disparo cero". En el ámbito del aprendizaje mecanizado, el "disparo cero" es la respuesta de un modelo a palabras u objetos con los que no ha sido entrenado.

"Al mismo tiempo, debido a la naturaleza de disparo cero de nuestro detector, el mismo detector puede detectar múltiples LLM diferentes con gran precisión, algo que todas las soluciones existentes no consiguen", señala el artículo.

Binoculars funciona comparando dos etapas de "visualización de texto", una con un LLM "observador" y otra con uno "ejecutor". Si una máquina escribe cadenas de texto, las dos fases deberían tener niveles de perplejidad similares; si el texto ha sido escrito por un ser humano, deberían ser diferentes. La perplejidad se refiere al grado de sorpresa de un LLM ante una predicción, como la siguiente palabra de una frase: cuanto menos sorprendidos estén ambos LLM ante una cadena de texto, más probable será que la herramienta decida que el texto procede de una máquina.

"La perplejidad se ha utilizado para detectar los LLM, ya que los humanos producen textos más sorprendentes que los LLM", explica el artículo.

Los investigadores afirman que su método "también mide lo sorprendente que resulta el resultado de un modelo al otro". En el artículo se refieren a esto como "perplejidad cruzada".

Según los investigadores, el método de Binoculars corrige el papel que desempeña en el resultado la persona que dirige la herramienta de IA, que se ha identificado como causa de falsos positivos en las herramientas de detección de IA.

"Binoculars separa el texto generado por una máquina del texto humano mucho mejor que la perplejidad por sí sola", relata el artículo, y añade: "Con Binoculars, somos capaces de detectar texto generado por una máquina en una serie de dominios". Entre ellos se encuentran Reddit, WikiHow, Wikipedia y arXiv.

Los investigadores también probaron Binoculars con un conjunto de datos de ensayos académicos de hablantes no nativos de inglés, señalando la preocupación entre los investigadores de que los detectores de IA están sesgados contra este tipo de escritura y son más propensos a considerarla generada por IA. Binoculars obtuvo una precisión del 99,67% con este tipo de textos.

Conoce cómo trabajamos en Business Insider.