Dos profesores que dicen haber pillado a alumnos copiando redacciones con ChatGPT explican por qué el plagio con IA puede ser difícil de demostrar

Beatrice Nolan,
ChatGPT, un chat bot de inteligencia artificial, se ha hecho viral en las dos últimas semanas.

NurPhoto/Getty Images

  • Dos profesores de Filosofía afirman haber sorprendido a sus alumnos enviando redacciones escritas por ChatGPT.
  • Dijeron que ciertas señales de alarma les alertaron del uso de la IA.
  • Si los estudiantes no confiesan haber utilizado el programa, los profesores dicen que puede ser difícil de probar.

Unas semanas después del lanzamiento del chatbot de IA ChatGPT, Darren Hick, profesor de Filosofía de la Universidad de Furman (Carolina del Sur, Estados Unidos), cuenta que sorprendió a un estudiante entregando una redacción generada por IA. 

Hick dice que empezó a sospechar cuando el estudiante entregó una redacción sobre el tema que incluía información errónea bien redactada.

Tras pasarlo por el detector ChatGPT de Open AI, los resultados indicaron que había un 99% de probabilidades de que la redacción hubiera sido generada por IA. 

Antony Aumann, profesor de Estudios de Religión y Filosofía en la Universidad de Fordham (Nueva York, Estados Unidos), ha explicado también a Business Insider que descubrió a dos estudiantes que habían enviado redacciones escritas por ChatGPT.

Después de que el estilo de escritura hiciera saltar las alarmas, Aumann volvió a enviarlos al chatbot preguntándole hasta qué punto era probable que hubieran sido escritos por el programa. Cuando el chatbot dijo que estaba seguro en un 99% de que las redacciones habían sido escritas por ChatGPT, envió los resultados a los estudiantes.

Tanto Hick como Aumann dicen que confrontaron a sus alumnos y que todos acabaron confesando la infracción. El alumno de Hick suspendió la clase y Aumann hizo que sus alumnos reescribieran los ensayos desde cero.

"Estaba realmente bien escrito incorrectamente"

Había ciertas señales de alarma en las redacciones que alertaron a los profesores del uso de IA. Hick explica que el ensayo que descubrió hacía referencia a varios hechos que no se habían mencionado en clase y que contenía una afirmación sin sentido. 

"Palabra por palabra, era un ensayo bien escrito", reconoce, pero al examinarlo más de cerca, una afirmación sobre el famoso filósofo David Hume "no tenía sentido" y era "rotundamente errónea".

"Lo que más me llamó la atención fue lo bien escrito que estaba", afirma.

Para Aumann, el chatbot escribía demasiado bien. "Creo que el chat escribe mejor que el 95% de mis alumnos", asegura. 

"De repente tienes a alguien que no demuestra la capacidad de pensar o escribir a ese nivel, escribiendo algo que sigue todos los requisitos a la perfección con una gramática sofisticada y pensamientos complicados que están directamente relacionados con el tema del ensayo", apunta.

Christopher Bartel, profesor de Filosofía en la Universidad Estatal de los Apalaches (Carolina del Norte, Estados Unidos), defiende que, aunque la gramática de los ensayos generados por IA es casi perfecta, el contenido tiende a ser poco detallado.

"Son realmente superficiales. No hay contexto, no hay profundidad ni perspicacia", opina.

Robot o humano

Plagio difícil de demostrar  

Si los estudiantes no confiesan haber utilizado IA para sus redacciones, los profesores pueden verse en una situación difícil.

Según Bartel, las normas de algunas instituciones no han evolucionado para combatir este tipo de trampas. Si un estudiante decide atrincherarse y negar el uso de IA, puede ser difícil demostrarlo. 

Bartel dice que los detectores de IA disponibles son "buenos, pero no perfectos". 

"Dan un análisis estadístico de la probabilidad de que el texto sea generado por IA, así que eso nos deja en una posición difícil si nuestras políticas están diseñadas de manera que tengamos que tener pruebas definitivas y demostrables de que el trabajo es falso", asegura. "Si el 95% de los resultados indican que la redacción ha sido generada por inteligencia artificial, queda un 5% de posibilidades de que no lo sea". 

 

En el caso de Hick, aunque la web de detección decía que estaba "segura al 99%" de que la redacción había sido generada por una IA, él dijo que no le bastaba sin una confesión.

"La confesión era importante porque todo lo demás parecen pruebas circunstanciales", afirma. "Con el contenido generado por IA, no hay pruebas materiales, y las pruebas materiales tienen mucho más peso que las pruebas circunstanciales".

Aumann considera que, aunque el análisis del chatbot es una prueba suficiente para adoptar medidas disciplinarias, el plagio por IA sigue siendo un nuevo reto para las universidades.

"A diferencia de los casos de plagio de antaño, en los que bastaba con decir 'eh, aquí está el párrafo de Wikipedia'. No hay ninguna prueba contundente que puedas aportar, aparte de que el chat diga que esa es la probabilidad estadística", sentencia.

Conoce cómo trabajamos en Business Insider.