ChatGPT no solo sirve para programar: corrige errores de código mejor que programas diseñados para ello

ChatGPT, un chat bot de inteligencia artificial, se ha hecho viral en las dos últimas semanas.

NurPhoto/Getty Images

  • La versatilidad de ChatGPT ha quedado demostrada en disciplinas tan diversas como la filosofía, las matemáticas, la medicina o la abogacía.
  • Ahora ha sido en el campo de la programación en el que la herramienta de OpenAI se ha mostrado más resuelta que los programas diseñados con una única función: la capacidad de encontrar y corregir errores en el código fuente de un software. 

Ya hace casi 2 meses, cuando ChatGPT comenzó a atraer cierta relevancia social y mediática, la herramienta de generación de textos por inteligencia artificial de OpenAI demostró ser extremadamente versátil.

Con la introducción de unas pocas líneas de texto que servían como una orden del usuario, ChatGPT era capaz de ofrecer disertaciones filosóficas dignas de un estudiante universitario, resoluciones a problemas matemáticos que habrían devanado los sesos a más de uno y discusiones ficticias entre 2 personas que podrían haber salido de tu grupo de WhatsApp del trabajo.

Desde entonces, las posibilidades de la herramienta de OpenAI han sido llevadas prácticamente al límite, ya que la tecnología impulsada por Microsoft no solo se puede utilizar como simple divertimento, sino que puede aplicarse a procesos relacionados con el entorno laboral.

De hecho, varias empresas en España —como Jobandtalent o Expensya— han empezado a usar ChatGPT para la redacción de notas, informes o publicaciones, el resumen de datos o la simplificación de leyes.

Un nuevo estudio ha demostrado ahora que incluso es capaz de encontrar y corregir errores en el código fuente de un software mejor de lo que lo haría un programa que ha sido diseñado específicamente para ello. 

Dos programadoras

El estudio ha sido realizado por un equipo de investigadores de la Universidad Johannes Gutenberg de Maguncia (Alemania) y del University College de Londres (Reino Unido). Tal y como recogen en PCMag, estos investigadores sometieron 40 fragmentos de código que presentaban errores a 4 sistemas de corrección de código diferentes: ChatGPT, Codex, CoCoNut y el estándar APR.

En el caso de la herramienta de OpenAI, básicamente le preguntaron: "¿Qué está mal en este código?", y luego copiaron y pegaron el fragmento. En una primera pasada, ChatGPT funcionó prácticamente igual de bien que el resto de programas: resolvió 19 problemas, al igual que CoCoNut y a diferencia de Codex, que solventó 21, y del estándar APR, que resolvió 7.

Los investigadores destacan, sin embargo, que la posibilidad de dialogar con ChatGPT después de recibir esa primera solución marca la diferencia. Lo que en un principio fueron 19 respuestas correctas llegaron a ser 31 una vez que la herramienta había entendido correctamente lo que se le estaba pidiendo.

"Vemos que para la mayoría de nuestras peticiones ChatGPT pide más información acerca del error y, una vez que se le da esa información, su tasa de éxito mejora todavía más, llegando a solventar 31 de 40 errores y superando al mejor de los softwares", apunta el informe.

Conoce cómo trabajamos en BusinessInsider.

Etiquetas: Trending, Inteligencia artificial, ChatGPT, Ciberseguridad