ChatGPT puede hacer que los trabajadores tengan un peor rendimiento, según un nuevo estudio

Aaron Mok
| Traducido por: 
ChatGPT
  • Los trabajadores que utilizan ChatGPT puede tener un peor desempeño que aquellos que no lo hacen, según una investigación de BCG.
  • Esto se debe a que algunos trabajadores toman los resultados del chatbot al pie de la letra y no verifican si hay errores.
  • Los hallazgos de BCG pueden ser una advertencia para los trabajadores que recurren a la IA.

Si utilizas ChatGPT en tu trabajo, quizás deberías tener mucho cuidado. 

El uso de lA en el trabajo puede perjudicar el rendimiento laboral si se utiliza para tareas que están fuera de las capacidades del trabajador, según una nueva investigación de Boston Consulting Group

Un grupo de investigadores de BCG, Harvard, Wharton y MIT llevaron a cabo un experimento para ver cómo el acceso a la IA afecta a la productividad y la calidad del trabajo de los trabajadores.

Para probar esto, los trabajadores asignaron aleatoriamente a 758 consultores de BCG en uno de tres grupos: uno sin acceso a la IA; uno con acceso a ChatGPT con tecnología GPT-4; y otro con acceso a ChatGPT, así como vídeos instructivos y documentos sobre rápidas estrategias de ingeniería. 

Después de establecer unas líneas de base de desempeño, a los consultores de cada grupo se les asignó una de dos categorías de tareas. 

Una categoría incluía 18 tareas que existen "dentro de la frontera" de lo que la IA puede hacer, como generar ideas innovadoras sobre conceptos de bebidas o idear un plan de negocios exhaustivo para un nuevo concepto de calzado. 

La otra categoría contenía tareas más abiertas que existen "fuera de la frontera" de las capacidades de la IA. Si bien "los consultores sobresaldrían" en estas tareas, "la IA tendría dificultades sin una orientación detallada", según el estudio. 

Por ejemplo, a los consultores asignados a este conjunto de tareas se les pidió que ofrecieran recomendaciones al director ejecutivo de una empresa hipotética usando datos financieros internos y entrevistas con expertos de la empresa, información a la que la IA no tenía acceso. 

Los investigadores encontraron marcadas diferencias entre los resultados de los tres grupos, dependiendo de su acceso a ChatGPT

Para las tareas "dentro de la frontera", los consultores que utilizaron IA fueron "significativamente más productivos" y "produjeron resultados de calidad significativamente más altos" que aquellos que no usaron el chatbot. 

Sin embargo, los consultores que utilizaron la IA para completar tareas "fuera de la frontera" tenían 19 puntos porcentuales menos de probabilidades de tomar soluciones correctas en comparación con aquellos sin IA". Esto se debe a que se descubrió que los consultores de IA siempre se fiaban de sus resultados, incluso cuando las respuestas eran incorrectas. 

Estos hallazgos demuestran las capacidades "desiguales" de la IA.

Si bien los hallazgos del estudio demuestran que la IA es "extremadamente buena" para ayudar a los humanos con algunas tareas, estos deben tener cuidado al usar la tecnología para evitar errores, dijo a Insider Saren Rajendran, uno de los investigadores involucrados en el estudio, en un correo electrónico. 

"Debemos tener cuidado al utilizar la IA", añadió.

Los hallazgos de BCG demuestran una advertencia para los trabajadores que están pensando en usar ChatGPT para ayudarles a realizar su trabajo. Desde que salió ChatGPT el pasado noviembre, los trabajadores de todas las industrias han estado usando chatbot de IA (a veces sin avisar a sus jefes) para desarrollar códigos, crear materiales de marketing y generar planes de lecciones para una clase.

Sin embargo, los resultados de ChatGPT no son perfectos y pueden contener errores y confusiones

La publicación tecnológica CNET fue criticada a principios de este año después de que los lectores notaron que varios de sus artículos generados por IA tenían errores fácticos

Hasta el 28 de septiembre, el organismo de control de los medios NewsGuard ha identificado 487 sitios de noticias "poco fiables" generados por IA con "poca o ninguna supervisión humana". 

En un anuncio de Bard de Google, el chatbot de IA cometió un error cuando se le preguntó sobre el telescopio espacial de James Webb

Los errores generados por IA solo pueden empeorar: en un artículo reciente, los investigadores de IA, descubrieron que los modelos generativos de IA pronto podrían entrenarse en contenido generado por IA, un fenómeno que llaman "colapso del modelo". Las consecuencias podrían ser resultados de baja calidad en un futuro cercano. 

"A medida que los límites de las capacidades de la IA continúan expandiéndose, a menudo de manera exponencial, corresponde a los profesionales humanos recalibrar su comprensión de la frontera y a las organizaciones prepararse para un nuevo mundo laboral que combina humanos e IA", escribieron los investigadores. 

Conoce cómo trabajamos en Business Insider.