La IA puede acabar con el único empleo que todo el mundo pensaba que iba a crear

Lloyd Lee
| Traducido por: 
IA destruye empleo, robot despide a trabajador

Getty Images

  • En pleno auge de la inteligencia artificial generativa, la ingeniería de prompts parecía el trabajo más atractivo de la tecnología.
  • Las personas que se dedican a este trabajo escriben textos que pueden producir resultados óptimos con herramientas como ChatGPT.
  • Sin embargo, los investigadores están descubriendo que la IA también puede ser entrenada para hacer ese trabajo.

¿Podría estar el prompt engineering (ingeniería de comandos) en la lista de trabajos que la inteligencia artificial eliminará próximamente?

Los ingenieros de prompts (o comandos o indicaciones) escriben datos de entrada, a menudo un bloque de texto, que pueden producir un resultado deseado a partir de herramientas de IA generativa como ChatGPT. Durante un breve momento, ha parecido el próximo trabajo tecnológico de moda en medio del auge de los chatbots de inteligencia artificial.

Algunas empresas han ofrecido salarios de seis cifras por este trabajo, lo que ha hecho temer que incluso sustituyera al codiciado puesto de ingeniería de software.

Pero resulta que la IA también puede encargarse de la ingeniería de prompts.

Investigadores de VMware, una empresa de computación en la nube de Palo Alto (California, Estados Unidos), han descubierto que los grandes modelos lingüísticos (LLM, por sus siglas en inglés) son más que capaces de escribir y "optimizar sus propios comandos".

En su artículo The Unreasonable Effectiveness of Eccentric Automatic Prompts (La irracional eficacia de los comandos automáticos excéntricos), Rick Battle y Teja Gollapudi se han propuesto cuantificar el impacto de los comandos de "pensamiento positivo", que son casi exactamente lo que parecen.

La experiencia ha demostrado, según los investigadores, que las instrucciones escritas con positividad u optimismo a veces pueden producir resultados de mayor calidad en las herramientas de inteligencia artificial generativa. Por ejemplo, en lugar de escribir simplemente una orden para el LLM, una indicación de pensamiento positivo podría incluir mensajes como "Esto será divertido" o "Respira hondo y piensa con cuidado".

Sin embargo, los investigadores han averiguado que lo que resultaba más eficaz y requería menos tiempo era pedir simplemente a un LLM que optimizara los comandos por sí mismo, lo que el estudio denomina "comandos generados automáticamente".

"Mejorar el rendimiento, al afinar el comando a mano, resulta laborioso y prohibitivo desde el punto de vista computacional si se utilizan procesos científicos para evaluar cada cambio", escriben los investigadores, que añaden: "Es innegable que los mensajes generados automáticamente funcionan mejor y se generalizan mejor que los mensajes de 'pensamiento positivo' ajustados a mano".

Battle y Gollapudi no han respondido de inmediato a una solicitud de comentarios.

El documento también señala a otro estudio, dirigido por un investigador de Google DeepMind, Chengrun Yang, que ha encontrado de manera similar que un LLM podría "superar a los comandos diseñados por humanos".

Trabajo como ingeniera de 'prompts': 3 trucos para conseguir las mejores respuestas de ChatGPT y otros chatbots de IA

Los investigadores de VMware han descubierto incluso que los LLM pueden ser bastante creativos a la hora de producir las mejores indicaciones.

Un ejemplo del estudio era un texto escrito por un modelo de aprendizaje automático que parecía sacado de un episodio de Star Trek.

"Puesto de mando, necesitamos que trace un rumbo a través de esta turbulencia y localice el origen de la anomalía. Utilice todos los datos disponibles y su experiencia para guiarnos a través de esta difícil situación", decía el texto, según el estudio.

El texto es la "indicación optimizada con mayor puntuación" generada por uno de los LLM utilizados en el estudio.

"Se diferencian significativamente de cualquier indicación que hubiéramos podido crear de forma independiente", apuntan los autores sobre el comando. 

"Si se hubieran presentado estas instrucciones optimizadas antes de observar sus puntuaciones de rendimiento, se podría haber anticipado su inadecuación en lugar de su rendimiento consistente superior a las instrucciones diseñadas a mano", observan.

En cierto modo, herramientas como ChatGPT ya cambian automáticamente la pregunta del usuario para producir lo que creen que son los mejores datos de salida.

En un episodio reciente del podcast tecnológico Hard Fork, de The New York Times, el periodista tecnológico Casey Newton habla de cómo ChatGPT transforma la pregunta de un usuario en segundo plano mientras produce un resultado. Los usuarios pueden ver cómo el LLM reinterpreta su pregunta.

"Se trata de un producto realmente interesante, porque hablando en el sitio de ChatGPT, puedo decir que esa cosa es mucho mejor que yo escribiendo preguntas. Para mí, esto echa por tierra totalmente el concepto de ingenieros de prompts, del que hemos hablado en el programa", comenta.

Aunque la investigación ha encontrado rendimientos prometedores para los optimizadores de comandos, algunas personas expertas afirman que no acabará inmediatamente con los trabajos de ingeniería de comandos.

Tim Cramer, vicepresidente senior de ingeniería de software de Red Hat, fabricante de software de código abierto, declara a la revista IEEE Spectrum que el sector de la inteligencia artificial generativa está en constante evolución y seguirá necesitando la participación de seres humanos en el proceso.

"No sé si lo combinaremos con otro tipo de categoría o función laboral. Pero no creo que estas cosas vayan a desaparecer pronto. Y el panorama es demasiado loco ahora mismo. Todo está cambiando tanto. No vamos a resolverlo todo en unos meses", matiza Cramer.

Axel Springer, la empresa matriz de Business Insider, ha llegado a un acuerdo global para permitir que OpenAI entrene sus modelos en los artículos de sus marcas de medios de comunicación.

Conoce cómo trabajamos en Business Insider.