Un profesor de informática de Princeton pide que no cunda el pánico ante el "generador de chorradas" que es ChatGPT

Sindhu Sundar
| Traducido por: 
ChatGPT, un chat bot de inteligencia artificial, se ha hecho viral en las dos últimas semanas.

NurPhoto/Getty Images

  • Un profesor de Princeton ha dicho a The Markup que el "generador de tonterías" ChatGPT se limita a presentar narrativas.
  • Subraya que no se puede confiar en él para obtener hechos precisos, y que es poco probable que genere una revolución.

Un profesor de Princeton que investiga el impacto real de la inteligencia artificial no cree que el popular bot ChatGPT de OpenAI sea la sentencia de muerte que muchos están queriendo ver para todo tipo de sectores.

Arvind Narayanan, profesor de Princeton, ha dicho en una entrevista con The Markup que, aunque este tipo de herramientas son más accesibles que nunca y pueden empaquetar instantáneamente información voluminosa e incluso producir obras creativas, no se puede confiar en ellas para obtener información precisa

"Intenta ser persuasiva, pero no tiene forma de saber con certeza si las afirmaciones que hace son ciertas o no", afirma. 

La oferta inmobiliaria que acabas de ver con la casa de tus sueños puede haber sido escrita por ChatGPT

Los expertos que estudian la inteligencia artificial afirman que productos como ChatGPT, que forman parte de lo que se conoce como grandes modelos lingüísticos de IA capaces de responder a órdenes humanas y producir resultados creativos, funcionan simplemente haciendo predicciones sobre qué decir en lugar de sintetizar ideas como hacen los cerebros humanos

Según Narayanan, esto hace que ChatGPT sea poco más que un "generador de chorradas" que presenta su respuesta sin tener en cuenta la exactitud de la misma.  

Ya hay, con todo, algunos primeros indicios de cómo adoptarán las empresas este tipo de tecnología. 

Por ejemplo, Buzzfeed, que en diciembre presuntamente despidió al 12% de su plantilla, utilizará la tecnología de OpenAI en un primer momento para ayudar a hacer algunas de sus características listas, según el Wall Street Journal. La web de reseñas tecnológicas CNET, por su parte, publicó textos generados por IA y tuvo que corregirlos más tarde, informó The Washington Post

Narayanan citó el caso de CNET como ejemplo de las trampas de este tipo de tecnología. "Cuando se combina lo que venimos advirtiendo con el hecho de que la herramienta no tiene una buena noción de lo que es verdad y lo que no lo es, el resultado es una receta para el desastre", ha comentado a The Markup

Un resultado más probable, apunta el experto, es que los modelos lingüísticos obliguen a cambiar algo la manera de funcionar de ciertos sectores, que se adaptarán a usar IA. En ningún caso el experto ve probable que puedan ser sustituidas por estas herramientas. 

ChatGPT hace pruebas con una versión de pago: esto implicaría para los usuarios que acceden de forma gratuita a la herramienta de OpenAI

"Incluso con tecnologías tan profundas como Internet, los motores de búsqueda o los teléfonos inteligentes lo que hemos hecho ha sido adaptarnos para maximizar sus beneficios y minimizar los riesgos, no ha sido una revolución", ha explicado a The Markup. 

"No creo que los grandes modelos lingüísticos estén a esa escala. Potencialmente, puede haber grandes cambios, beneficios y riesgos en muchos sectores, pero no soy capaz de ver un escenario en el sobrevenga el apocalipsis".

Puedes leer la entrevista entera con The Markup aquí.

Conoce cómo trabajamos en Business Insider.