Los CEO ven ChatGPT como un medicamento milagroso capaz de reducir costes y aumentar la eficiencia, pero de momento se equivocan

Hasan Chowdhury
| Traducido por: 
Ilustración sobre ChatGPT y OpenAI

 REUTERS/Dado Ruvic

  • Ozempic —las inyecciones de semaglutida que prometen acabar con la obesidad— y ChatGPT han explotado en popularidad este año como remedios curalotodo.
  • Los CEO ya están suprimiendo empleos o dejando de contratar a personal pensando que la IA puede sustituir a los trabajadores.
  • Pero ambas cosas tienen efectos secundarios.
Análisis Faldón

¿Qué tienen en común un polémico medicamento para adelgazar y la inteligencia artificial?

Ambos se han disparado en 2023, el año de la solución aparentemente rápida.

Elon Musk, famosos de Hollywood y docenas de 'influencers' se han lanzado en masa a por las inyecciones de Ozempic, un medicamento que suele usarse para tratar la diabetes, con el fin de frenar los antojos y ayudar a combatir el aumento de peso. Pero tanto Ozempic como otros medicamentos milagrosos para adelgazar pueden tener efectos secundarios devastadores.

Es posible que haya lecciones para el mundo empresarial en lo que respecta a las herramientas de IA generativa como ChatGPT, que aparentemente prometen hacer a los humanos más rápidos y productivos, pero también amenazan con provocar el caos en el futuro.

Como tuiteó este mes Justine Moore, socia inversora de la empresa de capital riesgo de Silicon Valley a16z: "En 2025, Estados Unidos funcionará con Ozempic y ChatGPT".

Si algo parece demasiado bueno para ser verdad, probablemente lo sea

ChatGPT y herramientas competidoras como Google Bard han obligado sin duda a la gente a reflexionar. 

Aparentemente surgidos de la nada, estos chatbots pueden escribir mejor que un redactor publicitario o un periodista en prácticas, razonar como un economista o un matemático, aprobar exámenes médicos avanzados, recomendar libros, construir sitios y aplicaciones, y completar muchas otras tareas. Sí, alucinan, pero no hay ninguna tecnología que haya parecido tan humana en la amplitud de sus capacidades.

No es de extrañar, por tanto, que JPMorgan esté explorando herramientas similares a ChatGPT para ayudar a invertir. Los CEO de empresas que no tienen nada que ver con la IA hablan de ChatGPT en sus conferencias trimestrales sobre resultados. Los trabajadores están encontrando formas de utilizarlo para desarrollar actividades secundarias o en sus trabajos diarios para ganar más dinero.

El creador de ChatGPT, Sam Altman, ha afirmado que la IA podría superar a la humanidad en la mayoría de los ámbitos en los próximos 10 años. Este tipo de "superinteligencia" podría llevar a cabo tanta actividad productiva como cualquiera de las empresas más grandes de la actualidad", según sus propias palabras. 

Los CEO están escuchando.

El gigante británico de las telecomunicaciones BT, que la semana pasada anunció la supresión de 55.000 puestos de trabajo, calcula que 10.000 de ellos podrían ser sustituidos por IA en 2030. El consejero delegado de IBM, Arvind Krishna, ha declarado que la empresa hará una pausa en la contratación para funciones que en el futuro podría desempeñar la IA. 

Pero, al igual que las inyecciones de Ozempic, la IA tiene efectos secundarios.

 

"Fundamentalmente, estos nuevos sistemas van a ser desestabilizadores", declaró ante los políticos estadounidenses Sam Altman, CEO de OpenAI, empresa creadora de ChatGPT y principal promotor de la IA, durante una reciente comparecencia en el Congreso de EEUU. 

Si hasta el hombre que puede beneficiarse enormemente de la adopción generalizada de herramientas como ChatGPT piensa que será "desestabilizadora", el CEO medio debería reflexionar.

Los escenarios desestabilizadores podrían incluir:

  • Empleados que introducen información confidencial o privada en una herramienta de inteligencia artificial de tipo caja negra —nadie sabe cómo usará esa información— propiedad de un tercero.
  • Derechos de autor u otros problemas derivados de empresas que no investigan las herramientas de IA que utilizan y los datos con los que se entrenan.
  • La incapacidad de los CEO y otros responsables de la empresa para cuestionar las decisiones tomadas por una IA de caja negra.

Estos problemas ya están aquí. En abril, Samsung prohibió a sus empleados el uso de herramientas de IA generativa tras descubrir que algunos de sus ingenieros habían filtrado accidentalmente código fuente interno al subirlo a ChatGPT. 

Citigroup, Goldman Sachs y JPMorgan ya han restringido en gran medida el uso de ChatGPT por parte de sus empleados. Algunas informaciones apuntan a que la decisión de JPMorgan se debe a la preocupación por los datos financieros confidenciales que se comparten con las herramientas de IA.

John Eden, experto en derechos de autor de Business Insider, señaló en marzo que "siempre que una plataforma de inteligencia artificial cree productos que compitan con éxito con obras protegidas por derechos de autor, provocando una disminución de las ventas de esas obras protegidas", se interpondrán demandas porque "la ley de derechos de autor detesta el parasitismo".

Por ahora, sigue siendo el salvaje oeste. Hay pocas barreras hasta que los responsables políticos se hagan cargo de los riesgos de la IA e implanten una regulación. 

Muchos expertos afirman que la IA debe aumentar la mano de obra humana, no sustituirla. 

El gran maestro de ajedrez Garry Kasparov y el profesor David De Cremer, de la Universidad Nacional de Singapur, ya lo defendieron anteriormente, sugiriendo que sustituir la IA por trabajadores humanos sólo funciona bajo el supuesto de que "la IA y los humanos tienen las mismas cualidades y capacidades".

Eso no significa que los CEO y las empresas deban evitar por completo la IA, pero puede significar empuñar con algo menos de entusiasmo el hacha de recortar empleos, por si acaso ChatGPT resulta ser una bomba y no un medicamento milagroso.

Conoce cómo trabajamos en Business Insider.