Elon Musk tiene razón: la inteligencia artificial debería echar el freno por el bien de la humanidad

Emilia David
| Traducido por: 
Elon Musk, CEO de Twitter, Tesla y SpaceX.
Elon Musk, CEO de Twitter, Tesla y SpaceX.

Susan Walsh/AP

  • Elon Musk, Steve Wozniak y más de 1.000 personas han firmado un manifiesto en el que reclaman que se detenga el desarrollo de los modelos de inteligencia artificial más avanzados durante al menos 6 meses.
  • El rápido avance de ChatGPT y tecnologías similares ha demostrado el increíble potencial de esta tecnología, tanto para hacer el bien como para hacer el mal, por lo que hacer una pausa ayudaría a garantizar que se desarrolla de forma responsable. 
Análisis Faldón

Existen muy pocas cosas en las que Steve Wozniak, cofundador de Apple, y Elon Musk, CEO de Twitter, Tesla y SpaceX, estén realmente de acuerdo, pero parece que coinciden en que el desarrollo de la inteligencia artificial debería ir más despacio. 

Wozniak, Musk y más de 1.000 líderes empresariales han firmado un manifiesto en el que piden que se pongan límites y que se haga una pausa en el entrenamiento de modelos de IA cada vez más potentes. El documento argumenta que estos modelos, como sería el caso de GPT-4 de OpenAI, "solo deberían desarrollarse cuando estemos seguros de que sus efectos serán positivos y sus riesgos serán asumibles".

Por supuesto, no es la única vez que se ha pedido poner límites al desarrollo de la inteligencia artificial. Sin embargo, conforme la IA se ha vuelto más sofisticada, las peticiones de prudencia también han ido en aumento.

"Es una muy buena idea ralentizar el desarrollo de nuevos modelos porque si la IA acaba siendo buena para nosotros, entonces no pasa nada por esperar unos meses o años, llegaremos al final de todas formas", asegura James Grimmelmann, profesor de derecho digital y de la información en la Universidad de Cornell. 

"Si acaba siendo perjudicial, solo habremos ganado tiempo para elaborar estrategias sobre la mejor manera de entenderla y saber cómo combatirla", afirma este experto.

O sea que Wozniak, Musk y los demás líderes tecnológicos llevan razón. La inteligencia artificial se ha dejado en libertad, se la ha dejado crecer sin control, haciéndose más fuerte cada día, pero ahora cabe la posibilidad pararla y de mejorarla, por el bien de la sociedad.

Los nuevos chatbots de Google y Microsoft se equivocan y mienten. ¿Por qué nos dejamos engañar?

El auge de ChatGPT muestra el posible riesgo de ir demasiado rápido

Cuando el fenómeno de ChatGPT vio la luz a finales de noviembre del año pasado causó un gran revuelo. Como era de esperar, la gente empezó a probar hasta dónde era capaz de llegar el generador de texto. Empezó a aprobar exámenes de medicina, a dar instrucciones sobre cómo fabricar bombas caseras —con un poco más de insistencia— o a desarrollar un alter ego de sí mismo

Cuanto más se utilizan estos modelos, sobre todo las llamadas herramientas de IA generativa como ChatGPT o Stable Diffusion, más patentes se hacen sus desperfectos, su potencial para adquirir prejuicios y lo poco preparada que está la humanidad para gestionar su poder.

Algunos expertos sugieren que la inteligencia artificial tiene potencial para "ser un turbocompresor que acelere la propagación de nuestros defectos". Al igual que las redes sociales, puede aprovechar lo mejor y lo peor del ser humano. Pero, a diferencia de estas plataformas, la IA podría llegar a estar mucho más integrada en la vida de las personas.

ChatGPT y otras herramientas similares ya han demostrado ser capaces de tergiversar información y cometer errores, algo que Wozniak ha denunciado públicamente. Sam Altman, CEO de OpenAI, ha admitido que su IA es capaz de ofrecer respuestas racistas, sexistas y manipuladoras. Stable Diffusion se ha topado con problemas de derechos de autor y ha sido acusada de robar sus obras a artistas reales.

A medida que la inteligencia artificial se integra en la tecnología más común, se corre el riesgo de que difunda más desinformación y a mayor escala. Hasta funciones aparentemente inofensivas, como ayudarte a planificar las vacaciones, pueden producir resultados que en última instancia no son fiables

Ilustración ChatGPT

Es difícil desarrollar de forma responsable cuando el mercado exige rapidez

Para dejarlo claro, la IA —y en particular la IA generativa como ChatGPT— es una tecnología increíblemente disruptiva. No existe nada esencialmente dañino en desarrollar bots que se encarguen de hacer el trabajo que la gente detesta. 

Por mucho que la inteligencia artificial le pueda haber generado una crisis de identidad a algunos trabajadores, también ha sido elogiada como una herramienta igualitaria para la industria tecnológica y todavía no existen pruebas de que ChatGPT esté dispuesta a liderar una rebelión de las máquinas en los próximos años.

Muchas empresas que trabajan con IA cuentan con especialistas en ética que se preocupan por desarrollar esta tecnología de forma responsable, pero estos equipos no pueden hacer bien su trabajo si otras cuestiones como la prisa por sacar productos se antepone al impacto que pueden tener en la sociedad. 

Además, la velocidad ha sido un factor decisivo hasta ahora. OpenAI se ha dado cuenta de que, si se mueve con la suficiente rapidez, puede protegerse de la competencia y convertirse en líder del sector, lo que ha llevado a Microsoft, Google y casi todos los demás a seguir su ejemplo.

Lanzar potentes modelos de inteligencia artificial para que el público juegue con ellos antes de que estén listos no mejora estas herramientas. Los usuarios no pueden ser utilizados para comprobar los posibles usos que tienen estas tecnologías porque eso conlleva que los desarrolladores tengan que ir detrás apagando fuegos

 

No todo el mundo quiere poner en pausa la IA

El manifiesto de los 1.000 expertos también tiene sus detractores, que defienden que no va en la dirección correcta.

Emily M. Bender, profesora de la Universidad de Washington, sostiene en un hilo de Twitter que Musk y los demás líderes tecnológicos caen en el ciclo del autobombo publicitario al centrarse en lo poderosa que puede llegar a ser la inteligencia artificial y no en el daño real que podría provocar. 

Grimmelman añade que estos líderes "llegan tarde a la fiesta" y que han abierto una caja de Pandora de posibles complicaciones para sí mismos. "Ahora que han firmado la carta, no pueden darse la vuelta y decir que no se pueden aplicar las mismas políticas a otras tecnologías, como los coches autónomos", apunta. 

Soluciones como una posible moratoria o una mayor regulación podrían o no llegar a buen puerto, pero al menos el debate ha cambiado.

La inteligencia artificial existe desde hace décadas; tal vez pueda esperar unos años más.

Conoce cómo trabajamos en Business Insider.