Elon Musk cofundó la empresa que está detrás de ChatGPT, pero ahora advierte de que la IA no regulada puede suponer un "gran peligro" para la humanidad

Taiyler Simone Mitchell
| Traducido por: 
Elon Musk, CEO de Tesla, Twitter o SpaceX, y cofundador de OpenAI.
Elon Musk, CEO de Tesla, Twitter o SpaceX, y cofundador de OpenAI.

Michele Tantussi/Reuters

  • Elon Musk cofundó y formó parte de la junta directiva de OpenAI, la compañía que está detrás de ChatGPT, pero ahora él mismo alerta de los peligros que entrañan los generadores de texto y la inteligencia artificial.
  • Según el multimillonario, legislar las actividades relacionadas con estas tecnologías puede "ralentizar un poco" su desarrollo, pero "también podría ser algo positivo".

Elon Musk ha advertido de que la inteligencia artificial que no está regulada por la legislación puede suponer una amenaza para la humanidad.

Este miércoles, el cofundador de OpenAI —la desarrolladora del generador de texto ChatGPT y del generador de imágenes Dall-E— ha afirmado durante una cumbre de mandatarios que se celebra estos días en Dubai (Emiratos Árabes Unidos) que la IA es "uno de los mayores riesgos para el futuro de la civilización", según CNBC.

ChatGPT ha sido uno de los principales motivos por los que se ha generado un debate en torno a cómo podría afectar la inteligencia artificial a los seres humanos en el futuro. "Puede ser tanto positiva como negativa y cuenta con un gran, gran potencial, y una gran capacidad", ha indicado Musk, refiriéndose a esta tecnología, de la que también ha asegurado que puede suponer un "gran peligro".

Inteligencia Artificial desarrollada

El CEO de Tesla ha declarado este miércoles, haciendo referencia al generador de texto de OpenAI, que "ha mostrado a la gente lo avanzada que se ha vuelto la IA". "La inteligencia artificial lleva tiempo siendo avanzada, pero no tenía una interfaz de usuario accesible para la mayoría de las personas", ha añadido el multimillonario.

Los organismos reguladores y los líderes de la industria tecnológica han debatido con bastante frecuencia sobre la importancia de legislar sobre IA como una forma de frenar la discriminación que impera en los modelos lingüísticos en los que se basan estas herramientas y evitar así que tome decisiones erróneas.

Incluso Sam Altman, actual CEO y cofundador de OpenAI, ha expresado que, en el peor de los escenarios, un mal funcionamiento de la inteligencia artificial podría llevar a que "se apagasen las luces para todos nosotros".

 

"Me preocupa más un uso indebido accidental a corto plazo", ha llegado a reconocer Altman. "Así que es imposible exagerar la importancia de la seguridad en la IA y el trabajo de alineación. Me gustaría ver que se desarrolla mucho, mucho más".

El actual CEO de Twitter, que abandonó la cúpula directiva de OpenAI en 2018, ha subrayado el mismo argumento del principal responsable de ChatGPT.

"Honestamente, creo que necesitamos regular la seguridad de la inteligencia artificial", ha apuntado Musk este miércoles. "Creo que, en realidad, supone un riesgo mayor que los automóviles, los aviones o la medicina para la sociedad".

El empresario añadió durante su intervención que dicha legislación podría "ralentizar la IA un poco, pero creo que eso también podría ser algo positivo".

Como fundador de Neuralink y consejero delegado de Tesla, compañías que en sus respectivos negocios utilizan de forma considerable la inteligencia artificial, Musk ya se ha pronunciado anteriormente sobre esta tecnología.

"Hasta que la gente no vea robots por la calle matando gente, no sabrá cómo reaccionar porque parece algo intangible", afirmó el multimillonario, según Futurism, durante la reunión estival de la Asociación Nacional de Gobernadores estadounidenses en 2017.

"La IA es un caso raro en el que creo que debemos ser proactivos en la regulación en lugar de reactivos. Porque pienso que para cuando seamos reactivos, ya será demasiado tarde", añadió.

Un año más tarde, durante una conferencia del South by Southwest (SXSW), Musk indicó que la inteligencia artificial disponía del potencial necesario para ser más peligrosa que las armas nucleares. Y, en 2020, aseguró que el proyecto DeepMind, de Google, le daba miedo porque la IA podía apoderarse del mundo.

Conoce cómo trabajamos en Business Insider.