La inteligencia artificial está desatando una guerra moral en Silicon Valley: ¿quién ganará?

Hasan Chowdhury
| Traducido por: 
Elon Musk demandó a OpenAI el pasado 1 de marzo.
Elon Musk demandó a OpenAI el pasado 1 de marzo.Grzegorz Wajda/SOPA/Getty Images
  • Elon Musk ha demandado a OpenAI por considerar que ya no cumple su propósito original.
  • Es una batalla legal que ha empezado a dividir a Silicon Valley por motivos morales.
  • El enfoque de código cerrado de OpenAI respecto a la IA está creando bandos enfrentados.

La demanda de Elon Musk contra OpenAI, de Sam Altman, no sólo ha desencadenado una batalla entre dos antiguos cofundadores de una organización sin ánimo de lucro que ahora es tachada de "filial de facto" de Microsoft.

También ha reavivado el complejo de salvador de las mayores personalidades de Silicon Valley.

En el centro de la demanda de Musk contra OpenAI, presentada el 1 de marzo, está la opinión de que la empresa se ha desviado mucho de su misión fundacional de crear inteligencia artificial general (AGI) que beneficie a la humanidad.

Los abogados de Musk sostienen que el nuevo consejo de administración de la empresa —formado en noviembre tras un intento de derrocamiento de Altman como CEO— ha recurrido no sólo al desarrollo, sino al "perfeccionamiento de una AGI para maximizar los beneficios" de su multimillonario mecenas Microsoft.

Aunque hay quien se pregunta hasta qué punto Musk tiene razón en este caso, toda la historia ha incentivado a los líderes más testarudos de Silicon Valley a dar lecciones de moral sobre el futuro de la inteligencia artificial.

¿Hacia dónde vas, amigo de la IA?

Los líderes que encabezan el desarrollo de la IA han tenido que plantearse una pregunta importante antes de lanzar su tecnología al mundo: ¿abierta o cerrada?

La elección —uno de los puntos clave del argumento de Musk contra OpenAI— es fundamental, ya que presenta dos alternativas muy diferentes para dar rienda suelta a la IA.

La opción abierta —al menos en teoría— defiende modelos de IA transparentes sobre cómo se entrenan y desarrollan colectivamente por una comunidad global de desarrolladores. Meta ha apostado por este enfoque con Llama 2; también lo ha hecho la startup francesa Mistral AI.

Aunque existe la preocupación de que los modelos de código abierto sean vulnerables a abusos por parte de agentes malintencionados, sus defensores consideran que sus ventajas suponen una enorme ventaja frente a modelos cerrados como GPT-4 de OpenAI, que no comparten los datos que utilizan para entrenarse a puerta cerrada.

Sam Altman, CEO de OpenAI.
Sam Altman, CEO de OpenAI.Andrew Caballero-Reynolds/AFP via Getty Images

Tanto, que se están poniendo moralistas al respecto.

Parte de esta actitud sentenciosa saltó a la palestra el pasado fin de semana después de que el inversor de capital riesgo Marc Andreessen decidiera responder a las discrepancias con la disputa legal de Musk con OpenAI por parte de Vinod Khosla, que apostó 50 millones de dólares por la empresa en 2019.

Según Khosla, el enfoque de OpenAI debe considerarse en el contexto de la seguridad nacional. "Estamos en una guerra económica tecnológica con China y la IA que es una victoria obligada", escribió en X, antes de preguntar a Andreessen si abriría el código del Proyecto Manhattan.

Andreessen recurrió a la analogía que comparaba la IA actual con la producción de armas nucleares durante la Segunda Guerra Mundial.

Andreessen explicó que, si la IA era una tecnología tan importante como las armas militares, no debería dejarse en manos de unos pocos en San Francisco para protegerla, por ejemplo, de una campaña de espionaje dirigida por el Partido Comunista Chino.

"Lo que uno esperaría ver es un riguroso proceso de investigación y autorización de seguridad aplicable a todos, desde el CEO hasta el cocinero, con polígrafos mensuales y vigilancia interna constante", escribió Andreessen en X, antes de señalar que claramente eso no es lo que se ve en OpenAI.

Andreessen reconoció que la analogía era un poco "absurda", ya que la IA son matemáticas, no armas nucleares.

Pero su enfrentamiento verbal con Khosla en la red demuestra en gran medida que los argumentos a favor y en contra de modelos de código cerrado como GPT-4 están poniendo en el punto de mira los valores morales de Silicon Valley.

Habrá que seguir de cerca el desarrollo de la batalla legal. OpenAI comunicó a sus empleados que "discrepa categóricamente" de la demanda en un comunicado interno enviado a los empleados, según Bloomberg, y considera que Musk está arrepentido de haber dejado de estar relacionado con la compañía.

Pero habrá que ver con la misma atención de qué lado de la batalla se sitúan el resto de los líderes de la IA de Silicon Valley. Al fin y al cabo, sus propios principios podrían acabar siendo juzgados.

Conoce cómo trabajamos en Business Insider.