Las GPU de Nvidia son tan difíciles de conseguir que los inversores las están comprando para las startups en las que invierten

Alistair Barr
| Traducido por: 
GitHub CEO Nat Friedman
GitHub
  • Las GPU de Nvidia son una pieza clave para entrenar a los grandes modelos que hay detrás de ChatGPT y otras herramientas de IA generativa. 
  • Estos chips son muy caros y escasos, lo que da ventaja a las grandes tecnológicas sobre las pequeñas startups, pero hay inversores que están intentando ayudar.

Las GPU de Nvidia son la pieza clave que alimenta el cada vez más amplio ecosistema de la inteligencia artificial. Para ser claros, sin la potencia que proporcionan los chips A100 y H100 de la compañía, ChatGPT, así como la mayoría de chatbots de la actualidad de IA generativa, no existirían. 

Con la explosión de este tipo de servicios, muchas startups están centrando su negocio en IA generativa, pero hay un problema: existe tanta demanda de este tipo de componentes cruciales que Nvidia y su socio fabricante TSMC no pueden fabricar suficientes.

Gracias a esta enorme demanda, eso sí, Nvidia ha logrado ganar casi 200.000 millones de dólares en capitalización bursátil un solo día tras anunciar unas previsiones de mayores ingresos para sus chips de GPU. ¿La contraparte? Las startups están teniendo problemas para adquirir estas piezas porque los precios se han disparado y la escasez es habitual

Esta situación está dando a las grandes tecnológicas una enorme ventaja competitiva sobre las empresas emergentes porque pueden hacer frente a esos gastos. Además, si realmente se quiere competir en este nuevo mundo, es necesario entrenar tu propio modelo de IA, algo que requiere una enorme cantidad de GPU.

Nvidia presenta nuevos productos de IA entre los que destaca una supercomputadora y un sistema de red

Microsoft, Google e incluso Adobe lo tienen claro y están entrenando grandes modelos de lenguaje con enormes cantidades de datos y, al tener miles de millones de dólares para invertir en este costoso proceso, pueden estar por encima del resto

En este sentido, muchas startups no pueden permitirse este gasto o peor: no logran comprar chips. Esto es algo a lo que incluso se están enfrentando las grandes tecnológicas como Microsoft, que están racionando el acceso interno a las GPU para ahorrar potencia de procesamiento de Bing, según The Information

Para tratar de hacer todo más justo, algunos inversores de capital riesgo están tomando medidas inusuales para ayudar a estas startups. 

Nat Friedman, exconsejero delegado de GitHub, y Daniel Gross, que ha respaldado GitHub, Uber y muchas otras empresas de éxito, han comprado miles de GPU y han creado su propio sistema en la nube. 

Andromeda Cluster cuenta con 2.512 GPU H100 y es capaz de entrenar un modelo de IA de 65.000 millones de parámetros en 10 días, según explican. Lo curioso es que este sistema está solo disponible para las startups respaldadas por Friedman y Gross.

"Los inversores individuales hacen más por apoyar a las empresas de nueva creación que hacen un uso intensivo de la informática que la mayoría de los gobiernos. (¡Proyecto muy interesante!)", ha tuiteado Jack Clark, cofundador de la empresa de IA Anthropic.

Conoce cómo trabajamos en Business Insider.