ChatGPT consume 55.000 veces más electricidad que la media de los hogares de España

Lakshmi Varanasi
| Traducido por: 
Ilustración de ChatGPT.

Lionel Bonaventure

  • ChatGPT consume más de medio millón de kilovatios-hora (kWh) de electricidad al día, según ha informado el New Yorker. En comparación, el hogar medio de España consume unos 9 kWh diarios. 
  • Resulta especialmente complicado calcular cuánta electricidad consume la incipiente industria de la inteligencia artificial.

La inteligencia artificial consume mucha electricidad

Tal y como ha publicado The New Yorker, el generador de texto por IA de OpenAI, ChatGPT, consume probablemente más de medio millón de kilovatios-hora de electricidad (kWh) para responder a unos 200 millones de peticiones al día.

La revista ha especificado que un hogar medio estadounidense consume unos 29 kWh al día, mientras que un hogar medio de España consume unos 9 kWh diarios. Dividiendo la cantidad de electricidad que ChatGPT utiliza al día por la cantidad utilizada por el hogar medio, se obtiene que el chatbot utiliza más de 55.000 veces la cantidad de electricidad que necesita una casa en España (y 17.000 en el caso de un hogar estadounidense).

Eso es mucha electricidad... Y si la inteligencia artificial generativa se expande todavía más, podría consumir mucha más energía.

Por ejemplo, si Google integrase la IA en cada búsqueda, consumiría unos 29.000 millones de kilovatios-hora al año, según los cálculos realizados por Alex de Vries, científico de datos del Banco de los Países Bajos (DNB), para la revista de energía sostenible Joule. Es más electricidad que la que consumen países como Kenia, Guatemala y Croacia en un año, según el New Yorker.

"La inteligencia artificial consume mucha energía", explicaba de Vries a Business Insider. "Cada uno de estos servidores de IA puede consumir tanta energía como más de 12 hogares británicos juntos. Así que las cifras se acumulan muy rápidamente".

Calcular cuánta electricidad consume la incipiente industria de la inteligencia artificial es difícil de determinar. Existe una gran variabilidad en el funcionamiento de los grandes modelos de IA y las grandes empresas tecnológicas —que han impulsado su auge— no han sido especialmente transparentes acerca de su consumo de energía, tal y como han señalado medios como The Verge.

 

Sin embargo, en su artículo, de Vries presenta un cálculo aproximado basado en las cifras de Nvidia, a la que algunos expertos han apodado como "el Cisco de la inteligencia artificial". Según cifras de New Street Research recogidas por CNBC, el fabricante de microchips tiene alrededor del 95% de la cuota de mercado de las tarjetas gráficas que se necesitan para trabajar con IA.

El científico de datos del DNB calculó en su artículo académico que, para 2027, todo el sector de la inteligencia artificial consumirá entre 85 y 134 teravatios-hora (mil millones de veces un kWh) al año.

"Estamos hablando de que el consumo eléctrico de la IA podría suponer medio punto porcentual del consumo eléctrico mundial en 2027", explicaba De Vries a The Verge. "Creo que es una cifra bastante significativa".

Algunas de las empresas que más electricidad consumen en el mundo palidecen en comparación con esa cifra, según las estimaciones llevadas a cabo por este medio de comunicación y basadas en un informe de Consumer Energy Solutions

Por ejemplo, Samsung utiliza cerca de 23 teravatios-hora, mientras que gigantes tecnológicos de la talla de Google o Microsoft emplean algo más de 12 y 10 teravatios-hora respectivamente para hacer funcionar sus centros de datos, redes de comunicaciones y dispositivos de usuario.

OpenAI no ha respondido inmediatamente a la petición de declaraciones de Business Insider.

Conoce cómo trabajamos en Business Insider.