El algoritmo de la IA ni es “tan sostenible” ni tan “verde”

Las centrales de datos y computación consumen cada vez más energía
0
353
PBC -comparte

La inteligencia artificial consume mucha electricidad. Tal y como ha publicado The New Yorker, el generador de texto por IA de OpenAI, ChatGPT, consume probablemente más de medio millón de kilovatios-hora de electricidad (kWh) para responder a unos 200 millones de peticiones al día.

Los centros de datos ya consumen muchísima energía. La IA provocará que esa cifra se triplique en 2030

Eso es mucha electricidad… Y si la inteligencia artificial generativa se expande todavía más, podría consumir mucha más energía.

Más energía que toda India. Según sus datos, los centros de datos consumen a nivel global unos 460 TWh de electricidad anual, lo que equivale a todo lo que consume Alemania en un año. Si las estimaciones que Haas maneja se cumplen, en 2030 ese consumo se multiplicará por tres, lo que significará que los centros de datos globales consumirán más de lo que consume India, el país más poblado del mundo.

“La inteligencia artificial consume mucha energía”, explicaba de Vries a Business Insider. “Cada uno de estos servidores de IA puede consumir tanta energía como más de 12 hogares británicos juntos. Así que las cifras se acumulan muy rápidamente”.

Calcular cuánta electricidad consume la incipiente industria de la inteligencia artificial es difícil de determinar. Existe una gran variabilidad en el funcionamiento de los grandes modelos de IA y las grandes empresas tecnológicas —que han impulsado su auge— no han sido especialmente transparentes acerca de su consumo de energía, tal y como han señalado medios como The Verge.

¿Acaba Apple de ser más astuta que todos en el ámbito de la inteligencia artificial?

Sin embargo, en su artículo, de Vries presenta un cálculo aproximado basado en las cifras de Nvidia, a la que algunos expertos han apodado como “el Cisco de la inteligencia artificial“. Según cifras de New Street Research recogidas por CNBC, el fabricante de microchips tiene alrededor del 95% de la cuota de mercado de las tarjetas gráficas que se necesitan para trabajar con IA.

El científico de datos del DNB calculó en su artículo académico que, para 2027, todo el sector de la inteligencia artificial consumirá entre 85 y 134 teravatios-hora (mil millones de veces un kWh) al año.

Algunas de las empresas que más electricidad consumen en el mundo palidecen en comparación con esa cifra, según las estimaciones llevadas a cabo por este medio de comunicación y basadas en un informe de Consumer Energy Solutions.

Por ejemplo, Samsung utiliza cerca de 23 teravatios-hora, mientras que gigantes tecnológicos de la talla de Google o Microsoft emplean algo más de 12 y 10 teravatios-hora respectivamente para hacer funcionar sus centros de datos, redes de comunicaciones y dispositivos de usuario.

Fuentes

https://www.businessinsider.es/chatgpt-consume-55000-veces-electricidad-hogar-medio-1371358

https://www.xataka.com/robotica-e-ia/ia-tiene-sed-insaciable-energia-2030-consumira-como-india-afirman-arm

 

Print Friendly, PDF & Email

Comments are closed.

Las cookies nos permiten ofrecer nuestros servicios. Al utilizar nuestros servicios, aceptas el uso que hacemos de las cookies. Más información.