logo header alta
blog

Le enormi bollette dell'AI

Entro il 2050 i centri di calcolo informatico avranno bisogno di più energia elettrica, mille volte in più di oggi.

 
bolletta ai

Al World Economic Forum di Davos, Toshihaki Higashihara, presidente del conglomerato giapponese Hitachi, ha fatto una dichiarazione semplice ma allarmante: secondo una stima, entro il 2050 i data center, o cloud, richiederanno mille volte più energia elettrica rispetto ad oggi a causa dei consumi legati all’intelligenza artificiale (AI). 

 

ANCHE IN ITALIA LA QUESTIONE NON CAMBIA:

Renato Mazzoncini, amministratore della società lombarda di servizi in rete A2A, ha dichiarato che la sua azienda dovrà triplicare la potenza elettrica a Milano per sostenere picchi di consumo molto più alti.

Il motivo? Una singola ricerca su ChatGPT, la piattaforma di intelligenza artificiale di OpenAI, consuma tre volte l’energia che Google utilizzava per fornire la stessa risposta.

 

UN CONSUMO DI ENERGIA EQUIVALENTE A QUELLO SVIZZERO:

Durante una conferenza dell’Aspen Institute Italia a Venezia, Alberto Sangiovanni-Vincentelli, professore di Ingegneria Elettrica e Scienze Informatiche presso l’Università della California a Berkeley, ha illustrato la situazione con una metafora: «Attualmente, l’uso dei server per addestrare le reti neurali, che costituiscono solo una parte dei sistemi di intelligenza artificiale, consuma tanta energia elettrica quanto la Svizzera. Potremmo avere nuove architetture più efficienti in futuro – ha osservato Sangiovanni-Vincentelli – ma questa è la situazione attuale».

 

PER QUALE MOTIVO SERVE TUTTA QUESTA POTENZA:

L’intelligenza artificiale utilizza i data center in modo intensivo, poiché i cosiddetti “large language model”, i sistemi che permettono alle piattaforme di AI di prevedere le risposte alle domande, vengono addestrati su enormi quantità di dati per fare “inferenze” sui risultati statisticamente più probabili. Solo la creazione di questa intelligenza artificiale “generativa” richiede una quantità enorme di energia. Ad esempio, quando chiedete a ChatGPT di scrivere un’email per candidarvi a un lavoro, stabilire un contatto d’affari o scrivere il vostro prossimo compito di italiano su Leopardi, questa richiesta genera un significativo consumo di energia elettrica: attraverso i data center, il sistema analizza milioni o miliardi di esempi già presenti in rete per fornire la risposta più probabile.

 

LE DIMENSIONI DEI MICROCHIP NON BASTANO:

Giorgio Metta, direttore scientifico dell’Istituto Italiano di Tecnologia, afferma: «A parità di capacità di calcolo, i consumi dei microchip diminuiscono grazie alla riduzione delle dimensioni dei transistor: più sono piccoli, meno consumano. Tuttavia, siamo entrati in una fase in cui la crescente domanda di calcolo sta accelerando più velocemente della capacità di rendere i chip più piccoli ed efficienti dal punto di vista energetico».

Oggi, un tipico data center negli Stati Uniti consuma dieci volte più megawatt rispetto a dieci anni fa, e si prevede che il fabbisogno energetico dell’AI quintuplicherà entro il 2025, aumentando il suo peso relativo sul consumo totale dei data center.

articoli recenti