La diffusione delle applicazioni basate su Intelligenza artificiale sta trasformando il modo in cui aziende e utenti interagiscono con la tecnologia, ma porta con sé una conseguenza spesso poco discussa: il forte aumento del fabbisogno energetico. Previsioni autorevoli indicano che i datacenter potrebbero consumare circa 1.200 TWh entro il 2030, un valore che riflette una crescita significativa rispetto alle stime precedenti. Inoltre, la potenza installata dedicata a server ottimizzati per AI e dotati di GPU potrebbe arrivare a circa 156 GW, a sottolineare la scala e la velocità dell’adozione.
Dietro questi numeri ci sono scelte tecnologiche, logistiche e di governance: dall’allocazione di risorse computazionali alla pianificazione dei siti fisici, fino al modo in cui organizzazioni e individui consumano modelli generativi.
Comprendere la relazione tra unità di lavoro in AI e consumi reali è oggi fondamentale per chi progetta infrastrutture e politiche pubbliche.
Perché i numeri contano: token, potenza e fonti rinnovabili
Nel mondo dei modelli linguistici la più piccola unità di lavoro è il token, ovvero il frammento di testo che viene processato per generare risposte. Ridurre l’energia richiesta per elaborare ogni token è un obiettivo tecnico ed economico: non basta consumare meno energia, bisogna farlo in modo sostenibile e conveniente. Aziende leader del cloud sostengono di alimentare i propri servizi con energia rinnovabile; ad esempio, alcuni provider dichiarano di avere il 100% di energia rinnovabile che alimenta i loro servizi cloud, un elemento importante ma che non elimina tutte le implicazioni della crescente domanda.
Il paradosso dell’efficienza percepita
Un’interazione con un motore generativo spesso sembra istantanea e priva di costi per l’utente. Tuttavia, la differenza energetica tra una ricerca tradizionale e una query generativa può essere molto ampia: stime indicano consumi molte volte superiori per singola richiesta, con picchi ancora maggiori quando sono coinvolti contenuti multimediali. La produzione di un’immagine ad alta risoluzione generata dall’AI può consumare, in termini comparativi, una quantità di energia paragonabile a metà della carica di uno smartphone, un esempio che aiuta a rendere tangibile il problema.
Impatto sulle organizzazioni: progettare con la sostenibilità al centro
Leader tecnologici e amministratori IT sono chiamati a rivedere le loro roadmap: ogni modello addestrato e ogni dataset mantenuto indefinitamente contribuisce all’aumento della carbon footprint.
È necessario chiedersi se certi carichi debbano funzionare in modo continuo oppure essere ottimizzati in termini di dimensione del modello e frequenza di addestramento. La disciplina applicata alla spesa finanziaria o alla gestione del rischio dovrebbe venire applicata anche al consumo di calcolo, sotto la lente della sostenibilità come criterio di progettazione architetturale.
Rationalizzare l’eredità digitale
Un altro aspetto cruciale è la gestione dei sistemi legacy: sovrapporre capacità AI a infrastrutture esistenti senza una razionalizzazione può tradursi in sprechi energetici. Detto in altri termini, la sostenibilità non è un optional da relegare a iniziative parallele; con l’arrivo massiccio dell’AI essa deve diventare parte integrante delle scelte progettuali, influenzando l’architettura dei sistemi e le priorità tecnologiche.
Pianificazione territoriale e responsabilità collettiva
La crescita dei datacenter non avviene in modo uniforme: in alcune aree si concentrano molte richieste di connessione e capacità, mettendo sotto pressione le reti elettriche locali. In certe giurisdizioni si sono registrate decine di domande di costruzione contemporanee, un segnale di tensione che richiede coordinamento pubblico e privato. Inoltre, manca uno standard unico per il carbon accounting delle attività digitali, il che rende opaca la misurazione dell’impatto ambientale dei carichi di lavoro.
Quando l’infrastruttura diventa rilevante per la collettività, la domanda su chi debba sostenere i costi di rete e gli aggiornamenti infrastrutturali diventa inevitabile. Trattare la crescita dell’AI come un bene pubblico non esime gli attori privati dalla responsabilità di contribuire in modo equo ai costi reali che generano.
Verso un nuovo patto tra tecnologia e società
In ultima analisi la sostenibilità dell’AI richiede un patto che metta insieme provider, imprese, regolatori e cittadini. Le metriche ambientali devono entrare nel processo decisionale architetturale, mentre un maggiore grado di consapevolezza pubblica può limitare l’uso frivolo di servizi energeticamente intensivi. Strumenti di contabilità del carbonio, tariffe che riflettano i costi reali e impegni sulle fonti rinnovabili sono tutti elementi che, combinati, permettono di mantenere la promessa dell’AI senza esaurire risorse critiche.
Il percorso non è semplice, ma è necessario: contenere l’impronta energetica dell’AI significa riprogettare abitudini, infrastrutture e politiche per garantire che la tecnologia continui a produrre benefici tangibili senza compromettere gli equilibri ambientali.

