Il passaggio massiccio dei carichi di lavoro verso il cloud non è solo una questione tecnica: è una scelta che porta con sé impatti ambientali concreti. Oggi le piattaforme cloud diventano il fulcro delle architetture aziendali soprattutto per i progetti di intelligenza artificiale, aumentando in modo significativo consumi energetici e richieste di risorse. Di conseguenza, le valutazioni di procurement devono considerare la trasparenza delle emissioni, l’allocazione del carbonio incorporato e la pressione sulle risorse locali, come l’acqua.
Molti provider presentano dashboard e report che migliorano la visibilità, ma la comparabilità tra offerte rimane problematica. Per un buyer corporate, capire quanto inquina un singolo carico di lavoro eseguito in una regione specifica e in un momento preciso è ancora complesso. Questa difficoltà diventa più urgente con la crescita degli investimenti in AI, che porta dirigenti e team finanziari a scrutinare non solo i costi, ma anche gli impatti ambientali e sociali delle infrastrutture digitali.
Dati pubblici dei hyperscaler: luci e ombre
I grandi cloud provider comunicano metriche simili, ma i dettagli variano. AWS ha dichiarato di aver abbinato il 100% dell’elettricità consumata con energie rinnovabili nel 2026 e riporta un PUE globale di 1,15 e un WUE di 0,15 L/kWh, oltre a strumenti clienti per la rendicontazione delle emissioni. Microsoft, per l’anno fiscale ’25, indica un PUE globale di 1,17 e un WUE di 0,27 L/kWh per i Data center di cui detiene il pieno controllo, offrendo dashboard per monitorare l’impatto emissivo. Google fornisce dati sia market-based sia location-based e pubblica indicatori regionali di energia a bassa intensità di carbonio e la variabilità di rete.
Dove manca l’uniformità
Nonostante le pubblicazioni, manca uno standard che permetta di confrontare in modo diretto il profilo emissivo dello stesso carico tra AWS, Azure e Google Cloud. Le allocazioni dell’embodied carbon — ossia le emissioni associate a server, GPU, rete e strutture — sono ancora poco granulari per i clienti. Analogamente, i dati idrici sono divulgati in modo disomogeneo: metriche aggregate come il WUE non sempre rivelano la quota acqua-attribuibile a workload eseguiti in regioni soggette a stress idrico.
AI, efficienza progettuale e impatto locale
L’avvento dell’AI sta mettendo in luce queste lacune. I provider stanno adattando i progetti dei data center per fronteggiare la domanda crescente: Microsoft parla di progettazioni con raffreddamento diretto al chip in grado di evitare oltre 125 milioni di litri di evaporazione d’acqua per struttura ogni anno, mentre AWS enfatizza i benefici di efficienza della propria silicon design, come Graviton e Trainium.
Il Google 2026 Environmental Report si concentra esplicitamente su energia, AI e resilienza, e ora include l’emissione da inferenza AI in servizi come Vertex AI e Document AI.
Impatto sulle comunità
I data center non sono entità astratte: consumano elettricità dalla rete locale, occupano territorio e possono esercitare pressione su risorse idriche già limitate. Microsoft cita iniziative di gestione idrica come la Quincy Water Reuse Utility, che riduce drasticamente il consumo idropotabile e restituisce volumi significativi per usi civili, mentre AWS segnala programmi di reintegrazione idrica che puntano a restituire oltre 18 miliardi di litri all’anno alle comunità. Tuttavia, un’inchiesta del 2026 del Guardian ha evidenziato l’espansione di data center in regioni con stress idrico, richiamando l’attenzione sulla necessità di report più completi che includano impatti locali e sociali.
Cosa devono chiedere le aziende ai provider
Per rendere la sostenibilità parte integrante dell’architettura e degli acquisti, le imprese devono cambiare approccio. È fondamentale esigere dati sia market-based sia location-based, richiedere report per servizio, regione, progetto e mese e ottenere visibilità su embodied carbon, consumi energetici legati all’AI e intensità idrica per workload. Inoltre, non affidarsi solo alle dashboard native: gli strumenti di terze parti che normalizzano i dati tra cloud sono oggi essenziali per decisioni di procurement affidabili.
Inserire questi requisiti direttamente negli RFP per cloud e AI, invece di considerarli opzionali, è una prassi che riduce il rischio reputazionale e consente scelte basate su confronti praticabili. La competizione tra hyperscaler non verrà più decisa soltanto da accesso ai modelli, disponibilità di GPU o prezzo per prestazione: la trasparenza sulla sostenibilità, la resilienza infrastrutturale e la credibilità locale diventeranno elementi competitivi determinanti. Per chi implementa AI su larga scala, la trasparenza ambientale sta rapidamente diventando uno standard minimo da soddisfare.

