Per anni il passaggio al cloud pubblico è stato presentato come la soluzione più efficiente e quindi anche la più sostenibile. Questa narrazione poggia sull’idea che i grandi hyperscaler possano ottimizzare consumi e risorse meglio di qualunque singola azienda. Tuttavia, a partire dal 2026 questa visione appare sempre più semplificata: la trasparenza nelle misurazioni e la coerenza delle definizioni sono diventate il vero banco di prova per valutare l’impatto ambientale di carichi di lavoro digitali.
Il problema non è soltanto tecnico: è di contabilità e fiducia. Provider come AWS, Microsoft e Google comunicano progressi verso il net-zero, ma usano metriche e strumenti diversi. Questo rende difficile per i responsabili IT sapere se spostando un servizio da un fornitore all’altro si ottiene una riduzione reale delle emissioni o semplicemente un diverso modo di misurarle.
Perché i numeri non sono confrontabili
Al centro della confusione c’è la distinzione tra reporting market-based e realtà location-based. Molte dashboard di sostenibilità mostrano risultati market-based, cioè legati a strumenti finanziari come i crediti per l’energia rinnovabile. In pratica, un data center può comparire come «100% rinnovabile» perché il provider ha acquistato RECs da progetti distanti, anche se l’elettricità locale che alimenta i server deriva da fonti fossili. Questa discrepanza impedisce confronti diretti e crea un rischio di greenwashing involontario o intenzionale.
Le strategie dei grandi provider
Alcune eccellenze tentano di colmare il gap: Google promuove l’approccio 24/7 Carbon-Free Energy per abbinare consumo e produzione pulita ogni ora; Microsoft ha spinto su iniziative tipo Community-First per migliorare le reti locali; AWS ha fatto largo uso di RECs su larga scala.
Queste differenze di metodo significano che due report apparentemente simili possono nascondere storie completamente diverse sul piano climatico.
Il carbonio nascosto dentro i server
Il segmento meno visibile, ma altrettanto determinante, è il carbonio incorporato nell’hardware. Con la corsa all’AI e ai chip specializzati come gli H100 e i B200, le emissioni legate a estrazione dei materiali, produzione e trasporto delle macchine sono cresciute. Secondo i dati dell’iMasons Climate Accord di gennaio 2026, il carbonio incorporato può oggi rappresentare tra il 40% e il 50% delle emissioni totali di un data center lungo il suo ciclo di vita; eppure pochi provider espongono questo dettaglio nelle loro dashboard standard.
Perché conta la durata e il ricambio
Server che vengono sostituiti ogni pochi anni portano con sé un conto ambientale ricorrente.
Senza una misura trasparente del lifecycle emissions, i calcoli che considerano solo l’energia elettrica in funzione sottostimano significativamente l’impatto reale. Per il responsabile IT questo significa che un report di sostenibilità basato unicamente sui consumi operativi racconta solo una parte della storia.
Efficienza dei modelli e pratiche da adottare
La domanda di capacità per l’AI ha spinto verso modelli sempre più grandi, ma la strada alternativa è l’efficienza dei modelli. Tecniche come la Model Distillation e l’adozione di Small Language Models (SLMs) specializzati permettono di ottenere risultati comparabili consumando molto meno. In certi casi, l’uso di modelli più leggeri e tarati sul compito ha mostrato riduzioni del consumo energetico fino al 90% rispetto all’esecuzione di modelli iperscalari per compiti semplici.
Per i team IT questo si traduce in due leve concrete: ottimizzare l’architettura dei modelli e scegliere hardware proporzionato al carico. Entrambi gli approcci riducono il bisogno di upgrade frequenti e abbassano il total carbon footprint di un servizio digitale.
Azioni pratiche per i leader IT
Il passaggio fondamentale è spostare l’attenzione dalla fiducia alla verifica. In primo luogo, i responsabili devono richiedere dati location-based e orari per orari sul mix energetico del sito che ospita i loro carichi. Se un provider non è in grado di fornire la carbon intensity della griglia locale al momento dell’esecuzione, la sua trasparenza è insufficiente. In secondo luogo, è necessario integrare nelle valutazioni il carbonio incorporato dell’hardware e adottare metriche di efficienza dei modelli come standard interni.
Infine, è essenziale spingere per standard condivisi: l’adozione pubblica e obbligatoria di riferimenti come ISO/IEC 30134-2:2026 – aggiornati a gennaio 2026 – aiuterebbe a uniformare metodi e report. Fino ad allora, la responsabilità di dimostrare riduzioni reali ricade sulle imprese che consumano servizi cloud, non solo sui fornitori che li vendono.
In sintesi, il cloud non è un servizio etereo ma un’industria fisica che consuma materiali ed energia. Per trasformare le promesse in risultati climatici concreti, i leader IT devono diventare anche auditor della supply chain e usare metriche che misurino ciò che conta davvero.

