Meta ha annunciato un nuovo accordo con AWS che prevede la fornitura di milioni di chip Graviton5 da integrare nei suoi data center. Questi processori saranno impiegati in particolare per far girare gli agenti AI, ovvero sistemi in grado di svolgere una sequenza di azioni autonome per raggiungere un obiettivo specifico. L’intenzione è sfruttare la combinazione tra hardware ottimizzato e architetture software per migliorare tempi di risposta e affidabilità nel calcolo agentico.
Meta già si appoggia da anni a infrastrutture cloud esterne, incluse quelle di Google Cloud e Microsoft Azure, oltre a AWS. In questo contesto la scelta dei Graviton5 rappresenta una estensione della partnership: i chip saranno installati nei centri dati dell’azienda di Menlo Park e destinati a carichi che traggono vantaggio da capacità di elaborazione efficiente e a bassa latenza.
Contestualmente, qualche settimana prima erano stati introdotti i chip MTIA dedicati all’addestramento e all’inferenza dei modelli AI.
L’accordo e l’impiego previsto
L’intesa con AWS non è solo un ordine massiccio di processori: è una scelta progettuale orientata all’esecuzione degli agenti AI. Questi componenti, basati su architettura Arm, sono pensati per carichi in cui la capacità di gestire molteplici thread e ridurre la latenza di esecuzione è fondamentale. I Graviton5 saranno quindi impiegati nelle fasi operative in cui gli agenti devono interagire con servizi esterni, orchestrare task e rispondere in tempo reale alle esigenze degli utenti, differenziandosi dall’hardware più adatto all’addestramento massivo dei modelli.
Come gli agenti AI sfruttano le CPU
Per chiarire: un agente AI effettua una serie di passi logici e operativi per completare un compito complesso, spesso distribuendo sottocompiti a unità specializzate.
In questo flusso le CPU svolgono un ruolo cruciale nel coordinamento, nella gestione della logica sequenziale e nelle operazioni che richiedono latenza bassa e controllo puntuale delle risorse. Il design dei Graviton5, ottimizzato per thread paralleli e cache maggiorate, si adatta proprio a questo tipo di workload dove la reattività è prioritaria.
Caratteristiche tecniche di Graviton5
I Graviton5 sono CPU realizzate a processo produttivo a 3 nanometri con un totale di 192 core e una cache L3 significativamente più ampia rispetto alla generazione precedente (circa cinque volte maggiore). Questi elementi combinati consentono, secondo le specifiche, miglioramenti nelle prestazioni fino al 25% e una riduzione della latenza nelle operazioni critiche. La maggiore cache aiuta a limitare gli accessi alla memoria lenta, mentre l’ampio numero di core favorisce il parallelismo nelle attività concorrenti tipiche degli agenti.
Confronto con Trainium e GPU
Nel panorama hardware per l’AI è utile distinguere i ruoli: i chip Trainium e le GPU eccellono nell’addestramento di modelli, grazie alla loro abilità di eseguire matrici e tensor op a elevata parallelizzazione. Al contrario, i Graviton5 sono pensati per il runtime e l’elaborazione agentica, dove la gestione di molteplici task, la latenza contenuta e l’efficienza energetica sono priorità. La combinazione di entrambe le famiglie hardware permette di ottimizzare sia la fase di training sia quella di esecuzione reale dei sistemi intelligenti.
Implicazioni per i modelli e l’ecosistema AI
Amazon nel suo comunicato ha citato il ruolo di Meta nello sviluppo dell’AI agentica, probabilmente riferendosi alle nuove famiglie di modelli come Muse.
All’interno di questa linea è stato presentato Muse Spark, un modello progettato per scomporre domande complesse in compiti più piccoli e assegnarli a subagenti. L’integrazione di Graviton5 nei data center di Meta può facilitare l’esecuzione fluida di questi approcci modulati, portando a interazioni più rapide e a una gestione più efficiente delle risorse computazionali.
La prospettiva, oltre all’incremento delle performance, è un’architettura più modulare dove CPU ottimizzate e acceleratori specializzati lavorano insieme per supportare agenti sempre più autonomi. Questo approccio influenzerà non solo l’infrastruttura interna di Meta, ma anche le scelte degli operatori cloud e delle aziende che sviluppano applicazioni basate su workflow agentici.
Nota: questo articolo contiene link di affiliazione; eventuali acquisti o ordini effettuati tramite tali link consentono al sito di ricevere una commissione nel rispetto del codice etico. Le offerte potrebbero variare dopo la pubblicazione.

