in

Nvidia e Marvell: come l’investimento da 2 miliardi spinge NVLink Fusion

Nvidia stringe un accordo strategico con Marvell: l'obiettivo è offrire alternative integrate all'interno della piattaforma NVLink Fusion e accelerare l'adozione di infrastrutture AI rack-scale

Nvidia e Marvell: come l'investimento da 2 miliardi spinge NVLink Fusion

L’ecosistema dell’infrastruttura per l’intelligenza artificiale sta cambiando passo: Nvidia ha investito 2 miliardi di dollari in Marvell per legare l’azienda di semiconduttori alla piattaforma NVLink Fusion. Questa operazione non è solo un’iniezione di capitale, ma un accordo tecnico che permette a Marvell di inserire XPUs personalizzate e soluzioni di networking compatibili con NVLink all’interno di rack progettati attorno alla tecnologia Nvidia.

Alla base dell’intesa c’è l’intenzione di dare ai clienti più scelta nello sviluppare infrastrutture AI eterogenee, combinando acceleratori non-Nvidia con gli elementi dell’ecosistema proprietario: CPU Vera, interfacce ConnectX, DPU BlueField, l’interconnessione NVLink e gli switch Spectrum-X. Il risultato promesso è una maggiore flessibilità nella costruzione di Data center e soluzioni edge che rimangono compatibili con lo stack tecnologico e la supply chain di Nvidia.

Meccanica della collaborazione e componenti chiave

La piattaforma NVLink Fusion è pensata come un’architettura rack-scale in cui siliconi di terze parti possono comunicare a bassa latenza e alta larghezza di banda con le risorse Nvidia. Nel quadro dell’accordo, Marvell fornirà XPUs personalizzate e soluzioni di networking scale-up compatibili con NVLink, mentre Nvidia metterà a disposizione gli altri elementi dell’infrastruttura rack, incluse CPU, NIC, DPU, interconnessioni NVLink e switch.

Cos’è NVLink Fusion e perché conta

NVLink Fusion consente a acceleratori non proprietari di essere integrati in un tessuto ad alta capacità progettato da Nvidia: l’approccio punta a offrire comunicazioni uniformi tra GPU, CPU e altre unità di calcolo. Questa struttura permette di mantenere la compatibilità con lo stack operativo e con la catena di approvvigionamento globale di Nvidia, garantendo che ogni rack includa almeno un componente Nvidia per funzionare all’interno del programma.

Reti di telecomunicazione e interconnessioni fotoniche

Un’altra area di collaborazione riguarda la trasformazione delle reti di telecomunicazione in infrastrutture AI: i partner lavoreranno con Aerial, la piattaforma di Nvidia per l’AI-RAN, per portare capacità AI direttamente nella rete radio, mirando a 5G/6G e oltre. Parallelamente, le tecnologie di silicon photonics e le interconnessioni ottiche giocano un ruolo centrale per mantenere integrità del segnale e scalabilità man mano che i cluster AI crescono oltre le distanze sostenibili con segnali elettrici.

Impatto delle soluzioni ottiche

Marvell dispone di competenze in DSP ottici e moduli pluggabili utilizzati nei data center; l’integrazione di tessuti ottici riduce i vincoli fisici e permette di distribuire inferenze e training su rack più estesi.

L’unione di capacità analogiche ad alte prestazioni, processamento ottico e custom silicon mira a migliorare efficienza energetica e latenza delle infrastrutture AI.

Strategia commerciale e dinamiche di mercato

L’operazione assume un rilievo strategico perché Marvell è anche un fornitore di ASIC personalizzati per hyperscaler come AWS, Microsoft e Google, che cercano alternative ai tradizionali GPU. Investendo in Marvell e integrando le sue soluzioni in NVLink Fusion, Nvidia non solo amplia il suo ecosistema, ma si assicura un ruolo economico anche quando i clienti scelgono acceleratori diversi dalle sue GPU.

Questo approccio trasforma la tendenza verso siliconi personalizzati in una opportunità: Nvidia mantiene controllo sull’interoperabilità e sulla fornitura di elementi critici dell’infrastruttura, mentre i partner ottengono la possibilità di far comunicare i loro chip attraverso un tessuto già collaudato.

L’accordo segue mosse simili sul fronte delle collaborazioni, tra cui una partnership con Nokia per integrare soluzioni AI-RAN nella sua offerta RAN.

Conseguenze per operatori e data center

Per i fornitori di servizi cloud e per i grandi operatori di data center, l’accordo promette maggiore libertà nel progettare stack ibridi: potranno combinare GPU Nvidia, XPUs Marvell e infrastrutture di rete avanzate in rack compatibili con NVLink. Questo significa opzioni più ampie per ottimizzare costi, performance e consumo energetico senza rinunciare all’integrazione con lo stack software e l’ecosistema di Nvidia.

Rimane comunque aperta la competizione con iniziative alternative come il consorzio che spinge standard diversi dall’interconnessione proprietaria; tuttavia, la forza di un’infrastruttura già distribuita e il legame con partner di produzione e toolchain rendono NVLink Fusion una proposta concreta per chi deve scalare rapidamente servizi di inferenza e training AI.

What do you think?

Scritto da Stefano Galli

Agente immobiliare senior e giornalista. 15 anni nel mercato residenziale italiano.

Lucchetti per bici: guida pratica ai modelli più sicuri

Lucchetti per bici: guida pratica ai modelli più sicuri