in

Everpure lancia Evergreen One for AI e Datastream: consumi garantiti e pipeline automatizzate

Everpure amplia l'offerta con Evergreen One for AI e l'appliance Datastream per ridurre il 'scaling tax' sulle GPU e accelerare la preparazione dei dati per applicazioni AI

everpure lancia evergreen one for ai e datastream consumi garantiti e pipeline automatizzate 1773705093

L’evoluzione dell’infrastruttura AI passa sempre più dalla capacità di fornire dati rapidamente alle unità di calcolo più costose: le GPU. Everpure, il produttore che ha recentemente cambiato nome da Pure Storage, ha annunciato due mosse strategiche che puntano a rimuovere i colli di bottiglia tra storage e compute. Da un lato c’è Evergreen One for AI, un modello di consumo con garanzie di prestazione collegate al numero di GPU; dall’altro la beta di Datastream, un’appliance integrata pensata per automatizzare e orchestrare la preparazione dei dati destinati ai modelli.

Queste novità rispondono a problemi concreti: cluster GPU che restano sottoutilizzati a causa di storage incapace di sostenere throughput e contese di metadata, e team di dati che impiegano la maggior parte del tempo a rendere i dati fruibili per applicazioni come chatbot e agenti autonomi.

Everpure cerca così di trasformare un lavoro operativo ripetitivo in un servizio misurabile e prevedibile.

Evergreen One for AI: consumi vincolati alle GPU

Con Evergreen One for AI Everpure estende il suo modello di pagamento a consumo includendo la piattaforma di punta FlashBlade//EXA e introducendo SLA che prendono come metrica primaria il conteggio delle GPU. L’idea è semplice: assicurare che lo storage non sia più l’anello debole che costringe le GPU a rimanere inattive. La novità rispetto alle offerte Flex ed Evergreen One precedenti è proprio l’inclusione di FlashBlade//EXA, progettata per carichi di lavoro AI e HPC che richiedono elevatissimo throughput.

Per chi è pensata FlashBlade//EXA

FlashBlade//EXA si rivolge a scenari compresi tra grandi imprese e gli hyperscaler, dove i job di training erodono rapidamente la capacità del storage.

La piattaforma adotta un’architettura disaggregata che separa i percorsi di metadata e di bulk data, riducendo le contese e mantenendo il throughput previsto anche a scala molto ampia. In questo modo si abbassa il cosiddetto scaling tax, il costo legato all’inattività delle risorse di calcolo.

Datastream: automazione della pipeline RAG

La seconda novità è Datastream, un’appliance ‘single SKU’ in beta che combina GPU Nvidia e storage Everpure con un software integrato per affrontare il problema della data readiness. Datastream automatizza le fasi di ingest, curation e vectorizzazione, ossia tutte le attività che compongono la pipeline di RAG (retrieval-augmented generation), permettendo ai team di passare rapidamente da dati grezzi a set pronti per i modelli.

Integrazione e flessibilità

Il software alla base di Datastream è stato sviluppato internamente da Everpure ma supporta connessioni a fonti esterne, incluse infrastrutture di terze parti come Dell, HP e NetApp e storage nel cloud. Questa caratteristica consente all’appliance di diventare un hub centrale per la preparazione dei dati, indipendentemente dalla loro collocazione fisica, riducendo la necessità di sviluppare pipeline personalizzate per ogni ambiente.

Validazione tramite benchmark e casi d’uso

Per sostenere le promesse di prestazione, Everpure ha pubblicato risultati di benchmark significativi. Nei test MLPerf 2.0 l’azienda ha riportato risultati di checkpointing che competono con i principali vendor, mentre nei test SPECstorage e IO500 sono stati evidenziati guadagni percentuali rispetto ad alternative concorrenti. Questi test mirano a dimostrare che l’hardware riesce a sostenere carichi reali e a mantenere elevate percentuali di utilizzo delle GPU.

Un esempio pratico: provider cloud GPU

Un caso riportato riguarda un fornitore privato di cloud GPU che impiega FlashBlade//EXA per alimentare una piattaforma di GPU-as-a-service: grazie alla disaggregazione del metadata core, il provider riesce a gestire elevata concorrenza e throughput su un fabric ad altissima banda senza sacrificare l’affidabilità, permettendo ai clienti di consumare risorse dedicate senza doversi preoccupare della complessità sottostante.

Conseguenze operative

Il risultato atteso è duplice: ridurre le attività manuali che rallentano l’adozione dell’AI e garantire che l’investimento in GPU generi valore reale. Implementare una piattaforma che unisca storage ad alte prestazioni, SLA basati su GPU e automazione delle pipeline di dati significa trasformare proof of concept dispendiosi in carichi di lavoro produttivi e ripetibili.

In definitiva, le proposte di Everpure mirano a ridurre il gap tra potenza di calcolo teorica e utilizzo effettivo: con Evergreen One for AI e Datastream l’azienda offre strumenti per misurare e ottimizzare l’intera filiera dati-serve, mettendo al centro la continuità del throughput e la semplicità operativa richiesta dalle moderne infrastrutture AI.

What do you think?

Scritto da Staff

cosa cambia con il dlgs 20 febbraio 2026 n 30 obblighi su etichette riparabilita e trasparenza 1773702707

Cosa cambia con il D.Lgs. 20 febbraio 2026, n. 30: obblighi su etichette, riparabilità e trasparenza