Negli ultimi anni, l’intelligenza artificiale (AI) è emersa come una forza inarrestabile nel panorama tecnologico, nonostante le continue speculazioni riguardo a una potenziale bolla di investimento. Sebbene ci siano preoccupazioni sul mercato dei fornitori, la tecnologia AI è ben consolidata e diffusa tra le organizzazioni di varie dimensioni, pronte a sfruttare i suoi benefici.
Le applicazioni AI, tuttavia, pongono sfide significative per l’infrastruttura IT, in particolare per quanto riguarda le necessità di archiviazione. Con l’aumento delle quantità di dati durante le fasi di addestramento, è cruciale garantire una gestione efficace dei dati lungo il loro ciclo di vita.
Fasi di lavoro dell’AI: addestramento e inferenza
Le operazioni legate all’AI possono essere suddivise in due fasi principali: addestramento e inferenza.
Durante la fase di addestramento, gli algoritmi analizzano enormi volumi di dati per identificare schemi e caratteristiche. Questo processo è tipicamente realizzato attraverso framework di deep learning come TensorFlow e PyTorch.
Il processo di addestramento
Nel corso dell’addestramento, si possono considerare elementi visivi in un’immagine o parole specifiche in un documento. Queste caratteristiche vengono tradotte in valori e memorizzate in un database vettoriale. Ad esempio, per riconoscere un “gatto tartarugato”, il sistema assegna valori distinti a “gatto” e “tartarugato”, permettendo così il confronto tra diverse immagini.
Una volta completata la fase di addestramento, il sistema AI è in grado di effettuare inferenze, cioè di trarre conclusioni da nuovi dati. Ad esempio, una telecamera di sorveglianza per animali potrebbe avvisarci quando un gatto tartarugato attraversa il nostro giardino, utilizzando il modello creato durante l’addestramento per identificare la presenza dell’animale.
Le sfide dell’infrastruttura di archiviazione
Le esigenze di archiviazione durante l’addestramento e l’inferenza sono notevoli. In particolare, il carico di lavoro AI richiede un’infrastruttura di archiviazione in grado di gestire elevate velocità di input/output (I/O). I processori grafici (GPU) sono al centro di questo processo, svolgendo il lavoro pesante dell’addestramento e richiedendo archiviazione veloce, tipicamente realizzata con array di flash storage.
Capacità e checkpointing
Un’altra considerazione cruciale è la capacità di archiviazione. Durante l’addestramento, i volumi di dati possono aumentare notevolmente, anche fino a dieci volte, a causa della conversione delle informazioni grezze in dati vettoriali. Inoltre, è comune eseguire il checkpointing, che consente di salvare lo stato attuale dell’addestramento e di tornare indietro in caso di errori, aumentando ulteriormente le necessità di spazio di archiviazione.
Archiviazione: file vs oggetti
Quando si tratta di archiviazione, le organizzazioni possono scegliere tra archiviazione a file e a oggetti. Quest’ultima è particolarmente adatta per gestire grandi volumi di dati non strutturati, comune nel contesto AI. L’archiviazione a oggetti consente anche una scalabilità significativa e l’uso di metadati ricchi, facilitando la scoperta e la classificazione dei dati prima che inizino i processi AI.
Al contrario, l’archiviazione a file, che organizza i dati in una struttura gerarchica, può diventare complessa da gestire su larga scala. Anche se l’archiviazione a oggetti può risultare più lenta nell’accesso rispetto a quella a file, è meno problematica per i carichi di lavoro AI, dove la velocità di accesso non è sempre la priorità principale.
Agentic AI e le sue necessità di archiviazione
L’agentic AI, che comprende agenti autonomi in grado di eseguire compiti senza supervisione umana, sta guadagnando terreno, soprattutto nelle applicazioni di sicurezza informatica e nella gestione della supply chain. Questi agenti richiedono un’infrastruttura di calcolo che non deve affrontare i carichi di lavoro tipici dell’addestramento, ma deve comunque avere un’archiviazione performante e scalabile.
In conclusione, l’intelligenza artificiale rappresenta una frontiera tecnologica in continua espansione, le cui esigenze infrastrutturali sono fondamentali per il suo successo. Le organizzazioni devono essere pronte ad affrontare queste sfide per rimanere competitive nel panorama in evoluzione dell’AI.


