in

Chip basato su ossido di niobio per un’IA meno energivora

Un dispositivo sperimentale usa una pellicola porosa di ossido di niobio per eseguire calcoli temporali in modo nativo, mostrando efficienze energetiche molto elevate in test preliminari

Chip basato su ossido di niobio per un'IA meno energivora

La crescita esponenziale dei modelli per l’intelligenza artificiale ha messo sotto i riflettori un limite pratico: il consumo energetico elevato delle infrastrutture di calcolo. Di fronte a questa sfida, un gruppo guidato dal Dr Pavel Borisov presso la Loughborough University ha adottato un percorso alternativo, non puntando solo su algoritmi più efficienti, ma ripensando l’architettura fisica su cui si esegue il calcolo.

Il risultato è un prototipo di chip neuromorfico realizzato su una sottile pellicola di ossido di niobio caratterizzata da nanopori distribuiti in modo irregolare. Questa struttura genera una trama di percorsi elettrici multipli che si comportano come una rete complessa, in grado di trasformare segnali nel tempo senza l’intermediazione esclusiva del software tradizionale.

Un design che imita la complessità biologica

Il cuore del progetto è la capacità del materiale di offrire molteplici canalizzazioni per la corrente, evocando la molteplicità delle connessioni sinaptiche. Il dispositivo appartiene alla famiglia dei memristori, componenti in grado di mantenere traccia degli input passati, funzione essenziale per trattare dati temporali come quelli dei sensori o delle serie storiche. A differenza di CPU e GPU che eseguono istruzioni in sequenza, qui sono i processi fisici del film a compiere la trasformazione dei segnali.

Come la fisica diventa calcolo

Nella pratica, le fluttuazioni elettriche che attraversano i nanopori producono dinamiche non lineari e dipendenti dalla storia precedente della corrente, una proprietà che i ricercatori sfruttano come vero e proprio livello computazionale. Questa modalità ricorda il concetto di reservoir computing, ma con una differenza sostanziale: la complessità non è simulata via software ma è intrinseca al materiale stesso.

In tal modo si sposta parte del carico elaborativo dall’hardware digitale convenzionale alla struttura fisica del chip.

Validazione sperimentale e prestazioni

Per testare le capacità del prototipo il team ha utilizzato il modello caotico Lorenz-63, noto per mettere in luce l’instabilità tipica dei sistemi sensibili alle condizioni iniziali. Il chip ha dimostrato di prevedere l’evoluzione a breve termine di traiettorie caotiche e di ricostruire campioni di dati mancanti con buona accuratezza. In aggiunta, nei test sono emerse capacità di riconoscimento di immagini digitali semplici e l’esecuzione di operazioni logiche di base, mostrando una versatilità oltre l’applicazione puramente teorica.

Efficienza energetica

Uno degli aspetti più sorprendenti riguarda il risparmio energetico: in scenari di prova il prototipo ha raggiunto una efficienza fino a 2000 volte migliore rispetto ad approcci convenzionali basati su calcolo software su GPU.

Questo risultato suggerisce che spostare alcune funzioni di trasformazione dati nella dimensione materiale può ridurre drasticamente i consumi, specialmente per compiti che richiedono l’elaborazione continua di segnali temporali.

Limiti della sperimentazione

Va però sottolineato che siamo ancora in una fase iniziale: gli esperimenti si sono svolti su compiti relativamente semplici e con prototipi di laboratorio. Per passare a scenari industriali sarà necessario scalare la complessità delle reti implementate, testare il comportamento su dataset realistici e valutare la robustezza nel tempo. Inoltre, l’adozione su larga scala richiederebbe una riprogettazione sia dell’hardware che delle architetture software esistenti.

Possibili ricadute e strada da percorrere

Nonostante i limiti, l’approccio apre prospettive interessanti: combinare materiali con dinamiche complesse e design neuromorfici potrebbe rendere l’elettronica per l’IA molto più sostenibile dal punto di vista energetico.

Se i risultati verranno confermati a scale maggiori, i data center e i dispositivi edge potrebbero integrare moduli specializzati che alleggeriscono il carico delle CPU/GPU. Rimane comunque necessario un lavoro intenso su standardizzazione, produzione e integrazione con le pipeline di intelligenza artificiale esistenti.

What do you think?

Scritto da Elena Parisi

Home & garden editor. 7 anni di guide pratiche per la casa.

Aprile 2026: Microsoft rilascia patch per 163 CVE e zero‑day in SharePoint e Defender

Aprile 2026: Microsoft rilascia patch per 163 CVE e zero‑day in SharePoint e Defender