La crescita esponenziale dei modelli per l’intelligenza artificiale ha messo sotto i riflettori un limite pratico: il consumo energetico elevato delle infrastrutture di calcolo. Di fronte a questa sfida, un gruppo guidato dal Dr Pavel Borisov presso la Loughborough University ha adottato un percorso alternativo, non puntando solo su algoritmi più efficienti, ma ripensando l’architettura fisica su cui si esegue il calcolo.
Il risultato è un prototipo di chip neuromorfico realizzato su una sottile pellicola di ossido di niobio caratterizzata da nanopori distribuiti in modo irregolare. Questa struttura genera una trama di percorsi elettrici multipli che si comportano come una rete complessa, in grado di trasformare segnali nel tempo senza l’intermediazione esclusiva del software tradizionale.
Un design che imita la complessità biologica
Il cuore del progetto è la capacità del materiale di offrire molteplici canalizzazioni per la corrente, evocando la molteplicità delle connessioni sinaptiche. Il dispositivo appartiene alla famiglia dei memristori, componenti in grado di mantenere traccia degli input passati, funzione essenziale per trattare dati temporali come quelli dei sensori o delle serie storiche. A differenza di CPU e GPU che eseguono istruzioni in sequenza, qui sono i processi fisici del film a compiere la trasformazione dei segnali.
Come la fisica diventa calcolo
Nella pratica, le fluttuazioni elettriche che attraversano i nanopori producono dinamiche non lineari e dipendenti dalla storia precedente della corrente, una proprietà che i ricercatori sfruttano come vero e proprio livello computazionale. Questa modalità ricorda il concetto di reservoir computing, ma con una differenza sostanziale: la complessità non è simulata via software ma è intrinseca al materiale stesso.
In tal modo si sposta parte del carico elaborativo dall’hardware digitale convenzionale alla struttura fisica del chip.
Validazione sperimentale e prestazioni
Per testare le capacità del prototipo il team ha utilizzato il modello caotico Lorenz-63, noto per mettere in luce l’instabilità tipica dei sistemi sensibili alle condizioni iniziali. Il chip ha dimostrato di prevedere l’evoluzione a breve termine di traiettorie caotiche e di ricostruire campioni di dati mancanti con buona accuratezza. In aggiunta, nei test sono emerse capacità di riconoscimento di immagini digitali semplici e l’esecuzione di operazioni logiche di base, mostrando una versatilità oltre l’applicazione puramente teorica.
Efficienza energetica
Uno degli aspetti più sorprendenti riguarda il risparmio energetico: in scenari di prova il prototipo ha raggiunto una efficienza fino a 2000 volte migliore rispetto ad approcci convenzionali basati su calcolo software su GPU.
Questo risultato suggerisce che spostare alcune funzioni di trasformazione dati nella dimensione materiale può ridurre drasticamente i consumi, specialmente per compiti che richiedono l’elaborazione continua di segnali temporali.
Limiti della sperimentazione
Va però sottolineato che siamo ancora in una fase iniziale: gli esperimenti si sono svolti su compiti relativamente semplici e con prototipi di laboratorio. Per passare a scenari industriali sarà necessario scalare la complessità delle reti implementate, testare il comportamento su dataset realistici e valutare la robustezza nel tempo. Inoltre, l’adozione su larga scala richiederebbe una riprogettazione sia dell’hardware che delle architetture software esistenti.
Possibili ricadute e strada da percorrere
Nonostante i limiti, l’approccio apre prospettive interessanti: combinare materiali con dinamiche complesse e design neuromorfici potrebbe rendere l’elettronica per l’IA molto più sostenibile dal punto di vista energetico.
Se i risultati verranno confermati a scale maggiori, i data center e i dispositivi edge potrebbero integrare moduli specializzati che alleggeriscono il carico delle CPU/GPU. Rimane comunque necessario un lavoro intenso su standardizzazione, produzione e integrazione con le pipeline di intelligenza artificiale esistenti.

