Negli ultimi anni le reti mobili sono state ottimizzate per scaricare contenuti: video, pagine e streaming hanno guidato una progettazione fortemente orientata al downlink. Oggi però sta emergendo una dinamica opposta. Un rapporto commissionato da InterDigital e realizzato da ABI Research, intitolato The Distributed Network Shift Enabling AI on Device, mette in luce come l’arrivo diffuso di AI agentica stia aumentando in modo significativo il traffico in upstream, creando nuove esigenze per dispositivi, rete e cloud.
Questa trasformazione non è causata da un singolo uso ma da una molteplicità di terminali: smart glasses, wearable, smartphone e IoT che generano flussi continui di dati — video, audio, segnali biometrici e telemetria ambientale — inviati a modelli AI per inferenza, coordinamento e decisione in tempo reale.
Il report sottolinea che questi trasferimenti non sono raffiche temporanee come nello livestreaming, ma scambi persistenti che possono mettere sotto pressione la capacità di uplink delle celle mobili.
Cosa cambia rispetto al passato
Per decenni la progettazione delle reti ha privilegiato il consumo rispetto alla produzione di dati: l’utente tipico riceveva molto più traffico di quanto ne inviasse. Con l’affermarsi dell’AI agentica, invece, i dispositivi non si limitano più ad «assorbire» informazioni: li producono e li scambiano costantemente per supportare agenti autonomi che ragionano, pianificano e agiscono. Questo spostamento verso pattern più simmetrici di traffico richiede di ripensare le metriche di progettazione, la capacità delle celle e i modelli economici degli operatori.
Dispositivi che spingono l’uplink
Il rapporto individua quattro famiglie principali che guidano l’aumento dell’uplink: smart glasses che registrano video e contesto ambientale, wearable che trasmettono voce e segnali biometrici, smartphone che inviano input multimodali (foto, audio, sensori) e IoT che fluiscono con dati operativi continui. ABI Research stima fino a 70 milioni di smart glasses spediti entro il 2030, con oltre il 12% dei modelli dotati di connettività cellulare, dati che evidenziano la portata potenziale del fenomeno.
Soluzioni e direzione tecnologica
Per rispondere a questa nuova pressione sull’ uplink, il report propone una transizione verso architetture di intelligenza distribuita, dove i carichi di lavoro AI sono orchestrati tra on-device, edge e cloud in base a complessità, latenza ed efficienza energetica. Spostare più elaborazione vicino al punto di acquisizione riduce il volume di dati inviati, abbassa la latenza e tutela la privacy, ma richiede chipset più potenti, modelli compressi e reti più «intelligenti» in grado di coordinare risorse in tempo reale.
Ruolo dell’edge e delle reti
L’edge computing assume un ruolo centrale: consente di eseguire inferenze locali, aggregare dati e inviare solo informazioni sintetizzate o quando necessario al cloud. Allo stesso tempo, i fornitori di rete devono considerare l’embed di capacità AI nelle infrastrutture per orchestrare carichi distribuiti. Il documento osserva anche come le nuove generazioni di rete, incluse quelle preparatorie al 6G, rappresentino la base per migliorare velocità, latenza e consumo energetico, ma che l’integrazione dell’AI nella rete sarà la chiave per abilitare servizi avanzati.
Implicazioni per operatori e industria
Gli autori del report — analisti di ABI Research e tecnologi di InterDigital — sottolineano che operatori e produttori devono ripensare i modelli di capacità e monetizzazione.
Secondo i coautori, Larbi Belkhit e Paul Schell, il supporto a sistemi autonomi richiederà «architetture molto più distribuite e reti significativamente più intelligenti». Il CTO di InterDigital, Rajesh Pankaj, evidenzia come l’intelligenza debba essere distribuita tra dispositivi, rete e cloud per bilanciare prestazioni, latenza ed efficienza energetica.
In sintesi, l’arrivo dell’AI agentica impone una riconsiderazione profonda dell’ecosistema mobile: non basta aumentare la capacità di downlink, serve una strategia sistemica che combini edge computing, potenziamento dei dispositivi e intelligenza di rete per evitare che l’uplink diventi il collo di bottiglia della prossima ondata di servizi intelligenti.

