Il mondo dell’automotive si sta spostando rapidamente dall’idea di una semplice macchina a quella di un vero e proprio computer su ruote. A CES 2026 molte delle innovazioni che fino a poco tempo fa erano demonstration-only si sono dimostrate pronte per la produzione, con annunci tecnici e collaborazioni che mostrano un futuro in cui software-defined vehicle (SDV) non è più solo un concetto.
Questa trasformazione è guidata da tre assi principali: l’adozione di architetture centralizzate per semplificare l’elettronica di bordo, l’integrazione di AI al bordo per ridurre la latenza delle funzioni critiche e la connettività 5G per estendere i servizi cloud. I produttori e i fornitori hanno illustrato come queste tecnologie possano convivere per offrire esperienze più ricche e sicure.
Dalla sperimentazione alla produzione
Negli ultimi anni molte piattaforme rimanevano su prototipi; oggi vediamo passi concreti verso la produzione di massa. Tra le dimostrazioni più significative c’è la collaborazione tra Qualcomm e un produttore cinese per portare sul mercato un modello con doppia piattaforma Snapdragon, pensata per creare un’architettura più centralizzata e modulare. L’obiettivo è ridurre la complessità dei sistemi e aumentare la reattività delle funzionalità, permettendo aggiornamenti over-the-air, diagnostica remota e controllo a distanza.
Caso pratico: il D19 e il controller a dominio
Il modello D19 esemplifica la filosofia: un controller a dominio centrale che coordina cockpit, sistemi di assistenza alla guida, controllo della carrozzeria e gateway. Questa unità unificata offre oltre 200 capability modulari, supporta connessioni Wi-Fi 6 e 5G, e gestisce sensori come LiDAR, radar millimetrico e una suite di telecamere per funzioni di guida di livello L2.
Il risultato è una vettura capace di affrontare scenari urbani complessi con assistenza al parcheggio, monitoraggio a 360 gradi e fino a otto display a bordo per esperienze multimediali avanzate.
Il cockpit digitale e l’AI al bordo
Il concetto di cockpit digitale si è evoluto: non è più solo intrattenimento, ma un punto di interazione intelligente tra veicolo e passeggeri. Per le funzioni che richiedono reattività istantanea, come l’ADAS, l’elaborazione deve avvenire in locale. Per questo le piattaforme integrate combinano CPU, GPU e NPU per eseguire inferenze in tempo reale, mantenendo l’addestramento dei modelli nel cloud.
Schermi, voce e modelli linguistici
La tendenza a schermi ampi continua: i display sono spesso presentati come la nuova misura della percezione di qualità di un’auto.
Parallelamente, l’uso di modelli linguistici di grandi dimensioni (LLM) sta cambiando l’interazione: non serve più pronunciare comandi esatti, ma si può dialogare in modo naturale. A supporto, Qualcomm ha portato soluzioni che combinano elaborazione locale e cloud per gestire richieste vocali complesse, rendendo l’interazione più fluida e personale.
Sicurezza, connettività e limiti tecnologici
La sicurezza resta centrale: sistemi di monitoraggio del conducente, riconoscimento degli ostacoli e funzionalità di pre-collisione richiedono sia sensoristica avanzata sia calcolo a bassa latenza. Anche la connettività 5G ha un ruolo chiave, e nuove soluzioni RedCap mirano a portare il 5G su più fasce di prodotto con una complessità ridotta. Tuttavia, rimane il compromesso tra elaborazione al bordo e nella nuvola: Salvatori e altri esperti evidenziano che oggi i modelli con circa 10-12 miliardi di parametri possono essere gestiti localmente con prestazioni accettabili, mentre modelli più grandi (ad esempio intorno ai 50 miliardi) richiedono ancora infrastrutture cloud per l’addestramento e il calcolo intensivo.
Questa distinzione determina quali funzioni rimangono on-device — come il rilevamento immediato di pedoni o la gestione del veicolo in manovre complesse — e quali possono essere migliorate progressivamente tramite dati aggregati dalla flotta per ottimizzare percezione e policy di guida.
Verso un’esperienza personalizzata
Le piattaforme presentate a CES puntano a trasformare l’auto in un assistente: riconoscimento dei passeggeri, suggerimenti proattivi su itinerari o soste e persino proposte di intrattenimento basate sul contesto. L’approccio combina fleet data per addestrare i modelli e edge AI per eseguirli in tempo reale, creando un’interazione più bidirezionale e meno basata su semplici risposte a comandi.
In conclusione, le innovazioni viste rappresentano il passaggio da una fase di ricerca a una fase di implementazione: architetture centralizzate, AI a bordo e connettività avanzata stanno rendendo i veicoli più intelligenti, sicuri e personalizzabili, avvicinando il concetto di auto a quello di dispositivo sempre aggiornabile e connesso.

