in

sicurezza dell’ia: perché le aziende non sono pronte e come reagire

Un'analisi basata su quasi 1.000 miliardi di transazioni evidenzia che tutte le implementazioni di IA testate presentano vulnerabilità critiche; servono visibilità, segmentazione e controlli continui.

sicurezza dellia perche le aziende non sono pronte e come reagire 1770999111

Intelligenza artificiale e sicurezza non procedono allo stesso ritmo. Un’analisi condotta tra gennaio e sulla piattaforma Zero Trust Exchange evidenzia che l’adozione dei modelli IA ha superato la capacità difensiva delle aziende. L’indagine coinvolge circa 9.000 imprese e quantifica in 989,3 miliardi le transazioni IA/ML analizzate, evidenziando rischi legati a governance insufficiente e ampliamento della superficie di attacco.

L’analisi

Lo studio rileva un uso esteso di modelli e servizi cognitivi senza controlli coerenti. Tale diffusione aumenta il numero di vettori esposti e complica il monitoraggio delle attività.

Impatto sulla sicurezza aziendale

Secondo i ricercatori, la mancanza di policy centralizzate e meccanismi di verifica incrementa la probabilità di compromissione. Le aziende con uso intensivo di IA risultano particolarmente vulnerabili se non adottano pratiche di governance solide.

Il rapporto segnala, infine, la necessità di interventi immediati per allineare difesa e adozione tecnologica, indicando un aumento del rischio operativo per le imprese analizzate.

Una diffusione rapida che genera nuovi punti deboli

La rapida integrazione dell’IA in funzioni e settori accentua il divario tra adozione e difesa, ampliando il rischio operativo per le imprese. In assenza di un inventario aggiornato dei modelli attivi e delle funzionalità integrate, molte organizzazioni perdono visibilità sui flussi dati.

Questa mancanza di controllo crea canali non monitorati in cui informazioni sensibili possono defluire verso servizi esterni o modelli embedded. Nel report il settore finanziario e assicurativo incide per 23% del traffico IA/ML totale, mentre tecnologia e istruzione registrano incrementi annui rispettivamente di +202% e +184%.

La supply chain cognitiva e le IA integrate

Dopo l’accelerazione dell’adozione, la catena di fornitura dell’IA si configura come un vettore critico di rischio per le imprese. Oltre 3.400 applicazioni monitorate indicano che vulnerabilità nei file dei modelli o nelle API possono essere sfruttate per muoversi lateralmente verso sistemi centrali. Le cosiddette embedded AI, spesso attivate di default nelle piattaforme SaaS, aumentano l’esposizione perché eludono i tradizionali filtri di sicurezza. Gli analisti sottolineano che la mitigazione richiede controlli sul ciclo di vita dei modelli e verifiche rigorose sull’integrazione delle API.

Numeri che preoccupano: dati esposti e tempi di compromesso

La crescita del traffico verso applicazioni di intelligenza artificiale e machine learning ha aumentato l’esposizione dei dati aziendali.

Nel periodo analizzato i trasferimenti verso questi servizi hanno superato i 18.000 terabyte, quasi il doppio rispetto all’anno precedente.

Alcune piattaforme standalone, in particolare quelle dedicate a conversazione e assistenza automatica, hanno registrato volumi estremamente elevati di interazioni. Tale concentrazione di informazioni, con miliardi di transazioni, rende questi servizi obiettivi interessanti per attacchi mirati.

Il fenomeno allunga i tempi di compromesso percepiti dalle organizzazioni e complica le attività di individuazione e contenimento. Per questo motivo gli analisti richiamano l’attenzione su controlli sistematici del ciclo di vita dei modelli e su verifiche rigorose delle integrazioni API.

Gli esperti sottolineano inoltre la necessità di strumenti di monitoraggio continuo e di policy di minimizzazione dei dati per ridurre la superficie di attacco e abbreviare i tempi di risposta agli incidenti.

Quanto velocemente si verifica una violazione

I test condotti dai red team indicano che tutti i sistemi IA esaminati presentavano vulnerabilità critiche. Il report documenta un tasso di compromissione del 100%.

Il tempo medio per ottenere una compromissione significativa è stato di 16 minuti. Nel 90% dei casi la violazione si è consumata in meno di 90 minuti. In scenari estremi le difese sono state aggirate in 1 secondo.

Questi risultati mostrano che l’IA agentica può automatizzare ricognizione, sfruttamento e movimento laterale a velocità macchina.

Le implicazioni per i dati aziendali e gli esempi pratici

A seguito dei test dei red team, lo studio mette in evidenza violazioni delle policy di protezione dei dati collegate all’uso non controllato di strumenti di intelligenza artificiale. Diverse transazioni verso piattaforme pubbliche hanno comportato tentativi di condivisione non autorizzata di codice sorgente, dati personali e cartelle cliniche.

Strumenti di supporto alla scrittura e chatbot, seppure utili per produttività e automazione, si sono trasformati in depositi di intelligence aziendale quando privi di adeguati controlli. Questo comporta un aumento del rischio di spionaggio e della perdita di asset strategici, oltre a potenziali sanzioni per violazione delle norme sulla privacy. Per mitigare tali rischi, il report indica la necessità di filtri di uscita, controllo delle integrazioni e monitoraggio continuo delle interazioni automatiche.

Perché i controlli tradizionali non bastano più

Il report sottolinea che i sistemi perimetrali storici, come firewall e VPN, sono stati progettati per reti relativamente statiche. Non forniscono la visibilità necessaria nella moderna infrastruttura cloud e API-driven. L’ecosistema IA è distribuito e in rapido mutamento; richiede strumenti in grado di analizzare in tempo reale le interazioni tra modelli, dati e utenti. Senza tali capacità aumentano i rischi di perdita di dati e di comportamenti non intenzionali dei modelli. Il documento raccomanda filtri di uscita, controllo delle integrazioni e monitoraggio continuo come misure prioritarie per mitigare queste esposizioni.

Strategie di difesa: zero trust e automazione intelligente

In continuità con le misure di filtraggio e controllo indicate nel report, la strategia proposta privilegia un modello Zero Trust nativo per le architetture che integrano modelli di intelligenza artificiale. Il principio centrale è il privilegio minimo, accompagnato da verifiche continue e da ispezione del traffico anche sui flussi cifrati.

Il documento raccomanda inoltre l’adozione di classificazione automatica dei dati sensibili per proteggerli ovunque risiedano. Tale misura riduce il rischio di esfiltrazione e permette politiche di accesso basate su contesto e ruolo.

Per limitare lo spostamento laterale si suggerisce la segmentazione intelligente delle reti e dei carichi di lavoro. Questo approccio, combinato con controlli di integrazione e filtri di uscita già menzionati, contiene le superfici di attacco senza compromettere le operazioni.

Infine, lo sfruttamento di strumenti di IA difensiva può anticipare comportamenti anomali e automatizzare le risposte. L’adozione coordinata di queste misure è presentata come prioritaria per ridurre tempi di rilevamento e di contenimento delle minacce.

In continuità con le raccomandazioni precedenti, le organizzazioni che integrano l’IA nei processi operativi devono garantire visibilità completa su dati, modelli e flussi decisionali. Senza questa trasparenza, la superficie d’attacco cresce e l’esposizione a operazioni automatizzate e dannose si amplifica.

La priorità indicata dagli esperti è la governance dei modelli unita all’adozione di controlli che funzionino alla velocità delle macchine. Solo con monitoraggio continuo, regole operative e meccanismi di risposta automatici è possibile ridurre tempi di rilevamento e contenimento delle minacce.

What do you think?

Scritto da Staff

claude proteste e opportunita tre fronti del dibattito pubblico 1770998680

Claude, proteste e opportunità: tre fronti del dibattito pubblico