Negli ultimi anni, l’uso dell’intelligenza artificiale generativa (GenAI) ha visto un’esplosione nelle organizzazioni, portando a nuove opportunità ma anche a significative sfide in termini di conformità legale. Le aziende sono sempre più incoraggiate a riflettere sui potenziali rischi legati a questa tecnologia emergente.
Un’indagine condotta da Gartner su 360 leader IT ha rivelato che oltre il 70% degli intervistati considera la conformità normativa tra le tre principali sfide nella diffusione degli assistenti produttivi basati su GenAI. Questa crescente preoccupazione per la conformità è fondamentale, poiché l’adozione di GenAI si sta rapidamente affermando come un elemento centrale del software aziendale.
Il contesto della conformità legale nel GenAI
Gartner prevede che entro i prossimi 36 mesi, la capacità di GenAI diventerà un requisito di base per i prodotti software.
Secondo l’analisi, le aziende che non integreranno questa tecnologia rischiano di rimanere indietro. Entro il 2026, si stima che la spesa per software che include GenAI supererà quella per le soluzioni tradizionali.
Le implicazioni della regolamentazione globale
Le normative sull’AI variano notevolmente da nazione a nazione, riflettendo i diversi approcci alla leadership, all’innovazione e alla gestione dei rischi. Lydia Clougherty Jones, analista senior di Gartner, sottolinea che questa diversità porta a obblighi di conformità incoerenti, complicando il processo di allineamento degli investimenti in AI con il valore aziendale. Questo scenario può esporre le aziende a ulteriori responsabilità legali.
Strategie per rafforzare la governance del GenAI
Per affrontare le complessità associate all’implementazione di GenAI, Gartner suggerisce ai leader IT di adottare pratiche di moderazione più rigorose per gli output generati dall’AI.
Questo include l’ingegnerizzazione di modelli di auto-correzione e l’implementazione di fasi di verifica per impedire risposte immediate a domande alle quali non possono fornire un’apposita risposta.
Controllo e test dei modelli
Un aspetto cruciale della distribuzione di GenAI è la fase di test. Gartner raccomanda di creare un team multidisciplinare composto da ingegneri decisionali, scienziati dei dati e consulenti legali per sviluppare protocolli di pre-test e validare gli output del modello. Questo approccio mira a garantire che i dati di addestramento non contengano termini indesiderati e che i temi generati siano appropriati.
Un esempio di applicazione in settori regolamentati come la finanza è l’uso di più agenti AI, ciascuno basato su diversi strumenti GenAI, per rispondere alle domande degli utenti.
Le risposte vengono quindi valutate da un sistema AI che funge da giudice, determinando quale risposta sia la più plausibile. Ranil Boteju, Chief Data and Analytics Officer di Lloyds Banking Group, definisce questa strategia come un agente come giudice.
Prepararsi per il futuro del GenAI
Con il crescente impatto del clima geopolitico, oltre il 57% dei leader IT non statunitensi ha indicato che le dinamiche internazionali influenzano moderatamente la loro strategia di GenAI. Tuttavia, il 60% di questi leader ha dichiarato di non essere in grado o disposto a considerare alternative non statunitensi per gli strumenti GenAI. Questo scenario evidenzia la necessità di un approccio attento e strategico per integrare GenAI in modo responsabile.
Infine, Gartner suggerisce di implementare tecniche di moderazione dei contenuti, come pulsanti di segnalazione abusi e etichette di avviso AI, per garantire che l’uso della tecnologia rimanga etico e conforme alle normative. La preparazione e la pianificazione sono essenziali per navigare con successo in questo panorama complesso e in evoluzione.