L’Autorità Garante della Concorrenza e del Mercato (AGCM) ha annunciato la chiusura di tre istruttorie aperte nei confronti di DeepSeek, Mistral AI e Scaleup (servizio NOVA AI). Le procedure, avviate rispettivamente ad aprile 2026 (DeepSeek), maggio 2026 (Scaleup) e giugno 2026 (Mistral AI), si sono concluse senza l’imposizione di sanzioni grazie all’accoglimento di impegni vincolanti previsti dall’art. 27, comma 7, del Codice del consumo. In particolare, l’AGCM ha richiesto maggiore chiarezza sulle informazioni fornite agli utenti riguardo al rischio di allucinazioni generate dai chatbot.
Gli impegni sono stati formalizzati in date precise: per DeepSeek il vincolo è stato accettato il 16 dicembre 2026, mentre le proposte di Scaleup e Mistral AI sono state approvate rispettivamente il 17 febbraio 2026 e il 21 aprile 2026.
Le società si sono impegnate a intervenire sulle pagine web e sulle app, a modificare le fasi informative prima della registrazione o dell’acquisto e a inserire avvisi permanenti sotto le chat in lingua italiana, con link dedicati per approfondire il tema delle allucinazioni.
Perché l’intervento dell’Agcm conta
Il nodo centrale su cui si è concentrata l’Autorità riguarda la comunicazione al consumatore del possibile verificarsi di risposte inesatte o inventate dai modelli di AI generativa. Le cosiddette allucinazioni sono output che appaiono convincenti ma sono errati o fuorvianti; questo fenomeno può avere conseguenze rilevanti in ambiti sensibili come la finanza, la sanità e il diritto. Studi citati nel procedimento segnalano tassi di errore che variano dal 3% al 79% a seconda del modello e del contesto d’uso, con specifici range di incidenze nei diversi domini secondo il rapporto AllAboutAI 2026.
Gli impegni concreti assunti dalle società
Le misure concordate con l’AGCM comprendono, tra gli altri punti, l’introduzione di disclaimer permanenti nelle interfacce chat che avvertono in italiano della possibilità di allucinazioni, l’ampliamento dell’informativa precontrattuale con avvertenze esplicite sui limiti di affidabilità e la necessità di verificare le risposte, e l’intervento sui canali di fruizione (siti e app) nelle diverse fasi decisionali. Inoltre, DeepSeek ha pianificato investimenti tecnologici mirati a mitigare il fenomeno, riconoscendo però che le allucinazioni non possono essere eliminate completamente con l’attuale stato dell’arte.
Il caso specifico di NOVA AI
Nel pacchetto di impegni presentato da Scaleup è stata chiarita la natura del servizio NOVA AI: si tratta di un’interfaccia che offre accesso a chatbot di terze parti, e non di un sistema che aggrega o rielabora le risposte per conto proprio.
Questo chiarimento mira a evitare equivoci sul ruolo del fornitore e a rendere trasparente la catena di responsabilità rispetto ai contenuti generati, mediante informazioni dettagliate messe a disposizione degli utenti.
Che cosa sono le allucinazioni e quali sono i numeri
Le allucinazioni indicano output di un modello linguistico che risultano falsi o inaccurati pur avendo un’apparenza autorevole. Nel periodo analizzato, alcuni studi mostrano che l’errore nei top model è calato dal 21,8% nel 2026 allo 0,7% nel 2026, grazie anche a tecniche come il retrieval-augmented generation (RAG), che può ridurre le allucinazioni fino al 71%. Nonostante i progressi, l’impatto resta significativo: il 34% degli utenti cambia strumento a causa di questi problemi, il 64% delle strutture ospedaliere rallenta l’adozione dell’AI e i costi stimati per la correzione degli errori sono dell’ordine di 14.200 dollari l’anno per dipendente.
Conseguenze pratiche
Oltre ai costi economici, le allucinazioni alimentano disinformazione, possono favorire attacchi di phishing o frodi e accentuare bias esistenti. Un dato esemplificativo: nel primo trimestre del 2026 sono stati rimossi oltre 12.842 articoli generati da AI perché contenevano informazioni false. Questi numeri sottolineano l’urgenza di misure informative e tecniche che rendano il funzionamento dei servizi più comprensibile per il pubblico.
Impatto sulle interfacce e sul comportamento degli utenti
Dal punto di vista pratico, gli utenti noteranno avvisi fissi sotto le chat in lingua italiana e link per approfondire i limiti dei modelli. L’informativa precontrattuale sarà arricchita con paragrafi che spiegano la necessità di verificare i contenuti, e i processi di registrazione e acquisto includeranno passaggi informativi più espliciti. Questi interventi puntano a rendere più consapevole la scelta dell’utente e a ridurre il rischio di decisioni prese sulla base di output non verificati.
In sintesi, la chiusura delle istruttorie da parte dell’AGCM non costituisce un’ammissione di responsabilità ma segna un punto di svolta: le piattaforme che offrono servizi di AI generativa devono oggi fornire strumenti e informazioni adeguate per tutelare i consumatori, mentre rimane aperta la sfida tecnica di mitigare del tutto le allucinazioni.

