I fatti
FLASH – La diffusione rapida dei chatbot generativi ha creato nuovi rischi per gli utenti minorenni. La vicenda riguarda conversazioni prolungate che possono generare legami emotivi o dipendenza affettiva verso sistemi che rispondono tramite modelli statistici.
Per fronteggiare il problema, è stata depositata alla Camera una proposta di legge che mira a distinguere gli utenti minorenni e a limitare la persistenza delle interazioni sensibili. Le misure previste intendono ridurre l’esposizione dei minori a contenuti e interazioni potenzialmente dannosi.
Perché intervenire: i dati e le preoccupazioni
Le misure previste intendono ridurre l’esposizione dei minori a contenuti e interazioni potenzialmente dannosi. Ricerche di organizzazioni che monitorano l’infanzia registrano una diffusione elevata degli strumenti di intelligenza artificiale tra gli adolescenti.
Una quota rilevante di ragazzi usa questi sistemi anche per cercare conforto emotivo o consigli su scelte personali.
Questo impiego a scopo emotivo aumenta la vulnerabilità dei minori. Molti bambini e adolescenti cercano negli ambienti digitali uno spazio per sfogarsi o per sentirsi ascoltati senza giudizio. Nel tempo, tali interazioni possono assumere le caratteristiche di una relazione di fiducia verso una macchina, con possibili ricadute sulla salute psicologica e sulle dinamiche relazionali.
La proposta legislativa nasce da queste osservazioni empiriche e si propone di limitarne gli effetti sociali. Il dibattito parlamentare proseguirà con audizioni e valutazioni tecniche per definire interventi mirati sulla tutela dei minori.
Impatto psicologico e sociale
Il dibattito parlamentare evidenzia rischi per il singolo e per la collettività.
Un giovane potrebbe preferire il confronto con un compagno digitale invece che con pari o con operatori qualificati. Con risposte ripetute e affettivamente coinvolgenti, l’utente può sviluppare aspettative e forme di dipendenza analoghe a quelle di una relazione umana.
Per questi motivi i proponenti della norma chiedono misure pratiche e verificabili. Le disposizioni mirano a prevenire la sostituzione del sostegno umano qualificato con risposte automatizzate e a preservare reti di supporto reali. Il dibattito proseguirà con audizioni tecniche e valutazioni sulle misure operative.
Cosa prevede la proposta di legge
Il dibattito proseguirà con audizioni tecniche e valutazioni sulle misure operative. Il testo legislativo, promosso da diversi deputati, impone obblighi per fornitori di applicazioni e piattaforme distributrici.
Il provvedimento introduce un sistema di verifica dell’età per distinguere i minorenni dagli adulti e applicare regole differenziate.
Per le conversazioni con utenti sotto i 18 anni che possono comportare un coinvolgimento emotivo, il testo stabilisce un limite alla conservazione dei dati: le interazioni non devono essere memorizzate per più di cinque giorni.
Le misure mirano a ridurre la continuità relazionale che può favorire la formazione di legami artificiali tra utenti e sistemi digitali. Le parti interessate attendono ora le integrazioni tecniche richieste durante le audizioni parlamentari.
Ruolo delle autorità e sanzioni
Le parti interessate attendono integrazioni tecniche dopo le audizioni parlamentari. Sul piano operativo, la proposta attribuisce all’Autorità per le garanzie nelle comunicazioni il compito di definire le modalità di verifica dell’età e di sorvegliare l’applicazione della norma entro termini prefissati.
È prevista una serie di sanzioni amministrative graduate per i trasgressori, comprese misure calcolate fino a una percentuale del fatturato.
Le istituzioni competenti sono chiamate a coordinare campagne informative rivolte a famiglie e scuole sui rischi e sulle buone pratiche nell’uso dei servizi di AI.
Limiti, opportunità e scenari futuri
Resta aperto il dibattito sull’efficacia e la tempestività di un intervento normativo a livello nazionale. La tecnologia evolve con rapidità, e il legislatore corre il rischio di restare indietro come è già avvenuto con i social network.
Il provvedimento intende però assumere il ruolo di modello operativo applicabile anche oltre i confini nazionali. L’obiettivo dichiarato è fornire una base utile per iniziative omologhe a livello europeo.
La proposta non mira a demonizzare l’innovazione. Cerca piuttosto di governare lo sviluppo delle tecnologie mantenendo un equilibrio tra accesso alle potenzialità dell’intelligenza artificiale e tutela dei soggetti più fragili.
Per questo motivo, le autorità competenti sono chiamate a definire criteri tecnici e misure di accompagnamento, comprese campagne informative rivolte a famiglie e scuole sui rischi e sulle buone pratiche.
Si attende ora l’integrazione delle indicazioni emerse durante le audizioni parlamentari e il dettaglio delle misure operative che renderanno applicabile il quadro normativo proposto.
In linea con le indicazioni emerse durante le audizioni parlamentari, il nodo centrale resta evitare che i giovani instaurino relazioni affettive primarie con sistemi privi di empatia e responsabilità clinica. La tutela passa attraverso misure concrete che pongano al centro la safety dei minori e la prevenzione delle vulnerabilità.
Per rendere l’uso dei chatbot uno strumento utile e non una fonte di isolamento emotivo, è necessario promuovere alfabetizzazione digitale e competenze critiche nelle scuole. Gli interventi operativi previsti dal quadro normativo dovranno includere linee guida educative e strumenti di valutazione del rischio per minori.

