Immaginate un corridoio digitale che si rimodella seguendo i vostri sguardi: scaffali che si orientano e prodotti che appaiono esattamente quando siete più inclini a prenderli. Nella realtà dei social il processo è più sottile ma chiaramente redditizio: le piattaforme guadagnano anche quando non comprate nulla, semplicemente perché rimanete connessi più a lungo. Questa dinamica è finita sotto i riflettori dopo che Meta e YouTube sono stati ritenuti responsabili in una sentenza a Los Angeles per aver progettato servizi che mantengono gli utenti costantemente attaccati alle interfacce.
In Italia due senatori, Antonio Nicita e Lorenzo Basso, hanno messo a punto un disegno di legge che prende le mosse proprio dall’idea che il modo in cui i contenuti vengono distribuiti non sia un dettaglio tecnico ma una scelta politica ed economica.
Il testo parte dalla premessa che l’architettura algoritmica influisce sulla salute, sulla qualità dell’informazione e, in ultima analisi, sulla democrazia.
Quanto pesa il design algoritmico
Il disegno di legge individua tre categorie di pratiche che devono essere vietate perché producono danni distinti: la dipendenza algoritmica, l’influenza algoritmica e la manipolazione algoritmica selettiva. La proposta non mira a censurare contenuti né a colpire posizioni di mercato, ma a intervenire sulle regole che determinano come gli algoritmi scelgono e mostrano i contenuti. L’obiettivo dichiarato è trasformare una scelta progettuale in materia soggetta a norme più stringenti, riconoscendo che non si tratta di una questione puramente tecnica.
La meccanica della dipendenza
Molti meccanismi noti — lo scroll infinito, i video in autoplay, le notifiche intermittenti e i meccanismi di streak — sfruttano una logica di ricompensa intermittente che somiglia, per funzionamento, alle slot machine.
Questo principio di rinforzo variabile agisce sul sistema dopaminergico e aumenta il rischio di comportamenti compulsivi, soprattutto tra gli adolescenti. La proposta cita evidenze cliniche e giuridiche per motivare un divieto di pratiche progettuali concepite per massimizzare il tempo di permanenza e la dipendenza.
Profilazione e manipolazione selettiva
Il secondo tema riguarda la costruzione continua di un profilo comportamentale che l’utente non ha esplicitamente richiesto. La proposta introduce il principio dell’opt-in: la profilazione deve essere un’opzione attivata consapevolmente, non lo stato predefinito. Al livello più estremo c’è la manipolazione selettiva, quando il gestore della piattaforma decide di promuovere o oscurare volontariamente certi contenuti. Caso emblematico sono le indagini emerse su X dopo l’acquisizione da parte di Elon Musk e le ricadute sulle elezioni, come quelle rumene del 2026, che hanno mostrato l’impatto politico di scelte algoritmiche intenzionali.
Responsabilità, segreti industriali e tutele per i minori
Una delle novità più rilevanti è l’inversione dell’onere della prova: non sarà più l’utente a dover dimostrare che la piattaforma ha sbagliato, ma sarà la piattaforma a provare di aver adottato tutte le misure adeguate per prevenire il danno. Il danno risarcibile previsto non si limita agli aspetti economici, ma include il pregiudizio alla salute mentale, all’autonomia decisionale e al benessere psicologico. Inoltre il testo limita la possibilità per le aziende di invocare il segreto industriale: un giudice potrà ordinare la produzione di documentazione tecnica sugli algoritmi quando necessario per accertare responsabilità.
Strumenti specifici per i più giovani e per le interfacce
Per i minori la proposta prevede tutele più stringenti, con strumenti di controllo che agiscono a livello dei sistemi operativi per verificare l’età e applicare automaticamente classificazioni dei contenuti.
Si propone anche il divieto dei dark pattern che ostacolano la cancellazione di un account, imponendo meccanismi di disattivazione simmetrici all’attivazione. La disciplina si estende ai sistemi di intelligenza artificiale generativa, introducendo limiti all’antropomorfizzazione e alla simulazione affettiva nei confronti degli utenti più giovani e obblighi di rilevazione delle crisi.
Sanzioni, governance e prospettive
Il testo affida ad Agcom il compito di emanare linee guida tecniche sugli algoritmi e prevede sanzioni fino al 4% del fatturato mondiale annuo — la stessa soglia del GDPR — con un aggravio del 50% per violazioni che coinvolgono minori o che si verificano in prossimità di consultazioni elettorali. L’80% delle entrate da sanzioni finanzierà un Fondo per l’alfabetizzazione digitale. I proponenti sottolineano che la legge non interviene sui contenuti, materia del Digital services Act, ma sulla struttura che li distribuisce: un approccio che vuole essere complementare ad altre iniziative internazionali e che mira a far dell’Italia un laboratorio per la regolazione europea.
Nel dibattito pubblico la questione è spesso sintetizzata con immagini forti: se gli algoritmi plasmano la dieta informativa, allora il legislatore sta cercando di riorganizzare gli scaffali perché le scelte individuali non siano solamente il prodotto di un progetto commerciale. La proposta, nel suo insieme, ambisce a trasformare certe scelte progettuali in responsabilità giuridiche, con l’obiettivo dichiarato di proteggere i più fragili e la salute pubblica dell’informazione.

