Negli ultimi anni la discussione pubblica sui social media è passata dall’allarme generico alla prova giudiziaria: sentenze in New Mexico e a Los Angeles hanno riconosciuto che alcune piattaforme sono state progettate in modo da favorire un uso prolungato e dannoso dei minori. Il verdetto del 25 marzo 2026 a Los Angeles, che ha assegnato circa 3 milioni di dollari a una vittima, ha descritto come reale il collegamento tra meccaniche di prodotto e problemi psicologici. Questa svolta smaschera pratiche che molti sospettavano da tempo, ma che ora sono state messe per iscritto in atti processuali e documenti interni.
Ma la reazione politica non è univoca: alcuni governi propongono restrizioni e divieti d’accesso per i giovani, mentre le organizzazioni giovanili chiedono di non spostare la responsabilità esclusivamente sugli utenti.
La posta in gioco è alta perché i social non sono soltanto intrattenimento: per molte persone, e in particolare per chi appartiene a comunità marginalizzate, rappresentano l’unico spazio di informazione, supporto e partecipazione. Il dibattito vero riguarda come bilanciare protezione e inclusione senza ricorrere a soluzioni che escludono chi è più vulnerabile.
Perché le sentenze segnano una svolta
Le pronunce giudiziarie hanno riconosciuto che caratteri come lo scroll infinito, i feed modellati da algoritmi e le notifiche sono progettati per massimizzare l’attenzione, creando meccanismi assimilabili a una dipendenza. I giudici hanno citato l’effetto tana del coniglio per spiegare il loop comportamentale indotto dalle piattaforme: una volta immersi, diventa difficile uscire. Questo collegamento ha potenziali implicazioni globali: cause simili potrebbero trovare più terreno favorevole, le autorità antitrust e di tutela dei consumatori possono intensificare le istruttorie e le aziende devono ripensare esperienze d’uso che puntano esclusivamente al tempo di permanenza.
Conseguenze pratiche e reazioni industriali
Alla luce dei processi, alcune società hanno preferito accordi extragiudiziali mentre altre hanno scelto il contenzioso, con esiti diversi. Le piattaforme stanno inoltre cercando di dimostrare iniziative di sicurezza: ad esempio è stato comunicato che Google ha bloccato 8 miliardi di annunci considerati dannosi nel 2026. Parallelamente, le campagne di lobbying continuano: si stima che le grandi tech investano cifre significative per orientare le regole nell’UE, un elemento che complica la fiducia pubblica e la capacità dei regolatori di intervenire efficacemente.
Perché i divieti generalizzati non risolvono il problema
Imporre limiti d’età o chiudere l’accesso ai minori equivale a spostare la responsabilità dalle aziende agli adolescenti e alle loro famiglie. Tale approccio ignora che i luoghi digitali fungono da risorsa cruciale per molti giovani: informazioni sulla salute, comunità LGBTQIA+, supporto per migranti e persone con disabilità spesso si trovano online.
Una misura che esclude in blocco crea una gabbia dorata che può proteggere solo sulla carta, ma che priva del tutto chi ha bisogno di quei servizi e relazioni.
Gli effetti sulle comunità marginalizzate
Per chi vive discriminazioni offline, i social media offrono anonimato, reti di sostegno e accesso a risorse altrimenti assenti. Politiche uniformi non tengono conto delle differenze di contesto: chi ha una rete familiare stabile percepisce i rischi in modo diverso rispetto a chi dipende esclusivamente dagli spazi online per ottenere aiuto. Le regole devono essere disegnate considerando queste variabili, per evitare che le misure di tutela diventino strumenti di esclusione.
Verso soluzioni strutturali costruite con i giovani
La strada raccomandata dalle organizzazioni giovanili è chiara: non basta una normativa che resti sulla carta.
Serve l’applicazione rigorosa del Regolamento sui servizi digitali (DSA) e l’introduzione di un Digital Fairness Act che interdica design sfruttatori senza depotenziare l’accesso. Inoltre, le misure tecniche come la age verification devono essere valutate criticamente rispetto alla privacy e al rischio di richiedere documenti biometrici per partecipare alla vita digitale.
Per essere efficaci le politiche richiedono risorse: autorità indipendenti con poteri reali, programmi educativi mirati, servizi di assistenza telefonica e il supporto delle ONG. Fondamentale è il principio di co-progettazione: non costruire un mondo digitale per i giovani, ma con i giovani. Il successo non si misurerà dal numero di account disattivati, ma dal numero di giovani che accedono a spazi online sicuri e significativi. Molti consigli nazionali della gioventù europei e organizzazioni come EDRi e IGLYO hanno già chiesto di essere parte della soluzione, insistendo su regole applicate e partecipazione reale.

