Le discussioni sul rapporto tra giovani e platform digitali sono ormai quotidiane, ma negli ultimi anni il tema ha assunto un tono più urgente. Secondo il segretario generale del più grande sindacato degli insegnanti del Regno Unito, Daniel Kebede, le scuole non possono più limitarsi a contenere i danni: serve intervenire sulle radici del problema. Il punto centrale è che molte pratiche online non sono incidentali, ma il frutto di modelli commerciali che privilegiano l’engagement a ogni costo. In questo quadro, parlare di responsabilità solo nei termini di genitori e insegnanti è insufficiente: servono cambiamenti strutturali.
Un esperimento condotto dall’organizzazione guidata dal sindacato ha mostrato quanto rapidamente un profilo giovanile venga esposto a contenuti problematici. Il progetto, denominato Big Tech’s Little Victims Algorithm Experiment, ha creato profili fittizi di ragazzi di 13 anni su piattaforme molto popolari e ha osservato le raccomandazioni ricevute: in pochi minuti sono emersi video e post con armi, contenuti di autolesionismo, materiale sessualizzato e narrazioni misogine.
Questi risultati non sono solo numeri: riflettono come gli algoritmi di raccomandazione possano modellare esperienze che poi ricadono nella realtà scolastica.
Perché i rimedi parziali non bastano
Le iniziative governative citate negli ultimi dibattiti, tra cui una consultazione nazionale e un piccolo pilot con adolescenti, puntano a testare restrizioni temporali e blocchi notturni. Tuttavia, quando gli algoritmi riescono a spingere contenuti estremi in pochi minuti di utilizzo, le misure limitate rischiano di essere inadeguate. Se una sola persona in un gruppo di amici rimane connessa, può condividere video e messaggi che espongono gli altri: la vulnerabilità diventa sociale, non solo individuale. Per questo motivo il sindacato sostiene che solo un intervento che limiti l’accesso su larga scala fornisce una reale riduzione del rischio.
Limiti di tempo e isolamento dei rischi
Imporre limiti orari o spegnere le app durante la notte è utile come misura immediata, ma non risolve la questione strutturale. Le piattaforme continuano a funzionare con metriche che premiano la velocità, la polarizzazione e il buzz, fenomeni che alimentano contenuti di odio e umiliazione. In classe, gli insegnanti raccontano di studenti che portano atteggiamenti radicalizzati nati online, e l’effetto è amplificato quando la piattaforma monetizza la viralità. In altre parole, il problema non è solo quando i ragazzi usano i social, ma come questi prodotti sono progettati per funzionare.
Proposte operative: divieto d’età e alfabetizzazione digitale
La proposta avanzata dal sindacato è chiara: elevare l’età minima per l’accesso ai social media a 16 anni.
Questo provvedimento dovrebbe essere accompagnato da un curriculum che garantisca alfabetizzazione digitale di alta qualità, così che i giovani imparino a riconoscere meccanismi di manipolazione, disinformazione e abuso. Un divieto isolato sarebbe inefficace senza strumenti educativi che sviluppino competenze critiche e senza risorse per le scuole, che già affrontano le conseguenze nella gestione del benessere emotivo e sociale degli studenti.
Responsabilità delle piattaforme
Oltre al cambio dell’età d’accesso, è essenziale che le aziende del settore siano ritenute responsabili per la sicurezza dei minori. Quando una piattaforma non può escludere che un utente sia un ragazzo, la sua diligenza progettuale dovrebbe includere barriere che prevengano l’esposizione a contenuti prevedibilmente dannosi. La richiesta del sindacato non è una condanna ideologica della tecnologia, ma una sollecitazione a ripensare modelli che trasformano la fruizione in prodotto commerciale a scapito della salute pubblica.
Impatto nelle scuole e conclusioni
Gli insegnanti riportano risultati concreti: aumento di comportamenti discriminatori, episodi di bullismo facilitati dal telefono in classe e personale scolastico che subisce ostilità alimentata dal linguaggio tossico online. Indagini interne del sindacato rilevano percentuali significative di osservazioni su razzismo e misoginia tra gli studenti, elementi che sembrano collegati all’esposizione digitale. Per affrontare tutto questo servono politiche coerenti: dall’innalzamento dell’età d’accesso alla promozione di programmi di supporto nelle scuole, fino a regole chiare che obblighino le piattaforme a progettare con la sicurezza dei minori al centro.

