in

Priorità all’applicazione delle norme sui big tech prima dei divieti sui social per i minori

Il commissario Michael O’Flaherty sollecita gli Stati europei a rafforzare l'applicazione delle norme contro i big tech e a garantire trasparenza algoritmica e responsabilità prima di limitare l'accesso dei minori ai social

priorita allapplicazione delle norme sui big tech prima dei divieti sui social per i minori 1771924329

Consiglio d’Europa e commissario per i diritti umani, Michael O’Flaherty, mettono in discussione l’idea di bandire in modo assoluto i social network ai minori. La loro posizione è chiara: prima di ricorrere a divieti drastici, conviene far rispettare davvero le regole già esistenti e responsabilizzare le piattaforme sui rischi che espongono ai più giovani. L’uso dei servizi digitali tra i ragazzi continua a crescere e, per questo, le soluzioni non possono limitarsi a punire l’accesso: servono controlli trasparenti sugli strumenti e progettazioni che mettano al centro i diritti dei minori.

I numeri
I dati di mercato confermano una salita dell’uso dei social tra i giovani in Europa, mentre le piattaforme mantengono modelli di business costruiti sull’engagement giovanile. Le analisi citate dal commissario avvertono che divieti generalizzati trascurerebbero i meccanismi che creano esposizione e danno, senza risolvere le cause profonde.

Contesto di mercato
Le grandi aziende tech continuano a influenzare il mercato digitale e i ricavi pubblicitari grazie agli utenti under‑18. Gli investitori guardano ancora al settore come a un’opportunità di crescita, ma la pressione regolatoria aumenta. A livello europeo si sta valutando come rendere le piattaforme più responsabili, più che introdurre misure proibitive nette.

Variabili in gioco
La discussione si concentra su alcuni punti chiave: applicazione delle norme già esistenti, progettazione dei servizi, trasparenza degli algoritmi e audit indipendenti. O’Flaherty chiede controlli stringenti sulla conformità: aumentare i costi di compliance può incidere sui margini aziendali, ma senza numeri precisi resta difficile quantificare l’impatto economico complessivo.

Impatti settoriali
Se la responsabilità normativa dovesse diventare più severa, le piattaforme dovranno investire in sicurezza e moderazione.

Le istituzioni, dal canto loro, sfidano se stesse nel mettere a punto meccanismi di vigilanza efficaci. Il tema intreccia questioni legali, tecniche ed economiche che riguardano imprese, utenti e regolatori.

Perché prima l’applicazione delle norme?
Il punto centrale è pragmatico: molte norme utili esistono già — tra cui il Digital Services Act — ma senza enforcement coerente rischiano di rimanere lettera morta. L’assenza di un’applicazione uniforme si traduce in scarsa compliance e in danni reputazionali per le aziende. Per questo i prossimi passi dovrebbero puntare su trasparenza algoritmica e audit esterni, misure indicate più volte come prioritarie.

Enforcement e responsabilità
O’Flaherty invoca sanzioni efficaci, supervisione indipendente e regole che rendano le aziende direttamente responsabili dei prodotti che mettono in rete. Strumenti di controllo ben calibrati possono incentivare investimenti in sicurezza e ridurre la tendenza a scaricare la responsabilità sui minori.

Le analisi mostrano inoltre che obblighi di responsabilità diretta e audit esterni tendono a diminuire l’esposizione a contenuti dannosi e a migliorare la fiducia degli investitori.

Trasparenza degli algoritmi e test di conformità
Audit esterni e verifiche indipendenti abbassano il rischio di esposizione a contenuti nocivi e migliorano la percezione della governance aziendale. Secondo il commissario, le aziende non possono più nascondersi dietro la complessità tecnica: servono test di conformità ai diritti umani e controlli continui per intercettare rischi emergenti. Combinando verifiche interne, audit esterni e obblighi normativi si ottiene maggiore tracciabilità delle decisioni automatizzate e strumenti concreti per gli enti di vigilanza.

Design e incentivi delle piattaforme
Spesso il problema nasce dal design: funzioni come lo scrolling infinito o l’autoplay prolungano la permanenza e favoriscono abitudini d’uso compulsive.

Sono scelte progettuali che trasformano decisioni individuali in comportamenti ripetuti, rendendo più difficile interrompere l’esposizione ai contenuti. L’UE sta valutando misure per quantificare questi effetti e obbligare le piattaforme a intervenire; le sanzioni previste possono arrivare fino al 6% del fatturato annuo, fatto che influisce sul sentiment degli investitori e sulle metriche di rischio reputazionale.

Reazioni internazionali e misure nazionali
A livello globale, diversi Paesi stanno esplorando strumenti per limitare l’accesso dei minori o per rafforzare i controlli. Alcuni propongono limiti di età, altri puntano su obblighi per le piattaforme. L’Australia, per esempio, ha introdotto regole che richiedono sistemi di verifica dell’età, suscitando però contestazioni legali e sollevando dubbi su privacy e proporzionalità. Questi sviluppi avranno ricadute sui costi di compliance e sulle strategie aziendali.

I numeri
I dati di mercato confermano una salita dell’uso dei social tra i giovani in Europa, mentre le piattaforme mantengono modelli di business costruiti sull’engagement giovanile. Le analisi citate dal commissario avvertono che divieti generalizzati trascurerebbero i meccanismi che creano esposizione e danno, senza risolvere le cause profonde.0

I numeri
I dati di mercato confermano una salita dell’uso dei social tra i giovani in Europa, mentre le piattaforme mantengono modelli di business costruiti sull’engagement giovanile. Le analisi citate dal commissario avvertono che divieti generalizzati trascurerebbero i meccanismi che creano esposizione e danno, senza risolvere le cause profonde.1

I numeri
I dati di mercato confermano una salita dell’uso dei social tra i giovani in Europa, mentre le piattaforme mantengono modelli di business costruiti sull’engagement giovanile. Le analisi citate dal commissario avvertono che divieti generalizzati trascurerebbero i meccanismi che creano esposizione e danno, senza risolvere le cause profonde.2

What do you think?

Scritto da Staff

hub creativo a milano il nuovo green media lab studios per contenuti esg 1771920079

Hub creativo a Milano: il nuovo Green Media Lab Studios per contenuti ESG