in

Perché Essex Police ha fermato i sistemi LFR: rischi di accuratezza e bias

Essex Police ha messo in pausa le telecamere di live facial recognition (LFR) dopo che audit e studi accademici hanno sollevato dubbi su accuratezza e imparzialità

perche essex police ha fermato i sistemi lfr rischi di accuratezza e bias 1774029117

La polizia della contea di Essex ha annunciato la sospensione temporanea dell’uso del live facial recognition (LFR) fornito da Corsight, una mossa resa pubblica da un documento di audit pubblicato dall’Information Commissioner’s Office (ICO). Il registro delle operazioni del corpo mostra che l’ultima attivazione risale al 26 August 2026, e che le attività erano già state fermate quando l’ICO ha svolto il controllo in novembre 2026. Questo stop ha riacceso interrogativi su come le forze di polizia valutino il rischio di errore e di discriminazione prima di impiegare strumenti di sorveglianza in strada.

Le critiche precedenti, emerse da una richiesta di accesso agli atti effettuata da Big Brother Watch, avevano messo in luce una valutazione di impatto sull’uguaglianza ritenuta inadeguata.

In quel documento, ritenuto da molti «incoerente», mancavano analisi sistemiche e si faceva riferimento ad algoritmi diversi, testati su popolazioni non comparabili. La controversia ha portato a un richiamo più ampio sulla necessità di prove indipendenti e di procedure trasparenti prima della diffusione di tecnologie sensibili come il LFR.

Motivi della sospensione

La sospensione è stata motivata da possibili problemi di precisione e di parzialità nel tasso di identificazione. Per chiarire la situazione, Essex Police ha incaricato sia il National Physical Laboratory (NPL) sia l’Università di Cambridge di condurre test indipendenti sulla stessa tecnologia. La forza ha dichiarato che il primo studio ha evidenziato «potenziale bias» nella percentuale di riconoscimenti positivi, mentre il secondo non ha rilevato una differenza statisticamente rilevante.

In risposta a questi risultati contrastanti, la polizia ha interrotto le operazioni per collaborare con il fornitore e aggiornare il software, rivendicando una revisione delle procedure operative alla luce delle evidenze raccolte.

I test accademici

Lo studio pubblicato dall’Università di Cambridge il 12 March 2026 ha osservato 188 partecipanti impegnati a passare davanti a telecamere attive da furgoni di pattuglia a Chelmsford. I ricercatori hanno trovato che il sistema identificava correttamente circa la metà delle persone inserite nella watchlist e che i falsi positivi risultavano rari, ma ha anche rilevato che il riconoscimento funzionava meglio sugli uomini rispetto alle donne e che risultava «statisticamente significativamente» più probabile per i partecipanti neri rispetto ad altri gruppi etnici. Un altro rapporto del NPL, pubblicato anch’esso a marzo 2026, ha mostrato tendenze diverse ma senza una disparità statisticamente significativa.

Risposte e critiche

Le reazioni non si sono fatte attendere. Big Brother Watch e il suo responsabile ricerche, Jake Hurfurt, hanno definito la situazione un «fiasco», sottolineando che migliaia di persone erano state già sottoposte a scansioni senza adeguati controlli. L’associazione ha chiesto di fermare l’uso di LFR come strumento di sorveglianza di massa, sostenendo che l’adozione senza test rigorosi mette a rischio diritti e libertà. D’altra parte, la polizia ha affermato di aver rafforzato le policy per rispettare il Public Sector Equality Duty e di monitorare costantemente i risultati per evitare discriminazioni mirate contro segmenti della comunità.

Contesto normativo e prospettive

Il dibattito nazionale è alimentato anche dalle mosse del Home Office, che ha avviato una consultazione di dieci settimane sul LFR a dicembre 2026 e ha annunciato piani più ambiziosi nelle riforme di fine gennaio 2026.

Le proposte prevedono un aumento dei furgoni dotati di LFR da 10 a 50, la creazione di un centro nazionale per l’AI in polizia chiamato Police.AI e un investimento di £115m in tre anni per sperimentare e scalare tecnologie di intelligenza artificiale. Critici avvertono del pericolo di una sorveglianza alla panopticon, richiamando la metafora citata dalla ministra Shabana Mahmood, mentre il governo sottolinea i benefici operativi: il Home Office ha affermato che tra il Jan 2026 e il Sep 2026 i sistemi hanno portato a oltre 1.300 arresti.

What do you think?

Scritto da Staff

ottava tappa italian majors al garda hotel san vigilio con green fee promozionale 1774025497

Ottava tappa Italian Majors al Garda Hotel San Vigilio con green fee promozionale