Le backdoor distruggono la fiducia, perciò Apple ha detto no all’FBI

innovaizone

Sono poche le cose di cui sono certo, ma tra queste ce ne sono sicuramente tre: non esistono missili che non uccidono civili, non esistono pistole che uccidono solo i cattivi e non esistono backdoor che rimangono private e non divengono pubbliche.

Ma cos’è una backdoor? Secondo Wikipedia una backdoor si definisce come un meccanismo che consente “di superare in parte o in tutto le procedure di sicurezza attivate in un sistema informatico“, un sistema quindi che, in tutto o in parte, abbassa forzosamente la sicurezza di un sistema informatico per consentire ad un individuo o ad una istituzione di ottenere l’accesso ad un sistema che si sta proteggendo da questo accesso.

Credits: www.theregister.co.uk

E, in realtà, proprio questo è ciò che è stato chiesto dall’FBI ad Apple nell’ordinanza del giudice americano che ha scatenato la Rete, dalla EFF al CEO di Google sino a John McAfee, a supportare la posizione di Apple di opporsi all’ordinanza.

Che cosa vogliono FBI e Corte federale dalla Apple

Già, l’FBI non ha chiesto, come ho letto spesso online in queste ore, di “aiutarli a recuperare i dati” dall’iPhone dell’assassino di San Bernardino Syed Farook e non ha nemmeno “richiesto di avere copia dei dati” come altre fantasiose interpretazioni hanno riportato. Non ha chiesto nessuna delle due cose perché è fisicamente impossibile per Apple fare alcuna delle due azioni: Apple non solamente, infatti, non detiene alcuna copia delle informazioni che l’FBI vuole, ma soprattutto non ha alcun modo di “rompere” la chiave crittografica che le protegge all’interno dell’iPhone stesso. Le informazioni sono, infatti, crittografate ed è la matematica stessa dietro alla crittografia utilizzata che le protegge. E no, Apple non detiene alcuna “master key” per aprire qualunque iPhone, come vorrebbero invece obbligarla ad avere una serie di governi.

(Leggi anche “Segreti, buste chiuse e codici cifrati, a che ci serve la crittografia“)

Un concetto, quello delle “master key”, spinoso, dietro cui molti colti pensatori (lo stesso Severgnini oggi) si sono fatti abbindolare senza veramente pensare alle reali conseguenze. Quali conseguenze? Beh, ad esempio che

non esiste nella storia dell’umanità e non è mai esistita una chiave che non sia stata prima o poi duplicata o divulgata.

È successo con le cifrature per proprietà intellettuale ed è successo, più di recente, con un tipo di chiave “fisico”: se infatti nell’articolo di oggi Severgnini porta a fulgido esempio delle “master key” le chiavi (obbligatorie per legge) che i costruttori di serrature per valige devono fornire alla TSA (l’Ente di tutela dei Trasporti) americana, beh, proprio queste chiavi sono state poco tempo fa al centro di uno dei più grossi scandali di sicurezza della storia.

Forse non sapete, infatti, che la serratura della vostra valigia è perfettamente inutile, perché le chiavi maestre, le “master key” della TSA sono liberamente scaricabili online e chiunque può, ad oggi, aprire la vostra serratura con le stesse chiavi che il governo americano giurava e spergiurava che sarebbero state appannaggio esclusivo del proprio Dipartimento.

Inutile dire quanto vane e vacue siano, con il senno di poi, quelle dichiarazioni e quanto inutili (e pericolose) siano queste “chiavi maestre”.

Ma torniamo all’iPhone dell’assassino di San Bernardino: se di “chiavi maestre” non si parla, cosa viene richiesto a Apple dall’FBI e dalla corte?

Viene “semplicemente” richiesto di aiutarli a “superare in parte le procedure di sicurezza attivate in un sistema informatico”. Già, perché l’anello debole della crittografia sta proprio nella sua chiave, e Apple da anni si sforza di rendere difficili quelle operazioni che tentano di “trovare” la chiave utilizzando migliaia e migliaia di tentativi. E lo fa in tre modi distinti:

1. Mediante il limite di tentativi: è infatti possibile limitare il numero di tentativi a disposizione (normalmente 10) per “indovinare” il codice, facendo sì che al decimo tentativo fallito il telefono cancelli i propri dati “autodistruggendosi”. In questo modo tentare a casaccio diventa impossibile e controproducente.

2. Mediante una temporizzazione dei tentativi: facendo sì, cioè, che anche senza la presenza del limite dei 10 tentativi sia necessario aspettare tempi sempre più lunghi per “riprovare” a inserire il codice all’aumentare dei tentativi. Possono essere necessarie anche ore prima di poter “tentare” un altro codice dopo aver sbagliato per l’ennesima volta. In questo modo la strategia di provare migliaia di codici diventa inattuabile.

3. Obbligando ad usare il display: metodo stupido ma funzionale, il display deve essere utilizzato necessariamente per immettere il codice, rendendo impossibile utilizzare “meccanismi di automazione”, se non comunque legati ad una fisicità, per “tentare” i codici. In questo modo la possibilità pratica di tentare migliaia e migliaia di codici al secondo diventa impossibile e il tempo necessario per “indovinare” diventa lunghissimo.

Orbene, la richiesta dell’FBI è precisa e puntuale: Apple dovrebbe, secondo la corte, creare una nuova versione del sistema operativo

Un software da caricare all’interno del cellulare dell’indiziato, che consenta di:

1. Eludere il limite dei 10 tentativi: il telefono non deve essere in grado di cancellare il contenuto al sopraggiungere del decimo codice errato inserito ma deve lasciare liberi di effettuare un numero arbitrario di tentativi;

2. Eludere il meccanismo di ritardo dell’inserimento: il telefono non deve essere in grado di inserire una “pausa” obbligatoria tra un tentativo ed un altro, ma deve lasciare liberi di effettuare un numero arbitrario di tentativi nel più breve tempo possibile;

3. Eludere la necessità di utilizzare il display: il telefono non deve essere in grado di obbligare l’inserimento tramite il display ma deve lasciare all’FBI la possibilità di usare sistemi digitali di inserimento.

In altre parole viene chiesto ad Apple di creare una versione del sistema operativo che possa eludere le tre barriere di sicurezza messe in atto per evitare il “bruteforce” delle password.

Cioè un sistema quindi in grado di “superare in parte le procedure di sicurezza attivate in un sistema informatico”, sistema che, anche per mera definizione, viene definito Backdoor.

Il rifiuto di Apple di fornire la backdoor

Ma perché Apple si rifiuta? Sgomberiamo il campo dall’incertezza: Apple è sicuramente in grado, soldi e tempo a parte, di creare questo sistema e di crearlo esattamente come richiesto dalla FBI, ma Apple decide di non farlo per tre motivi: il precedente, la diffusione planetaria e la fiducia del mercato.

Forse la più importante delle ragioni è la prima delle tre, la paura del “precedente”: già, perché se è assolutamente vero che l’ordinanza consentirebbe di creare questo sistema anche forzosamente facendo si che “giri” solo su quello specifico telefono, e soprattutto farlo “girare” solo all’interno della sede di Apple, la storia insegna che non esiste chiave che non sia stata svelata. Non solamente Apple quindi creerebbe una “arma digitale” prima non esistente al mondo, ma tale “arma digitale” correrebbe sicuramente il rischio una volta creata di essere diffusa: esistono infatti sicuramente governi ed altre entità che pagherebbero somme considerevolissime per una tecnologia di questo tipo (una vulnerabilità per iPhone vale anche un milione di euro, figuriamoci questa tipologia di software) e Apple ha dimostrato più volte come anche i super-segreti modelli dei nuovi iPhone sono riusciti a “sgattaiolare” fuori dalla sede di Cupertino.

Ma è anche una questione meramente legale: sulla base di quale scusante potrebbe mai Apple, in un futuro, esimersi in qualunque modo dalla medesima richiesta su un altro telefono, fatta in un secondo momento da qualunque altra forza di polizia?

E qui arriva la seconda problematica: la diffusione di Apple in tutto il mondo. Già, perché anche se la sede si trova a Cupertino, Apple è una realtà presente in tutto il mondo, in paesi democratici, diversamente democratici e “creativamente” democratici e, va ricordato, la definizione di terrorista è sicuramente fluida all’interno di vari regimi, e tende semplicemente a delineare chi si trova ad esercitare una opposizione violenta ad uno status quo: non è certo il caso di San Bernardino, ma in molte parti del mondo, quelli che vengono definiti dal governo del paese terroristi sono definiti dal resto del mondo “combattenti per la libertà”.

Come fronteggiare, in questi casi, le richieste che provengono da questi stati per il recupero dei dati di questi individui? Mentre rifiutarsi di eseguire una azione per cui non esiste alcuna procedura e non esiste alcun software è sicuramente possibile,

una volta creata la backdoor, sulla base di quale normativa ci si potrebbe opporre ad una richiesta di questo tipo?

E, ricordiamoci, stiamo parlando di una azienda che sempre più getta lo sguardo su una grande economia mondiale che risulta essere quantomeno tiepida nei confronti della salvaguardia dei diritti dei cittadini che la popolano…

Ed infatti questo rifiuto è, forse prima di tutto o forse in coda a tutto, soprattutto o anche una evidente posizione di scelta commerciale: se Apple dovesse cadere alle lusinghe o alle minacce della FBI, in un mondo post-Snowden di particolare attenzione alla confidenzialità delle informazioni, il danno anche solamente dell’immagine di sicurezza e impenetrabilità dei sistemi di Cupertino verrebbe distrutta nello spazio di poche righe di codice: quale governo mondiale, ad esempio, si fiderebbe del fatto che Apple non fornisca la “backdoor” al governo dello stato in cui risiede?

Una scelta, quella di difendere la privacy degli individui, molto più complessa quindi di una mera scaramuccia con una Corte, molto più importante, forse, di qualunque altra scelta commerciale.

Una scelta che si inquadra in un ben più ampio scenario, quello dei governi occidentali che paiono sempre più inclini a voler obbligare le grandi aziende mondiali a limitare la privacy per “crittografia castrata” che consenta agli investigatori un accesso “privilegiato” per non meglio specificate esigenze di “sicurezza nazionale” (Leggi anche “Così governi e aziende rubano la nostra privacy (in nome della sicurezza)”

Già perché, alla fine, non va dimenticato che negli attacchi terroristici degli ultimi anni la tecnologia e la crittografia hanno avuto nessun ruolo o un ruolo estremamente marginale: gli investigatori infatti (come in Francia) non sono nemmeno stati in grado di intercettare le chiamate perfettamente in chiaro a disposizione…

Ma anche se fosse “necessaria” ed implementate una “master key” nelle comunicazioni, ci siamo mai chiesti che cosa succederebbe, nella realtà? Forse dovremmo, perché pensandoci anche solo un secondo capiremmo una verità sconvolgente: non cambierebbe assolutamente NULLA.

Già, perché la legge che vieta di uccidere civili non ha mai fermato i killer (che semplicemente l’hanno ignorata) e le limitazioni al commercio di armi non hanno mai fermato i terroristi (che si sono approvvigionati ad altre fonti). E se un recente studio di Bruce Schneier ha dimostrato come il 34% dei sistemi di crittografia sia open source, cosa vieterebbe ai terroristi di ignorare la crittografia dell’iPhone ed utilizzare la crittografia di qualunque altro software OpenSource recuperato dalla rete e debitamente compilato? Cosa lo impedirebbe? Nulla.

A meno di non pensare, quindi, di poter impedire la crittografia in ogni prodotto disponibile online e di uccidere ogni riga di codice opensource presente online e di riuscire ad impedire che chiunque programmi (con algoritmi pubblici) un nuovo sistema, allora l’apporto alla lotta al terrorismo di un obbligo ad Apple e Google di “fornire master key” sarebbe nullo. I terroristi utilizzerebbero altri software e gli unici ad essere impattati da questa problematica sarebbero solamente i cittadini comuni.

Quindi briciole di momentanea sicurezza (fino ad un nuovo software opensource) in cambio della propria privacy. E, come diceva Benjamin Franklin intorno al 1750: “Chi è disposto a sacrificare la propria libertà per briciole di momentanea sicurezza, non merita né la libertà né la sicurezza. E le perderà entrambe”.

Originariamente pubblicato su chefuturo.it
0 Commenti
Inline Feedbacks
View all comments

What do you think?

Scritto da chef

innovaizone

Quintarelli: i miei primi 100 giorni da deputato, piccoli successi

innovaizone

Omofobia, pornografia e diritti sessuali in Internet