Titolo

La guerra alla crittografia - alcune questioni tecniche

3 commenti (espandi tutti)

A leggere molti commenti pare non si sia capito molto della questione. Apple introdusse la crittografia e il sistema di blocco con 10 tentativi con successivo erase del dispositivo per un semplice motivo: i furti degli smartphone.

Credo ormai che chiunque di voi possegga uno smartphone, sbloccatelo e controllate a quanti servizi siete connessi e loggati: facebook, email, amazon, app per l'homebanking, google maps con eventuale cronologia delle posizioni, calendario degli appuntamenti ecc. Ecco provate per esempio a pensare ad un ladro che ha accesso a tutte queste informazioni. Conoscerà il vostro domicilio, il vostro lavoro, com'è fatta casa vostra, che abitudini avete e magari sul calendario appuntamenti trova anche la data in cui andrete in ferie per una settimana in Spagna.

Ora credo che chiunque di voi, in caso di furto del telefonino, vorrebbe avere un sistema di protezione come quello di Apple, inviolabile. Siccome una soluzione tecnica (allo stato attuale) non esiste per salvare capre e cavoli, ovvero permettere a FBI di accedere al telefono senza comprometterne la sicurezza mi centinaia di milioni di telefoni sparsi nel mondo, Apple ha giustamente deciso di opporsi alla richiesta.

Quindi non è che i "techies" siano dei nerd asociali paranoici col capello di stagnola in testa, semplicemente conoscono bene i rischi e le problematiche del complicato mondo della sicurezza informatica (e di quanto il cybercrimine sia in espansione).

Tornando al problema investigativo è già stato chiarito come i terroristi (come anche i deliquenti comuni) preferiscano l'uso di telefoni semplici usa e getta (quelli da 20€ o meno) e li preferiscono per un motivo semplice: un terminale come lo smartphone lascia nei log dei carrier una mole di tracce incredibile. Ovvero l'FBI puo giungere a informazioni sul terrorista anche per via indiretta ed è questo il punto che rende il vantaggio investigativo molto basso.

ma il sistema di apple non è inviolabile ed è molto rischioso farlo credere... qual' è la differenza tra una backdoor governativa e una falla zero day ?la backdoor governativa non sappiamo nemmeno come potrebbe venire implementata (potrebbe essere necessario l' accesso fisico al telefono e non remoto esempio), seriamente pensiamo che se un ladro ci rubasse il telefono utilizzerebbe una backdoor governativa per accedervi ? perchè non una falla zero day ? entrambe sarebbero complicatissime da ottenere ed utilizzare per il 99,9999% dei ladri iphone, dubito che chi è a conoscenza di una falla zero day  la userebbe per accedere al telefono di Mario Rossi...  E' la falla zero day che mette, in teoria, in pericolo la privacy, non la backdoor governativa (che non abbiamo idea di come verrebe realizzata) come detto dall' autore esiste la Key Disclosure Law, il governo all' onesto ci guarda dentro ugualmente... gli attentatori potevano usare PGP per scambiarsi messaggi perchè non lo hanno fatto ? O perchè è dannatamente scomodo o non ne erano capaci, molto semplicemente ... I mafiosi potrebbero parlare in codice al telefono e lo fanno spesso questo non rende inutile le intercettazioni telefoniche perchè prima o poi commetteranno un errore...

ma il sistema di apple non è inviolabile ed è molto rischioso farlo credere... qual' è la differenza tra una backdoor governativa e una falla zero day ?

Proverò a dare una risposta: essenzialmente la differenza è nel dominio a cui si applica la vulnerabilità.

Supponiamo che il governo USA crei la specifica XYZ, qualsiasi essa sia, che per legge i dispositivi dotati di crittografia devono implementare (e che sia qualcosa di più complicato de "non puoi usare chiavi più complicate di N bit", soluzione già provata e scartata per ragioni che dovrebbero essere evidenti a tutti).

Tale specifica, o l'implementazione della parte governativa di tale specifica (quella che effettivamente fornisce al governo l'accesso tramite "chiave privilegiata" o un qualsiasi sistema simile), può avere un bug (anzi, è molto probabile che lo abbia), o può capitare una falla nella sicurezza: tanto per dire, una talpa nelle agenzie che hanno accesso alle chiavi necessarie per forzare i sistemi, o cose del genere - social engineering di cui i funzionari del governo possono essere vittime.

Comunque, supponiamo che la vulnerabilità della specifica o qualche informazione "riservata" sufficiente per compromettere il sistema venga scoperta. Sarebbe un caso simile a quando si trova un bug nelle implementazioni di SSL, diciamo, tipo heartbleed?

No, e per almeno due motivi fondamentali.

1) Per un utente legittimo, l'eliminazione di tale vulnerabilità in tempi rapidi (minuti, non giorni), richiederebbe di smettere di implementare la direttiva XYZ (per passare a un sistema alternativo, in attesa che la specifica XYZ venga corretta, con i tempi della politica) - ma non esistendo sistemi legittimi che non implementano la direttiva XYZ, questo sarebbe molto difficile (e magari anche illegale). Mentre per heartbleed, la soluzione "cambio implementazione" è sostanzialmente immediata una volta scoperto il problema.

2) E' ragionevole aspettarsi che i dispositivi/software utilizzati in tutti gli altri paesi non implementino XYZ, e quindi non soffrano della vulnerabilità. Nel momento in cui si scoprisse tale vulnerabilità, la vulnerabilità sarebbe di tutti e soli i sistemi che implementano la specifica XYZ del governo USA. Immagina il problema di sicurezza nazionale che si creerebbe...