di Paolo Ottolina
Dal 2022 guida la fondazione dietro all’app che, dopo il dietrofront di Telegram, resta ultimo baluardo dell’assolutismo nella privacy. Ex Google, che ha lasciato in modo polemico nel 2019, della sua app dice: «Signal lavora all’interno dell’ecosistema dell’industria tecnologica, contro di esso»
Chi è Meredith Whittaker, simbolo della privacy tecnologica che guida Signal
Nostra Signora della privacy ha una laurea in Retorica e Letteratura inglese presa a Berkeley e un ciuffo bianco sui neri capelli ricci. Da quando, nel settembre 2022, Meredith Whittaker è presidente della fondazione che sta dietro l’app Signal, è diventata un faro, l’icona di un’altra visione della tecnologia, in cui l’accesso famelico ai dati degli utenti non sia più un mantra ma un qualcosa da ripudiare o per lo meno da gestire con mille cautele. Ora che anche Pavel Durov, il fondatore di Telegram, sembra aver ceduto alle pressioni, cambiando le policy della sua app e concedendo l’accesso alle autorità (in casi legati a reati), Signal resta l’ultimo porto franco.
Signal è relativamente poco nota tra le app di messaggistica istantanea, ha tra i 100 e i 150 milioni di utenti (non esistono statistiche pubbliche aggiornate), contro il miliardo di Telegram e gli oltre 2 di WhatsApp. L’approccio estremamente rigoroso alla privacy lo ha reso però piuttosto diffuso tra tecnologi, giornalisti, personale politico, stelle dello spettacolo e dello sport. E piace anche a chi vuole discrezione mentre organizza proteste, da Black Lives Matter alle milizie paramilitari degli Oath Keepers.
«Signal, innanzitutto, è un’app creata da un’organizzazione no-profit, la Signal Foundation. È un progetto open source, e dunque il codice sorgente, cioè le istruzioni con cui è programmato, sono visibili a tutti e chiunque abbia delle doti di programmazione può contribuire a svilupparlo. È per questa ragione che Signal non può usare “trucchi”: è un po’ come se ogni dettaglio della sua struttura fosse scritto su una bacheca visibile a tutti» spiega Riccardo Meggiato, esperto di cyber-sicurezza e informatico forense. Poi aggiunge: «Ciò non toglie che la tecnologia crittografica utilizzata da Signal garantisca uno dei più elevati livelli di sicurezza: è “end to end”, quindi solo i partecipanti a uno scambio di messaggi hanno le rispettive chiavi per codificare e decodificare i contenuti scambiati». C’è di più: «Signal inoltre adotta un sistema di “codici di sicurezza”: ogni conversazione è contrassegnata da un codice di sicurezza diverso, visibile ai partecipanti, che ne garantisce l’integrità. Se il numero cambia, vale la pena verificare se uno dei partecipanti ha re-installato l’app, o cambiato telefono. In caso contrario è meglio fare attenzione. C’è poi la possibilità di comunicare solo tramite nome utente, in modo da non condividere alcun numero di telefono». Per queste sue caratteristiche Signal è diventata ormai da qualche tempo l’app d’elezione per chi ha la necessità di comunicare in modo davvero sicuro, al punto che è diventata anche una sorgente di contenuti e comunicazioni illegali. «Per certi versi – conclude Meggiato – Signal è la versione “seria” di ciò che Telegram prometteva di essere e che, in fondo, non è mai stato».
Nata nel 2014 dalla fusione di due progetti open source, RedPhone e TextSecure, a opera di Moxie Marlinspike, un hacker e crittografo americano, è oggi gestita da una fondazione no-profit, la Signal Technology Foundation, che si finanzia esclusivamente attraverso donazioni e sovvenzioni. Un modello che permette di mantenere una totale indipendenza e di non dover rispondere a logiche di pure profitto che spesso confliggono con la tutela della privacy. Mentre WhatsApp, pur utilizzando proprio il protocollo di crittografia di Signal, è di proprietà di Meta (ex Facebook) e raccoglie metadati sulle interazioni degli utenti, Signal adotta una politica “zero-knowledge”: i dati sono crittografati end-to-end e nemmeno i server di Signal possono accedervi. Telegram, invece, non crittografa i messaggi di default e il suo codice non è open source, il che rende impossibile verificarne la sicurezza in modo indipendente.
La carriera di Whittaker
Il percorso professionale di Whittaker è interessante quanto l’app che guida. Per ben tredici anni ha lavorato in Google, vivendo dall’interno l’evoluzione del colosso tech e la sua transizione verso l’intelligenza artificiale (AI), ben prima dell’esplosione del settore con ChatGpt. Un’esperienza che l’ha segnata profondamente, portandola a guidare proteste interne contro le presunte molestie sessuali sul posto di lavoro e i contratti di Google con il Dipartimento della Difesa degli Stati Uniti per lo sviluppo di AI militari. Nel 2019, Whittaker lasciò il colosso americano in modo polemico, per concentrarsi sul combattere «per un’industria tecnologica responsabile», dicendo: «È chiaro che Google non è un posto dove posso continuare questo lavoro». Da allora ha tenuto fede alla sua parola e la sua missione sembra essere diventata il mettere in guardia sui rischi dell’intelligenza artificiale e sulla pericolosa concentrazione di potere nelle mani di poche grandi aziende tecnologiche. Ha co-fondato l’AI Now Institute, con cui Whittaker si batte instancabilmente per indagare le implicazioni etiche e sociali dell’AI sul nostro futuro, partendo dai diritti e dal benessere collettivo. Whittaker non crede agli scenari distopici sull’AI che ci sterminerà. Anzi, invita a smitizzarla, ricordando che non si tratta di magia o di un’entità immateriale, ma di una tecnologia basata su enormi quantità di dati concentrati nelle mani di pochi attori.
E quando, come in un’intervista con Corriere LOGIN dello scorso anno, le vengono citate regolamentazioni come l’AI Act adottato dall’Ue, lei rilancia sempre la palla un po’ più in là: «Non basta limitarsi a contenere i rischi: serve un ripensamento più profondo dei presupposti su cui si basa lo sviluppo dell’AI. Abbiamo bisogno di fermarci un attimo e pensare: che cos’è l’intelligenza artificiale? Non è un qualcosa di immateriale che abbiamo portato in questo mondo: è una tecnologia che si basa su un’enorme quantità di dati concentrati nelle mani di una ristretta cerchia di soggetti». Da cui nessun volo fantascientifico su futuri alla Terminator (che tanto piacciono a Elon Musk, tra gli altri), ma un grido d’allarme concreto: «Il vero rischio è che l’AI inizi a presentare la realtà misogina e razzista come naturale, illudendoci che le risposte di una macchina siano oggettive. Queste problematiche possono essere evitate almeno in parte assicurandosi che tutti siano correttamente rappresentati nei set di dati che alimentano le AI».
Ecco perché Signal, con la sua crittografia end-to-end e la sua vocazione al no-profit, rappresenta per Whittaker un modello alternativo: «Signal sta lavorando all’interno dell’ecosistema dell’industria tecnologica, contro di esso. Sta cercando di creare qualcosa che interrompa il flusso diretto dei dati».
(Corriere della Sera, 29 settembre 2024)