Alessandro Acquisti
1,401,760 views • 15:00

Vorrei raccontarvi una storia che collega il famoso incidente sulla privacy di Adamo ed Eva e il notevole cambiamento nei confini tra pubblico e privato avvenuto negli ultimi 10 anni.

Conoscete i fatti. Un giorno nel giardino dell'Eden Adamo ed Eva si accorgono di essere nudi. Vanno fuori di testa. E il resto è storia.

Oggi, Adamo ed Eva probabilmente agirebbero in modo diverso

[@Adam La scorsa notte è stato fantastico. Ho adorato quella mela LOL]

[@Eva sì... tesoro, sai dove sono finiti i miei slip?]

Riveliamo più informazioni che mai su noi stessi on-line, e queste informazioni su di noi vengono raccolte da organizzazioni. C'è molto da guadagnarci e da fare profitto dall'analisi massiccia dei dati personali, o grandi dati, ma c'è anche una complessa rete di compromessi che deriva dal rinunciare alla nostra privacy. E la mia storia riguarda questi compromessi.

Cominciamo con un'osservazione che, a mio avviso, è divenuta sempre più chiara negli ultimi anni, e cioé che ogni singola informazione personale può diventare un dato sensibile. Nel 2000, circa 100 miliardi di foto vennero scattate in tutto il mondo, ma solo una minuscola parte venne di fatto caricata online. Nel 2010, solo su Facebook, in un solo mese, ne sono state caricate 2,5 miliardi, e la maggior parte identificata. Nello stesso arco di tempo, la capacità dei computer di riconoscere le persone nelle foto si è triplicata. Che cosa succede quando si mettono insieme tutte queste tecnologie? Un aumento della disponibilità di dati facciali, un miglioramento nella capacità dei computer di riconoscere i volti ma anche il cloud computing, che offre a chiunque qui presente un potere di gestione della infrastruttura informatica che qualche anno fa era appannaggio solo delle agenzie di sicurezza: e l'onnipresenza dell'informatica, che permette al mio telefono, che è anche un supercomputer, di connettersi a internet ed eseguire centinaia di migliaia di analisi facciali in pochi secondi. Riteniamo che il risultato di questa combinazione di tecnologie porterà a un cambio radicale della nostra concezione di privacy e anonimato.

Per verificarlo, abbiamo fatto un esperimento al campus della Carnegie Mellon University. Abbiamo chiesto agli studenti che passavano di lì di partecipare a uno studio. Abbiamo scattato una foto con la webcam, e abbiamo chiesto loro di compilare un questionario su un pc portatile. Mentre compilavano il questionario, abbiamo caricato le foto su un cluster di cloud-computing, e abbiamo iniziato a utilizzare un riconoscitore facciale per incrociare quello scatto con un database contenente centinaia di migliaia di immagini che avevamo scaricato dai profili di Facebook. Quando il soggetto aveva compilato l'ultima pagina del questionario la pagina era già stata aggiornata dinamicamente con le 10 foto che meglio combaciavano trovate dal sistema di riconoscimento facciale e abbiamo chiesto ai soggetti di indicare se si ritrovavano nella foto.

Vedete il soggetto? Bene, il computer ci riusciva, riconosceva un soggetto su tre.

Quindi, in sintesi, partendo da un volto anonimo, offline o online, siamo in grado di usare il riconoscimento facciale e dare un nome a quel volto anonimo grazie ai dati presenti sui social media. Ma qualche anno fa, abbiamo fatto quacosa in più. Partendo dai dati dei social media, li abbiamo combinati statisticamente con i dati del sistemi del sistame previdenziale americano, e siamo riusciti a prevedere i codici fiscali, che negli Stati Uniti sono dati estremamente sensibili.

Capite dove voglio arrivare? Se uniamo i due studi, allora la domanda è: è possibile partire da un volto e, usando il riconoscimento facciale, trovare un nome e altre informazioni disponibili pubblicamente sul quel nome e su quella persona, e da tali informazioni pubbliche dedurre informazioni non disponibili pubblicamente, dati molto più sensibili riconducibili a quel volto? E la risposta è sì, possiamo farlo, e l'abbiamo fatto. Naturalmente, il grado di accuratezza diminuisce. [abbiamo identificato il 27% delle prime 5 cifre del codice fiscale (con 4 tentativi)] Ma abbiamo anche deciso di sviluppare un'applicazione iPhone che utilizza la fotocamera interna del telefono scatta una foto del soggetto, la carica sul cloud e poi fa in tempo reale esattamente quello che vi ho descritto: cerca un raffronto, recupera informazioni pubbliche, cerca di desumere dati sensibili, e poi le rinvia al telefono così da sovrapporle al volto del soggetto: È un esempio di realtà aumentata, probabilmente ne è un esempio raccapricciante. Di fatto, non abbiamo sviluppato l'applicazione per renderla disponibile sul mercato, ma solo come dimostrazione del concetto.

Infatti, prendete queste tecnologie e portatele all'estremo. Immaginate un futuro dove estranei attorno a voi vi guarderanno attraverso i loro occhiali Google o, un giorno, attraverso le loro lenti a contatto e useranno sette od otto punti di infomazione su di voi per dedurre ulteriori informazioni su di voi. Come sarà questo futuro senza segreti? E dovremmo preoccuparcene?

Ci piacerebbe credere che un futuro così, con un'enorme quantità di dati sarebbe un futuro senza pregiudizi, ma in verità, essere in possesso di così tante informazioni non significa prendere decisioni più obiettive. In un altro esperimento, abbiamo presentato ai nostri soggetti informazioni su un potenziale candidato per un lavoro. Abbiamo incluso alcuni riferimenti ad alcune informazioni divertenti, assolutamente legali, ma forse leggermente imbarazzanti che quel soggetto aveva pubblicato online Stranamente, tra i nostri soggetti, alcuni avevano pubblicato delle informazioni simili, altri no. Quale gruppo pensate era più propenso a giudicare severamente il nostro soggetto? Paradossalmente, il gruppo che aveva pubblicato informazioni simili: un esempio di dissonanza morale.

Forse starete pensando: questo non mi riguarda, perché io non ho nulla da nascondere. Ma in realtà la privacy non riguarda qualcosa di negativo da nascondere. Immaginate di essere il direttore delle risorse umane di una certa organizzazione, ricevete dei CV, e decidete di trovare ulteriori informazioni sui candidati. Allora, digitate su Google i loro nomi, e in un certo universo, trovate tali informazioni. O in un universo parallelo, trovate queste informazioni. Credete davvero che sarete obiettivi nel chiamare questo o quel candidato per un colloquio? Se lo pensate, allora non siete come i datori di lavoro statunitensi che hanno partecipato al nostro esperimento. Abbiamo fatto proprio questo. Abbiamo creato dei profili su facebook, manipolando le caratteristiche, poi abbiamo inviato dei CV a delle aziende negli Stati Uniti, e abbiamo rilevato e monitorato eventuali ricerche sui nostri candidati, e se ciò avveniva sulla base delle informazioni che si potevano reperire sui social media. E accadeva proprio questo. Candidati ugualmente dotati venivano discriminati attraverso i social media.

Gli esperti di marketing amano farci credere che tutte queste informazioni su di noi verrano sempre usate in nostro favore. Ma pensateci bene. Perché dovrebbe essere sempre così? In un film uscito qualche anno fa, "Minority Report", c'è una scena famosa in cui Tom Cruise cammina in un centro commerciale e attorno a lui appaiono messagi pubblicitari personalizzati. Quel film è ambientato nel 2054, fra circa 40 anni, e per quanto affascinante appaia quella tecnologia, sottovaluta grandemente la quantità di informazioni che le organizzazioni possono raccogliere su di noi, e come le possono usare per influenzarci in modi di cui non siamo consapevoli.

Ne è un esempio l'esperimento che stiamo conducendo, non ancora portato a termine. Immaginate che un'organizzazione abbia accesso alla lista dei vostri amici su Facebook, e che attraverso un algoritmo sia in grado di rilevare i due amici che amate di più. Poi creano in tempo reale un composito facciale di questi due amici. Studi precedenti hanno dimostrato che le persone non riconoscono nemmeno più se stesse nei compositi facciali, ma che reagiscono positivamente a quei compositi. Così la prossima volta che cercate un prodotto e una pubblicità vi suggerisce di comprare quel prodotto, potrebbe non esserci un normale portavoce, potrebbe essere uno dei vostri amici, e voi non ne sarete nemmeno consapevoli.

Il problema è che attualmente i meccanismi normativi che abbiamo a disposizione per difenderci agli abusi di dati personali sono totalmente inadeguati. Uno di questi è la trasparenza, ovvero comunicare alle persone come verrano usati i loro dati. E in linea di principio, è una buona cosa. È necessario, ma non sufficiente. La trasparenza può essere manipolata. Potete dire alle persone cosa avete intenzione di fare, e in seguito spingerli a rivelare una gran quantità di dati personali.

Così, in un altro esperimento abbiamo chiesto a degli studenti di fornire informazioni inerenti il loro comportamento nel campus, comprese molte domande sensibili, come questa: [Hai mai copiato ad un esame?] A un gruppo di soggetti abbiamo detto "Le tue risposte verrano viste solo da altri studenti." A un altro gruppo di soggetti, abbiamo detto, "Gli studenti e la facoltà vedranno le tue risposte". Trasparenza. Notifica. E certo, ha funzionato, nel senso che il primo gruppo era molto più propenso a fornire dati sensibili rispetto al secondo gruppo. Ha senso, non è vero? Ma poi abbiamo aggiunto indicazioni fuorvianti. Abbiamo ripetuto l'esperimento con gli stessi due gruppi, questa volta facendo passare un lasso di tempo tra il momento in cui abbiamo detto agli studenti come avremmo usato i loro dati e il momento in cui abbiamo cominciato effettivamente a raccogliere le risposte.

Quanto deve durare l'intervallo di tempo affinché si annulli l'effetto inibitorio di sapere che la facoltà leggerà le vostre risposte? Dieci minuti? Cinque minuti? Un minuto? Che ne dite di 15 secondi? Quindici secondi sono stati sufficienti per far sì che entrambi i gruppi fornissero le stesse informazioni, come se ora al secondo gruppo non importasse più che la facoltà leggesse le loro risposte.

Devo ammettere che il mio intervento finora può sembrare eccessivamente pessimista, ma non è questo il punto. In realtà, voglio condividere con voi il fatto che ci sono alternative. Il modo in cui stiamo facendo le cose non è l'unico modo, e certo non è il modo migliore con cui farle. Quando qualcuno vi dice, "Le persone non si preoccupano della privacy" considerate se il gioco è stato progettato e manipolato in modo che non possano preoccuparsi della privacy. Comprendere che queste manipolazioni si verificano è già metà della strada da compiere per poter essere in grado di proteggersi. Quando qualcuno vi dice che la riservatezza è incompatibile con i vantaggi dei grandi dati, considerate che negli ultimi 20 anni, i ricercatori hanno creato tecnologie per far sì che qualsiasi transazione elettronica avvenga in modo da garantire maggiormente la privacy. Possiamo navigare in Internet in modo anonimo. Possiamo inviare email che possono essere lette solo dal destinatario, nemmeno dalla NSA. Possiamo anche estrarre dati preservando la privacy. In altre parole, possiamo avere i benefici dei grandi dati proteggendo la privacy. Naturalmente, queste tecnologie implicano uno spostamento di costi e ricavi tra i titolari di dati e i soggetti dei dati, che è il motivo per cui non ne sentiamo parlare molto.

Il che mi riporta al Giardino dell'Eden. C'è una seconda interpretazione sulla privacy nella storia del Giardino dell'Eden che non ha nulla a che fare con il fatto che Adamo ed Eva si sentono nudi e si vergognano. Si possono trovare echi di questa interpretazione nel "Paradiso Perduto" di John Milton. Nel giardino, Adamo ed Eva sono materialmente contenti. Sono felici. Sono soddisfatti. Tuttavia, mancano della conoscenza e della consapevolezza di sé. Il momento in cui mangiano il giustamente chiamato frutto della conoscenza, è il momento in cui scoprono se stessi. Diventano consapevoli. Raggiungono l'autonomia. Tuttavia, Il prezzo da pagare è lasciare il giardino. Così la privacy, in un certo senso, è sia il mezzo sia il prezzo da pagare per la libertà.

Ancora una volta, il marketing ci dice che i big data e i social media non sono solo un paradiso di profitto per loro, ma un Giardino dell'Eden per il resto di noi. Otteniamo contenuti gratuiti. Possiamo giocare a Angry Birds. Scarichiamo applicazioni mirate. Ma in realtà, in pochi anni, le organizzazioni socpriranno così tanto di noi, che saranno in grado di dedurre i nostri desideri prima ancora che si formulino e forse acquisteranno prodotti per nostro conto prima ancora che ci rendiamo conto di averne bisogno.

C'è stato un autore inglese che ha previsto questo tipo di futuro dove avremmo venduto la nostra autonomia e libertà per il comfort. Ancora più che George Orwell, l'autore è, naturalmente, Aldous Huxley. In "Il Mondo Nuovo", immagina una società dove le tecnologie che abbiamo creato originariamente per la libertà finiscono per controllarci. Tuttavia, nel libro, ci offre anche una via d'uscita da quella società, simile al percorso che Adamo ed Eva hanno dovuto seguire per lasciare il giardino. Nelle parole del Selvaggio, riconquistare l'autonomia e la libertà è possibile, anche se il prezzo da pagare è caro. Quindi credo che una delle lotte principali dei nostri tempi sarà la lotta per il controllo delle informazioni personali, la lotta per determinare se i big data diventeranno una forza per la libertà, o una forza che ci manipolerà di nascosto.

Ora, molti di noi non sanno nemmeno che la lotta è in corso, ma è così, che vi piaccia o no. E a rischio di fare la parte del serpente, vi dirò che gli strumenti per la lotta sono qui, la consapevolezza di ciò che sta succedendo, e nelle vostre mani, a pochi clic di distanza.

Grazie.

(Applausi)