Eli Pariser

Eli Pariser: Attenti alle "gabbie di filtri" in rete

3,994,349 views • 9:04
Subtitles in 41 languages
Up next
Details
Discussion
Details About the talk
Transcript 41 languages
Translated by Daniele Buratti
Reviewed by Elena Montrasio
0:15

Mark Zuckerberg, un giornalista gli aveva posto una domanda sulla logica delle notizie proposte. La domanda era, "Perché è tanto importante?" E Zuckerberg, "Uno scoiattolo morente nel tuo giardino potrebbe essere più vicino ai tuoi interessi, in questo momento, di quanto lo sia la gente che muore in Africa." Io vi voglio parlare di quali risvolti potrebbe avere una Rete che si basi sull'aspetto di rilevanza delle notizie.

0:40

Durante la mia adolescenza in una zona rurale del Maine, Internet aveva per me un significato molto diverso. Era una connessione con il mondo. Qualcosa che ci avrebbe unito tutti. Ero sicuro che sarebbe stato grandioso per la democrazia e per la società. Ma ora c'è questo cambiamento del modo in cui le informazioni vengono fornite, ed è impercettibile. Se non gli prestiamo attenzione ci potremmo trovare presto nei guai. Ho cominciato a rendermene conto in un luogo in cui passo molto tempo — la mia pagina di Facebook. Politicamente — senti senti — sono progressista — ma sono sempre stato aperto alle idee dei conservatori. Mi piace ascoltare come la pensino; vedere i loro riferimenti; mi piace sempre imparare qualcosa. Perciò un giorno sono rimasto sorpreso nel vedere che i conservatori erano scomparsi dal mio aggregatore di notizie su Facebook. E quello che ho scoperto è che Facebook prendeva nota dei siti che visitavo determinando che, effettivamente, visitavo maggiormente i siti dei miei amici liberali rispetto a quelli degli amici conservatori. E senza alcun preavviso li ha esclusi dal mio mondo. Scomparsi.

1:54

Ma Facebook non è l'unico a operare questa selezione algoritmica e invisibile dei contenuti della Rete. Anche Google lo fa. Se io e te facciamo una ricerca, proprio adesso e contemporaneamente, potremmo ottenere risultati molto diversi. Anche se non sei connesso, mi ha detto un ingegnere, ci sono 57 segnali che vengono analizzati da Google — qualsiasi cosa, dal computer che stai utilizzando al tuo programma di navigazione, e anche dove ti trovi — li usa per adattare a te i risultati della ricerca. Pensateci un attimo: non c'è più un Google uguale per tutti. E sapete, la cosa divertente è che non è facile accorgersene. Voi non potete vedere quanto i risultati della vostra ricerca siano diversi da quelli degli altri.

2:42

Un paio di settimane fa ho chiesto ad alcuni amici di Google "Egitto" di inviarmi le loro schermate della pagina principale del sito. Questa è quella del mio amico Scott. E questa è quella di Daniel. Se le confrontate non c'è nemmeno bisogno di leggere i collegamenti per notare quanto siano diverse. Ma se poi leggete i collegamenti scoprirete qualcosa di interessante. Sul sito di Daniel non c'erano riferimenti alle proteste in Egitto nella prima pagina di risultati. Mentre quella di Scott ne era piena. Questa era la notizia del giorno all'epoca. Ecco quanto possono essere diversi i risultati.

3:21

E non è limitato a Google e Facebook. Sta succedendo dappertutto nella Rete. C'è un gran numero di aziende che sta operando questa personalizzazione. Yahoo News, il maggiore sito di notizie di Internet ora è personalizzato — persone diverse ottengono informazioni diverse. L'Huffington Post, il Wasihngton Post, il New York Times — tutti, in vari modi, civettano con la personalizzazione. E ci troveremo presto in un mondo in cui Internet ci mostrerà ciò che pensa noi vogliamo vedere, ma non necessariamente quello che dovremmo vedere. Come ha detto Eric Schmidt, "Sarà molto difficile per le persone vedere o consumare qualcosa che non sia stato in qualche modo fatto su misura per loro."

4:05

E penso che questo sia un problema. Penso che, se mettiamo insieme tutti questi filtri, tutti gli algoritmi, otteniamo qualcosa che chiamo "gabbia di filtri". E la vostra gabbia rappresenta il vostro universo personale e unico di informazioni che vivete online. Ciò che troverete nella vostra gabbia dipende da chi siete e da che cosa fate. Il problema è che voi non prendete decisioni su cosa debba entrare. Ancora più importante, non riuscite a vedere cosa ne resta fuori. Dunque uno dei problemi di questa gabbia è stato scoperto da alcuni ricercatori di Netflix. Analizzando le richieste di noleggio di film degli utenti si sono accorti di qualcosa di strano che forse hanno notato anche molti di voi, ossia che ci sono alcuni titoli che appaiono o scompaiono dalle nostre liste. Entrano in lista ma all'improvviso vengono tolti. E magari "Iron Man" scompare mentre "Aspettando Superman" ci rimane per molto tempo.

5:02

Si sono accorti che tra le liste di Netflix è in corso una battaglia epica tra le nostre aspirazioni future e quello che vogliamo impulsivamente adesso. Sapete, noi tutti vorremmo aver visto "Rashomon", ma in questo momento vogliamo guardare "Ace Ventura" per la quarta volta. (Risate) Certo il massimo sarebbe avere un po' di entrambi. Un po' di Justin Bieber e un po' di Afghanistan. Un po' di contorno e un po' di dessert. La sfida con questo tipo di filtri algoritmici, questi filtri personalizzati, è che, dato che rilevano prevalentemente cosa viene cliccato per primo, possono alterare questo equilibrio. E invece di informazioni equilibrate alla fine avrete informazioni spazzatura.

5:59

Questo ci suggerisce che forse abbiamo interpretato male la storia di Internet. In una società di trasmisisoni — è così che nascono i miti — in una società di trasmissioni — c'erano i guardiani, gli editori, che controllavano i flussi di informazioni. E poi venne Internet che li spazzò via e permise a tutti noi di collegarci l'un l'altro, ed era fantastico. Ma non è quello che sta succedendo adesso. Ciò a cui stiamo assistendo è più che altro il passaggio del testimone dai guardiani umani a quelli algoritmici. Il problema è che gli algoritmi non hanno ancora incorporato i principi etici propri degli editori. Dunque se gli algoritmi dovranno prendersi cura del mondo in nostra vece, se ci diranno cosa vedere e cosa non vedere, allora dobbiamo assicurarci che non siano guidati unicamente dalla rilevanza. Dobbiamo far sì che ci mostrino anche cose scomode o stimolanti o importanti — è quello che fa TED — punti di vista differenti.

7:03

Abbiamo già vissuto questa esperienza come società. Nel 1915 non è che i giornali si preoccupassero molto della loro responsabilità civile. Ma poi la gente si accorse che svolgevano un ruolo davvero importante. Che, in effetti, non si può avere una democrazia che funzioni se i cittadini non hanno accesso all'informazione. Che i giornali erano fondamentali perché agivano da filtro, e poi è nata l'etica del giornalismo. Non era perfetta, ma ci ha fatto attraversare lo scorso secolo. Ed ora ci troviamo nel 1915 della Rete. Abbiamo bisogno di nuovi guardiani che incorporino quel tipo di responsabilità nel codice che stanno scrivendo.

7:51

So che tra i presenti c'è gente di Facebook e Google — Larry e Sergey — gente che ha contribuito a costruire la Rete come è oggi, e sono loro grato per questo. Ma c'è davvero bisogno di far sì che questi algoritmi contengano un senso di vita pubblica, di responsabilità civile. Dovete fare in modo che siano abbastanza trasparenti da consentirci di vedere le regole che determinano cosa può passare attraverso i filtri. E dovete darci la facoltà di controllo, per decidere cosa può passare e cosa deve essere bloccato. Perché penso che abbiamo bisogno che Internet sia davvero quella cosa che abbiamo sempre sognato. Ne abbiamo bisogno per essere connessi tra di noi. Perché ci presenti nuove idee, nuove persone e prospettive differenti. E questo non sarà possibile se rimarremo isolati in una Rete individuale.

8:45

Grazie.

8:47

(Applausi)

Nel loro tentativo di fornire servizi su misura agli internauti (insieme a notizie e risultati di ricerca), le aziende virtuali (web companies) ci fanno involontariamente correre un rischio: rimanere intrappolati in una "gabbia di filtri" che ci ostacola l'accesso a informazioni che potrebbero stimolarci o allargare la nostra visione del mondo. Eli Pariser argomenta in modo convincente come questo rischio sia negativo per noi e per la democrazia.

About the speaker
Eli Pariser · Organizer and author

Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.