Eli Pariser

Eli Pariser nous met en garde contre "les bulles de filtres" en ligne.

3,996,420 views • 9:04
Subtitles in 41 languages
Up next
Details
Discussion
Details About the talk
Transcript 41 languages
Translated by Amélie Gourdon
Reviewed by Elaine Green
0:15

Mark Zuckerberg [créateur de Facebook], un journaliste lui posait une question à propos du fil d’actualité. Et le journaliste lui demandait "Pourquoi est-ce si important ?" Et Zuckerberg a dit, "Un écureuil mourant dans votre jardin peut être plus pertinent pour vos intérêts du moment que les gens qui meurent en Afrique." Et je veux parler de ce à quoi ressemblerait un internet basé sur cette idée de pertinence.

0:40

Alors, pendant que je grandissais dans une région vraiment rurale du Maine [États-Unis], l'internet signifiait quelque chose de vraiment différent pour moi. Cela signifiait une connexion avec le monde. Ça signifiait quelque chose qui nous connecterait tous ensemble. Et j'étais sûr que ça allait être formidable pour la démocratie et pour notre société. Mais il y a ce changement dans la façon dont l'information circule en ligne, et c'est invisible. Et si nous n'y prêtons pas attention, cela pourrait être un réel problème. Alors, j'ai d'abord remarqué cela dans un espace où je passe beaucoup de temps — ma page Facebook. Je suis progressiste, politiquement — grande surprise — mais je me suis toujours démené pour rencontrer des conservateurs. J'aime écouter ce qu'ils pensent ; j'aime voir à quoi ils se connectent ; j'aime apprendre une chose ou deux. Et donc j'ai été surpris quand un jour j'ai remarqué que les conservateurs avaient disparu de mon fil Facebook. Et ce qu'il apparut qu'il se passait est que Facebook regardait chaque lien que je cliquais, et s'apercevait qu'en fait, je cliquais plus souvent les liens de mes amis libéraux que les liens de mes amis conservateurs. Et sans me consulter à ce propos, Facebook les avait éliminés. Ils avaient disparus.

1:54

Alors Facebook n'est pas le seul espace à opérer ce genre d'algorithme invisible triant l'internet. Google le fait aussi. Si je cherche quelque chose et que vous cherchez quelque chose, quand même maintenant exactement au même moment, nous pourrions obtenir des résultats différents. Même si vous êtes déconnectés, un ingénieur m'a dit, il y a 57 indicateurs que Google regarde — tout du type d'ordinateur depuis lequel vous surfez jusqu'au type de navigateur que vous utilisez en passant par votre location géographique — et qui sont utilisés pour personnaliser vos résultats de recherche. Pensez-y une seconde : il n'y a plus de Google générique. Et vous savez, ce qui est drôle dans cette histoire, c'est que c'est difficile à percevoir. Vous ne pouvez pas voir à quel point vos résultats de recherche sont différents de ceux de n'importe qui d'autre.

2:42

Mais il y a quelques semaines, j'ai demandé à quelques amis de chercher "Égypte" sur Google et de m'envoyer des captures d'écrans de ce qu'ils avaient obtenu. Donc, voici ce que mon ami Scott a obtenu. Et voilà ce que mon ami Daniel a trouvé. Quand vous mettez leurs résultats côte-à-côte, vous n'avez même pas besoin de lire les liens pour voir à quel point ces deux pages sont différentes. Mais si vous lisez les liens, c'est tout à fait remarquable. Daniel n'a rien obtenu du tout concernant les manifestations en Égypte sur sa première page de résultats donnés par Google. Les résultats de Scott en étaient pleins. Et ça faisait les gros titres chaque jour à l'époque. C'est à ce point que les résultats deviennent différents.

3:21

Alors, ce n'est pas juste Google et Facebook. Il s'agit de quelque chose qui balaye l'internet. Il y a tout un tas d'entreprises qui pratiquent ce genre de personnalisation. Yahoo Actualités, le plus grand site d'actualité sur internet, est maintenant personnalisé — différentes personnes voient différentes choses. Le Huffington Post, le Washington Post, le New York Times — tous flirtent avec la personnalisation d'une façon ou d'une autre. Et cela nous emmène très rapidement vers un monde dans lequel l'internet nous montre ce qu'il pense que nous voulons voir, mais pas nécessairement ce que nous avons besoin de voir. Comme l'a dit Eric Schmidt [président de Google], "Il sera très difficile pour les gens de regarder ou de consommer ce qui n'a pas d'une certaine façon été fait sur mesure pour eux."

4:05

Donc je pense que c'est un réel problème. Et je pense que, si vous prenez tous ces filtres ensemble, si vous prenez tous ces algorithmes, vous obtenez ce que j'appelle une bulle de filtres. Et votre bulle de filtres est votre propre, personnel, unique univers d'information dans lequel vous vivez en ligne. Et ce qui est dans votre bulle de filtres dépend de qui vous êtes, et dépend de que vous faites. Mais le truc, c'est que vous ne décidez pas ce qui entre dedans. Et plus important, vous ne voyez pas en fait ce qui se trouve rejeté. Donc l'un des problèmes de la bulle de filtres a été découvert par des chercheurs de chez Netflix [site de vidéo à la demande]. Ils étudiaient les files d'attentes Netflix, et ont remarqué une chose assez drôle, que beaucoup d'entre nous ont certainement remarqué, et qui est qu'il y a certains films qui semblent juste remonter la file très vite pour entrer dans nos foyers. Ils entrent dans la file, et ils la remontent immédiatement. Donc "Iron Man" arrive aussitôt, et "Waiting for Superman" peut attendre vraiment très longtemps.

5:02

Ce qu'ils ont découvert c'est que dans les files d'attente de Netflix, il y a une bataille épique qui se joue entre ce que nous aspirons à être dans le futur et ce que nous sommes plus impulsivement dans le présent. Vous savez, nous voulons tous être quelqu'un qui a vu "Rashōmon", mais pour le moment nous voulons voir "Ace Ventura, détective chiens et chats" pour la quatrième fois. (Rires) Donc la meilleure des éditions nous donne un peu des deux. Il nous donne un petit peu de Justin Bieber et un petit peu d'Afghanistan. Il nous donne de l'information "légumes", il nous donne de l'information "dessert". Et le défi avec ce genre de filtres algorithmiques, ces filtres personnalisés, c'est que, parce qu'ils observent principalement ce que vous cliquez en premier, ça peut déstabiliser cet équilibre. Et au lieu d'un régime d'information équilibré, vous pouvez finir entouré d'information "malbouffe".

5:59

Ce que cela suggère c'est en fait que nous pourrions avoir fait fausse route à propos d'internet. Dans une société de diffusion — comme disent les mythes fondateurs — dans une société de diffusion, il y avait ces gardiens du temple, les éditeurs, et ils contrôlaient les flux d'information. Et puis l'internet est arrivé et les a balayé du chemin, nous permettant tous de nous connecter, et c'était génial. Mais ce n'est pas ce qui se passe en fait à l'heure actuelle. Ce que nous voyons est plus un passage de témoin des gardiens humains aux gardiens algorithmiques. Et le problème c'est que les algorithmes n'ont pas encore le genre d'éthique intégrée que les éditeurs avaient. Donc si les algorithmes vont inventorier le monde pour nous, s'ils vont décider ce que nous pouvons voir et ce que nous ne pouvons pas voir, alors nous devons nous assurer qu'ils ne se sont pas basés uniquement sur la pertinence. Nous devons nous assurer qu'ils nous montrent aussi des choses qui sont inconfortables ou stimulantes ou importantes — c'est ce que TED fait — d'autres points de vue.

7:03

Et le fait est que nous avons déjà été dans cette situation auparavant, en tant que société. En 1915, ce n'est pas comme si les journaux avaient des suées à propos de leurs responsabilités civiques. Et alors les gens ont remarqué qu'ils faisaient quelque chose de vraiment important. Qu'en fait, vous ne pourriez pas avoir une démocratie qui fonctionne si les citoyens n'avaient pas accès à un bon flot d'information. Que les journaux étaient cruciaux, parce qu'ils agissaient en tant que filtre, et alors l'éthique journalistique s'est développée. Ce n'était pas parfait, mais ça nous a menés à travers le siècle dernier. Et donc maintenant, on est en sorte retourné en 1915 sur internet. Et nous avons besoin que les nouveaux gardiens incorporent cette espèce de responsabilité dans le code qu'ils sont en train d'écrire.

7:51

Je sais qu'il y a beaucoup de gens ici de Facebook et Google — Larry et Sergey — des gens qui ont contribué à construire internet tel qu'il est, et j'ai de la gratitude pour ça. Mais nous avons vraiment besoin que vous vous assuriez que ces algorithmes incorporent une sensibilité pour la vie publique, sensibilité pour la responsabilité civique. Nous avons besoin que vous vous assuriez qu'ils sont suffisamment transparents pour que nous puissions voir quelles sont les règles qui déterminent ce qui passe à travers les filtres. Et nous avons besoin que vous nous donniez du contrôle, pour que nous puissions décider ce qui passe les filtres et ce qui ne les passe pas. Parce que je pense que nous avons vraiment besoin qu'internet soit cette chose que nous avons tous rêvée qu'il serait. Nous avons besoin qu'il nous connecte tous ensemble. Nous avons besoin qu'il nous fasse connaître de nouvelles idées et de nouvelles personnes, de différentes perspectives. Et il ne va pas faire cela s’il nous laisse isolés dans un réseau fait d'une personne.

8:45

Merci.

8:47

(Applaudissements)

Alors que les compagnies internet s'efforcent d'ajuster leurs services à nos goûts personnels (y compris l'actualité et les résultats de recherche), une dangereuse conséquence, involontaire, émerge : nous nous retrouvons piégés dans une "bulle de filtres" et ne nous trouvons pas exposés à l'information qui pourrait remettre en question ou élargir notre perception du monde. Eli Pariser argumente avec force qu'au final cela s'avérera mauvais pour nous et pour la démocratie.

About the speaker
Eli Pariser · Organizer and author

Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.

Pioneering online organizer Eli Pariser is the author of "The Filter Bubble," about how personalized search might be narrowing our worldview.