Sinan Aral
2,156,088 views • 15:03

Le 23 avril 2013, l'Associated Press a publié le tweet suivant sur Twitter. Il disait : « Flash info : deux explosions à la Maison-Blanche et Barack Obama a été blessé. » Ce tweet a été retweeté 4 000 fois en moins de cinq minutes et est ensuite devenu viral.

Ce tweet n'était pas une vraie info publiée par l'Associated Press. C'était une fausse info, ou une infox, qui a été propagée par des pirates syriens qui avaient piraté le compte de l'Associated Press sur Twitter. Leur objectif était de perturber la société, mais ils ont perturbé bien plus que cela. Car les algorithmes automatisés de trading ont immédiatement saisi le sentiment de ce tweet et ont commencé à faire des opérations basées sur la possibilité que le président des États-Unis ait été blessé ou tué dans une explosion. Alors qu'ils ont commencé à tweeter, ils ont immédiatement causé l’écroulement du cours de la bourse, anéantissant 140 milliards de dollars de valeur de fonds propres en un jour.

Robert Mueller, procureur spécial aux États-Unis, a prononcé des chefs d'accusation contre trois entreprises russes et 13 ressortissants russes au sujet d'un complot pour escroquer les États-Unis via une ingérence durant les élections présidentielles de 2016. L'histoire que raconte ce chef d'accusation est celle de l'Internet Research Agency, le bras armé du Kremlin sur les réseaux sociaux. Durant les élections présidentielles uniquement, les efforts de l'Internet Agency ont touché 126 millions de personnes sur Facebook aux États-Unis, ont publié trois millions de tweets et 43 heures de contenu sur YouTube. Tout cela était faux — de la désinformation conçue pour semer la discorde au sein des élections présidentielles américaines.

Une étude récente de l'université d'Oxford a montré que durant les récentes élections suédoises, un tiers de toutes les informations se propageant sur les réseaux sociaux au sujet des élections étaient fausses ou de la désinformation.

De plus, ce genre de campagne de désinformation sur les réseaux sociaux peut propager ce qu’on en est venu à appeler de la « propagande génocidaire », par exemple contre les Rohingyas en Birmanie, ou entraînant des massacres collectifs en Inde.

Nous avons étudié l'infox et avons commencé à l'étudier avant que ce ne soit un terme populaire. Nous avons récemment publié la plus longue étude longitudinale qui soit sur la propagation de l'infox en ligne en couverture de « Science » en mars cette année. Nous avons étudié toutes les infos confirmées comme étant vraies ou fausses qui se sont propagées sur Twitter, depuis son lancement en 2006 jusqu'à 2017. Quand nous avons étudié ces informations, nous avons étudié des informations qui avaient été vérifiées par six organisations de vérification indépendantes. Nous savions donc quelles informations étaient vraies et quelles informations étaient fausses. Nous pouvons mesurer leur diffusion, la vitesse de leur diffusion, la portée et l'ampleur de leur diffusion, combien de gens se sont empêtrés dans cette cascade d'informations, etc. Dans cette publication, nous avons comparé la propagation d'informations vraies et d'infox. Voici ce que nous avons découvert.

Nous avons découvert que l'infox se diffusait plus loin, plus vite, plus profondément et plus largement que la vérité dans chacune des catégories d'informations que nous avons étudiées, la différence étant parfois d'un ordre de grandeur. Les infox politiques étaient les plus virales. Elles se diffusaient plus loin, vite, profondément et largement que n'importe quel autre type d'infox. Quand nous avons vu cela, nous étions à la fois inquiets mais aussi curieux. Pourquoi ? Pourquoi est-ce que l'infox circule tellement plus loin, vite, profondément et largement que la vérité ?

Notre première hypothèse était : « Peut-être que les gens diffusant de l'infox ont plus de suiveurs ou suivent plus de monde, tweetent plus souvent, peut-être sont-ils plus souvent des utilisateurs « vérifiés » de Twitter, avec plus de crédibilité, ou sont-ils là depuis plus longtemps. » Nous avons vérifié chacune de ces hypothèses. Nous avons découvert exactement le contraire. Les diffuseurs d'infox avaient moins de suiveurs, suivaient moins de gens, étaient moins actifs, moins souvent « vérifiés » et étaient sur Twitter depuis moins longtemps. Et pourtant, les infox avaient 70% de probabilités de plus d'être retweetées par rapport à la vérité, en contrôlant ces facteurs et de nombreux autres.

Nous devions trouver d'autres explications. Nous avons formulé ce que nous avons appelé « l'hypothèse de la nouveauté ». Si vous lisez la littérature, il est bien connu que l'attention humaine est attirée par la nouveauté, les choses nouvelles dans l'environnement. Si vous lisez la littérature sociologique, vous savez que nous aimons partager des informations nouvelles. Cela nous donne l'impression d'avoir un accès privilégié à des informations et nous gagnons en statut en diffusant ce genre d'informations.

Nous avons alors mesuré la nouveauté d'un tweet, qu'il soit vrai ou faux, l'avons comparé au corpus de ce que l'individu avait vu sur Twitter les 60 derniers jours. Mais cela ne suffisait pas car nous avons pensé : « Peut-être que l'infox représente plus de nouveauté dans un sens théorique, mais peut-être que les gens n'y perçoivent pas plus de nouveauté. »

Pour comprendre la perception que les gens avaient des infox, nous avons considéré l'information et le sentiment que les réponses des tweets vrais et faux incluaient. Nous avons découvert que parmi tout un tas de mesures différentes des sentiments — la surprise, le dégoût, la peur, la tristesse, l'anticipation, la joie et la confiance — les infox présentaient notablement plus de surprise et de dégoût dans les réponses aux tweets. Les informations avérées présentaient notablement plus d'anticipation, de joie et de confiance dans les réponses aux tweets. La surprise corrobore notre hypothèse de la nouveauté. C'est nouveau et surprenant, nous allons donc plus probablement le partager.

En même temps, il y avait un témoignage au Congrès, devant les deux chambres du Congrès des États-Unis, considérant le rôle des robots dans la diffusion de la désinformation. Nous l'avons envisagé — nous avons utilisé de multiples algorithmes sophistiqués de détection de robots pour trouver les robots dans nos données et les en extraire. Nous les en avons extraits, les avons inclus à nouveau et avons comparé ce qu'il arrivait à nos mesures. Nous avons découvert que oui, en effet, les robots accéléraient la diffusion d'infox en ligne, mais ils accéléraient la diffusion d'informations avérées approximativement au même rythme. Ce que signifie que les robots ne sont pas responsables pour l'écart dans la diffusion de la vérité et de la fausseté en ligne. Nous ne pouvons pas refuser cette responsabilité car nous, êtres humains, sommes responsables de cette diffusion.

Tout ce que je vous ai dit jusqu'ici, malheureusement pour nous tous, ce sont les bonnes nouvelles.

La raison en est que cela va bientôt devenir bien pire. Deux technologies en particulier vont rendre cela bien pire. Nous allons voir la montée d'une énorme vague de média synthétiques : de fausses vidéos, de faux enregistrements très convaincants pour l’œil humain. Cela sera propulsé par deux technologies.

La première est connue sous le nom de « réseaux adverses génératifs ». C'est un modèle d'apprentissage automatique avec deux réseaux : un discriminateur, dont le rôle est de déterminer si quelque chose est vrai ou faux, et un générateur, dont le rôle est de générer des médias synthétiques. Le générateur synthétique génère une vidéo ou un enregistrement audio synthétique et le discriminateur essaye de dire s'il est réel ou falsifié. La tâche du générateur consiste à maximiser la probabilité de faire croire au discriminateur que la vidéo et l'enregistrement audio qu'il crée sont réels. Imaginez une machine dans une boucle infinie et essayant d'améliorer sa capacité à nous tromper.

Cela, en combinaison avec la deuxième technologie, qui est essentiellement la démocratisation de l'intelligence artificielle, la capacité offerte à tous, sans aucune formation en intelligence artificielle ou en apprentissage automatique, de déployer ce genre d'algorithmes pour générer des médias synthétiques rendant cela tellement plus simple de créer des vidéos.

La Maison-Blanche a publié une vidéo falsifiée, truquée d'un journaliste interagissant avec une stagiaire et essayant de prendre son micro. Ils ont enlevé des images de cette vidéo afin que ces actes paraissent plus percutants. Quand des vidéastes, des cascadeurs et des cascadeuses ont été interrogés sur ce genre de technique, ils ont dit : « Oui, nous utilisons constamment cela dans les films pour que nos coups de poing et de pied paraissent plus musclés et agressifs. » Ils ont ensuite publié cette vidéo l'ont utilisée comme justification partielle pour révoquer la carte de presse de Jim Acosta, le journaliste, pour la Maison-Blanche. CNN a dû aller en justice pour faire rétablir cette carte de presse.

Il y a environ cinq chemins différents que je peux imaginer et que nous pourrions suivre pour essayer de remédier à ces problèmes très difficiles. Chacun est prometteur mais chacun a des défis qui lui sont propres. Le premier est l'étiquetage. Réfléchissez-y : quand vous allez au supermarché pour acheter de la nourriture, elle est amplement étiquetée. Vous savez combien de calories elle contient, combien de graisses — et pourtant, quand nous consommons des informations, nous n'avons pas d'étiquettes. Que contient cette information ? La source est-elle crédible ? Où cette information a-t-elle été recueillie ? Nous n'avons aucune de ces informations quand nous consommons des informations. C'est une solution potentielle, mais elle a ses défis. Par exemple, qui décide, dans la société, ce qui est vrai et ce qui est faux ? Est-ce que ce sont les gouvernements ? Est-ce Facebook ? Est-ce un consortium indépendant de vérificateurs d'informations ? Et qui contrôle ceux qui vérifient les informations ?

Une autre option possible, ce sont les incitations. Nous savons que durant les élections présidentielles américaines, il y a eu une vague de désinformation venue de Macédoine du Nord qui n'avait aucun mobile politique mais avait un mobile économique. Ce mobile économique existait car l'infox circule tellement plus loin, plus vite et plus profondément que la vérité et vous pouvez gagner de l'argent dans la publicité alors que vous recueillez les regards et l'attention avec ce genre d'informations. Mais si nous pouvons réduire la diffusion de ces informations, peut-être cela réduirait-il l'incitation économique à les produire.

Troisièmement, nous pouvons réfléchir à une réglementation et nous devrions réfléchir à cette option. Actuellement aux États-Unis, nous explorons ce qu'il pourrait se passer si Facebook et les autres étaient réglementés. Si nous devrions considérer des choses comme réglementer le discours politique, l'étiqueter comme étant du discours politique, nous assurer que les acteurs étrangers ne puissent pas financer un discours politique, cela a aussi ses dangers. Par exemple, la Malaisie vient d'instituer une peine de prison de six ans pour quiconque diffusant de la désinformation. Dans les régimes autoritaires, ce genre de politiques peuvent être utilisées pour étouffer les opinions minoritaires et continuer à accroître la répression.

La quatrième option possible est la transparence. Nous voulons savoir comment fonctionnent les algorithmes de Facebook. Comment les données se combinent-elles aux algorithmes pour générer les résultats que nous observons ? Nous voulons qu'ils ouvrent le kimono et nous montrent les rouages internes du fonctionnement de Facebook. Pour connaître les effets des réseaux sociaux sur la société, il faut que les scientifiques, les chercheurs et les autres aient accès à ce genre d'informations. Mais en même temps, nous demandons à Facebook de tout verrouiller pour assurer la sécurité des données.

Facebook et les autres plateformes de réseaux sociaux font face à ce que j'appelle un paradoxe de la transparence. Nous leur demandons à la fois d'être ouverts et transparents et, simultanément, d'être sécurisés. Cela est difficile à accomplir, mais ils devront le faire si nous voulons que les technologies sociales tiennent leurs promesses tout en évitant les risques.

Pour finir, nous pourrions réfléchir aux algorithmes et à l'apprentissage automatique. Une technologie conçue pour éradiquer et comprendre l'infox, sa diffusion, et essayer d'atténuer sa circulation. Les êtres humains doivent jouer un rôle dans cette technologie car nous ne pourrons jamais échapper au fait que pour toute solution ou approche technologie, il y a une question éthique et philosophique fondamentale quant à notre définition du vrai et du faux, à qui nous donnons le pouvoir de définir le vrai et le faux et quelles opinions sont légitimes, une rapidité de quel ordre de grandeur devrait être autorisée et ainsi de suite. La technologie n'est pas la solution. L'éthique et la philosophie le sont.

Presque toutes les théories sur la prise de décision humaine, la coopération humaine et la coordination humaine ont une part de vérité en elles. Mais avec l'essor des infox, l'essor des vidéos truquées, l'essor des enregistrements audios truqués, nous vacillons au bord de la fin de la réalité, où nous ne pouvons pas discerner ce qui est réel et ce qui est faux. Cela est potentiellement incroyablement dangereux.

Nous devons être vigilants dans la défense de la vérité face à la désinformation. Avec nos technologies, avec nos politiques et, peut-être surtout, individuellement, avec nos responsabilités, nos décisions, nos comportements et nos actions.

Merci beaucoup.

(Applaudissements)