samedi 30 décembre 2017

Comment une cellule secrète de Facebook manipule les opinions publiques par Shelley Kasli

Un article récent de Bloomberg a révélé comment une cellule secrète de Facebook a permis la création d’une armée de Trolls [1] à la faveur de nombreux gouvernements de par le monde, y compris en Inde, sous forme de propagande numérique visant à manipuler les élections [2].
Sous les projecteurs, suite au rôle qu’a joué son entreprise Facebook comme plate-forme de propagande politique, son co-fondateur, Mark Zuckerberg, a riposté, déclarant que sa mission transcendait les clivages partisans.
Mais il se trouve, en réalité, que Facebook n’est pas un simple spectateur en matière politique. Ce qu’il ne dit pas, c’est que sa compagnie travaille activement en collaboration avec des partis et des dirigeants incluant ceux qui utilisent la plate-forme pour étouffer leur opposition —parfois avec l’aide de nombreux Trolls qui propagent des contrevérités et des idéologies extrémistes [3].
Cette initiative est menée depuis Washington par une équipe très discrète de Facebook, spécialisée dans les questions de politique globale, avec à sa tête : Katie Harbath, l’ancienne stratège numérique du camp Républicain qui a travaillé en 2008 sur la campagne présidentielle de l’ancien maire de New York, Rudy Giuliani, ainsi que sur les élections indiennes de 2014.
Depuis que Facebook a engagé Harbath pour diriger cette cellule secrète, trois années se sont écoulées, durant lesquelles son équipe a voyagé aux quatre coins de la planète (notamment en Inde). Elle a aidé des dirigeants politiques en mettant à leur disposition les puissants outils numériques de la compagnie prenant la forme d’une véritable armée de Trolls à des fins de propagande.
En Inde, et dans de nombreux autres pays, les employés de cette cellule se sont retrouvés de facto agents de campagnes électorales. Et une fois un candidat élu, il arrive à la compagnie de superviser des fonctionnaires ou de fournir une aide technique en matière de diffusion numérique lors de rencontres officielles entre chefs d’États.
Aux États-Unis, des employés de cette cellule ont travaillé sur le terrain durant la campagne de Donald Trump. En Inde, la compagnie a favorisé la présence sur le net du Premier ministre Narendra Modi, qui a aujourd’hui plus de fans sur Facebook que n’importe quel autre dirigeant politique mondial.
Au cours des meetings de campagne, on retrouve des membres de l’équipe de Katie Harbath aux côtés de responsables commerciaux du secteur publicitaire de Facebook ayant pour rôle d’aider la compagnie à profiter financièrement de l’attention particulière suscitée par les élections auprès des masses. Ils forment des politiques et des dirigeants à la création d’une page Facebook pour leur campagne qu’ils authentifient à l’aide d’une encoche bleue, à l’utilisation optimale de la vidéo afin de susciter l’adhésion, ainsi qu’au choix des slogans publicitaires. Une fois ces candidats élus, leur collaboration avec Facebook permet à la compagnie d’étendre de manière conséquente son influence sur le plan politique, comme la possibilité de contourner la loi.
Le problème est exacerbé lorsque Facebook se pose comme pilier de la démocratie de façon anti-démocratique. Freedom House, une pseudo-ONG basée aux États-Unis, militant pour la démocratie dans le monde [4], rapporte en novembre dernier qu’un nombre grandissant d’États « manipulent les réseaux sociaux afin de saper les fondements de la démocratie » [5]. Cela se traduit par des campagnes de diffamation, de harcèlement ou de propagande, discrètement soutenues par le gouvernement, visant à imposer sa version des faits, réduire la dissidence au silence et renforcer le pouvoir.
En 2007, Facebook a ouvert son premier bureau à Washington. L’élection présidentielle qui a eu lieu l’année suivante a vu l’avènement du premier « président Facebook » en la personne de Barack Obama, qui, avec l’aide de la plate-forme a pu atteindre des millions de votants au cours des semaines précédant les élections. Le nombre d’utilisateurs de Facebook a explosé concomitamment aux soulèvements des « printemps arabes » qui ont eu lieu au Moyen-Orient en 2010 et 2011, mettant en évidence l’immense influence qu’exerce la plate-forme sur la démocratie.
Au cours de la période où Facebook a choisi Katie Harbath, l’ancien soutien de Giuliani, pour diriger sa cellule politique, les élections devenaient un sujet incontournable sur les réseaux sociaux. Facebook a commencé progressivement à être impliqué dans des situations d’enjeu électoral partout dans le monde.
Facebook s’est associé à certains partis politiques parmi les plus controversés au monde tout en faisant fi du principe de transparence. Depuis 2011, la compagnie réclame auprès de la Commission électorale fédérale US une dérogation à la loi exigeant la transparence en ce qui concerne la promotion d’un parti politique, ce qui aurait pu l’aider à éviter la crise actuelle concernant des dépenses publicitaires russes en amont des élections de 2016.
Les relations entre la compagnie et les gouvernements restent compliquées. Facebook a été mis en cause par l’Union Européenne pour avoir laissé l’islamisme radical prospérer sur son réseau. La compagnie vient juste de publier son rapport de transparence expliquant qu’elle ne fournira aux gouvernements de données relatives à ses utilisateurs que si cette demande est légalement justifiée ; dans le cas contraire, elle n’hésitera pas à avoir recours à la justice [6].

Des armées de Trolls en Inde

Le marché indien est sans doute le plus porteur aujourd’hui pour Facebook, surpassant celui des États-Unis. Le nombre d’utilisateurs y croît deux fois plus vite ; sans tenir compte des 200 millions d’Indiens qui utilisent le service de messagerie WhatsApp, soit plus que partout ailleurs dans le monde.
À l’époque des élections indiennes de 2014, Facebook avaient déjà travaillé pendant plusieurs mois sur diverses campagnes. Modi a grandement profité du soutien de Facebook et de WhatsApp pour recruter des volontaires qui, à leur tour, ont répandu le message sur les réseaux sociaux. Depuis son élection, son nombre d’abonnés a augmenté de 43 millions ; deux fois plus que celui de Trump.
Dans les semaines qui ont suivi l’élection de Modi, Zuckerberg et sa directrice d’exploitation Sheryl Sandberg se sont tous deux déplacés en Inde dans le but de développer un projet controversé concernant un service internet gratuit qui, provoquant de vives protestations, a finalement dû être abandonné. Katie Harbath et son équipe sont aussi venus en Inde animer des cessions de formation auxquelles ont participé plus de 6 000 hauts-fonctionnaires.
À mesure que Modi voyait son influence grandir dans les réseaux sociaux, ses abonnés se sont lancés, sur Facebook et WhatsApp, dans une campagne de harcèlement de ses rivaux politiques. L’Inde est devenu un foyer de désinformation, avec notamment la propagation d’un canular qui a conduit à des émeutes causant la mort de plusieurs personnes. Le pays est aussi devenu un endroit extrêmement dangereux pour les partis d’opposition et les journalistes.
Cependant, il n’y a pas que Modi ou le Parti du peuple indien (BJP) qui ont été amenés à utiliser les services proposés par Facebook. La compagnie prétend mettre à dispositions les mêmes outils et services pour tous les candidats, quelle que soit leur orientation politique, ainsi qu’aux groupes de la société civile plus discrets.
Ce qui est intéressant, c’est que Mark Zukerberg lui-même veut devenir président des États-Unis et s’est ainsi déjà attaché les services de David Plouffe (conseiller de campagne de Barack Obama en 2008) puis de Ken Mehlman (conseiller de campagne de George Bush Jr en 2004). Il travaille actuellement avec Amy Dudley (ancienne conseill§re du sénateur Tim Kaine), Ben LaBolt (ancien attaché de presse de Barack Obama) et Joel Benenson (ancien conseiller de campagne d’Hillary Clinton en 2016) [7].

La manipulation des émotions par Facebook

Une étude parue en 2014 intitulée : La mise en évidence expérimentale d’un phénomène de contagion émotionnelle de grande ampleur via les réseaux sociaux [8] a étudié le ratio entre les messages positifs et négatifs vus par 689 000 utilisateurs Facebook. Cette expérience, qui s’est déroulée entre le 11 et le 18 janvier 2012, a tenté d’identifier des effets de contagion émotionnelle en modifiant le poids émotionnel des informations diffusées aux utilisateurs ciblés. Les chercheurs concluent avoir mis en évidence pour la première fois « la preuve que les émotions peuvent se propager à travers un réseau informatique, [même si] les effets liés à ces manipulations restent limités ».
Cette étude a été critiquée à la fois pour ses fondements éthiques et méthodologiques. La polémique s’intensifiant, Adam Kramer, un des principaux instigateurs de ces recherches et membre de l’équipe responsable des données de Facebook, a défendu cette étude dans un communiqué de la compagnie [9]. Quelques jours plus tard, Sheryl Sandberg, directrice d’exploitation de Facebook, a prononcé une déclaration [10], lors de son voyage en Inde. Au cours d’un événement organisé par la Chambre de commerce à New Delhi, elle a déclaré : « Cette étude s’est faite dans le cadre des recherches en cours menées par les entreprises pour tester différents produits, ni plus ni moins. La communication à ce sujet a été très mauvaise et nous nous en excusons. Nous n’avons pas voulu vous contrarier ».
Ainsi donc, pour quel nouveau produit révolutionnaire Facebook a-t-il conduit des expérimentations psychologiques visant à manipuler émotionnellement ses utilisateurs ? Ces produits révolutionnaires sont des armées de Trolls numériques à des fins de propagande qui diffusent des informations mensongères comme une trainée de poudre afin d’aider ses clients pendant les élections.
Peu après, le 3 juillet 2014, USA Today rapporte que le groupe EPIC, qui milite pour le respect de la vie privée des citoyens, a déposé une plainte officielle à la Commission fédérale du Commerce stipulant que Facebook a enfreint la loi en menant une recherche sur les émotions de ses utilisateurs sans leur consentement, ni même les informer [11]. Dans sa plainte, l’EPIC prétend que Facebook a trompé ses usagers en conduisant secrètement une expérience psychologique sur leurs émotions : « Au moment de l’expérience, Facebook n’a pas fait état dans sa politique d’utilisation des données que les informations concernant ses utilisateurs seraient amenés à être utilisées à des fins expérimentales. Facebook a aussi omis d’informer ses usagers que ces informations seraient communiquées à des chercheurs ». La majorité des cobayes pour ces expériences de manipulation émotionnelle étaient indiens [12].
La plupart d’entre nous ne prête pas vraiment attention à ce qui est posté sur les réseaux sociaux et la majorité de ce que l’on voit est plutôt inoffensif. Du moins, c’est l’apparence que cela prend à première vue. La vérité est que ce que nous postons sur le net a un impact effrayant. Selon une recherche récente menée conjointement par le Laboratoire national du Nord-Ouest pacifique et l’université de Washington, le contenu que l’on poste sur les réseaux sociaux pourrait être utilisé par un logiciel afin de prédire des événements futurs — peut-être même le prochain Premier ministre indien.
Dans un papier qui vient d’êre publié par ArXiv, une équipe de chercheurs a découvert que les réseaux sociaux peuvent être utilisés dans le but de « repérer et de prédire des événements dans le monde réel » [13]. L’analyse de Twitter peut prédire avec précision des troubles sociaux, par exemple, lorsque des personnes utilisent certain hashtags pour discuter certains problèmes avant que leur colère ne se répande dans le monde réel.
L’exemple le plus connu de ce phénomène est survenu lors des printemps arabes, lorsque des signes évidents de protestations et de soulèvements imminents ont été repérés sur le net les jours précédant la descente des gens dans les rues.
L’inverse est aussi vrai, signifiant que la colère peut aussi être générée par les réseaux sociaux et une fois qu’elle atteint un niveau optimal être déversée sur des événements de la vie réelle comme on peut le voir depuis au moins deux ans déjà en inde avec des cas de lynchages collectifs et autres.

Comment fonctionne l’industrie de la désinformation en Inde

En Inde, une gigantesque industrie de la désinformation a émergé, exerçant une influence bien supérieur au traditionnel discours politique et pouvant potentiellement devenir un problème sécuritaire à l’image des printemps arabes si elle n’est pas maîtrisée. Au moment où le débat sur le lynchage fait rage en Inde, il faut bien comprendre que de tels incidents n’auraient pas eu aussi rapidement un tel impact si la jeunesse n’avait eu accès à Facebook, Twitter, Youtube, et autres réseaux sociaux qui permettent à cette industrie de la désinformation de gérer et partager de faux montages vidéos et de la fausse information. Le phénomène de lynchage apparu depuis quelques années est une conséquence directe de cette industrie de la propagande qui se répand des réseaux sociaux vers le monde réel.
Ceci prend une tout autre ampleur maintenant qu’il a été révélé que Facebook & WhatsApp ont comploté avec l’establishment en créant « une armée de Trolls » à des fins de propagande numérique, engendrant des violences sur le sol indien. C’est un cas typique de terrorisme. Ce dernier est défini comme « l’utilisation systématique de la terreur ou de la violence par un individu ou un groupe à des fins politiques ». Dans le cas présent, ce terrorisme est perpétré par une compagnie étrangère (Facebook) sur le sol indien par le biais d’une guerre numérique de (dés)information. Qu’attendons-nous pour réagir à de tels actes ?
Une campagne de désinformation a été menée au cours des élections présidentielles états-uniennes. Elle fait parti intégrante de la campagne officielle elle-même menée en collaboration avec des entreprises de pointe. Cette même méthode a aussi été utilisée pour orienter le débat sur le Brexit. À l’heure où nous parlons, cette vaste entreprise de désinformation étend ses tentacules en Inde. De nombreux sportifs de renom, des célébrités, des économistes, des politiciens en ont déjà été victimes en disséminant du contenu fallacieux. C’est une dangereuse tendance qui devrait être surveillée de près par nos services de Renseignement afin de prévenir de futurs désastres.
Voici succinctement comment tout cela fonctionne. De nombreux sites et portails web de légitimité et financement divers reçoivent des publicités flottantes. Des contenus bien spécifiques sont créés pour différentes catégories de personne basés sur leur région, leur idéologie, leur âge, leur religion… qui sont mélangés à une vaste quantité de contenu érotique noyant le véritable objectif. Ce contenu fallacieux est ensuite injecté dans le réseau social et des groupes spécifiques sont ciblés par le biais d’outils analytiques développé par des entreprises de pointe. À mesure que cette fausse information se répand, elle acquiert petit à petit sa dynamique propre et finit par être reprise par une personnalité quelconque — célébrité, politicien et même parfois un journaliste. Ce qui advient ensuite est pure folie.
Que ce soit par choix ou par ignorance, les médias dominants commencent à diffuser ce tissu de mensonges, consacrant l’intégralité de leurs revues de presse à l’analyse de ces fausses informations : qui a dit quoi et pourquoi et bla bla bla... au lieu de chercher à vérifier l’authenticité de ces dernières. Du fait du caractère sensationnel de ces canulars et aussi parce qu’ils sont relayés par des personnalités influentes, cette vision faussée du monde va se répandre dans le monde réel, pour témoins les victimes de lynchage. Sans contrôle, ce phénomène de désinformation pourrait contaminer toute l’opinion publique. Nous arriverons à un moment où il sera quasiment impossible de distinguer le vrai du faux, le fait de la fiction, avec la société tout entière se radicalisant en différentes factions opposées sur la base de mensonges.

Facebook et les élections indiennes

À l’époque des élections indiennes de 2014, un article de presse titrait « Facebook peut-il influencer le résultat de l’élection indienne ? ». Sous ce titre figurait un iceberg — Si Facebook est en mesure de modifier de modifier nos émotions et de nous faire voter, de quoi d’autre est-il capable ? [14]
Étonnamment, la Commission électorale indienne elle-même a signé un partenariat avec Facebook portant sur le recensement des votants pendant le processus électoral [15]. Le Dr. Nasim Zaidi, commissaire en chef de la commission électorale (ECI), a déclaré : « Je suis heureux d’annoncer que la Commission électorale indienne va lancer une procédure spéciale destinée à enrôler les non-votants et plus particulièrement ceux qui n’ont jamais voté. Ceci représente un pas en avant vers la réalisation de la devise de l’ECI “Aucun citoyen laissé-pour-compte”. Parti prenant de cette campagne, Facebook diffusera un rappel en différents dialectes indiens visant à rappeler l’échéance électorale à tous les utilisateurs Facebook d’Inde. J’invite tous les citoyens électeurs à s’inscrire et à voter ; c’est à dire reconnaître ses droits et assumer ses devoirs. Je suis convaincu que Facebook va donner une nouvelle ampleur à la campagne de recensement électorale initiée par la Commission et encourager de futurs votants à participer au processus électoral et à devenir des citoyens indiens responsables ».
Les 17 principales agences de Renseignement US ont émis de sérieuses réserves quant à l’impact de ce phénomène de désinformation sur leur processus électoral et leur société. Selon un centre de recherche en statistique, une majorité d’États-uniens (un spectaculaire 88 %) pense que la diffusion de fausses nouvelles porte préjudice à leur perception de la réalité quotidienne [16]. Et nous, en Inde, nous dirigeons vers un scénario encore plus catastrophique que cela. Pourquoi ? Parce qu’à l’inverse de l’Inde, le gouvernement états-unien et la communauté du Renseignement a publiquement fait état du problème et travaillé à une solution face à cette menace. L’Inde peut-elle faire de même avec Facebook ayant le nez dans les affaires internes du pays ?
On met en place toutes sortes de commissions, des auditions sénatoriales sont programmées pour mettre à jour cette affaire et de nouvelles cellules sont créés pour contrer efficacement cette menace envers la société. Pendant qu’une enquête est menée sur le rôle de Facebook dans l’élection présidentielle états-unienne, on porte peu d’attention à la manière dont la cellule secrète de Facebook a influencé les élections indiennes. À la lumière de ces révélations, une investigation rigoureuse devrait être menée quant l’impact de Facebook sur les élections indiennes. Il est évident que pour ce faire, le gouvernement doit tout d’abord reconnaître l’existence de cette industrie de la désinformation afin de pouvoir agir contre elle.
En compagnie de Facebook, American Microchip Inc. et le Japonais Renesas engagés pour pirater le code secret EVM (banque de données utilisateurs) devraient être sous le coup d’une enquête pour interférence avec les élections indiennes ainsi que tous ceux qui ont comploté avec eux. Ce serait une grave erreur de prendre cette menace, liée à l’intrusion d’entreprises étrangères dans le processus électoral indien, à la légère [17].
Traduction
Jean-Marc Chicot


[1] En argot Internet, un Troll désigne ce qui vise à générer des polémiques. Il peut s’agir d’un message (par exemple sur un forum), d’un débat conflictuel dans son ensemble ou de la personne qui en est à l’origine.
[2] “How Facebook’s Political Unit Enables the Dark Art of Digital Propaganda”, Lauren Etter, Vernon Silver & Sarah Frier, Bloomberg, December 21, 2017.
[3] “India’s Fake News Industry & Mob Lynchings”, Great Game India News, July 6, 2017.
[4] « Freedom House : quand la liberté n’est qu’un slogan », par Thierry Meyssan, Réseau Voltaire, 7 septembre 2004.
[6] “Facebook Transparency Report 2017”, Facebook, January 2017.
[7] « Mark Zuckerberg possible futur président des États-Unis », Réseau Voltaire, 3 août 2017.
[8] “Experimental evidence of massive-scale emotional contagion through social networks”, Adam D. I. Kramer, Jamie E. Guillory & Jeffrey T. Hancock, Proceedings of the National Academy of Sciences of the United States of America (PNSA), Vol 111, #24, July 17, 2014.
[9] “The Author of a Controversial Facebook Study Says He’s ‘Sorry’”, Stephanie Burnett, Time, June 30, 2014.
[10] “Facebook still won’t say ’sorry’ for mind games experiment”, David Goldman, CNN, July 2, 2014.
[11] “Privacy watchdog files complaint over Facebook study”, Jessica Guynn, USA Today, July 3, 2014.
[12] “Facebook apologises for psychological experiments on users”, Samuel Gibbs, The Guardian, July 2, 2014.
[13] “Using Social Media To Predict the Future : A Systematic Literature Review”, Lawrence Phillips, Chase Dowling, Kyle Shaffer, Nathan Hodas & Svitlana Volkova, ArXiv, June 19, 2017.
[14] “If Facebook can tweak our emotions and make us vote, what else can it do ?”, Charles Arthur, The Guardian, June 30, 2014.
[16] “Many Americans Believe Fake News Is Sowing Confusion”, Michael Barthel, Amy Mitchell & Jesse Holcomb, Pew Research Center, December 15, 2016.
[17] “Are Indian Elections Hacked By Foreign Companies ?”, Shelley Kasli, Great Game India News, December 17, 2017.

Aucun commentaire:

Enregistrer un commentaire