* . * . * .

Propagande russe : “Poutine considère la France comme une cible prioritaire”


La politique française est un feuilleton suivi de près par le Kremlin. Alors que le second tour des législatives approche, quatre semaines après l’annonce par Emmanuel Macron de la dissolution de l’Assemblée Nationale, la désinformation pro-russe bat son plein sur les réseaux sociaux. Faux sites web, fausses publicités Facebook, faux comptes Twitter… de nombreux outils sont mobilisés pour désorganiser le débat français. Entretien avec David Colon, professeur à Sciences Po Paris, spécialiste de l’histoire de la propagande et de la manipulation de masse et auteur de La Guerre de l’information aux éditions Taillandier.

L’Express : Depuis la dissolution, quelles campagnes de désinformation ciblant la France ont été mises au jour ?

David Colon : Les agents de désinformation du Kremlin se sont très rapidement adaptés à la nouvelle donne de la dissolution et ont intensifié leurs efforts visant à influencer notre débat public. Selon le social data analyst Florent Lefebvre, qui a analysé des données de Visibrain [NDLR : une plateforme de veille des réseaux sociaux], une armée de 8 000 faux comptes Twitter créée pour l’essentiel entre le 9 et le 13 juin a soutenu le Rassemblement national et spammé les communautés Twitter du Nouveau Front populaire et de Renaissance avec des contenus hostiles au gouvernement. Le média suédois SVT Nyheter a de son côté identifié, le 30 juin, 108 articles de désinformation pro-Kremlin diffusés par un millier de bots depuis la dissolution qui mentionnaient Emmanuel Macron (63 fois), Marine Le Pen et Jordan Bardella (62 fois). Le premier quasi-systématiquement dans un contexte négatif, les seconds jamais dans un contexte négatif.

Plusieurs rapports ont d’ores et déjà fait état des opérations d’influence des réseaux de désinformation numérique du Kremlin depuis le 9 juin. Le réseau Doppelgänger a ainsi promu des positions politiques pro-russes sur une douzaine de faux sites d’actualité et sur des sites usurpant l’identité d’authentiques médias français, dont les articles ont été promus par des publicités sur Facebook et amplement relayés par des bots. Le réseau CopyCop, qui recourt à l’IA générative, a créé deux nouveaux sites web plagiant et utilisant le contenu de médias français et deux sites web inauthentiques publiant des faux contenus et des deepfakes. C’est ce réseau qui a diffusé le 26 juin un article de désinformation renvoyant à un clone du site de la coalition Ensemble sur lequel on pouvait lire la fausse information selon laquelle le président Macron aurait promis de verser une prime de 100 euros aux citoyens français qui voteraient pour les candidats Ensemble.

Quel objectif poursuit la Russie avec ce type de campagnes ?

Aux yeux du Kremlin, c’est le sort de sa guerre d’agression contre l’Ukraine qui se joue en partie dans les urnes ce dimanche. Depuis février 2022, Vladimir Poutine mène une guerre de l’information contre tous les Etats qui soutiennent l’Ukraine et les Ukrainiens. Or, depuis qu’Emmanuel Macron a affirmé le 16 janvier “la Russie ne peut pas gagner en Ukraine”, et qu’il n’a pas exclu l’envoi de troupes, le Kremlin considère notre pays comme une cible prioritaire de ses manœuvres de déstabilisation. Cette stratégie est pleinement et ouvertement assumée, comme en atteste la déclaration de Dimitri Medvedev le 3 février dernier. A propos des “oppositions antisystèmes”, l’ancien président russe affirmait ainsi : “Notre tâche consiste à soutenir ces hommes politiques et leurs partis en Occident de toutes les manières possibles, en les aidant ouvertement et secrètement à obtenir des résultats décents lors des élections .” Pas plus tard qu’hier, le ministère russe des Affaires étrangères a exprimé sur Twitter son soutien implicite au Rassemblement national, qui lui apparaît comme un allié objectif susceptible de saper le soutien de la France à l’Ukraine et aux Ukrainiens.

Et ce matin même, les services diplomatiques de l’Union européenne [NDLR : le groupe de travail East StratCom Task Force] indiquent que les médias pro-Kremlin sont focalisés sur la question de l’Ukraine, attribuant les mauvais scores du parti Ensemble au soutien d’Emmanuel Macron à l’Ukraine et entretenant le mythe maintes fois démenti de la mort de troupes françaises en Ukraine. Ces médias pro-Kremlin affirment aussi que les résultats du RN suggèrent que les Français veulent la paix par la normalisation des relations avec la Russie. Comme l’ont montré plusieurs rapports et études récentes, le Kremlin s’emploie à semer le chaos en France et à polariser le débat politique en y faisant prévaloir des thèmes clivants comme le conflit au Proche-Orient dans le but assumé de favoriser l’accession du Rassemblement national au gouvernement. Medvedev considérait en février que l’accession de certains hommes politiques anti-systèmes à l’establishment politique pouvait” radicalement améliorer le paysage politique dans le monde occidental”.

Les tactiques russes de désinformation ont-elles évolué ?

Les modes opératoires n’ont pas fondamentalement changé. Pour ne prendre qu’un exemple, le KGB fabriquait de faux journaux occidentaux dans les années soixante, et des “polit-technologues” [NDLR : des spécialistes de l’ingénierie politique] ont commencé à cloner des sites internet de candidats aux élections russes dès les années 1990. Ce qui a changé, en revanche, c’est l’espace informationnel dans lequel se déploient ces opérations : l’avènement du smartphone, des médias sociaux et de l’intelligence artificielle a démultiplié l’impact potentiel de ces campagnes. Cela accroît aussi bien le volume, la vitesse de propagation que la variété des contenus. En atteste le fait que, selon The Insider [NDLR : un journal indépendant russe], le réseau Doppelgänger a décuplé sa portée sur les réseaux sociaux en deux ans, touchant 1,6 millions de personnes par jour, ou que selon DFR Lab [NDLR : un centre de recherche sur la désinformation], l’audience des 15 principales chaînes de propagande pro-Kremlin est passée de 16 milliards de vues en 2021 à 109 milliards en 2023. Le recours à l’IA permet non seulement d’automatiser la production et la traduction de faux contenus, mais de les adapter à différents supports de diffusion et à des publics précisément ciblés.

Pour “vendre” du vote extrême, le Kremlin s’emploie non pas à persuader les électeurs un à un mais à faire “monter la température” dans notre débat public, en y injectant ou en amplifiant des psychoses.

Le réseau Portal Kombat, identifié par Viginum en février, ne produit aucun contenu original mais agrège et diffuse automatiquement et massivement des publications pro-russes tout en recourant à des outils d’optimisation sur les moteurs de recherche. Peu de gens réalisent à quel point les outils d’IA ont fait passer les opérations de diffusion et d’amplification de contenus numériques à une échelle inédite, presque inconcevable. L’IA permet aux acteurs malveillants de saturer nos espaces informationnels de contenus désinformateurs, au point de fragiliser notre capacité de distinguer le vrai du faux. Or, comme le notait Marc Bloch dans l’Étrange défaite en 1940, sans un “minimum de renseignement nets et sûrs”, “aucune conduite rationnelle n’est possible”.

Quel impact concret ont ces opérations de désinformation en France ? Après tout, le fait que des citoyens soient exposés à des fake news n’implique pas qu’ils y croient.

Beaucoup d’analystes minimisent l’impact de ces campagnes numériques du Kremlin en considérant, à raison, que ces contenus pris individuellement, même microciblés, ont peu de chance de changer le comportement des électeurs. Mais, focalisés sur les effets individuels, ils sous-estiment souvent les effets systémiques de ces campagnes qui relèvent en réalité de démarches d’ingénierie sociale à grande échelle. Le Kremlin ne cherche pas tant à influencer le vote directement qu’à influencer l’architecture du choix des électeurs en amont du vote, en poussant dans le débat public par tous les moyens possibles – communiqués du Kremlin, médias d’Etat, agents d’influence, vrais et faux médias, bots et trolls, espions, tagueurs de murs parisiens… – les sujets les plus clivants susceptibles de favoriser le vote extrême, comme le soutien à l’Ukraine ou la guerre au Proche-Orient. Alexander Nix, le patron de Cambridge Analytica, employait une image que je trouve très parlante : si vous voulez vendre une canette de Coca dans un cinéma, il est moins efficace de diffuser une publicité à l’écran que d’augmenter la température dans la salle. Pour “vendre” du vote extrême, le Kremlin s’emploie non pas à persuader les électeurs un à un mais à faire “monter la température” dans notre débat public, en y injectant ou en amplifiant des psychoses – nucléaire, terroriste, migratoire, sécuritaire, woke, islamo-gauchiste, etc – de sorte à favoriser la polarisation politique et le vote extrême.

A une menace globale et coordonnée, il faut opposer une riposte globale et coordonnée.

Les outils d’IA ont accentué le risque systémique que fait peser la désinformation du Kremlin sur notre débat public. NewsGuard [NDLR : start-up américaine qui lutte contre les fake news] a ainsi récemment montré que les 10 principaux modèles d’IA générative reprennent un tiers du temps les récits de désinformation russe en citant comme sources faisant autorité de faux sites d’informations créés par le réseau de désinformation #CopyCop. Google vient de publier une étude sur les dommages réels causés par l’IA générative, dont les auteurs considèrent qu’ils sont susceptibles, si rien n’est fait, de “fausser la compréhension collective de la réalité sociopolitique ou du consensus scientifique”.

Que doivent faire les démocraties face à la désinformation ? Comment peuvent-elles lutter efficacement, et sans renier leurs valeurs ?

Les démocraties doivent protéger les espaces informationnels des risques systémiques posés par la désinformation à l’ère de l’IA. D’abord, en contraignant les plateformes d’IA générative à consacrer une part de leurs bénéfices à des mesures d’évaluation de l’impact de leurs produits et de protection des utilisateurs. Ensuite en renforçant les mesures règlementaires européennes à l’encontre des plateformes de réseaux sociaux qui, manifestement, n’ont pas joué le jeu pendant ces élections. Selon la plateforme journalistique espagnole Maldita, pendant la campagne des élections européennes, 45 % des contenus de désinformation préalablement identifiés comme tels n’ont fait l’objet d’aucune action visible de la part des plateformes. Et selon AI Forensics [NDLR : une ONG européenne qui analyse le fonctionnement des algorithmes des grandes plateformes], Facebook a approuvé en mai 101 publicités de propagande du Kremlin qui ont touché 854 000 comptes en France.

Elles doivent ensuite accentuer leur coopération dans la lutte contre la désinformation. A une menace globale et coordonnée, il faut opposer une riposte globale et coordonnée. Des progrès considérables ont été accomplis récemment en ce sens, que ce soit à travers le Forum information et démocratie que présidait le regretté Christophe Deloire, la direction de la gouvernance publique de l’OCDE qui a publié en mars un très important rapport sur ces sujets, la déclaration mondiale pour l’intégrité de l’information en ligne présentée en septembre dernier par le Canada et les Pays-Bas, ou encore la feuille de route du Département d’Etat des Etats-Unis signée à ce jour par 14 pays dont la France. En France, la mobilisation sur ces sujets de notre diplomatie, de nos armées et du SGDSN a contribué à favoriser la prise de conscience. Depuis un an, l’action de Viginum, le service de vigilance et protection contre les ingérences étrangères, s’est révélée déterminante pour alerter les journalistes et l’opinion publique sur les opérations de désinformation du Kremlin. Et l’adoption récente et définitive de la loi de transparence visant à contrer les ingérences étrangères constitue un important pas en avant.

Maintenant, il nous reste du chemin à parcourir. D’abord, en constituant un consortium de recherche transdisciplinaire en infodémiologie, la science des pandémies de désinformation, afin de faire progresser notre compréhension des phénomènes à l’œuvre et la mesure de leurs effets. Ensuite en mobilisant la société civile – entreprises, associations, ONG, journalistes – à travers un observatoire indépendant des manipulations de l’information tant dans le monde virtuel que dans le monde réel, pour favoriser l’innovation sociale au bénéfice de la lutte contre les virus informationnels. Enfin, en accentuant nos efforts collectifs de prévention, notamment à travers le “prebunking” [NDLR : sensibiliser les citoyens aux manipulations qui pourraient les viser] dans le but de favoriser la résilience de la société. Car, en matière de désinformation comme ailleurs, il vaut mieux prévenir que guérir.




Source
Exit mobile version

.. . . . . . . . . . . . . . . . . . . . . . . . . %%%. . . * . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ - - - - - - - - - - - - - - - - - - - - . . . . .