* . * .*.

David Colon : “Le Kremlin a interféré dans toutes les élections en Europe”


C’est du jamais-vu en Europe. Un Etat membre, la Roumanie, a dû invalider un scrutin présidentiel après avoir été victime d’une opération d’influence politique sur TikTok. Une galaxie d’influenceurs et de faux comptes a dopé la popularité d’un candidat d’extrême droite prorusse et complotiste : Calin Georgescu. A tel point que ce quasi-inconnu est passé en trois semaines de 1 % des intentions de vote à 23 % des suffrages sans avoir tenu le moindre meeting. Face à la gravité de l’affaire, la Commission européenne a ouvert le 17 décembre une enquête contre le réseau social. Mais que peut-on en attendre ? Et que doivent faire les Européens pour protéger leurs élections des ingérences étrangères ? Entretien avec David Colon, professeur à Sciences Po Paris, spécialiste de l’histoire de la propagande et auteur de La Guerre de l’information aux éditions Taillandier.

L’Express : Que sait-on de la manière dont TikTok a été utilisé lors des élections roumaines ?

David Colon : La guerre cognitive algorithmique, c’est-à-dire fait d’exploiter les propriétés des algorithmes des réseaux afin d’influencer les perceptions, s’est manifestée de deux manières dans le cas roumain. La première, assez classique depuis 2016, est la diffusion de publicités politiques ciblées non autorisées à grande échelle, sur Facebook. Des publicités qui ont échappé aux capacités de détection de Meta. La seconde, c’est l’instrumentalisation de l’effet TikTok, c’est-à-dire l’extrême sensibilité des algorithmes de recommandation de cette plateforme qui permettent d’influencer les contenus présentés aux lecteurs. Concrètement, des influenceurs qui n’avaient sans doute aucune idée de l’objectif final de la campagne, ont été sollicités pour produire des contenus. Des volontaires ont été recrutés pour rédiger des milliers de faux commentaires sous ces contenus. Des milliers de faux comptes TikTok ont amplifié cela. Le résultat, c’est que les vidéos du candidat Calin Georgescu ont été rendues pratiquement incontournables pour quiconque visionnait du contenu en rapport avec les élections roumaines. Alors que ce candidat n’a pas fait d’affiche, de réunion publique, ni d’interview, il est passé de 1 % des intentions de vote à 23 % des suffrages.

Dispose-t-on d’indices concrets sur l’identité du commanditaire de cette campagne d’influence ?

Le renseignement roumain a déclassifié une série de documents qui le conduisent à considérer qu’une opération de cette ampleur et aussi coordonnée ne peut venir que d’un acteur étatique. Des éléments suggèrent que le financement de la campagne s’est fait via une société ukrainienne mais elle peut avoir été utilisée à son insu. L’élément qui pointe, à mon sens, le plus vers la Russie, a été dévoilé par une enquête de Nicolas Quénel sur Intelligence Online. Il met en évidence le rôle d’une entreprise domiciliée à Londres, mais d’origine russe. Le contexte joue également. Nous savons que le Kremlin a interféré dans l’élection moldave, l’élection géorgienne, les européennes ainsi que les législatives françaises. Le Kremlin a interféré dans toutes les élections européennes. Il est par conséquent hautement probable qu’il l’a fait et continue de le faire en Roumanie.

La Commission européenne a ouvert une enquête contre TikTok. Quels types d’éléments va-t-elle chercher et quelles sont ses chances de les trouver ?

Il faut garder à l’esprit que cette enquête est ouverte dans le cadre du Digital Services Act. La Commission ne cherche donc pas à identifier les commanditaires de l’opération, mais à savoir si TikTok a respecté ou non les obligations faites aux plateformes en matière de gestion de certains contenus, notamment politiques. Il est facile de tromper les algorithmes des plateformes. Dans le cas de la Roumanie, les commanditaires ont trompé les algorithmes de TikTok en faisant réaliser aux influenceurs des vidéos encourageant à aller voter, sans indiquer de nom de candidat précis, mais en accompagnant ces vidéos de commentaires favorables à Georgescu. Ce qui est reproché à TikTok, c’est de ne pas avoir mis en place d’outils pour détecter ce type de stratagèmes.

Les plateformes pourraient-elles efficacement prévenir ces phénomènes ?

Oui, c’est en théorie un problème assez facile à résoudre. Les algorithmes de recommandation de TikTok sont paramétrés pour être extrêmement sensibles à la viralité d’un contenu. L’objectif de la plateforme est en effet de proposer le contenu le plus récent, attrayant et addictif possible. Il suffit donc en théorie à la plateforme de réduire la sensibilité de ses algorithmes de recommandation pour limiter le risque qu’ils soient manipulés, mais cela irait bien entendu à l’encontre de son modèle économique et de ses intérêts.

Facebook, Instagram… Les autres réseaux sociaux n’ont-ils pas exactement les mêmes travers que TikTok ?

Le modèle économique des réseaux sociaux fondé sur la publicité les conduit à maximiser la viralité et à essayer de garder les internautes le plus longtemps possible sur leur plateforme. Ce qui produit mécaniquement des effets néfastes sur les utilisateurs et les sociétés. Ce qui distingue TikTok des autres médias sociaux est sa subordination de fait au Parti Communiste chinois, par l’entremise de sa maison mère, Bytedance. Cela pose deux questions majeures pour le devenir de nos démocraties. Souhaitons-nous que l’information à laquelle accédera demain la majorité de la population française soit déterminée par des algorithmes sur lesquels le PCC peut exercer une influence ? Et souhaitons-nous que l’information à laquelle accède demain la majorité de la population soit à ce point influençable par des opérations coordonnées de manipulation des algorithmes ?

Depuis son rachat par Elon Musk, X filtre de moins en moins les contenus problématiques, notamment ceux véhiculant de la désinformation. Elon Musk a également été le premier patron de grand réseau social à militer activement en faveur d’un candidat à la présidentielle. N’y a-t-il pas, là aussi, un risque prononcé d’interférence dans les processus électoraux ?

X est un levier majeur d’interférence dans le débat politique car il compte beaucoup de journalistes, de politiques et d’experts parmi ses utilisateurs. Il a, de ce fait, une grande influence sur la manière dont l’agenda médiatique est déterminé, et plus largement sur le débat public. En revanche, en l’état des connaissances disponibles, X, avec ses centaines de millions d’utilisateurs, ne produit pas sur les électeurs le même effet que TikTok, qui compte plus d’1,5 milliard d’utilisateurs dans le monde.

Que doit faire l’Europe face à ces nouveaux risques ? Les Etats-Unis ont-ils raison d’envisager d’interdire TikTok ?

Pour commencer, ce sont tous les médias sociaux que l’on devrait interdire aux moins de 16 ans, comme l’a fait l’Australie. Ensuite, l’expérience de l’interdiction de RT en Europe puis de TikTok en Nouvelle-Calédonie doit nous inciter à la prudence, compte-tenu de la facilité avec laquelle une telle mesure peut être contournée, et de son impact négatif sur la confiance des citoyens envers les gouvernants. Ce que l’Europe devrait faire en revanche, c’est créer d’urgence un réseau social européen vertueux, respectueux des règlements européens en vigueur et ne reposant pas sur un modèle publicitaire. Un tel réseau social est indispensable aujourd’hui pour protéger notre espace public des ingérences étrangères dopées à l’intelligence artificielle et de la guerre cognitive algorithmique. Un tel réseau pourrait s’appuyer sur trois sources de revenus : du financement public, du financement privé de la part d’entreprises conscientes de leur responsabilité démocratique – en même temps que des risques que représente pour elles la désinformation – et, enfin, la contribution de ses utilisateurs.

Avec le Digital Services Act, l’Europe a-t-elle le cadre adéquat et les ressources pour détecter les manquements des réseaux sociaux et les contraindre à respecter ses règles ?

Tout repose essentiellement sur la bonne volonté des plateformes, qui ne sont exposées qu’à des sanctions financières. Aussi longtemps que le montant du bénéfice généré par l’infraction restera supérieur à celui de l’amende, les plateformes seront encouragées à violer la réglementation européenne.

Le Digital Services Act permet aussi de bannir temporairement une plateforme, ce qui peut avoir un impact économique lourd sur elle.

Oui, mais ce n’est qu’en cas de condamnations répétées. Et on ne voit pour l’heure guère de résultats concrets aux premières enquêtes ouvertes en 2023.

Pensez-vous que l’UE n’osera jamais recourir à cette arme ?

On ne sait jamais. Mais dans l’hypothèse où elle serait utilisée, je doute qu’elle produise le moindre effet. Car il y a un décalage total entre le rythme technologique et le rythme politique. La célèbre formule de Lawrence Lessig, ce professeur de droit à Harvard, le résume parfaitement : “Code is law” [NDLR : le code informatique fait loi]. Le code produit un effet immédiat et universel. Ce n’est le cas d’aucune loi.

Interdire un réseau social qui ne respecterait pas nos règles vous laisse sceptique. Est-ce parce que l’interdiction vous semble par essence une mauvaise idée ou pensez-vous que c’est une bonne idée en théorie, infaisable en pratique ?

Je pense que la bonne idée est de nous doter de réseaux sociaux intègres. Cela fait huit ans que nous essayons de régenter les réseaux sociaux. Tout ce qui a été entrepris a échoué. Il est temps de réfléchir à une autre manière de procéder. On parle beaucoup de souveraineté européenne aujourd’hui. Elle ne peut exister sans souveraineté numérique. Il est plus simple de créer un réseau social européen que d’essayer de dresser des dragons.




Source

.. . . . . . . . . . . . . . . . . . . . .. . . .%%%...*...........................................$$$$$$$$$$$$$$$$$$$$--------------------.....