* . * . * .

Comment la propagande du Kremlin a infiltré l’IA que vous utilisez tous les jours


Pendant plusieurs mois, les utilisateurs de ChatGPT, Gemini, Grok, et d’autres chatbots d’intelligence artificielle ont pu voir d’étranges réponses apparaître sur leurs écrans. S’ils posaient des questions spécifiques sur la guerre en Ukraine ou la Russie, les explications fournies par les chatbots s’appuyaient dans certains cas sur des fake news et d’immenses campagnes de désinformation menées par la Russie.

Newsguard, une entreprise spécialisée dans la recherche sur la désinformation, a ainsi dévoilé dans un rapport que “les dix principaux outils d’IA générative ont favorisé les objectifs de désinformation de Moscou”, et ont partagé la propagande du régime. Lorsque les utilisateurs questionnaient la véracité de certaines fake news fabriquées par un réseau russe, les chatbots confirmaient ces faux récits dans 33,5 % des cas et ne donnaient pas de réponse concluante dans 18 % des situations. Ils ne révélaient le caractère mensonger des affirmations que dans 48 %.

Difficile d’évaluer combien de personnes ont été au contact de fausses informations par ce biais. Mais ce nombre pourrait être considérable : ChatGPT est utilisé par 400 millions d’utilisateurs chaque semaine, et Grok est accessible gratuitement à tous les usagers de X (ex-Twitter) dans le monde, soit 586 millions de personnes.

Des réseaux extrêmement bien organisés

Autant de potentielles victimes de la propagande du Kremlin. “Il y a une tendance naturelle chez les utilisateurs à accorder de la confiance aux chatbots, ce qui peut les amener à croire le récit russe, alerte David Colon, professeur à Sciences Po Paris et spécialiste de la désinformation. Une majorité des jeunes de moins de 25 ans recourent aux chatbots ou aux réseaux sociaux pour accéder aux faits, ils sont donc exposés à travers eux à de l’information de mauvaise qualité”. Une tendance inquiétante qui va en s’aggravant, selon cet expert.

C’est d’autant plus problématique que les réseaux russes de désinformation sont vastes, bien organisés, et prolifiques. Au total, un réseau étudié par Newsguard, surnommé “Pravda”, a publié 3 600 000 d’articles de propagande en 2024. Parmi les fake news propagées par la Russie, on trouve notamment des récits prétendant que les États-Unis auraient fait construire des laboratoires biologiques secrets en Ukraine, ou que Volodymyr Zelensky aurait détourné l’aide militaire américaine pour s’enrichir.

Le réseau Pravda ne cible pas que les russophones et les anglophones : il s’étend dans le monde entier, grâce à plus de 150 sites, et dissémine des fake news dans une douzaine de langues. “Vu l’ampleur du système de désinformation du Kremlin, ils ont incontestablement un temps d’avance en termes de pollution de l’information”, observe David Colon.

Une faille dans le fonctionnement des intelligences artificielles

C’est précisément cette quantité de fake news en ligne qui leur a permis de manipuler les réponses des chatbots, via une technique nommée “empoisonnement de données”. “L’entraînement des grands modèles de langage (LLM) en requiert énormément, détaille Morgan Guesdon, analyste chez Own Security, un cabinet spécialisé dans le renseignement sur les menaces cyber. Il y a donc une course aux informations”. Alors que tous les textes en ligne ont déjà été digérés par les précédents modèles d’IA, les entreprises qui planchent sur les prochaines générations sont avides de données fraîches et inédites.

“Des milliers de fois par jour, les crawlers [NDLR : des programmes analysant les sites] cherchent de nouveaux sites et de nouveaux contenus à analyser. Ils ne prennent pas en compte la provenance du site, ni la qualité des données qu’ils hébergent. Les Russes ont profité de cela”, explique Morgan Guesdon.

En faisant proliférer les sites de propagande, les réseaux de désinformation savent que leurs contenus seront repérés et intégrés aux données d’entraînement des IA. Plus leurs textes se retrouvent dans les corpus étudiés par les IA lors de leur phase d’apprentissage, plus il y a de chance pour qu’elles “apprennent” leurs idées. Lorsque les utilisateurs leur posent une question sur la thématique, les IA peuvent régurgiter les mensonges sur lesquels elles ont été entraînées, incapables de faire la différence entre le vrai et le faux. “C’est très intelligent comme attaque”, conclut l’expert en cybersécurité. Les centaines de sites créés par les réseaux russes ont beau être peu visités, leurs propos sont fortement amplifiés par les IA.

La difficile lutte contre l’empoisonnement des données

Comment lutter ? La question est complexe et agite les chercheurs. Il n’est pour l’heure guère possible de faire oublier certaines informations aux IA. Cela nécessite de les entraîner à nouveau. Une tâche longue et très coûteuse. Il faut donc contrôler étroitement en amont “les données utilisées pour entraîner les modèles d’IA”, préconise Morgan Guesdon. Un travail colossal vu la quantité d’information que cela englobe. Des techniques de filtrages sont développées par des chercheurs et des entreprises, mais ces dispositifs sophistiqués requièrent eux-mêmes du temps et de la puissance de calcul pour extraire par exemple toutes les insultes d’un corpus. Repérer les fake news est un exercice plus délicat encore, les chercheurs ayant toujours un temps de retard : ils réagissent aux attaques mais peuvent difficilement prédire quels types de récits seront véhiculés lors de futures campagnes.

Il est possible d’agir à d’autres étapes de la construction d’un LLM, notamment en “renforçant les phases de tests afin de voir s’ils ont été empoisonnés, ou s’ils disent des choses dangereuses”, pointe Morgan Guesdon. A ce stade, l’apprentissage par renforcement à partir de rétroactions humaines (RHLF) peut aider à corriger certaines dérives des IA, après leur phase d’apprentissage autonome. Des superviseurs humains évaluent, ici, la qualité des réponses apportées par les IA afin de guider l’outil vers l’attitude la plus appropriée.

“Face aux ingérences informationnelles étrangères, il ne faut pas sous réagir”, analyse Laurent Cordonnier, chercheur au sein de la Fondation Descartes spécialisé dans la désinformation. Le service Viginum chargé de la protection contre les ingérences numériques étrangères est une vigie précieuse en la matière. “L’autre risque est la surréaction, met en garde le chercheur. Il est tentant de penser qu’il faut être dur avec tous les discours favorables à la Russie, décourager ces propos. Mais si on réduit la liberté d’expression, on nuit à un des piliers centraux de la démocratie”. Le danger étant de polariser davantage la population et de jouer in fine le jeu de l’adversaire. La solution la plus efficace reste la formation de la population, assure Laurent Cordonnier. “Il faut renforcer la résilience des citoyens. Cela passe par l’éducation aux médias, en particulier pour les jeunes.”




Source