* . * . * .

Sur les réseaux sociaux, parler à des humains va devenir mission impossible


Internet devait être l’agora du XXIe siècle, un espace universel de partage des connaissances où chaque voix pourrait s’exprimer librement. Cette utopie des pionniers, comme Tim Berners-Lee, a connu un succès spectaculaire si l’on en juge par les chiffres : aujourd’hui, 5 milliards d’utilisateurs passent quotidiennement près de deux heures et demie sur les réseaux sociaux. Cependant, cette promesse initiale se heurte désormais à une invasion massive de “bots” [NDLR : des agents logiciels] qui menace l’authenticité même des échanges en ligne. Le phénomène a pris une ampleur vertigineuse. L’effondrement des coûts d’inférence des modèles d’intelligence artificielle a démocratisé la création de faux comptes à une échelle industrielle. Gérer un bot sophistiqué capable d’envoyer un million de tweets ne coûte plus que de 5 à 10 dollars mensuels. Et même si X a introduit une limite de 2 400 tweets par jour, il est aisé de créer de multiples comptes.

Une campagne de désinformation peut de ce fait être déployée pour moins de 10 000 dollars par mois, une somme dérisoire pour des acteurs étatiques ou de grands groupes d’influence. Selon le rapport 2024 Bad Bot Report d’Imperva, 32 % du trafic sur les réseaux sociaux serait désormais généré par des bots, un taux en augmentation chaque année depuis cinq ans. Rappelons que 0,1 % des comptes utilisateurs – qu’ils soient ou non tenus par un humain – sont à l’origine de 80 % du partage des fausses nouvelles, créant un effet d’amplification dévastateur.

Des trafics de billets aidés par les bots

La sophistication croissante des bots rend leur détection de plus en plus complexe : 61 % des bots malveillants sont désormais considérés comme “évasifs”, soit capables de contourner les systèmes de détection traditionnels en imitant le comportement humain, 45 % se font passer pour des utilisateurs mobiles, et 26 % utilisent des adresses IP résidentielles pour masquer leur véritable nature. Cette évolution technologique creuse d’ailleurs un fossé entre les acteurs disposant des moyens de déployer des bots sophistiqués et ceux qui utilisent des outils plus basiques, créant une nouvelle forme d’inégalité numérique.

Les plateformes doivent repenser leurs mécanismes de défense pour contrer cette menace grandissante. Les bots s’attaquent désormais à des cibles inattendues : réservations de restaurants haut de gamme, rendez-vous administratifs, billets de concert… Dès qu’un service en ligne combine forte demande et disponibilité limitée, ils surgissent. Certains restaurants new-yorkais voient leurs réservations gratuites revendues jusqu’à 340 dollars sur des plateformes tierces.

Face à cette déferlante artificielle, une approche radicale émerge : créer des réseaux sociaux peuplés exclusivement de bots. C’est le pari audacieux de SocialAI, une application conçue par Michael Sayman, 28 ans, passé par Facebook, Google et Roblox. Le principe ? Chaque utilisateur dispose de son réseau social privé animé par des chatbots qu’il peut personnaliser : supporters, critiques, “brutalement honnêtes” ou même trolls. Si l’idée peut sembler dystopique, elle répond au besoin d’échapper à la toxicité croissante des réseaux traditionnels. La plateforme, qui s’appuie sur l’API d’OpenAI, attire déjà des investisseurs de premier plan, preuve que le marché croit en cette vision d’une sociabilité numérique intermédiée par l’intelligence artificielle.

Le pseudonymat contre les bots

Pour endiguer la prolifération des bots malveillants tout en préservant la liberté d’expression, une solution médiane s’impose, le pseudonymat – à ne pas confondre avec l’anonymat total. Il permet aux utilisateurs de s’exprimer sous un nom d’emprunt tout en restant identifiables par les autorités en cas d’infraction. Cette approche, au cœur du projet de loi français sur le numérique, finalement abandonnée dans sa dernière version, vise à responsabiliser les internautes sans les exposer publiquement. Elle complique significativement la création massive de faux comptes automatisés, en exigeant une pièce d’identité, tout en protégeant ceux qui ont besoin de s’exprimer sans révéler leur identité : lanceurs d’alerte, militants ou personnes vulnérables. A titre personnel, je suis convaincu qu’elle deviendra la norme, car elle participe à un mouvement tendanciel de mise en transparence de nos sociétés.

* Robin Rivaton est directeur général de Stonal et membre du conseil scientifique de la Fondation pour l’innovation politique (Fondapol)




Source
Exit mobile version

.. . . . . . . . . . . . . . . . . . . . . . . . . %%%. . . * . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ - - - - - - - - - - - - - - - - - - - - . . . . .