Résoudre l’énigme de la désinformation

Mardi 31 Juillet 2018

Depuis que l’élection présidentielle américaine de novembre 2016 a mis en évidence la vulnérabilité des canaux numériques face aux émetteurs de « nouvelles falsifiées » (fake news), le débat sur les moyens de lutter contre la désinformation n’en finit pas. Nous avons parcouru beaucoup de chemin au cours des huit derniers mois, depuis les comparutions devant le Congrès de cadres de Facebook, de Google et de Twitter, interrogés sur la façon dont les sources russes ont utilisé ces plateformes afin d’influencer l’élection, mais s’il est quelque chose qu’ont montré les tentatives de résoudre le problème, c’est bien qu’il n’existe pas de solution miracle.


Plutôt que de trouver un remède universel, nous avons besoin d’aborder le sujet sous plusieurs angles. Le système de l’information fonctionne aujourd’hui comme un Rubik’s Cube, où chaque petit carré de couleur nécessite, pour être « résolu », un mouvement déterminé. En ce qui concerne la désinformation numérique, quatre dimensions au moins doivent être prises en compte.
Tout d’abord, qui partage cette désinformation ? Selon sa diffusion par des acteurs étrangers ou nationaux, notamment américains, elle peut être traitée très différemment – tant sur le plan juridique que réglementaire –, car les premiers sont soumis aux règles relativement strictes concernant l’ingérence étrangère tandis que les seconds jouissent de protections inégalées en matière de liberté d’expression.
Aux États-Unis, les cas les moins complexes de désinformation en provenance de l’étranger peuvent être résolus en mêlant des outils d’analyse linguistique et des techniques de géolocalisation, afin d’identifier les acteurs opérant depuis l’extérieur du pays. En cas d’échec de l’action au niveau des plateformes, une intervention publique de portée plus générale, par exemple le recours à des sanctions, peut être envisagée.
En deuxième lieu, pourquoi la désinformation est-elle partagée ?  L’« information erronée », c’est-à-dire inexacte et divulguée sans volonté particulière, ne doit pas être confondue avec la désinformation, autrement dit la propagande, délibérément diffusée. Il est possible, en partie du moins, d’empêcher des acteurs qui n’auraient pas de mauvaises intentions de partager involontairement des informations fausses en menant des campagnes d’éducation à l’information ou en multipliant les initiatives de vérification factuelle. Il est plus compliqué d’interrompre les activités d’acteurs malveillants diffusant à dessein de telles informations ; tout dépend du résultat qu’ils recherchent.
Ainsi de nouvelles stratégies publicitaires pourraient contribuer à désorganiser les modèles, fondés sur les redevances, de ceux qui sont attirés par le profit – comme les tristement célèbres adolescents macédoniens  qui ont capté des milliards de dollars en créant des sites de « nouvelles falsifiées ». Mais de telles mesures ne seraient pas dissuasives à l’égard de ceux qui partagent la désinformation pour des raisons politiques ou sociales. Lorsque ces acteurs opèrent au sein de réseaux organisés, les réactions, pourraient n’être efficaces qu’à condition de déstabiliser tout le réseau.
Troisièmement, comment la désinformation est-elle partagée ? Si les acteurs partagent des contenus sur les réseaux sociaux, une adaptation de la politique des plateformes et/ou des réglementations publiques peut suffire. Mais ces évolutions doivent être ciblées.
Ainsi pour contrer l’utilisation de robots destinés à amplifier artificiellement certains contenus, les plateformes peuvent exiger des utilisateurs qu’ils dévoilent leur identité véritable (quoique cela puisse poser des problèmes dans les régimes autoritaires où l’anonymat protège les défenseurs de la démocratie). Pour limiter les procédures complexes de micro-ciblage – l’utilisation de données démographiques et de celles qui ont été collectées auprès des consommateurs afin de prévoir quels seront leurs intérêts particuliers et par conséquent leur comportement, dans le but d’influencer leurs pensées ou leurs actions –, les plateformes pourraient devoir changer leur politique de partage des données et de protection de la vie privée, tout autant que mettre en place de nouvelles règles publicitaires. Ainsi, plutôt que d’offrir à des annonceurs la possibilité d’accéder à 2 300 personnes qui probablement « haïssent les juifs », pour seulement 30 dollars, les plateformes devraient – et c’est parfois ce qu’elles font – rendre publiques les cibles des publicités à caractère politique, interdire certains critères de ciblage ou fixer une limite inférieure au nombre de membres d’un groupe cible.
C’est une sorte de course à l’armement. Les acteurs malveillants contourneront rapidement les changements mis en place par les plateformes numériques. De nouvelle techniques, comme l’utilisation des chaînes de blocs pour permettre l’authentification des photographies originales, seront sans cesse nécessaires. Mais il ne fait guère de doute que les plateformes numériques sont mieux équipées pour adapter leur stratégie que ne le sont les régulateurs publics.  
En revanche, les plateformes numériques ne peuvent résoudre à elles seules le problème de la désinformation, notamment parce que, selon certaines estimations, les réseaux sociaux ne captent que 40 % du trafic des sites diffusant les « nouvelles falsifiées » les plus choquantes, les 60% restants étant distribués de façon « organique » ou par des recommandations entre particuliers (le « dark social »), utilisant non les réseaux sociaux mais les messageries ou le courriel.
Le dernière dimension de l’énigme de la désinformation – qui est peut-être la plus importante – tient à la nature même de ce qui est partagé. Les spécialistes ont tendance à ne s’intéresser qu’aux contenus entièrement « falsifiés », qui sont plus faciles à identifier. Mais les plateformes numériques disposent de moyens d’incitation pour limiter de tels contenus, pour la bonne et simple raison que les gens n’ont généralement pas envie qu’on les prenne pour des imbéciles parce qu’ils auront partagé des récits complètement faux.
En revanche, les gens aiment lire ou partager des informations qui les confortent dans leurs opinions, qu’ils apprécient plus encore lorsqu’elles déclenchent des émotions fortes – au premier rang desquelles l’indignation. L’engagement massif des usagers à travers ce type de contenus incite les plateformes numériques à les publier.
Non seulement ces contenus divisent, mais ils sont souvent trompeurs ou provocateurs, et certains signes  laissent entendre qu’ils peuvent saper le discours démocratique constructif. Mais où se situe la ligne de démarcation entre un désaccord dangereux, qui n’est fondé que sur la déformation des faits, et un débat politique vigoureux, animé par des visions du monde contradictoires ? Et qui, si tant est que cela soit possible, devrait la tracer ?
Quand bien même nous répondrions à ces questions éthiques, l’identification à grande échelle des contenus qui posent problème se heurte à de sérieuses difficultés pratiques. Nombre des exemples de désinformation les plus inquiétants ne s’en sont pas pris précisément à une élection ou à un candidat, mais ont au contraire cherché à exploiter les divisions de la société, fondées, par exemple, sur les préjugés raciaux. Et bien souvent, ils ne sont pas des produits susceptibles d’être achetés. En l’occurrence, une nouvelle réglementation des campagnes publicitaires, comme la prône le projet d’une loi pour des publicités honnêtes (Honest Ads Act), soutenu par Facebook et par Twitter, ne parviendra pas à en venir à bout.
Si les solutions au problème de la désinformation semblent compliquées aux États-Unis, la situation est encore plus épineuse dans le contexte international, où elle est plus décentralisé et plus opaque – raison supplémentaire de l’impossibilité d’une solution globale.
Mais si chacune des mesures prises ne répond qu’à une petite partie du problème – l’amélioration des politiques publicitaires en résoudrait 5 % et les mesures contre le micro-ciblage environ 20 % –, leur addition peut aider à progresser. Le résultat final dessinera un environnement de l’information qui, quoiqu’imparfait, ne laissera place qu’à une part relativement faible de contenus posant problème – inévitables dans les sociétés démocratiques qui défendent la liberté d’expression.
Des experts indépendants auront désormais accès à des données protégées de Facebook, au titre du respect de la vie privée, ce qui les aidera à comprendre (et à corriger) le rôle joué par la plateforme dans les processus électoraux – et démocratiques – de par le monde. C’est une bonne nouvelle. On peut espérer que d’autres plateformes numériques, comme Google, Twitter, Reddit et Tumblr, suivront cet exemple. Grâce à des connaissances appropriées et à un engagement véritable en faveur du changement, même si celui-ci est graduel, les plateformes numériques pourront jouer un rôle social et politique plus sûr, ou moins dangereux, dans les démocraties qui sont aujourd’hui en difficulté.
Traduit de l’anglais par François Boisivon
Kelly Born est chargée de programmes au sein de l’initiative Madison pour la fondation William et Flora Hewlett.
© Project Syndicate 1995–2018
 
chroniques

chroniques | Editos | Analyses




En kiosque.














Inscription à la newsletter