top of page
  • Instagram
  • LinkedIn
  • Facebook

L’Union européenne contre la désinformation

Joel Ficet

Le cas d’école israélo-palestinien


Il semble souvent que rien ne puisse être fait pour endiguer le flot de fake news sur les réseaux sociaux et sauvegarder la notion même de « fait objectif », fondement supposé de la délibération politique. L’annonce prophétique d’une ère de « post-vérité », où la raison serait marginalisée par les théories du complot et les émotions, est devenu un lieu commun[1]. Des initiatives législatives se font pourtant jour en vue de préserver le lien entre information et démocratie, notamment au niveau de l’Union européenne.


Illustrant ces tentatives, la Commission européenne annonçait le jeudi 12 octobre l'ouverture d'une enquête visant le réseau social X (anciennement Twitter)[2]. Les faits reprochés : l’inertie face aux manipulations, images truquées et contenus violents qui prolifèrent sur la plate-forme depuis les récents attentats du Hamas en Israël et les représailles consécutives dans la bande de Gaza. Cette enquête n’est pas de pure forme : en effet, aux termes d’une récente législation européenne, le Digital Services Act, les pénalités financières pour X pourraient s’élever à 6% du chiffre d’affaires de l’entreprise.


Les réseaux sociaux et la prolifération des « fake news » sur le conflit Hamas-Israël


Il est indubitable que, dès l’attaque du 7 octobre dernier, les informations et vidéos mensongères, tant pro-Hamas que pro-Israël, se sont multipliées sans censure sur X. Parmi les manipulations plus ou moins habiles répertoriées par des sites de surveillance des médias tels que Newsguard, Polygraph.info ou Media Matters : des images d’un feu d’artifice en Algérie décrites comme celles de bombardement sur Gaza ; une vidéo postée par l’hôte d’un podcast conservateur américain prétendant montrer des militants du Hamas brutaliser des civils, alors qu’il s’agissait en fait de policiers israéliens ; un document contrefait suggérant que l’administration Biden allait accorder une aide de 8 milliards de dollars à Israël ; la supposée destruction d’un hélicoptère israélien, en fait une scène extraite d’un jeu vidéo ; une rumeur selon laquelle l’Ukraine aurait livré des armes au Hamas… D’innombrables fake news de ce type, diffusées simultanément sur de multiples comptes (et sur plusieurs réseaux), ont pu être consultées des centaines de milliers de fois sans que les autorités de la plate-forme n’interviennent. La confusion a été entretenue par le propriétaire de X, Elon Musk, qui a recommandé comme sources d’information sur le conflit des comptes conspirationnistes, voire antisémites, à ses 160 millions de followers[3].

X n’est évidemment pas la seule plateforme en cause.


Les dirigeants de Facebook, Instagram et TikTok ont également reçu des lettres de Thierry Breton, Commissaire au marché intérieur, les intimant de prévenir l’explosion de la désinformation. Mais Meta et TikTok ont immédiatement annoncé la suppression des contenus extrémistes et un renforcement des capacités de modération. A l’inverse, Musk s’est contenté de mettre Breton au défi de fournir une liste de violations, pour laisser le public juge de la légitimité de l’accusation[4]. Le geste serait néanmoins en continuité avec sa gestion depuis le rachat de Twitter en octobre 2022 : Musk a en effet restauré des comptes antérieurement supprimés comme trop radicaux, démantelé les services de modération et établi un système de « comptes vérifiés » payants qui, de fait, permet à tout propagandiste de s’offrir une apparence d’authenticité pour quelques dollars ; parallèlement, il a fait en novembre 2022 fermer les bureaux de Twitter à Bruxelles, dont la mission était précisément de veiller à l’application des règles de l’UE.


Les tactiques de ce libertarien affiché, fondées sur une combinaison de défense maximaliste du droit d’expression et d’intérêts économiques bien entendus, entrent ainsi en collision directe avec les règles européennes. Mais les géants de l’Internet, aussi influents soient-ils, peuvent-ils vraiment rejeter les injonctions de la Commission et risquer de perdre l’accès au Marché Unique européen ?


La double ambition de la régulation européenne


Il faut pour répondre à cette question, lourde de conséquences pour l’avenir de l’information digitale, comprendre les objectifs des règles européennes. Ceux-ci ont une double nature.


Le premier but est la protection des droits des consommateurs au sein du Marché Unique, qui s’est étendue aux services informatiques depuis l’adoption en 2015 d’une Digital Single Market Strategy européenne. Les législations qui, ces dernières années, renforcent le droit à la vie privée ou restreignent l’expression des messages haineux sur Internet, étaient initialement destinées à assurer l’intégrité des échanges économiques digitaux et n’avaient pas de vocation politique. Ce sont d’ailleurs les mêmes textes qui encadrent l’e-commerce ou répriment les publicités mensongères sur les réseaux sociaux. Cet ancrage dans la législation commerciale européenne est la raison pour laquelle, aujourd’hui, le Commissaire au marché intérieur est compétent pour gérer la désinformation politique.


Il existe toutefois un second objectif, plus directement lié à la politique étrangère de l’Union. Le Conseil européen (composé des chefs de gouvernement des Etats-membres) a demandé en 2015 le développement d’une stratégie de protection de l’espace public européen contre la désinformation politique extérieure, identifiée comme une ingérence visant à saper les valeurs démocratiques de l’Union et à attiser les tensions au sein des sociétés européennes. Cette citation d’une communication de la Commission du 26 avril 2018 synthétise cette perception : « Les campagnes de désinformation de masse en ligne sont largement utilisées par une série d'acteurs nationaux et étrangers pour semer la suspicion et générer des tensions sociétales, avec de graves conséquences potentielles pour notre sécurité »[5]. Les principaux coupables désignés : la Russie et la Chine, accusés de noyer les réseaux sociaux de messages anti-démocratiques ou conspirationnistes, en vue notamment d’éroder la confiance des citoyens occidentaux dans le processus électoral. L’information digitale a donc subi ce que les analystes des relations internationales appellent, selon un néologisme anglo-saxon, un processus de « sécuritisation »[6]: la redéfinition d’un enjeu politique « civil » en une question de sécurité internationale, qui peut notamment justifier un contrôle accru des autorités sur les activités privées.

Cette double inspiration peut également être illustrée par la promulgation en 2018 d’un « Code de bonnes pratiques »[7] contre la désinformation sur les médias sociaux, qui ciblait tant les messages publicitaires mensongers que la propagande politique. Tous les grands opérateurs d’Internet avaient alors souscrit à ce code et accepté de collaborer avec la Commission en ce sens, y compris Twitter – jusqu’à qu’Elon Musk s’en retire en mai 2023, suscitant déjà l’agacement des autorités européennes.


Ce modèle européen de régulation proactive des médias sociaux, axé sur la sauvegarde tant des droits des consommateurs que de l’objectivité de l’information, se distingue clairement des deux autres grands modèles concurrents au niveau international : l’approche libertaire américaine, en ligne avec la Silicon Valley et réticente à toute forme régulation d’une part, le contrôle autoritaire des médias sociaux à la chinoise d’autre part. C’est toutefois la conception européenne qui, à l’heure actuelle, a le plus de chance de s’imposer (hormis peut-être dans les dictatures telles que la Russie, qui dispose des moyens techniques de restreindre l’accès de sa population aux réseaux internationaux).


Le Brussels Effect, ou l’exportation de la législation européenne


La juriste américaine Anu Bradford a conceptualisé sous le nom de Brussels Effect la capacité de l’UE à exporter ses principes d’action au-delà de ses frontières, sans qu’une intervention diplomatique ou un traité international ne soit nécessaire[8]. En effet, l’Europe est le plus large et le plus riche marché du monde, et peu de compagnies multinationales peuvent se permettre de s’en exclure en refusant de se plier à sa législation. Or, il est souvent pour elles moins coûteux d’adapter leurs produits ou services aux normes du marché le plus étroitement régulé que de moduler leurs standards de production en fonction des différents types de marché où elles opèrent. C’est notamment le cas des entreprises du secteur des nouvelles technologies, par essence globalisé. On voit ainsi les géants américains Meta, TikTok ou Microsoft se conformer graduellement aux règles européennes, utilisant au passage le renforcement des garanties aux usagers comme argument de vente. Deux autres mécanismes, selon Anu Bradford, renforcent l’« Effet Bruxelles » : le lobbying des entreprises pour que les Etats non-européens transposent les règles de l’UE, en vue d’éviter les effets de concurrence sur les marchés locaux ; la mobilisation des sociétés civiles, qui ont adopté comme moyen d’influence privilégié le boycott des firmes considérées comme peu respectueuses des libertés individuelles ou de l’environnement.


Il est dès lors peu plausible que X puisse prendre le risque d’une suspension ou d’un retrait de l’Union européenne. X aurait aujourd’hui, selon des chiffres fournis par l’entreprise, 112 millions d’utilisateurs au sein de l’UE. Elon Musk peut difficilement espérer rentabiliser sa plateforme, largement déficitaire, en se privant des revenus que les usagers européens représentent. Et même si le fantasque milliardaire décidait de faire prévaloir son idéologie libertarienne sur les intérêts commerciaux, ses pertes serviraient de leçon pour ses compétiteurs tels que le nouveau réseau Threads, lancé par Meta aux Etats-Unis mais pas encore introduit sur le marché européen.


On peut donc présumer que l’action des institutions européennes amènera à l’avenir les acteurs de l’information online à réformer structurellement leurs pratiques de modération. Beaucoup s’en réjouiront, mais il ne faut pas pour autant rejeter entièrement les arguments de ceux qui, comme Musk, assimilent la modération à la censure, ou la régulation à la mise sous tutelle.


Réguler la liberté d’expression, un paradoxe ?


La conception la liberté d’expression à laquelle se réfère l’UE ne manque en effet pas d’ambiguïtés. Ainsi, la communication précitée de la Commission en date d’avril 2018, qui visait à cadrer l’action de l’UE en la matière, énonçait dans son introduction que « la liberté d’expression comprend le respect de la liberté et du pluralisme des médias, ainsi que le droit des citoyens d’émettre des opinions et de recevoir ou de communiquer des informations et des idées sans qu’il puisse y avoir ingérence d’autorités publiques et sans considération de frontière » mais aussi qu’il fallait lutter contre la désinformation car elle « porte atteinte à la liberté d’expression ». Il y a là contradiction : d’une part, il conviendrait de protéger les citoyens contre l’ingérence des autorités dans le débat public ; de l’autre, les mêmes autorités se devraient d’intervenir dans le débat public pour défendre la liberté d’expression contre les propagandistes de tous ordres, discriminant au passage entre sources d’information légitimes et acteurs factieux… La contradiction n’est guère résolue lorsque le même paragraphe affirme : « La principale obligation des acteurs publics en matière de liberté d’expression et de liberté des médias est de s’abstenir de toute forme d’ingérence et de censure, ainsi que de garantir un environnement propice à un débat public inclusif et pluraliste ». En effet, cette « garantie d’une débat inclusif et pluraliste » semble reposer sur la délégation à la Commission, une administration non élue, du pouvoir de définir les contenus politiques acceptables – un pouvoir sur lequel le Parlement européen n’exerce pas de contrôle.


La majorité des citoyens européens approuveront probablement une telle intervention dans le cadre de la guerre idéologique qui oppose UE et Russie en ce moment. Toutefois, les mêmes pourraient craindre demain la labellisation comme « désinformation » d’autres opinions controversées ou minoritaires, telles que l’hostilité aux vaccins, le soutien à la cause palestinienne voire l’euroscepticisme.


Une autre conséquence potentielle de la politique de l’UE est la balkanisation du débat public. Les usagers redoutant l’exercice par les réseaux sociaux d’une « police de la pensée » émigreront sans difficulté vers des plateformes plus confidentielles et non-modérées comme Telegram ou Parler, sur lesquelles la législation européenne n’a pas de prise et où rumeurs et thèses conspirationnistes se propagent sans contrôle ni contradiction. La volonté européenne de « civiliser » l’espace public international aurait ainsi pour effet pervers d’enfermer les utilisateurs radicalisés dans un cercle d’auto-renforcement de leurs opinions, au risque d’une désagrégation accrue des communautés civiques nationales.

[1] Gabriele Cosentino, Social Media and the Post-Truth World Order, Palgrave McMillan, 2020 [2] Reuters, “EU opens probe into X in test of new tech rules, pressure on TikTok, Meta”, 13 October 2023, https://www.reuters.com/technology/eus-breton-gives-tiktok-ceo-24-hours-detail-disinformation-response-2023-10-12/ [3] Media Matters for America, “Musk’s X allows misinformation about Hamas’ war on Israel to proliferate”, 10 October 2023, https://www.mediamatters.org/twitter/musks-x-allows-misinformation-about-hamas-war-israel-proliferate [4] BBC, “EU opens investigation into X over alleged disinformation”, 13 October 2023, https://www.bbc.com/news/technology-67097020 [5] Communication de la Commission européenne « Lutter contre la désinformation en ligne : une approche européenne », COM(2018) 236 final, https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=CELEX:52018DC0236 [6] Thierry Balzacq, “The Policy Tools of Securitization: Information Exchange, EU Foreign and Interior Policies”, Journal of Common Market Studies, 2008, n° 1, p. 75–100. [7]Communication de la Commission, “ European Commission Guidance on Strengthening the Code of Practice on Disinformation”, COM(2021) 262 final, 26 mai 2021 file:///C:/Users/ricci/Downloads/Communication_nPq9p89LZt7jJVseCUC4Ur9z9g_76495-1.pdf [8] Anu Bradford, The Brussels Effect: How the European Union Rules the World, Oxford University Press, 2020.

Comments


bottom of page