Les récits sont au cœur de l’expérience humaine. Selon Gottschall (2012), les histoires ne sont pas seulement une forme d’expression, mais elles nous aident à naviguer dans les complexités de la vie, en évoluant au fil du temps pour assurer notre survie. Cependant, cet instinct narratif, bien qu’essentiel, possède aussi une facette plus sombre : il nous rend vulnérables aux théories du complot, à la manipulation médiatique et aux récits qui, bien que non vérifiés, se présentent souvent comme plus convaincants que la vérité elle-même.

L’analyse de la propagation des rumeurs, en particulier lors des épidémies, montre qu’elles suivent des schémas récurrents à travers l’histoire. Jon D. Lee, dans son ouvrage An Epidemic of Rumours: How Stories Shape Our Perceptions of Disease (2014), explore les dynamiques des récits populaires en période de crise sanitaire, en prenant l'exemple du syndrome respiratoire aigu sévère (SARS) comme étude de cas. Lee souligne que les narrations sur l'origine et la propagation des maladies, bien que variant avec les détails spécifiques, réutilisent toujours les mêmes tropes : "D’où cela vient-il ? Comment se propage-t-il ? Comment peut-on l’arrêter ? Pourquoi n’avons-nous pas de remède ?" En l'absence de réponses scientifiques immédiates, les êtres humains ont une tendance naturelle à combler ce vide par des récits qui apportent des explications, bien que souvent fictives.

Les récits qui ont circulé autour de la pandémie de SARS en 2003, comme celui selon lequel Saddam Hussein aurait libéré le virus dans une campagne de guerre biologique, trouvent une résonance étrange lorsqu'on les compare aux théories du Covid-19. Des histoires similaires ont circulé à propos de l’origine du SARS-CoV-2, notamment celle de sa fuite d’un laboratoire à Wuhan. Ces récits, souvent dénués de preuves, parviennent néanmoins à capter l’imaginaire collectif, parce qu’ils répondent aux besoins émotionnels de compréhension et de sécurité, même s'ils sont inexactes.

Lorsqu'une épidémie éclate, les rumeurs sont souvent teintées de xénophobie, de racisme et de méfiance envers les autorités. La peur, moteur de ces récits, se propage rapidement au sein de communautés qui cherchent à se protéger de ce qu'elles perçoivent comme une menace étrangère ou invisible. Comme le souligne Lee, ces rumeurs puisent souvent dans des préjugés anciens et profondément enracinés, au point que même lorsqu’elles sont réfutées, elles sont difficiles à éliminer. "Les rumeurs sont souvent fondées sur des idées et des malentendus tellement anciens qu'ils ne sont même plus perçus comme erronés", explique Lee (2014 : 172).

Dans l'absence de preuves scientifiques, les rumeurs et la désinformation remplissent un vide d'information, maintenant leur existence aussi longtemps que l'épidémie elle-même. La lutte contre ces narrations est aussi complexe que l’éradication de la maladie, comme l’a démontré Lee dans son étude du SARS. Les histoires sur le virus se sont éteintes avec sa disparition médiatique : "Dès que le virus a disparu et n’a plus fait les gros titres, les histoires sont mortes" (Lee, 2014 : 173).

Cependant, dans des situations d'urgence sanitaire, où des informations fondées sur des preuves sont cruciales pour endiguer la maladie et assurer la sécurité publique, cette approche est insuffisante. L’exemple tragique du couple en Arizona, qui a ingéré de la chloroquine après avoir vu un briefing télévisé de Donald Trump, illustre tragiquement ce phénomène. La chloroquine, bien que non prouvée comme traitement contre le Covid-19, a été perçue comme une solution miracle par certains, au détriment de la vie humaine.

Malheureusement, la lutte contre la désinformation ne se fait pas sans obstacles. Des recherches antérieures ont montré que les méthodes traditionnelles de contrôle des rumeurs étaient généralement inefficaces. Lee propose que la meilleure stratégie consiste à répéter fréquemment les informations vérifiées pour les rendre plus accessibles et reconnues par le public (2014 : 179). Cela demande un effort collectif, notamment des médias, pour diffuser des informations fondées sur des preuves et contrer les récits erronés.

Le rôle des médias sociaux dans la propagation de l’information fausse est devenu un problème majeur. L’essor des plateformes comme Facebook, Instagram, YouTube et TikTok a créé un terrain fertile pour la diffusion rapide de récits non vérifiés, souvent amplifiés par l'algorithme qui privilégie les contenus les plus engageants, peu importe leur véracité. Un exemple frappant de la propagation rapide d'une rumeur durant la pandémie de Covid-19 est l’histoire de l’"Oncle avec un master", qui a circulé sur Facebook avant d’être partagé par des milliers d'internautes à travers le monde. Ce type de contenu, mélangeant vérités et mensonges, se propage avec une rapidité vertigineuse, rendant difficile sa correction en temps utile.

Il est primordial de comprendre que cette dynamique des rumeurs et de la désinformation n’est pas seulement un phénomène social ; elle est intrinsèquement liée à des facteurs technologiques. L’internet et les smartphones ont révolutionné la manière dont l’information (vraie ou fausse) est partagée, et les mécanismes qui permettaient autrefois de contrôler les rumeurs semblent désormais obsolètes face à la rapidité et à la portée des nouvelles technologies. Il est donc crucial de repenser la manière dont nous nous protégeons collectivement contre la propagation de récits erronés.

Comment les technologies numériques ont révélé des vulnérabilités structurelles dans les démocraties libérales : une analyse de l'ingérence russe

L’ingérence russe dans les affaires internes d’autres pays n’a pas débuté avec les événements de 2016, comme le savent bien les voisins de la Russie. Les préoccupations concernant l’utilisation par la Russie de stratégies de désinformation ne sont pas nouvelles, même si l’attention portée sur cette question s’est intensifiée après cette date. En 2015, l’Union européenne avait déjà lancé sa Task Force East StratCom, connue pour son projet « EU vs. Disinfo » visant à contrer la désinformation russe, bien avant l’élection de Donald Trump aux États-Unis. L’article de Yablokov publié la même année mettait en lumière les théories du complot comme outil de diplomatie publique russe, soulignant que la manipulation de points de vue controversés pour semer la méfiance envers les élites libérales n’était pas un concept nouveau. De plus, les cyberattaques motivées politiquement et de grande envergure étaient utilisées par la Russie depuis plus d’une décennie dans son voisinage immédiat, bien avant de devenir un problème majeur aux États-Unis.

Ce qui est véritablement nouveau dans la préoccupation post-2016 liée à l’ingérence russe, c’est la prise de conscience générale que les technologies modernes ont révélé de nouvelles vulnérabilités structurelles dans les démocraties libérales elles-mêmes. Si la désinformation existe depuis des siècles et a eu des conséquences parfois violentes à travers l’histoire, les réseaux sociaux et le modèle actuel d’Internet ont transformé cette pratique en un défi inédit pour les démocraties libérales. L’ampleur et l’omniprésence des technologies numériques dans la vie quotidienne et la communication ont considérablement amplifié l’impact des cyberattaques, comme le montrent les événements récents. Pourtant, bien que la Russie ait exploité ces vulnérabilités, il est difficile de lier ces failles spécifiquement à l’action russe, car elles ne sont que des symptômes d’un problème plus large. Comme le souligne Tufekci, l’ingérence russe n’est qu’un symptôme d’un dysfonctionnement plus profond dans nos sociétés numériques.

Le rapport Mueller sur l’ingérence russe dans les élections américaines de 2016 a détaillé deux opérations majeures : une campagne de désinformation menée via les réseaux sociaux contre la campagne Clinton, et une opération de piratage suivie de la diffusion des informations exfiltrées. Ces deux éléments sont fondamentaux pour comprendre les défis que pose l’ingérence étrangère dans des élections démocratiques. Cependant, il convient de noter qu’il est peu probable qu’une opération d’information relativement modeste lancée depuis Saint-Pétersbourg ait eu un impact significatif sur le résultat du scrutin. Ce qui importe ici n’est pas tant la taille de l’opération, mais plutôt la manière dont les réseaux sociaux facilitent la propagation de contenus polarisants, exacerbant ainsi des divisions politiques et sociales déjà existantes.

La véritable question soulevée par cet incident est la façon dont le modèle actuel d’Internet, qui privilégie l’opacité et repose sur des plateformes non responsables, a amplifié la portée de telles campagnes. Le scandale de Cambridge Analytica, qui a révélé la mauvaise gestion des données personnelles via Facebook, a mis en lumière l’ampleur des risques associés à la privatisation de l’espace public et à la numérisation des processus démocratiques. Ce phénomène dépasse largement l’ingérence étrangère et soulève des questions systémiques concernant la gestion des données et la régulation de la sphère publique. Il existe un consensus croissant pour reconnaître que des régulations adaptées doivent être mises en place pour répondre à ces défis, notamment des obligations de transparence accrues et des restrictions sur les techniques de microciblage des électeurs.

En parallèle, l’opération de piratage et de divulgation des emails de la campagne Clinton a révélé une autre dimension de l’ingérence russe : l’exploitation de la visibilité médiatique pour maximiser l’impact des informations exfiltrées. Bien que ce type de piratage ne soit pas inédit, ce qui a marqué l’opération de 2016, c’est la manière dont elle a été médiatisée et son impact politique, amplifié par les réseaux sociaux. D’autres incidents similaires, comme le piratage des communications de la Lega en Italie en 2018, n’ont pas suscité une couverture médiatique aussi importante ni eu de conséquences politiques similaires, ce qui montre la singularité de cette affaire. La question de l’éthique journalistique, dans la mesure où les médias diffusent des informations obtenues illégalement, devient essentielle dans ce contexte.

Enfin, la réponse politique face à ces défis devrait être plus globale et structurelle. Plutôt que de se concentrer sur un acteur extérieur comme la Russie, il est crucial de revoir les mécanismes internes des démocraties libérales pour renforcer la résilience face aux vulnérabilités numériques. Des propositions concrètes ont été formulées, comme celles du rapport de la Commission Kofi Annan sur les élections et la démocratie à l’ère numérique, qui soulignent la nécessité d’une meilleure régulation des campagnes politiques en ligne, notamment par la transparence et la limitation des pratiques de microciblage. Les efforts pour promouvoir l’éducation aux médias et la littératie numérique sont également des axes importants pour garantir une meilleure compréhension des enjeux de la désinformation et des manipulations en ligne.

Quelle est la portée de la désinformation en ligne et de la "fake news" ?

La "fake news", ou fausse information, est un terme qui désigne des faits ou événements inventés ou inexistants. Elle est donc souvent assimilée à de la désinformation. Dans cette optique, la définition fournie par le Code de pratique de l'Union européenne sur la désinformation (2018) est particulièrement pertinente : la désinformation est "une information vérifiablement fausse ou trompeuse" qui, de manière cumulative, (a) "est créée, présentée et diffusée pour un gain économique ou dans l'intention de tromper le public" et (b) "peut causer un préjudice public", entendu comme des "menaces aux processus démocratiques et politiques ainsi qu’aux biens publics tels que la santé, l'environnement ou la sécurité des citoyens de l'UE" (Code, préambule). Cette définition exclut explicitement de la notion de désinformation "la publicité trompeuse, les erreurs de reportage, la satire et la parodie, ou les informations et commentaires partisans clairement identifiés".

Ce cadre législatif délimite bien les frontières de ce qui est considéré comme de la désinformation en ligne, mais la question reste complexe. En effet, la manière dont les fausses informations circulent sur les plateformes Internet est un sujet d’analyse de plus en plus approfondi. La propagation des "fake news" est rendue encore plus complexe par la diversité des acteurs impliqués : des individus, des groupes politiques, des entreprises et même des États. Ces acteurs peuvent avoir des motivations variées, mais souvent convergentes, à savoir influencer l’opinion publique, manipuler les résultats électoraux ou encore, parfois, déstabiliser des régimes politiques.

Les institutions européennes, conscientes de l'impact de la désinformation sur la démocratie, ont pris plusieurs mesures pour lutter contre ce phénomène. Par exemple, dans les conclusions du Conseil européen des 19 et 20 mars 2015, un appel à la responsabilité des plateformes en ligne a été lancé, afin qu'elles prennent des mesures actives pour prévenir la diffusion de contenu trompeur. De même, la résolution du Parlement européen du 15 juin 2017 a insisté sur la nécessité de réguler le marché numérique afin de contrer les manipulations de l'information. Ces actions visent à limiter la portée de la désinformation, mais elles soulèvent également des questions sur la liberté d'expression et la surveillance des contenus en ligne.

La question qui se pose alors est celle du rôle des médias dans la diffusion de ces informations erronées. Si les journaux traditionnels ont des obligations légales et éthiques qui les obligent à vérifier leurs sources, cette même exigence n'est pas toujours appliquée aux acteurs des nouvelles formes de médias, en particulier les plateformes de réseaux sociaux. Dans ce contexte, des cas comme celui de l'affaire Delfi v. Estonie (2015) illustrent le dilemme entre la régulation des contenus haineux et la liberté d'expression, notamment en ce qui concerne la responsabilité des plateformes pour les commentaires de leurs utilisateurs.

Dans ce cadre, les mécanismes de régulation en place pour lutter contre la désinformation en ligne sont nombreux, mais leur efficacité reste souvent discutée. La réglementation sur la suppression de contenu dans le cadre des réseaux sociaux, telle que la loi allemande NetzDG (2017), impose aux plateformes de retirer les contenus haineux et trompeurs sous peine de sanctions. Cependant, cette approche soulève des inquiétudes concernant la liberté d'expression et les risques d'une censure excessive, où les plateformes pourraient être incitées à supprimer des contenus non seulement nuisibles, mais aussi des opinions divergentes.

Il est également nécessaire de prendre en compte la dimension politique de la désinformation. Si la définition de la désinformation par le Code de l'UE exclut explicitement les informations politiques, la frontière entre information politique et désinformation reste floue. Par exemple, les gouvernements peuvent, dans certains cas, manipuler les informations à des fins politiques, tout en échappant à la régulation européenne. Cela devient particulièrement préoccupant lors des périodes électorales où la circulation de "fake news" peut avoir un impact direct sur les résultats des élections.

La notion de "fake news" s'étend également à des domaines plus vastes, comme la santé publique, où la propagation de fausses informations peut avoir des conséquences graves. Les campagnes anti-vaccination en sont un exemple frappant. La désinformation dans ce domaine est souvent alimentée par des théories du complot et des campagnes orchestrées, parfois par des acteurs malveillants ou simplement ignorants des faits scientifiques.

Enfin, il convient de souligner qu'une partie de la population, en particulier dans certaines régions, reste vulnérable à la désinformation en ligne en raison d'un manque d'éducation aux médias et d'une faible littératie numérique. Il est essentiel que les politiques publiques intègrent la nécessité de développer des compétences critiques chez les citoyens, leur permettant de distinguer les informations fiables de celles qui ne le sont pas. Les efforts de vérification des faits, bien que nécessaires, ne suffisent pas à eux seuls si la capacité de discernement du public n'est pas renforcée.