Les réseaux sociaux, tels que Facebook et Twitter, sont de plus en plus utilisés comme sources d'informations scientifiques et médicales, ce qui a des implications profondes pour la diffusion des connaissances. Selon une étude du Pew Research, ces plateformes jouent un rôle crucial dans la propagation de l'information scientifique (Greenwood, Perrin et Duggan, 2016). Cependant, ce phénomène présente des risques importants. Lorsqu'une information scientifique erronée ou falsifiée est partagée en ligne, notamment via les médias sociaux, elle devient une menace réelle pour la santé publique. Le problème majeur des informations partagées de cette manière réside dans leur difficile traçabilité et correction. En effet, une fois qu'un article suscite une attention particulière, qu'elle soit positive ou négative, une rétractation formelle n'a pas toujours l'effet escompté pour modifier la perception publique, contrairement à ce qui peut se passer au sein de la communauté scientifique. Si les médias se corrigent et annoncent un "mauvais article scientifique", il arrive que cette correction soit tardive, voire insuffisante, pour altérer efficacement l'opinion du public.
Pour étudier l'impact des articles rétractés tant du point de vue scientifique que social, nous avons utilisé la base de données Scopus, qui permet de suivre les citations des articles avant et après leur rétractation. Scopus est une base de données de référence, indexant des millions d'articles scientifiques dans de nombreuses disciplines. L'avantage majeur de l'utilisation de Scopus réside dans sa capacité à fournir des métadonnées de citations détaillées par année, permettant ainsi de suivre l'évolution des citations avant et après la rétractation d'un article. Cet outil est essentiel, car il permet de mesurer l'influence persistante de ces articles, même après leur retrait de la littérature scientifique.
Afin de compléter cette analyse, nous avons aussi exploré les plateformes PlumX et Altmetric.com, qui agrègent des indicateurs alternatifs en matière de recherche scientifique. Contrairement aux citations traditionnelles, les altmetrics prennent en compte d'autres formes de visibilité, telles que le nombre de lectures, les mentions sur les médias sociaux, les téléchargements, et plus encore. Ces agrégateurs suivent les mentions des articles sur une variété de réseaux sociaux, dont Twitter et Facebook, ainsi que sur les blogs et dans les médias. Ils mesurent également les partages sur des plateformes comme Reddit et la visibilité sur des réseaux scientifiques comme Mendeley. Cette approche a permis d'examiner la tonalité et le contenu de ces mentions pour un sous-ensemble d'articles rétractés, ce qui a révélé des informations sur la manière dont ces articles continuent à influencer le public, même après leur rétractation.
Un autre aspect important de cette analyse réside dans l'origine géographique des articles rétractés. En utilisant les affiliations des auteurs, il a été possible de déterminer les pays d'origine des articles concernés. Les États-Unis, la Chine, l'Inde et le Japon sont les principaux contributeurs aux articles rétractés dans notre base de données. Cette répartition géographique offre un aperçu des différences culturelles et des pratiques scientifiques dans divers pays. Par exemple, les articles provenant des États-Unis sont principalement rétractés pour des raisons de manipulation d'images ou de falsification des données, tandis que ceux en provenance de Chine sont souvent rétractés à cause de faux examens par les pairs ou de plagiat. En Inde, la plupart des rétractations sont liées au plagiat, tandis qu'au Japon, les articles sont rétractés en raison de résultats peu fiables et de falsifications de données.
Les raisons derrière ces rétractations sont multiples et souvent liées à des pressions spécifiques auxquelles les chercheurs sont confrontés. En particulier, dans des pays comme les États-Unis et le Royaume-Uni, les scientifiques sont soumis à une pression constante pour publier un grand nombre d'articles chaque année afin de maintenir leurs financements ou obtenir des promotions. Ce phénomène est amplifié dans des pays comme la Chine, où les chercheurs sont récompensés financièrement pour chaque publication. Ce contexte de pression extrême sur les chercheurs crée des conditions où la falsification ou la manipulation des données devient plus courante, un problème exacerbé par des politiques de gestion de la recherche qui varient d'un pays à l'autre.
Une autre observation pertinente est l'évolution du nombre de rétractations au fil des années. Tandis que le nombre de publications scientifiques reste relativement stable, le nombre de rétractations augmente chaque année. Cette tendance est en grande partie due à l'amélioration des outils de détection des erreurs, tels que ceux permettant de vérifier les données ou de repérer le plagiat, ainsi qu'à la communication plus rapide des erreurs aux éditeurs. Cette réactivité accrue a permis de réduire le temps nécessaire pour rétracter un article. En 2010, il fallait en moyenne 2,7 ans pour retirer un article, alors qu'en 2014, ce délai était réduit à 1,1 an. Cette accélération dans la rétraction des articles erronés est particulièrement importante dans des domaines comme la médecine ou les sciences biomédicales, où des découvertes erronées peuvent avoir des conséquences graves pour la santé publique.
Enfin, les raisons qui motivent les rétractations varient grandement. Le mot cloud des raisons de rétractation montre que des termes tels que "plagiat", "falsification", et "manipulation des données" apparaissent fréquemment. Ces raisons sont souvent liées à un environnement de recherche où la compétition pour publier est intense, et où les scientifiques peuvent être tentés de falsifier ou de manipuler leurs résultats pour rester compétitifs.
Pour le lecteur, il est crucial de comprendre que les rétractations ne signifient pas nécessairement une défaillance totale du système scientifique, mais plutôt un mécanisme correctif permettant d'identifier et d'éliminer les erreurs. Cela dit, il est essentiel de prendre conscience des conséquences potentielles de ces rétractations sur la perception publique de la science et de la recherche, en particulier lorsque de mauvaises pratiques de publication sont rapidement partagées et amplifiées via les médias sociaux. L'accent doit être mis sur la transparence et la rapidité de la correction, afin de minimiser l'impact négatif sur la confiance du public en la recherche scientifique.
Comment la désinformation se propage-t-elle à l'ère des réseaux sociaux ?
Les promesses financières peuvent faire face à un fort retour de flamme. Les fausses informations concernant un gouvernement ont le potentiel d’éroder la confiance de la société et, par conséquent, de constituer une menace, notamment pour les démocraties. En outre, dénoncer les journaux établis, les chaînes de télévision et les revues peut affaiblir la confiance envers ces organisations qui jouent le rôle de vérificateurs de faits dans les sociétés modernes. Aux États-Unis, la confiance dans les sources d'information traditionnelles a montré une fracture partisane marquée lors des élections de 2016, avec 51 % des démocrates mais seulement 14 % des républicains déclarant avoir « une assez grande » ou « une très grande » confiance dans les médias traditionnels (Swift, 2016).
L'intention de tromper existe depuis toujours et les campagnes systématiques de fausses nouvelles ont été documentées tout au long de l'histoire (voir Posetti & Matthews, 2018). Ce qui a changé, c'est la capacité de diffuser rapidement et efficacement des informations erronées à des auditoires toujours plus larges. Lorsque Ramsès II, en 1274 avant notre ère, prétendait que sa tentative de capturer la ville de Kadesh avait réussi, la nouvelle de sa fausse victoire devait être propagée de bouche à oreille et via des peintures murales. Lorsque l'Octavien mena une campagne de propagande contre Antoine à l'époque romaine, il pouvait le discréditer en tant que débauché et ivrogne par de courts slogans inscrits sur des pièces de monnaie, permettant ainsi une diffusion plus large (Kaminska, 2017). L'invention de l'imprimerie par Gutenberg en 1493 a permis une communication de type un-à-plusieurs à une échelle plus grande, favorisant la diffusion aussi bien de vérités que de fausses informations. En 1835, un journal de New York, The Sun, publia une série d'articles sur la découverte de formes de vie humanoïdes sur la Lune, devenant ainsi célèbre pour la « grande supercherie lunaire » (Thornton, 2000). L’introduction de la radio facilita encore la diffusion de l’information, y compris des campagnes de désinformation étendues avant la Seconde Guerre mondiale (Herzstein, 1978; Kallis, 2005).
Cependant, l'utilisation systématique des médias imprimés et diffusés et leur large diffusion nécessitaient d'importantes ressources, ce qui limitait les acteurs capables de tirer parti de ces technologies. D’un côté, cela permettait à ceux qui en avaient accès de diffuser des informations trompeuses avec peu d’opposition ; de l'autre, cela offrait également aux tentatives d’implanter des normes éthiques en journalisme une opportunité d’influencer le reportage (Ward, 2015 ; voir également les contributions dans Bertrand, 2018). L’apparition d’Internet, suivie par l’avènement des réseaux sociaux, a réduit les barrières d’accès dans une telle mesure que la plupart des individus peuvent désormais participer à la diffusion d'informations à grande échelle.
Avec la technologie moderne des smartphones et les réseaux sociaux en ligne, chaque utilisateur d’Internet peut devenir un diffuseur d'informations. À titre d'exemple, l’utilisateur moyen de Twitter compte 707 abonnés (Smith, 2019) à qui il peut diffuser des informations en quelques secondes. Ce niveau de portée était auparavant inimaginable pour un individu, créant une nouvelle ère fondamentale où la diffusion des nouvelles n’est plus un privilège réservé mais accessible à tous les utilisateurs d'Internet. Bien que ce changement ait le potentiel d'autonomiser les citoyens, il permet également la propagation incontrôlée de la désinformation, ce qui appelle au développement de nouvelles normes sociales pour évaluer et partager l'information avec discernement.
Aujourd'hui, les sites de médias sociaux déterminent le fil d'actualités de leurs utilisateurs par le biais d’algorithmes. En particulier, des entreprises comme Facebook filtrent le flux d'actualités disponibles et présentent aux utilisateurs un fil d'actualités sélectionné. Les détails de l'algorithme de sélection sont inconnus des utilisateurs et subissent des modifications fréquentes. Ce que l'on sait, c’est que l’algorithme privilégie l’information qui correspond au profil des préférences de l’utilisateur et retient l'information qui ne correspond pas. La bulle de filtrage (Pariser, 2011) qui en résulte présente une information en grande partie cohérente qui renforce la vision du monde de l'utilisateur et ne présente que peu de défis, amenant les utilisateurs à être convaincus que leurs propres opinions sont justes et que celles des autres sont, au mieux erronées, au pire malveillantes (pour une discussion, voir Schwarz & Jalbert, 2020). Nombreux sont ceux qui soupçonnent que ces bulles de filtrage ont contribué au résultat du référendum du Brexit en 2016 (voir Oyserman & Dawson, 2020). Associé à l’homophilie naturelle des réseaux sociaux humains, où les individus sont généralement amis avec des personnes ayant des idées similaires, les mécanismes de filtrage peuvent créer des réseaux homogènes puissants dans lesquels les contenus qui correspondent aux valeurs et aux normes des membres ont plus de chances d’être communiqués. De manière critique, l’information partagée dans de telles bulles peut se propager comme le son dans une chambre d’écho, permettant à des voix isolées de se faire entendre comme un chœur.
L'efficacité de la diffusion de l’information via les réseaux sociaux est encore renforcée par le fait que les agents du jeu de partage d'informations n'ont plus besoin d’être des humains. Les robots sociaux peuvent générer, partager, redistribuer et aimer du contenu sans ou avec peu d’interaction humaine. Cela affecte le contenu, la quantité et la qualité de l’information, modifiant fortement l’écosystème de l’information au sein de certaines bulles. Bien que Twitter, Facebook et autres réseaux sociaux cherchent à limiter les comptes automatisés, ce phénomène prend la forme d’une course aux armements, où ceux qui cherchent à tromper adaptent leur comportement pour contourner ou surpasser les dernières technologies développées par ceux qui souhaitent limiter le réseau aux seuls agents humains. À l’avenir, la perfection croissante des « deepfakes » — vidéos ou photos falsifiées très difficiles à identifier — ajoutera des défis supplémentaires à la préservation d’un environnement informationnel crédible.
Les informations, qu'elles soient vérifiées ou non, circulent désormais de manière incontrôlable dans un climat où les faits et la désinformation se brouillent délibérément. En ce sens, il est essentiel de comprendre comment les gens acceptent et partagent des informations, et ce qui peut être fait pour lutter contre la désinformation. Ce phénomène s’inscrit dans le contexte des réseaux sociaux en ligne, qui ont radicalement modifié la manière dont les informations sont produites, consommées et transmises.
Comment les techniques de désinformation créent des divisions et manipulent l'opinion publique
Au début de ce badge, les joueurs sont invités à choisir s'ils veulent publier une information fausse ou réelle. Choisir "fausse" signifie qu'il n'est pas nécessaire d'inventer des nouvelles entièrement fictives pour faire sensation ; il suffit parfois de prendre une histoire réelle et de l'exagérer. Par exemple, une petite fuite chimique, un scandale de corruption dans une petite ville ou l'arrestation violente d'un criminel peuvent tous servir de point de départ. Le joueur peut alors choisir une cible : dans deux cas, il peut attaquer soit les grandes entreprises, soit le gouvernement, et dans un autre cas, soit la police, soit des criminels violents. Leur mission consiste à amplifier l'histoire en la traitant sur le compte Twitter de leur site d'information. Toutefois, cette approche initiale échoue. Pour rendre l'histoire plus "percutante", le joueur doit soit écrire un article, soit publier un mème. Cela permet d'attirer davantage de followers, l'histoire devenant de plus en plus virale.
À ce stade, le jeu propose d'acheter des bots Twitter pour propulser l’histoire à un niveau supérieur. Si le joueur refuse cette option à plusieurs reprises, le jeu prend fin, mais s'il accepte, il voit son nombre de followers artificiellement gonflé de 4 000 abonnés robots. Cette amplification des propos choisie par les joueurs est déterminée par la cible qu'ils ont sélectionnée : la polarisation de l'histoire s'oriente soit vers la gauche (en se concentrant sur les grandes entreprises ou les brutalités policières), soit vers la droite (en ciblant le gouvernement ou les problématiques liées à la criminalité). La leçon principale qui en ressort est que peu importe le côté que l'on choisit, l'objectif est simplement de diviser.
Les théories du complot sont des éléments récurrents des sites d'informations en marge de l'opinion dominante. Une théorie du complot repose sur l'idée que des événements inexpliqués sont orchestrés par un groupe ou une organisation secrète aux intentions malveillantes. Dans ce badge, les joueurs sont d'abord encouragés à imaginer une nouvelle théorie du complot et à la publier sur leur site d'information. Cependant, les premières options proposées sont manifestement ridicules (par exemple, l'idée que l'absence d'enseignement de l'écriture cursive à l'école viserait à empêcher la lecture du Manifeste communiste), rendant leur théorie trop éloignée de la réalité pour être crédible. Certains abonnés remettent en question cette absurdité. Pour sauver leur réputation, les joueurs doivent alors se tourner vers des théories plus plausibles, comme celle de l'Agenda 21 (un traité non contraignant des Nations unies sur le développement durable) ou la fameuse "théorie du vaccin" (selon laquelle l'OMS utiliserait les vaccins pour endoctriner les populations). Plus ils suscitent des doutes sur le récit officiel, plus ils récoltent des points, tandis qu'une trop grande dérive dans la folie complotiste les pénalise. Si leur approche est convaincante, ils commencent à gagner une "culte de followers", les rendant de plus en plus sceptiques à l’égard des médias traditionnels.
Lorsqu'un site de désinformation est accusé de mauvaise conduite journalistique, il peut détourner l'attention de l'accusation en attaquant la source de la critique ("vous êtes des fake news !") ou en niant le problème ("il n'y a pas de problème, vous vous trompez"). Dans ce badge, les joueurs se retrouvent face à un fact-checker qui réfute leur dernière théorie du complot. Ils peuvent alors choisir entre trois options : s'excuser, ne rien faire, ou se venger. S'excuser leur coûte des points, car le jeu leur apprend qu'une telle démarche n'est jamais bénéfique. "Ne rien faire" provoque la curiosité de leurs abonnés qui se demandent pourquoi ils ne répondent pas. Finalement, toutes les options les amènent à une même conclusion : nier les allégations ou attaquer le fact-checker. En niant vigoureusement ou en attaquant ad hominem, le joueur déclenche un soutien de ses abonnés, et sa réputation reste intacte.
Le trolling, dans ce contexte, désigne une technique visant à provoquer délibérément une réaction en ligne, en utilisant des "appâts" ou des sujets qui éveillent des émotions fortes. Au début de ce badge, les joueurs doivent choisir entre trois sujets (les 25 villes les plus romantiques d'Europe, un crash d'avion, ou une nouvelle espèce d'étoile de mer). Seul le crash d'avion mène à l'étape suivante. Le joueur peut alors choisir soit de rendre hommage aux victimes, soit de semer le doute sur les causes de l'accident. La première option déclenche une réaction de ses abonnés, qui exigent plus de détails sur l'enquête. Dans tous les cas, les joueurs orientent rapidement la discussion vers la question de savoir si cet accident a été un "coup monté". Le joueur peut alors alimenter cette rumeur en se faisant passer pour un membre de la famille d'une victime ou en manipulant des preuves photographiques. Ce faisant, l'émotion de l’histoire est renforcée, et la couverture médiatique s’amplifie.
Ainsi, les différentes stratégies utilisées par les joueurs dans le jeu permettent d'illustrer comment la manipulation des informations, la désinformation et l'amplification des récits peuvent non seulement attiser les passions, mais aussi provoquer des divisions profondes dans la société. En utilisant des bots, en attaquant les détracteurs et en mettant en scène des scandales ou des tragédies, ces techniques montrent la fragilité de notre compréhension collective des événements et la rapidité avec laquelle des récits fabriqués peuvent se diffuser à grande échelle.
En fin de compte, ce jeu propose une leçon essentielle : la désinformation, loin de se limiter à des mensonges purs et simples, est un processus complexe d'amplification, de polarisation et de manipulation émotionnelle qui touche directement la manière dont l'opinion publique se forme et se divise.
Comment l'Histoire Cachée de la Guerre contre le Droit de Vote Façonne les Démocraties Modernes
Quel avenir pour la migration et le commerce entre les États-Unis et le Mexique ?
La mesurabilité de Lebesgue et ses propriétés dans l'espace euclidien
Pourquoi ALEC a-t-il eu du mal à attirer les entreprises dans ses premières années et comment a-t-il évolué?

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский