Les approches actuelles de vérification des faits sont confrontées à des défis méthodologiques qui soulèvent des interrogations sur leur efficacité réelle et leur influence sur la diffusion de la désinformation. Selon Uscinski (2015), la cohérence des agences de vérification des faits n’est qu’un reflet des biais politiques partagés par les vérificateurs eux-mêmes et de leur accès à l’information. Uscinski critique cette uniformité en soulignant qu’elle ne garantit en aucun cas une validation empirique des faits, mais témoigne plutôt d’une approche collective homogène. De plus, il remet en question le rôle même du "vérificateur de faits", soulignant que ces acteurs manquent souvent de qualifications formelles et sont "épistémologiquement naïfs", c’est-à-dire qu’ils croient que la vérité est aisément accessible sans les compétences nécessaires pour l’analyser en profondeur.
D'autres chercheurs, tels que Wu, Agarwal, Li, Yang et Yu (2017), tentent de surmonter certaines des limites méthodologiques des vérifications traditionnelles en introduisant des méthodes computationnelles. Leur proposition, les "perturbations de requêtes", vise à éviter le biais de sélection, ou le "cherry-picking", qui est souvent un problème majeur des vérifications manuelles. L'idée est d'élargir les paramètres d’un fait pour observer si la vérité revendiquée reste valide sous différents niveaux de mesure. Un exemple concret de cette méthode est l'analyse de la déclaration de Rudy Giuliani, ancien maire de New York, selon laquelle le taux d'adoption avait augmenté de 65 à 70% pendant son mandat. Si cette affirmation est véridique selon une période donnée (1990-1995, 1996-2001), elle devient inexacte lorsque l'on prend en compte l'ensemble de son mandat (1994-2001), période durant laquelle le taux d'adoption a en réalité diminué de 1%. Ce cas illustre la manière dont les données peuvent être manipulées pour présenter des vérités qui, bien qu'objectivement exactes, sont contextuellement erronées.
En ce qui concerne les approches computationnelles pour l’étude de la désinformation, plusieurs recherches récentes se sont concentrées sur l’identification et la propagation des fausses informations sur les réseaux sociaux. Les premières méthodes automatisées de détection de désinformation sur internet ont été développées pour détecter des e-mails ou des contenus web problématiques, tels que les spams ou les canulars. Ces techniques reposaient sur des approches d'apprentissage supervisé appliquées à des textes, où un classificateur, comme la régression logistique ou un réseau neuronal, prédit si un e-mail est problématique en fonction de caractéristiques extraites, comme des mots-clés ou des structures de phrases.
Castillo, Mendoza et Poblete (2011) ont exploré l’utilisation de méthodes automatisées pour évaluer la crédibilité des tweets relatifs aux événements d’actualité. Les auteurs ont extrait une série de caractéristiques de tweets, allant des caractéristiques liées au message (longueur, ponctuation, sentiment, retweet, hashtag) à celles liées à l'utilisateur (ancienneté du compte, nombre de followers et de tweets). L’étude a montré que l'information crédible tend à être partagée par des utilisateurs récents, très actifs et ayant un grand nombre de followers. En revanche, des éléments comme un sentiment positif ou la présence de signes de ponctuation tels que des points d'exclamation ou des émojis étaient associés à des nouvelles moins crédibles.
Tacchini, Ballarin, Della Vedova, Moret et Alfaro (2017) ont proposé une approche pour classifier les publications sur les pages publiques de Facebook en distinguant entre la science valide et les théories du complot. Leur méthode repose sur une hypothèse selon laquelle les utilisateurs de Facebook se regroupent par affinité pour les contenus qu'ils consomment, qu’il s’agisse de faits scientifiques ou de théories du complot. Toutefois, cette approche nécessite une analyse préalable du contenu pour déterminer l'intention des utilisateurs qui "aiment" un post, qu’il s’agisse de soutenir la science ou d'adhérer à une théorie du complot.
Vosoughi, Mohsenvand et Roy (2017) ont exploré l’utilisation de l’apprentissage supervisé pour vérifier les rumeurs sur Twitter. Leur étude a démontré qu'il est possible de prédire la véracité des rumeurs avec un taux de succès de 75%, souvent plus rapidement que des sources fiables telles que les journalistes. L’une des découvertes clés de leur étude était que les rumeurs véridiques se propagent généralement par des utilisateurs à forte influence (avec un grand nombre de followers) qui retweetent des utilisateurs à faible influence. En revanche, les rumeurs fausses sont souvent propagées par des utilisateurs influents mais controversés, et elles se caractérisent par un langage plus sophistiqué, signe de l’intention de rendre la rumeur plus crédible.
Une autre étude menée par Vosoughi, Roy et Aral (2018) a révélé que les fausses nouvelles se propagent généralement plus profondément que les nouvelles véridiques sur Twitter, ce qui met en lumière un phénomène fascinant mais inquiétant de la dynamique de diffusion de la désinformation sur les réseaux sociaux. La capacité des fausses informations à atteindre un plus grand nombre de personnes et à se propager plus profondément dans les communautés en ligne est un défi majeur pour la gestion de l'information sur ces plateformes.
Pour mieux comprendre l'impact de la désinformation, il est crucial de noter que la propagation de nouvelles, qu'elles soient vraies ou fausses, n'est pas simplement une question de contenu. Les caractéristiques des utilisateurs, leurs réseaux de followers, et même le timing de la diffusion jouent un rôle majeur dans la manière dont une information est acceptée et partagée. Les rumeurs tendent à se propager selon des dynamiques sociales complexes, où les individus influents ont un pouvoir disproportionné sur la validation des informations. Ce phénomène renforce l'idée que la lutte contre la désinformation ne peut pas se limiter à une simple vérification des faits, mais nécessite une approche intégrée qui prend en compte les comportements sociaux, les réseaux numériques et l’analyse contextuelle des informations.
Qu'est-ce que les "fake news" et pourquoi leur impact est-il si profond ?
Les "fake news" ont émergé comme un phénomène mondial après des événements majeurs tels que le Brexit et l'élection présidentielle américaine de 2016. Cette période a vu l’Oxford Dictionary sélectionner "post-truth" comme le mot de l'année, le définissant comme des circonstances dans lesquelles les faits objectifs ont moins d’influence sur l’opinion publique que les appels aux émotions et aux croyances personnelles. Un an plus tard, le terme "fake news" a été désigné par le Collins Dictionary comme mot de l'année en raison de l'explosion de son utilisation. De simples termes désignant des informations fausses ou sensationnalistes se sont transformés en un outil politique puissant, manipulant la vérité au service d’intérêts particuliers. L'utilisation du terme pour discréditer les médias, notamment par des figures comme Donald Trump, est devenue monnaie courante, rendant encore plus difficile la distinction entre ce qui est vrai et ce qui ne l’est pas.
La notion de "fake news" se distingue des simples erreurs factuelles par son intention délibérée de tromper. Un rapport de la Commission européenne note que, dans le débat public, "fake news" inclut souvent la désinformation, la mésinformation et la mal-information. Alors que la désinformation désigne des informations fausses créées pour nuire à une personne, un groupe ou un pays, la mésinformation désigne des informations erronées qui ne sont pas diffusées dans une intention malveillante. Cependant, déterminer l’intention de nuire est souvent complexe, et le terme "mésinformation" est donc utilisé dans un sens plus général pour désigner toute information fausse. Il convient également de mentionner la "mal-information", qui se réfère à des informations factuellement correctes, mais utilisées dans un contexte nuisible, comme la divulgation d’informations privées sans pertinence pour les affaires publiques.
L'impact des "fake news" est dévastateur lorsqu'elles sont acceptées comme vérités. Une fois qu'une information fausse est intégrée à une croyance collective, il devient extrêmement difficile de la corriger, même lorsque les faits montrent qu'elle est incorrecte. Cette persistance de l'erreur, malgré l’apparente correction des faits, conduit à un phénomène connu sous le nom de "biais de confirmation", où les individus continuent de maintenir des croyances erronées malgré des preuves contraires.
Bien que les fake news soient souvent associées à la politique, elles ne se limitent pas à ce domaine. La diffusion d’informations fausses est également courante dans les secteurs des produits de consommation, de la santé et des finances. Même les revues scientifiques, censées être des bastions de la vérité, ne sont pas à l’abri de la manipulation de données et de rapports falsifiés. Cela souligne la portée étendue du phénomène et la nécessité de vigilance dans tous les domaines de l'information.
Pourquoi les fake news ont-elles un tel impact ? Plusieurs raisons expliquent leur propagation rapide et leur large acceptation. Tout d’abord, la mésinformation fait désormais partie intégrante de la vie quotidienne. Par exemple, des études ont montré que les Américains consommaient entre une et trois fausses informations par mois pendant la période précédant les élections de 2016. De plus, des recherches sur Twitter ont révélé que les informations fausses se répandent beaucoup plus rapidement que les informations vraies, notamment dans le domaine politique.
Un autre facteur clé réside dans les conséquences concrètes que peuvent avoir les fake news. Les actions basées sur des informations erronées, même si elles semblent anodines au départ, peuvent provoquer des effets dramatiques. Un exemple tristement célèbre est celui de "Pizzagate", où des fake news concernant une prétendue connexion entre des membres du Parti démocrate américain et un restaurant de pizza ont conduit un homme à prendre des mesures violentes en réponse à ce qu'il croyait être une vérité. Si toutes les fake news ne conduisent pas à des actes aussi extrêmes, elles engendrent néanmoins des conséquences dommageables pour les individus et pour la société.
Enfin, les "fake news" sapent la confiance interpersonnelle, essentielle au bon fonctionnement des sociétés. La confiance, qu’elle soit entre individus, au sein des entreprises ou entre nations, repose sur la croyance partagée que certaines choses sont vraies. Lorsqu’une personne ou une institution est reconnue coupable de mensonge ou de manipulation, elle perd une partie de cette confiance, ce qui peut mener à des divisions profondes et à la paralysie sociale. Ainsi, la lutte contre les fake news est, en réalité, une question de préservation de la cohésion sociale et de la démocratie.
Les médias, les chercheurs et les citoyens doivent jouer un rôle actif pour démasquer et combattre la désinformation. Toutefois, il est également crucial de développer des outils de pensée critique dès le plus jeune âge, afin d’apprendre à discerner les sources fiables des autres et à comprendre les mécanismes psychologiques qui nous poussent à croire et partager des informations sans les vérifier. La capacité à distinguer le vrai du faux n’est pas seulement un enjeu intellectuel, mais aussi un impératif moral et social.
Comment la flexibilité cognitive et la propagation de la désinformation façonnent notre compréhension du monde
Les êtres humains sont capables d'apprendre une quantité impressionnante d'informations et de conserver une grande partie de ces connaissances sur de longues périodes. Le système cognitif humain est conçu pour faciliter l'acquisition de nouvelles informations, tout en permettant des inférences et des transferts vers de nouvelles situations. Sa flexibilité est l'une de ses principales forces, puisqu'il peut s'adapter à des entrées variées, y compris celles qui comportent du bruit, et générer des sorties allant au-delà des informations rencontrées, créant ainsi de nouvelles idées et insights. Cette capacité d'adaptation repose également sur une grande efficacité cognitive, notamment à travers l'utilisation de raccourcis qui reflètent l'état du monde, comme la tendance à supposer la véracité des informations et à utiliser la fluidité comme un critère heuristique pour juger de leur vérité.
Les représentations mentales ont tendance à être décontextualisées, c'est-à-dire qu'elles sont récupérées sans un sentiment de revivre l'événement, ce qui facilite leur utilisation à travers différents contextes et applications. Toutefois, les mêmes caractéristiques qui rendent ce système puissant peuvent aussi favoriser l'apprentissage de la désinformation. Par exemple, lorsqu'une personne rencontre une source de fausses informations, elle peut ne pas immédiatement reconnaître la faible crédibilité de cette source. Dès qu'elle commence à lire l'article, elle est souvent biaisée à croire que l'information est vraie, car pour comprendre le contenu, elle doit d'abord y croire, avant de pouvoir remettre en question cette croyance.
En traitant ces informations, les individus font appel à leurs connaissances préalables, ce qui les conduit souvent à générer des inférences qui vont au-delà du texte lui-même. De plus, lorsque des informations erronées sont répétées à plusieurs reprises, cela renforce leur fluidité, augmentant ainsi la probabilité que les individus croient que ces affirmations sont véridiques. Ce phénomène est particulièrement problématique aujourd'hui, dans ce que certains ont appelé l'ère "post-vérité", caractérisée par la circulation rapide et massive de la désinformation, surtout sur les plateformes de réseaux sociaux.
Les plateformes sociales peuvent favoriser la formation de "chambres d'écho", des groupes de personnes qui partagent les mêmes croyances (souvent fausses) et qui cherchent activement des informations qui renforcent ces croyances. Ces chambres d'écho ont été identifiées sur Twitter, Facebook et d'autres blogs. Les membres de ces groupes peuvent ne pas se rendre compte qu'ils reçoivent de l'information provenant de sources peu fiables, et sont biaisés à croire que l'information provenant d'autres membres de leur communauté est vraie. Cette répétition constante des mêmes fausses informations sans correction engendre une croyance accrue en celles-ci, pouvant même entraîner la création de nouvelles fausses informations, car les individus continuent à faire des inférences qui dépassent ce qui a déjà été dit.
Il est probablement impossible de stopper totalement la propagation des fausses informations ou la croyance en celles-ci. Par conséquent, il devient essentiel de développer des stratégies efficaces pour corriger ces erreurs. Cependant, ces stratégies ne devraient pas se concentrer uniquement sur la source d'origine de la désinformation, mais plutôt sur le contenu même du message. Il est recommandé que le contenu soit simple et accompagné d'images, ce qui favorise la fluidité cognitive, qu'il évite de qualifier les affirmations et qu'il affirme plutôt l'information correcte que de nier le mythe (et idéalement, ce mythe ne devrait même pas être mentionné). Par ailleurs, il est crucial de prendre en compte la propagation de messages de rétractation ou de débunking, étant donné que les individus semblent plus intéressés par les affirmations initiales que par les corrections qui suivent.
Pour lutter contre les erreurs dans le système de connaissances – qu'il s'agisse de croyances fausses, d'illusions de connaissance ou de conceptions erronées – des stratégies différentes de celles utilisées pour prévenir les faux souvenirs d'événements spécifiques peuvent être nécessaires. Il existe cependant des approches possibles qui vont au-delà du simple focus sur la source et qui utilisent aussi la mémoire épisodique. Par exemple, un événement particulièrement mémorable (comme une conférence de presse émotionnellement chargée à laquelle on assiste en personne) où une fausse information est corrigée, pourrait être plus efficace pour induire un changement durable de croyance qu'un événement moins mémorable. De cette manière, la connaissance et la mémoire épisodique pourraient interagir dans certains contextes pour augmenter les chances que la correction persiste dans le temps. Cela dit, il reste à savoir si cette interaction est réellement utile pour assurer la persistance de la correction sur le long terme, une question qui nécessite des recherches futures.
Comment la désinformation en ligne façonne l'opinion publique et comment la contrer
L'essor des médias sociaux et de l'information numérique a radicalement transformé notre manière d'accéder à l'information et de construire nos opinions. Si l'Internet offre une plateforme d'échanges riches et rapides, il est également devenu le terrain propice à la diffusion de la désinformation. Une étude réalisée par des chercheurs a révélé que la polarisation des utilisateurs sur des plateformes comme Facebook et YouTube est étroitement liée à la manière dont les informations sont filtrées et interprétées. Les utilisateurs, en grande partie, ne font pas toujours la distinction entre des informations vérifiées et des nouvelles erronées. Ce phénomène, bien qu'ancien sous une forme plus rudimentaire, a pris une ampleur sans précédent avec l'avènement des "fake news", ces informations délibérément fausses ou trompeuses.
Une illustration marquante de ce phénomène est l'impact qu'une simple rumeur, véhiculée par des applications comme WhatsApp, peut avoir dans des villages ou même des régions entières. En Inde, par exemple, des rumeurs circulant sur WhatsApp ont conduit à des lynchages de civils, la fausse information se propageant à une vitesse qui a dépassé la capacité des autorités à intervenir. Ce type de manipulation de masse démontre l'importance cruciale de la vigilance collective face à la propagation de fausses informations.
Pour contrer cette menace, plusieurs initiatives ont vu le jour. Le gouvernement britannique a mis en place une unité de lutte contre les fausses informations, tandis que des géants du Web comme Google et Facebook ajustent leurs algorithmes afin de limiter la propagation de contenus douteux. Cependant, ces solutions ne sont pas suffisantes. En réalité, l'une des méthodes les plus efficaces pour lutter contre la désinformation semble être l'approche de l'inoculation cognitive. Cette technique consiste à exposer les individus à une version affaiblie d'une information erronée, leur permettant ainsi de développer une résistance face à des manipulations futures. Des recherches ont montré que lorsqu'une personne comprend les mécanismes utilisés pour manipuler l'information (comme l'utilisation d'arguments fallacieux), elle devient moins susceptible d'accepter cette information sans la remettre en question.
L'impact de la désinformation n'est pas seulement intellectuel, mais aussi émotionnel. Des études ont démontré que l'exposition répétée à des informations fausses sur des sujets sensibles, comme les élections ou les questions de santé publique, peut altérer les opinions des individus. Par exemple, pendant les élections présidentielles françaises de 2017, les opérations de désinformation par le biais de bots sociaux ont eu un effet mesurable sur les résultats, semant le doute et la confusion parmi les électeurs. Cela montre que les stratégies de manipulation vont bien au-delà de la simple diffusion de fausses informations : elles visent à fragiliser la confiance des citoyens dans les institutions démocratiques.
La désinformation n'est pas une question uniquement de fausses nouvelles, mais aussi de l'écosystème qui permet à ces informations de se propager. Les réseaux sociaux, par leur conception même, favorisent souvent les contenus qui suscitent une forte émotion, car ce type de contenu est plus susceptible d'être partagé. Les vidéos choquantes ou les titres sensationnalistes sont donc naturellement mis en avant. Cela devient un cercle vicieux : plus une information est partagée, plus elle est perçue comme crédible, même si elle est fausse. De plus, la manière dont les utilisateurs sont ciblés par des annonces et des informations personnalisées fait qu'ils sont de plus en plus confinés dans des "bulles de filtre", où ils ne rencontrent plus que des informations confirmant leurs opinions préexistantes.
Face à cette réalité, plusieurs actions sont nécessaires pour rétablir un équilibre dans l'écosystème de l'information. Il est impératif de renforcer l'éducation aux médias, afin d'aider les individus à mieux comprendre les mécanismes de la désinformation et à être plus critiques envers les informations qu'ils rencontrent. Les chercheurs et les journalistes jouent également un rôle clé en développant des outils qui permettent de détecter et de corriger rapidement les fausses nouvelles. Des projets comme "StopFake" en Ukraine ou les fact-checkers de Reuters, qui vérifient en temps réel les informations, illustrent des efforts précieux pour contrer cette marée de désinformation.
En outre, il est crucial que la société comprenne l'importance de maintenir une approche nuancée lorsqu'il s'agit de traiter les informations en ligne. Les utilisateurs doivent être conscients de leur propre biais cognitif et de la manière dont leurs croyances peuvent être renforcées ou manipulées par des informations fausses. Cela implique une remise en question constante de la véracité de ce qui est consommé, mais aussi une vigilance face à la manière dont les plateformes numériques encouragent certaines narrations au détriment d'autres.
L’inoculation contre la désinformation, bien qu’efficace, ne doit pas être vue comme une solution unique. Elle doit être combinée avec une amélioration de la transparence des algorithmes des réseaux sociaux, une régulation des pratiques de publicité en ligne et, surtout, une prise de conscience collective de la responsabilité partagée dans la gestion de l'information. Une approche intégrée et multifacette semble être la seule voie viable pour lutter contre ce fléau moderne.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский