L’étude des dynamiques de diffusion de l'information sur les réseaux sociaux, notamment Twitter, a révélé des schémas fascinants concernant la propagation de nouvelles vraies et fausses. Les recherches menées par Robert Ackland et Karl Gwynn ont démontré que les nouvelles fausses se propagent plus rapidement que les informations véridiques, atteignant 1 500 personnes six fois plus vite. Ce phénomène est particulièrement accentué pour les fausses nouvelles politiques, par rapport à des sujets comme le terrorisme ou les catastrophes naturelles. Cette découverte soulève une question fondamentale sur la nature des comportements de diffusion dans l’espace numérique et leur relation avec la véracité de l'information.

Les résultats de cette étude ont montré que, contrairement aux attentes, les caractéristiques du réseau social et des utilisateurs n’expliquent pas à elles seules les différences notables entre la diffusion des nouvelles vraies et fausses. Les personnes qui propagent des fausses informations sont en moyenne moins connectées (avec moins de suiveurs et de suivis), moins actives sur Twitter, et elles ont un temps de présence plus court sur la plateforme. Pourtant, même après avoir contrôlé ces facteurs, les fausses informations étaient 70 % plus susceptibles d’être retweetées par rapport aux vérités. L'explication proposée par Ackland et Gwynn réside dans un aspect spécifique de l'information elle-même : sa nouveauté. En comparant les distributions de sujets des nouvelles échantillonnées avec celles des tweets vus par les utilisateurs dans les 60 jours précédant leurs retweets, ils ont observé que les nouvelles fausses étaient plus novatrices que les vraies nouvelles. La nouveauté capte l'attention et offre la possibilité de mettre à jour notre compréhension du monde, ce qui incite les utilisateurs à partager ces informations, indépendamment de leur véracité. Cette tendance s'explique aussi par les bénéfices sociaux associés à la diffusion de nouvelles inédites, car cela permet à l’individu de se positionner comme étant "au courant", créant ainsi une identité sociale renforcée.

Les recherches de Shin, Jian, Driscoll et Bar (2018) confirment ces conclusions. Leur étude sur les rumeurs politiques durant l’élection présidentielle américaine de 2012 a montré que les fausses rumeurs tendaient à réémerger sur Twitter avec des mutations textuelles, déclenchant plusieurs pics d'attention au fil du temps. En revanche, les rumeurs véridiques ont tendance à ne connaître qu’un seul pic de popularité. Les auteurs ont proposé trois raisons principales expliquant ces différences temporelles : d'une part, les fausses rumeurs nécessitent plus d’efforts pour gagner en acceptation et engendrent donc des tentatives répétées de propagation ; d'autre part, les rumeurs véridiques, provenant souvent des médias traditionnels, arrivent à un public déjà saturé ; enfin, la diffusion des fausses informations peut également relever du signalement d’une identité commune, un processus de renforcement des liens sociaux au sein d’un groupe.

En parallèle, d’autres chercheurs ont modélisé la propagation des fausses informations à l’aide de modèles formels de contagion. Par exemple, Tambuscio, Ruffo, Flammini et Menczer (2015) ont utilisé des modèles épidémiques stochastiques pour représenter la propagation d'une fausse information comme une épidémie virale. Cependant, Törnberg (2018) a élargi cette perspective en introduisant la notion de "contagion complexe", où plusieurs sources de renforcement sont nécessaires pour induire l’adoption de comportements, tels que les mouvements sociaux ou les modes avant-gardistes. Il a suggéré que la propagation des fausses informations sur les réseaux sociaux suit cette logique de contagion complexe, car la décision de diffuser ou non une information peut être liée à des processus d’identité de groupe, où l’acte de partage devient un moyen de renforcer cette identité.

L’impact des bots sociaux dans la propagation de la désinformation a également été l’objet de plusieurs études, notamment celle de Ferrara (2017) sur la campagne de désinformation durant l'élection présidentielle française de 2017. Bien que les résultats de Vosoughi et al. (2018) indiquent que les comportements des bots sociaux et des humains sont similaires en termes de partage de nouvelles vraies et fausses, ces derniers jouent un rôle indirect important. En propageant des faussetés, les bots augmentent la probabilité que des utilisateurs humains entrent en contact avec des informations erronées, contribuant ainsi à l’idée que ces nouvelles sont soutenues par un grand nombre de personnes, ce qui favorise leur diffusion.

Dans une étude spécifique sur la diffusion des nouvelles en Australie, Ackland et al. (2019) ont collecté des données sur les retweets d’histoires publiées par trois médias australiens en 2017. Les résultats ont permis de comprendre comment la vérité d’une nouvelle affecte sa propagation. En observant les réseaux de retweeters et leurs liens avec les politiciens australiens, l’étude a mis en évidence un phénomène de segmentation claire des réseaux, avec des groupes de retweeters partageant des affinités idéologiques et politiques. Ce type de structuration du réseau joue un rôle important dans la façon dont les nouvelles sont reçues et rediffusées, renforçant parfois des biais existants plutôt que de favoriser une diffusion large et impartiale de l’information.

Il est important de souligner que la diffusion des nouvelles sur des plateformes comme Twitter ne se limite pas à des échanges d'informations objectives et factuelles. La dynamique de propagation est influencée par une multitude de facteurs sociaux et psychologiques, dont la recherche de nouveauté, l’appartenance à un groupe et les mécanismes de confirmation des croyances préexistantes. Ces éléments expliquent pourquoi certaines informations, bien que fausses, connaissent une popularité bien plus grande que les vérités établies. L’étude des comportements des utilisateurs, ainsi que des caractéristiques du contenu lui-même, devient donc essentielle pour comprendre les flux d’informations dans l’écosystème numérique actuel.

Pourquoi les informations erronées semblent vraies : les processus cognitifs derrière l’acceptation et la diffusion des fausses informations

Les mécanismes cognitifs qui sous-tendent l'acceptation et la diffusion des informations, notamment celles qui s'avéreront fausses, sont essentiels à comprendre dans le contexte de la manière dont les nouvelles sont partagées aujourd'hui, particulièrement sur les réseaux sociaux. Selon une étude portant sur 2,8 millions d’épisodes de partage de nouvelles sur Twitter, 59 % des informations partagées l'ont été sans même que les utilisateurs ne les aient lues (Gabielkov et al., 2016). Ce chiffre illustre un comportement apparemment paradoxal : plus de la moitié des utilisateurs de Twitter partagent des nouvelles uniquement sur la base du titre, sans prendre le temps de vérifier le contenu. Ce phénomène ne se limite pas aux réseaux sociaux, mais s'étend à nos interactions quotidiennes. Le partage de contenu sans en connaître les détails, bien que surprenant, n'est pas radicalement différent des processus cognitifs utilisés lors des conversations ordinaires. En effet, dans une conversation, nous présupposons tacitement que notre interlocuteur est un communicateur coopératif et que ses informations sont fiables et pertinentes (Grice, 1975; Sperber & Wilson, 1986).

Ainsi, à moins que des raisons ne nous poussent à douter de la véracité du message, nous l'acceptons comme partie intégrante du discours. Cette disposition naturelle à accepter l'information, sans la remettre en question, est renforcée par des processus psychologiques qui favorisent la réception de l'information plutôt que son rejet. L'évaluation de la véracité d'un message commence souvent par une intuition rapide, qui peut ensuite être approfondie si nécessaire. Cependant, dans la plupart des cas, le premier jugement intuitif prévaut. Cette rapidité d’acceptation peut être problématique, surtout lorsque l'information est fausse ou biaisée.

Lorsque nous jugeons si une information est probable ou vraie, plusieurs critères entrent en jeu. Ceux-ci comprennent la compatibilité avec d'autres connaissances, la cohérence interne du message, la crédibilité de la source, le consensus social, ainsi que la présence d'évidences solides pour appuyer l'information (Schwarz, 2015). Toutefois, ces critères sont souvent jugés de manière intuitive. Par exemple, un message peut sembler cohérent ou provenir d'une source familière, ce qui conduit à son acceptation immédiate, sans évaluation approfondie. Ce processus rapide est souvent appelé « heuristique » ou « traitement systématique » en psychologie (Kahneman, 2011; Stanovich, 1999).

Cependant, un aspect crucial de cette acceptation rapide est la fluidité du traitement cognitif. Lorsqu'un message est facile à comprendre, qu'il s'intègre bien dans nos connaissances préexistantes, ou que sa source nous semble fiable, nous avons tendance à l'accepter comme vrai sans trop de réflexion. Inversement, si le message nous semble incohérent ou difficile à comprendre, cela nous incite à y porter plus d'attention et à évaluer sa véracité de manière plus rigoureuse. Ce phénomène, connu sous le nom de « fluidité de traitement », joue un rôle important dans la manière dont les informations sont perçues et partagées.

Cependant, cette fluidité peut aussi être trompeuse. Elle peut être influencée par des facteurs externes, tels que la présentation du message. Par exemple, une police de caractères difficile à lire ou une mise en page confuse peut rendre un message plus difficile à comprendre, bien que cela n'affecte en rien sa véracité. Le traitement cognitif de l'information est donc souvent biaisé par des facteurs purement contextuels, non liés à la validité de l'information elle-même. Cela souligne l'importance de prendre du recul et de se demander si l'information reçue est effectivement fondée sur des critères solides, et non simplement sur des impressions superficielles.

Le rôle des émotions dans l'acceptation de l'information est également essentiel. Les messages qui suscitent des émotions fortes, comme la peur, l'indignation ou la surprise, sont plus susceptibles d'être partagés, même sans être vérifiés. Cette réponse émotionnelle favorise une acceptation rapide, souvent sans analyse critique. Les médias sociaux, en particulier, exploitent ces émotions en privilégiant des contenus qui captent rapidement l'attention, souvent au détriment de la véracité.

Il est aussi crucial de comprendre que, bien que les individus soient capables d’évaluer la véracité des informations de manière analytique, ces capacités sont limitées par le temps, l'attention disponible et la motivation. Lorsqu'il est difficile de se concentrer sur un message ou que celui-ci semble peu pertinent, l'évaluation superficielle devient la norme. C'est dans ces moments que les fausses informations peuvent se propager le plus facilement, car les individus acceptent instinctivement ce qui est présenté sans chercher à vérifier les faits.

Les réseaux sociaux, en facilitant la diffusion rapide d'informations, amplifient ces biais cognitifs. Ce phénomène est particulièrement problématique lorsque des informations erronées ou trompeuses sont partagées sans qu'aucune vérification préalable n'ait été effectuée. D'autant plus que, dans de nombreux cas, l'engagement avec une information commence par une simple réponse émotionnelle ou intuitive, avant toute analyse rationnelle.

Il est donc primordial de comprendre que l’acceptation des informations, qu'elles soient vraies ou fausses, repose largement sur des processus cognitifs rapides et intuitifs. Ces mécanismes sont influencés par des critères comme la fluidité du traitement, la familiarité des sources, ou encore l’émotion suscité par le message. Savoir cela peut aider les individus à prendre du recul et à remettre en question les informations qui leur sont présentées, plutôt que de les accepter aveuglément ou de les partager sans réflexion préalable.

Comment le biais de négativité influence nos jugements de vérité

Il a été observé que les faits négatifs, moins fréquents (et donc potentiellement moins négatifs) que prévu, sont souvent jugés comme plus vrais. Cela pourrait s'expliquer par une attribution erronée du soulagement ressenti face à un monde meilleur que prévu, que l'on assimile à une forme de vérité, ou bien par le simple désir que les événements positifs soient réels. Cette tendance peut être particulièrement pertinente dans des contextes où les individus souhaitent que certaines informations, comme les nouvelles positives ou rassurantes, soient véridiques. En effet, la manière dont l’information est formulée, qu’elle soit négative ou positive, a un impact considérable sur la manière dont elle est perçue et jugée.

La question de savoir comment la formulation des informations affecte les jugements de vérité est essentielle, notamment dans les interactions interpersonnelles, la politique ou encore dans les réponses aux enquêtes de sondages. Le cadre de présentation de l'information, que ce soit par une négation, une distanciation ou un choix lexical particulier, influence la perception de sa véracité. Par exemple, dans un contexte de détection de la tromperie, des recherches ont montré que des éléments subtils, comme l’ambiguïté du langage, peuvent perturber notre évaluation de la vérité. Cette dynamique peut s’avérer particulièrement pertinente dans le domaine des fausses nouvelles, où la manipulation du langage joue un rôle crucial dans l'acceptation de l’information par le public.

Dans un monde où l'information circule rapidement, notamment via les réseaux sociaux, les mécanismes de jugement de vérité sont constamment mis à l’épreuve. Les gens peuvent être plus enclins à accepter un message négatif comme étant vrai, en raison de la manière dont il est formulé. Les recherches suggèrent que le biais de négativité est amplifié dans des situations de faible traitement de l’information. Par exemple, lorsqu'un individu lit un article de journal en détail un dimanche matin, il est plus susceptible de réfléchir en profondeur aux informations que lorsqu’il consulte un simple message dans son flux d’actualités sur Facebook. Cette différence dans l’intensité du traitement cognitif pourrait donc moduler l’effet des biais de cadrage, et rendre plus influents certains types de formulations comme la négation.

En outre, le progrès technologique a facilité la diffusion de l'information, mais il a aussi rendu la vérification des faits plus accessible. Toutefois, face à la quantité immense d’informations disponibles, la probabilité de vérifier ces faits diminue, augmentant ainsi la vulnérabilité à des manipulations subtiles basées sur le cadrage des informations. Le biais de négativité, associé à des attentes préexistantes, ouvre ainsi la voie à des manipulations qui sont d’autant plus difficiles à détecter.

Un aspect essentiel de ce phénomène est que les informations négatives sont généralement perçues comme plus puissantes que les positives. Des études ont montré que les gens accordent une importance disproportionnée aux événements négatifs. Cela a des implications profondes sur la manière dont nous traitons les informations, non seulement dans des contextes personnels, mais aussi dans les décisions politiques et sociales. Par exemple, un discours politique qui met l’accent sur une menace perçue peut avoir un impact plus profond qu’un discours optimiste sur le même sujet, simplement en raison de la manière dont les informations sont cadrées.

Le biais de négativité et son influence sur les jugements de vérité ne se limitent pas à un simple phénomène cognitif; il peut aussi refléter des aspects sociaux et émotionnels. Lorsque les individus sont confrontés à des informations qui suscitent une réaction émotionnelle, la tendance à croire que ces informations sont vraies s’intensifie. Cela est particulièrement pertinent dans un contexte où les émotions sont exacerbées, comme dans des situations de crise ou de polarisation sociale. Les émotions peuvent ainsi devenir des leviers puissants dans la diffusion d'informations biaisées, et ce, en grande partie grâce à la manière dont ces informations sont formulées.

Il est crucial de comprendre que cette dynamique de biais de négativité n’est pas seulement un défaut cognitif, mais qu’elle répond à des mécanismes psychologiques profonds. En effet, le biais peut être utilisé de manière stratégique dans des campagnes de désinformation pour amplifier l'impact de certains messages. Les personnes qui souhaitent se protéger de la manipulation ou qui cherchent à lutter contre la propagation de fausses informations doivent prendre en compte ces mécanismes sous-jacents. La compréhension du biais de négativité et de l'impact de la formulation des informations sur nos jugements peut ainsi être un outil précieux pour ceux qui cherchent à éviter la désinformation.

Ce phénomène de biais de négativité dans nos jugements de vérité met en lumière un défi essentiel dans le monde moderne de la communication. Dans un contexte où l’information se propage à une vitesse fulgurante, il est indispensable de développer des compétences critiques pour analyser et évaluer les informations que nous recevons. Que ce soit dans les interactions quotidiennes, les médias traditionnels ou les plateformes sociales, les subtilités du langage et du cadrage des informations influencent largement nos perceptions de la vérité. Connaître l’impact de ces biais peut donc aider à mieux comprendre les mécanismes à l’œuvre dans la formation de nos croyances, et à lutter contre les manipulations qui exploitent ces biais à des fins spécifiques.

Comment la campagne du Brexit a utilisé l'identité sociale pour influencer le vote

La campagne du Brexit a exploité une stratégie complexe en matière de persuasion numérique, en faisant appel à des tactiques fondées sur l'identité sociale des électeurs. Plutôt que de présenter des arguments factuels ou économiques sur les conséquences de la sortie ou du maintien dans l'Union européenne, les stratèges ont adopté une approche fondée sur l’identité, en structurant les choix des électeurs non pas autour de données objectives, mais autour de leur appartenance à un groupe social particulier.

Les messages véhiculés dans le cadre de cette campagne ont cherché à susciter l’adhésion des électeurs en les reliant à des identités sociales spécifiques, comme l'identité britannique, l'identité environnementaliste ou encore l'identité des classes populaires. En appelant les électeurs à penser en termes d'appartenance (« nous » pensons, « nous » choisissons), la campagne a renforcé des cadres collectifs qui ont suscité une réponse émotionnelle plus forte et une plus grande préparation à l’action. Cette approche, soutenue par la firme de persuasion numérique Aggregate IQ, a été à l’origine de nombreux contenus ciblés qui, au-delà de simples slogans, incitaient les électeurs à choisir une action qui semblait conforme à leur identité.

Par exemple, la campagne a déployé des messages visuels où des éléments de l’identité britannique traditionnelle, comme le Big Ben ou la cabine téléphonique rouge, étaient associés à l’idée de quitter l’UE. Le message était renforcé par des éléments sensoriels qui rappelaient l’iconographie britannique et qui appelaient à voter pour le départ de l’Union européenne, non pas sur la base de faits économiques ou politiques, mais en fonction d’un sentiment d’appartenance à une identité nationale nostalgique. Ainsi, le message « votez pour quitter l’UE pour préserver notre identité britannique » résonnait particulièrement chez ceux pour qui cette identité était forte, tandis que d’autres, pour qui cette vision de la nationalité ne faisait pas sens, étaient peu susceptibles de répondre à ce type de message.

À l’inverse, pour ceux dont l’identité s’inscrivait davantage dans une perspective environnementaliste, un autre message visuel — le fameux ours polaire — utilisait la même logique pour suggérer que la sortie de l’UE était nécessaire pour protéger l’environnement. Le message était tout aussi ciblé et culturellement fluide, cherchant à atteindre des électeurs pour qui l’environnement constituait une identité centrale. Toutefois, tout comme le message centré sur la nostalgie britannique, ce contenu ne parlait qu’à ceux qui partageaient cette identité, et pour d'autres, il apparaissait absurde ou non pertinent.

Cette approche de persuasion est allée au-delà des simples messages de soutien ou de rejet de l’UE, et a été utilisée pour semer le doute parmi les électeurs qui penchaient pour l’option « rester ». Les messages diffusés visaient à remettre en question l'idée même de participation au vote. En montrant, par exemple, que le vote « rester » pouvait être perçu comme une action politique corrompue ou comme une position déconnectée des réalités populaires, la campagne a cherché à créer un sentiment de confusion. Les images de jet-setters et d’élites privilégiées ont été employées pour diminuer la confiance dans le système, suggérant que les dirigeants européens ne poursuivaient que leurs propres intérêts. Cette stratégie visait à affaiblir la perception de cohérence entre l’identité britannique et l’idée de rester dans l’UE, entraînant ainsi une baisse de la mobilisation chez les électeurs favorables au maintien.

L’objectif de cette manipulation était de réduire la certitude quant à l'action appropriée à entreprendre, voire de décourager totalement l’électeur de prendre une décision. En créant un flou sur les conséquences du vote, tant en faveur de la sortie que du maintien, les responsables de la campagne ont efficacement exploité les dynamiques de l’identité sociale pour interférer dans le processus décisionnel des électeurs. Cette confusion a rendu les décisions moins rationnelles, plus émotionnelles et donc plus sensibles à des tactiques de persuasion.

L’utilisation des réseaux sociaux comme vecteurs de ce type de communication a été primordiale. Les contenus ont été adaptés de manière extrêmement ciblée grâce aux outils fournis par la société Aggregate IQ, qui utilisait les données personnelles disponibles pour concevoir des messages personnalisés, diffusés à des groupes spécifiques. Cette approche numérique a permis de segmenter l'électorat de manière extrêmement fine, en offrant à chaque utilisateur un message qui semblait avoir été créé spécialement pour lui, renforçant ainsi l’adhésion à une cause perçue comme correspondant à ses propres valeurs et croyances.

En fin de compte, le Brexit ne fut pas simplement un débat sur l'appartenance à l'Union européenne, mais un combat pour la définition des identités sociales et politiques. Le succès de la campagne de « Vote Leave » a montré à quel point les questions d’identité peuvent être puissantes lorsqu’elles sont intégrées dans un processus de décision, et à quel point l’information, lorsqu’elle est manipulée de manière experte, peut se transformer en une arme stratégique.

Les campagnes de désinformation, et plus largement les stratégies politiques, ont démontré que la manière dont les informations sont présentées — et plus particulièrement, la manière dont elles sont cadrées en fonction des identités sociales des électeurs — peut radicalement influencer le comportement politique et social. L’acceptation d’un message n’est pas seulement une question de logique ou de preuves factuelles, mais aussi une question d’identification, de reconnaissance personnelle et de sentiment d’appartenance.