LE FONCTIONNEMENT CONSPIRATIONISTE
- Christian Missere
- il y a 5 jours
- 15 min de lecture
LE FONCTIONNEMENT CONSPIRATIONNISTE

Pourquoi on cherche ?
Avant de parler de complots, de manipulation ou de méthode, il faut poser une question plus simple : pourquoi cherche-t-on ? Qu'est-ce qui déclenche la recherche d'explications alternatives à la version officielle ?
Daniel Kahneman, Prix Nobel d'économie 2002, a passé sa carrière à étudier cette question avec son collègue Amos Tversky. En 2011, il publie Thinking, Fast and Slow, un livre qui vulgarise des décennies de travaux en psychologie cognitive. Sa conclusion : notre cerveau fonctionne sur deux régimes qui coexistent en permanence. Il les appelle Système 1 et Système 2.
Le Système 1 est automatique. Rapide, instinctif, il reconnaît des situations, fait des associations, réagit aux émotions sans effort conscient. Le Système 2 est lent. Il analyse et raisonne de façon délibérée, mais demande un effort mental réel et ne s'active pas tout seul : il faut une anomalie suffisamment frappante pour que le cerveau décide que ça vaut la peine de ralentir. Kahneman précise que ces deux systèmes ne désignent pas deux parties physiques du cerveau, mais deux façons de fonctionner qui coexistent chez tout le monde.
La méfiance envers le pouvoir est une réaction Système 1. Elle arrive vite, elle arrive fort, elle n'attend pas l'analyse. Et dans certains cas, elle a raison. En France, l'affaire du sang contaminé l'a prouvé : l'État a délibérément retardé le dépistage des dons de sang infectés par le VIH pour protéger une industrie nationale, avec des milliers de personnes contaminées et des condamnations pénales à la clé.
La question n'est donc pas de savoir si cette méfiance est légitime : elle l'est. La question est de savoir quels motifs poussent à chercher des explications alternatives, et si ces motifs garantissent la qualité de ce qu'on trouve.
En 2025, une synthèse de 279 études portant sur 137 406 participants publiée dans le Psychological Bulletin identifie trois familles de motifs stables chez les personnes qui adhèrent aux théories conspirationnistes.
Les motifs épistémiques : le besoin de comprendre ce qui se passe vraiment. Le Système 1 supporte mal l'incertitude ; il cherche des causes, des responsables. Quand l'explication officielle est incomplète ou contredite par l'expérience, il continue de chercher ailleurs.
Les motifs existentiels : le besoin de retrouver un sentiment de contrôle. Savoir qui tire les ficelles, même si c'est douloureux, est moins insupportable que vivre dans un monde où les catastrophes arrivent par accident ou par incompétence. Un complot identifiable est paradoxalement rassurant.
Les motifs sociaux : appartenir à un groupe qui sait, qui a accès à une vérité que la majorité ignore. L'information alternative fonctionne comme marqueur d'appartenance.
Vouloir comprendre, vouloir un sentiment de contrôle, vouloir appartenir à une communauté sont des besoins humains fondamentaux. La question est ce qu'ils génèrent comme réponses.
Une étude publiée en 2017 dans Current Directions in Psychological Science formule l'enjeu ainsi : la croyance conspirationniste est "plus séduisante que satisfaisante". Elle promet de répondre aux trois familles de motifs, mais y parvient rarement de façon durable. Dans la plupart des cas, ce qui suit : une autre théorie, une autre cible, un autre cycle.
Ces trois motifs sont par ailleurs exactement les mêmes que ceux observés chez les personnes qui adhèrent aux partis politiques extrêmes, aux nouvelles religions ou aux communautés thérapeutiques à forte cohésion. La demande psychologique est générique et préexiste à l'offre. Ce qui varie d'un individu à l'autre, c'est ce que cette demande rencontre comme offre disponible.
Des études montrent que plus une personne est intelligente, plus elle est capable de construire des arguments convaincants pour défendre une croyance fausse. L'intelligence ne protège pas contre l'adhésion : elle la rend plus solide. Alors qu'est-ce qui fait la différence ?
Comment la conviction se ferme ?
Revenons à Kahneman. Le Système 1 fonctionne comme un filtre. Quand une information nouvelle arrive, il ne la regarde pas telle quelle. Il la fait passer à travers tout ce qu'il sait déjà et l'interprète en fonction de ça. C'est utile au quotidien : ça évite de devoir tout recalculer à chaque fois. Mais ça veut dire que plus on est convaincu de quelque chose, plus on va automatiquement lire les nouvelles informations à travers ce prisme. Le Système 2 peut corriger ça, mais seulement s'il se met en route. Et il ne se met pas en route tout seul : il faut une anomalie suffisamment frappante pour que le cerveau décide que ça vaut la peine de ralentir.
Une thèse soutenue à l'Université de Lille en 2023 a étudié ce mécanisme sur de vraies données issues de Facebook et Twitter, ce qui la distingue des études faites en laboratoire sur des étudiants. Elle identifie deux phases dans la façon dont une croyance se forme et se maintient.
La première phase, c'est l'exploration. On cherche, on compare des explications différentes, on est encore ouvert aux contradictions. Le Système 2 tourne encore.
La deuxième phase, c'est quand on a trouvé. Une explication s'est imposée, elle satisfait suffisamment, et à partir de là quelque chose change : chaque nouvelle information qui arrive, même ambiguë, même contradictoire, va être lue comme une confirmation de ce qu'on croit déjà. Pas par mauvaise foi, c'est simplement le Système 1 qui fait son travail : il intègre ce qui arrive dans ce qu'il connaît déjà.
L'étude établit aussi qu'essayer de convaincre quelqu'un par la contradiction directe peut aggraver les choses. Si quelqu'un est convaincu que le pouvoir ment et dissimule, alors quelqu'un qui vient le contredire, surtout s'il vient d'une institution ou ressemble à "ceux d'en haut", va être perçu comme une preuve de plus que la vérité dérange. La contradiction renforce la conviction.
En 1994, le chercheur Ted Goertzel publie dans Political Psychology une observation qui va dans le même sens : croire en un complot est le meilleur prédicteur de croyance en d'autres complots. Plus que le niveau d'études, plus que l'intelligence, plus que le caractère. Les croyances conspirationnistes partagent toutes le même socle : un monde où des gens puissants agissent dans l'ombre pour contrôler les événements et tromper le public. Une fois ce socle en place, il s'applique naturellement à tout nouveau sujet flou ou mal expliqué.
L'affaire Benalla illustre ça. En 2018, Alexandre Benalla, collaborateur de l'Élysée, est filmé en train de frapper des manifestants lors du 1er mai avec un brassard de police qu'il n'avait pas le droit de porter. Ce qui a rendu l'affaire explosive, c'est que le pouvoir a cherché à étouffer l'histoire. Sur les mêmes canaux Telegram qui relayaient ces faits ont commencé à circuler des théories sans lien direct : complot des Rothschild, réseaux maçonniques, violence orchestrée pour justifier un état d'urgence permanent. Le fait réel, crédible, avait donné de la crédibilité à tout le reste. Une fois le filtre Système 1 réglé sur "l'État complote", tout ce qui passait ensuite confirmait cette conclusion, y compris des choses qui n'avaient rien à voir avec Benalla.
Ce mécanisme fonctionne de la même façon pour tout le monde, conspirationnistes ou pas. Une conviction qui se renforce à chaque nouvelle information, y compris les contradictions, c'est un signal que le filtre s'est refermé. Ça ne dit rien sur la véracité de ce qu'on croit. Ça dit simplement que le Système 2 ne tourne plus.
En 1978, 900 membres du Peuple du Temple ont suivi Jim Jones jusqu'à la mort collective en Guyane. Des enquêtes menées après les faits montrent que la plupart étaient des gens ordinaires, instruits, avec des emplois stables. Des gens dont le filtre s'était complètement refermé. Mais à quel moment, et qu'est-ce qui aurait pu l'en empêcher ?
Quand l'outil a eu raison
Des complots réels existent. C'est un fait, et il faut commencer par là.
MKUltra : la CIA a drogué des citoyens américains à leur insu pendant vingt ans. Révélé par le Sénat américain en 1975, archives accessibles au public.
Northwoods : l'état-major américain a soumis en 1962 un plan écrit pour organiser de faux attentats sur le sol américain et les attribuer à Cuba. Signé, approuvé, déclassifié en 1997.
Tuskegee : le gouvernement américain a laissé mourir quatre cents hommes noirs d'une maladie curable pendant quarante ans pour observer l'évolution de la syphilis sans traitement. De 1932 à 1972.
Quiconque aurait affirmé l'existence de ces programmes à l'époque aurait été traité de paranoïaque, et pourtant il aurait eu raison sur les trois.
Oui mais voilà, une étude publiée en 2024 dans la Harvard Kennedy School Misinformation Review montre quelque chose d'important : quand une théorie s'appuie sur de vrais faits, même partiellement, même mal interprétés, le Système 2 ne se met plus en route. Ces faits réels deviennent une caution automatique pour tout ce qui vient après. Le raisonnement devient : "ils l'ont fait avant, donc ils le font forcément maintenant." C'est là que ça dérape.
Une étude publiée en 2015 dans PLOS ONE montre que le Système 1 attribue systématiquement des intentions délibérées à des événements qui peuvent très bien s'expliquer par l'accident, le chaos ou simplement l'incompétence. Et il le fait avec le même sentiment de certitude interne, que ce soit vrai ou faux. Autrement dit : la certitude qu'on ressent face à une explication ne dit pas si cette explication est juste. Elle dit juste que le Système 1 a trouvé quelque chose qui colle avec ce qu'il sait déjà.
C'est exactement comme un détective qui aurait résolu dix affaires avec le même suspect type et qui, à la onzième, part du principe que c'est forcément encore lui. La certitude vient de l'expérience passée. Mais la onzième victime mérite quand même qu'on vérifie.
MKUltra était réel. Tuskegee était réel. Northwoods était réel. Le Système 1 avait raison sur les trois. Le post précédent montrait que ce Système 1 peut se refermer sur lui-même et ne plus laisser entrer ce qui le contredit. Celui-ci ajoute quelque chose de plus gênant : même quand il a eu raison par le passé, ça ne dit rien sur la fois suivante. Ce même Système 1 produit exactement le même sentiment de certitude quand il a tort. De l'intérieur, on ne sent pas la différence. C'est comme une boussole qui pointe parfois vers le nord et parfois ailleurs, mais qui affiche toujours la même aiguille stable et confiante. Le problème n'est pas la boussole. Le problème est de savoir quand lui faire confiance et quand sortir la carte pour vérifier.
Et si cette boussole, en plus de mal indiquer le nord, avait des effets concrets sur celui qui la tient ? Pas sur ce qu'il croit, mais sur ce qu'il fait, ou ne fait plus ?
Ce que l'outil fait à celui qui le tient
La question ici n'est pas de savoir si ce qu'on croit est vrai ou faux. Mais qu'est-ce que croire à un complot fait concrètement à celui qui y croit ?
En 2018, trois chercheurs, Jolley, Douglas et Sutton, ont mené quatre études séparées publiées dans Political Psychology pour mesurer ce que croire à un complot fait sur l'envie d'agir. Résultat identique dans les quatre études : les personnes convaincues qu'une élite secrète tire les ficelles sont moins motivées à agir pour changer les choses, pas plus.
Pourquoi ? C'est simple. Quand on est persuadé que le problème vient d'un groupe puissant et secret qu'on ne peut pas atteindre, la colère n'a nulle part où aller. On sait qui est responsable, mais on ne peut rien faire contre eux. Alors on ne fait rien. C'est comme savoir que c'est la pluie qui inonde votre cave mais ne pas avoir de pompe. Savoir n'aide pas. Et pendant ce temps, la cave continue de se remplir.
Les Gilets jaunes sont un bon exemple. Au départ, des problèmes réels et concrets : l'essence trop chère, les services publics qui ferment, l'impression que Paris décide de tout sans se préoccuper du reste du pays. Des choses précises, des revendications possibles. Mais petit à petit, les théories ont envahi l'espace : les Rothschild, le gouvernement mondial, la franc-maçonnerie. Sauf que ces théories se contredisaient entre elles. Résultat : des gens qui avaient exactement les mêmes problèmes au départ n'arrivaient plus à se mettre d'accord sur qui était vraiment responsable, donc ne pouvaient plus formuler de demandes communes, donc ne pouvaient plus négocier quoi que ce soit. Le mouvement s'est épuisé dans ses propres contradictions pendant que les vrais problèmes restaient entiers.
Le deuxième effet est tout aussi surprenant. En 2017, des chercheurs ont publié dans Social Psychology une série d'études sur le lien entre le besoin de se sentir différent des autres et les croyances conspirationnistes. Constat : les personnes qui ont besoin de se distinguer du lot adhèrent plus facilement aux théories alternatives. Parce que savoir ce que les autres ne savent pas, c'est une façon de se sentir plus intelligent, plus éveillé, moins mouton que la masse. C'est humain et compréhensible.
Mais ces mêmes études montrent quelque chose d'intéressant : si on dit à quelqu'un que sa théorie est en fait partagée par des millions de personnes, son intérêt pour cette théorie baisse. Pas parce qu'il est convaincu qu'elle est fausse. Mais parce qu'elle n'est plus rare. Elle ne le distingue plus des autres. C'est comme acheter un vêtement original et le retrouver sur tout le monde dans la rue : il perd immédiatement de sa valeur, même si c'est exactement le même vêtement.
Et ça crée un problème mécanique dans tous les grands mouvements conspirationnistes : plus ils grossissent, plus leurs membres cherchent des versions encore plus radicales, encore plus exclusives, pour continuer à se distinguer. Ce qui pousse inévitablement vers la surenchère et la fragmentation. C'est ce qu'on a vu chez les Gilets jaunes, et c'est ce qu'on observe sur la plupart des grands canaux Telegram avec le temps.
Alors la boussole du post précédent a un deuxième défaut : elle peut convaincre celui qui la tient qu'il n'a plus besoin de marcher. Il sait où est le nord, c'est suffisant. Mais pendant qu'il contemple sa boussole, est-ce que quelqu'un d'autre en profite pour avancer à sa place ?
Comment recalibrer la boussole
Dire à quelqu'un que sa théorie est fausse ne marche pas. Lui envoyer des fact-checks ne marche pas. Lui opposer des sources officielles ne marche pas. Le post 2 expliquait pourquoi : en phase d'exploitation, toute contradiction directe passe par le même filtre et en ressort comme une confirmation. Plus on pousse, plus on enfonce.
En 2024, une étude publiée dans Frontiers in Social Psychology sur près de 3 000 participants montre que le meilleur prédicteur des croyances conspirationnistes est la méfiance envers les institutions, mesurée avant même que les théories n'apparaissent. Pas l'intelligence, pas le niveau d'études, pas le caractère. Le problème est dans ce que les institutions ont fait ou n'ont pas fait pour mériter leur confiance. On ne règle pas ça avec un fact-check.
Ce qui marche, c'est autre chose. En 2022, une étude publiée dans les ANNALS of the American Academy of Political and Social Science a testé des courtes vidéos sur 375 597 personnes. Elles montraient les techniques utilisées pour manipuler : la fausse urgence, l'appel à la peur, le faux consensus, la source d'autorité fabriquée. Dans les semaines qui ont suivi, les participants résistaient mieux à la manipulation, y compris face à des contenus jamais vus auparavant.
C'est le principe de la vaccination appliqué à l'information : une fois qu'on connaît les techniques de manipulation, on les reconnaît avant que le Système 1 ait eu le temps de réagir. Pas besoin de savoir si le contenu est vrai ou faux. On reconnaît la forme.
Une étude de 2023 dans Applied Cognitive Psychology montre un mécanisme complémentaire. Les théories conspirationnistes s'appuient souvent sur des erreurs de raisonnement sur les probabilités. L'exemple classique : "les chances que tout ça soit une coïncidence sont nulles, donc c'est forcément organisé." Sauf que le cerveau humain est très mauvais pour évaluer les probabilités. On surestime les coïncidences frappantes et on sous-estime à quel point des événements indépendants peuvent sembler liés par hasard.
Kahneman illustre ça. Une batte et une balle coûtent 1,10€. La batte coûte 1€ de plus que la balle. Combien coûte la balle ? Le Système 1 répond : 10 centimes. La bonne réponse est 5 centimes. Autre exemple : si une maladie touche 1 personne sur 1000 et que le test est fiable à 99%, un résultat positif signifie-t-il qu'on est malade ? La plupart disent oui. En réalité, il y a encore 91% de chances que ce soit un faux positif. Dans un groupe de 23 personnes, la probabilité que deux aient le même anniversaire dépasse 50%. Presque personne ne le croit. Le hasard produit régulièrement des choses qui semblent impossibles.
S'entraîner sur ce type de problèmes renforce le Système 2 de façon durable. À force de forcer le cerveau à vérifier plutôt qu'à conclure, ce réflexe s'active plus naturellement. En pratique : la prochaine fois qu'une série d'événements semble trop cohérente pour être accidentelle, deux questions. Combien d'événements similaires se sont produits sans complot derrière ? A-t-on cherché des explications alternatives avant de conclure ?
L'affaire Mediator illustre ça. Entre 2009 et 2010, Irène Frachon, pneumologue au CHU de Brest, remarque des patients sans antécédents cardiaques qui développent des lésions graves des valves, et beaucoup ont en commun le Mediator, prescrit pour les diabétiques, utilisé massivement comme coupe-faim. Elle constitue une base de données, cherche des explications alternatives, tente de démontrer que son intuition est fausse. Le Mediator a été retiré du marché et Servier a été condamné en 2021. Entre 500 et 2 000 morts lui sont attribuables selon les expertises judiciaires. Sans le Système 2, l'intuition de Frachon restait une intuition.
Alors qui a intérêt à ce que la boussole reste mal réglée ? Et comment s'y prend-il concrètement ?
Qui utilise ces leviers, et comment
Un lecteur attentif a une objection légitime à ce stade : cette série parle beaucoup des biais de ceux qui contestent le pouvoir, mais pas de ce que le pouvoir fait avec ces biais.
Les opérations d'influence efficaces ne cherchent pas à convaincre. Elles cherchent à saturer le Système 1 : maintenir un flux continu de stimuli qui activent les réponses automatiques avant que le Système 2 ait le temps de s'activer. Urgence. Peur. Appartenance. Apparence de consensus. C'est exactement comme un vendeur de voitures d'occasion qui vous dit qu'il y a trois autres acheteurs intéressés et que l'offre expire ce soir. Il ne cherche pas à vous convaincre que la voiture est bonne. Il cherche à vous empêcher de réfléchir.
L'exemple le plus ancien et le mieux conservé dans ce registre vient de l'industrie du tabac. Dans les années 1950, les fabricants américains de cigarettes savaient en interne que le tabac causait le cancer. Leurs propres scientifiques le leur avaient dit. La stratégie choisie : ne pas nier, mais produire du doute. Financer des études aux conclusions contradictoires, faire circuler des informations divergentes, maintenir l'apparence d'un débat scientifique ouvert là où le consensus se formait tranquillement. L'objectif était d'empêcher le Système 2 du grand public de trancher. Le doute était le but. En France, les fabricants de tabac ont fait exactement pareil entre les années 1950 et 1990.
Le cas le plus récent et le mieux archivé en Europe est l'Integrity Initiative. C'est une organisation non gouvernementale créée en Écosse en 2015, officiellement pour contrer la désinformation pro-russe en Europe. Son financement a été confirmé au Parlement britannique en décembre 2018 : 296 500 livres pour 2017/18, près de 2 millions de livres pour 2018/19. Des financements supplémentaires venaient de l'OTAN, du Département d'État américain et du ministère lituanien de la Défense, confirmés par une question au Parlement européen en janvier 2019.
Comment ça fonctionnait concrètement ? Via un réseau de cellules locales dans neuf pays européens dont la France. Dans chaque pays, des journalistes, des universitaires, des experts recrutés pour diffuser des messages de façon apparemment spontanée et indépendante, sans jamais mentionner qu'ils participaient à un programme coordonné financé par un gouvernement étranger. C'est exactement le principe du faux avis client sur Amazon, mais appliqué à la géopolitique et financé par des États.
Les documents internes du programme ont été rendus publics fin 2018. Le gouvernement britannique n'en a pas contesté l'authenticité lors du débat au Parlement qui a suivi. Dans la cellule française figurent les noms de Rudy Reichstadt, fondateur de Conspiracy Watch, et de Tristan Mendès France, chroniqueur médias. On ne sait pas si leur participation était consciente et active, ou si leurs coordonnées avaient été ajoutées à leur insu.
Conspiracy Watch, c'est le site de référence francophone sur les théories du complot. Son fonctionnement est simple : identifier et réfuter les théories conspirationnistes en circulation. C'est donc le site vers lequel on renvoie naturellement quelqu'un qui commence à douter d'une théorie, ou que les médias mainstream citent pour "déminer" un sujet. Si ce site est financé à 50% par des fonds publics, dont certains attribués dans des conditions opaques, et que son fondateur apparaît dans les documents d'un programme d'influence étatique étranger, le mécanisme devient intéressant : l'outil censé corriger le Système 1 des conspirationnistes est lui-même potentiellement le produit d'une opération qui cible leur Système 1. On leur dit "méfiez-vous des manipulations" via un canal qui est peut-être lui-même une manipulation. Ironique.
Tout ça ne serait pas possible si le cerveau humain ne s'y prêtait pas aussi bien.
En 2018, deux chercheurs de l'Université d'Oxford ont compté les campagnes organisées de manipulation sur les réseaux sociaux dans 48 pays. Plus de 500 millions de dollars dépensés depuis 2010 par des gouvernements et des partis politiques pour influencer leurs propres populations. Les outils utilisés : des faux comptes pour créer l'impression que tout le monde pense pareil, de la contagion émotionnelle pour court-circuiter le Système 2, et une technique qu'ils appellent le cross-source fusion. C'est-à-dire : coller une affirmation douteuse juste à côté d'une information vraie et crédible, pour que la crédibilité de l'une déteigne sur l'autre. Exactement ce qu'on a vu avec Benalla dans le post 2.
Revenons à l'Integrity Initiative pour comprendre la mécanique globale. Son objectif officiel : contrer la désinformation pro-russe. Mais concrètement, que fait-on quand on veut influencer une population qui se méfie déjà des sources officielles ? On ne peut pas lui parler directement, elle ne vous écoutera pas. Alors on infiltre les canaux qu'elle écoute déjà. Des experts apparemment indépendants, des journalistes alternatifs, des universitaires qui semblent ne pas appartenir au système. Le conspirationniste qui se méfie de BFM TV fera davantage confiance à un "chercheur indépendant" ou un "journaliste d'investigation" dont il ne sait pas qu'il participe à un programme coordonné financé par un gouvernement étranger. Le Système 1 voit "indépendant" et valide automatiquement. Le Système 2 n'a pas le temps de vérifier qui finance qui.
Le camp d'en face fait exactement pareil. Les opérations d'influence russes utilisent le même principe : identifier les conspirationnistes déjà méfiants envers leurs gouvernements, amplifier leurs doutes existants avec de vraies informations mélangées à de fausses, et les pousser vers des conclusions qui servent les intérêts de l'émetteur. Pas besoin de convaincre quelqu'un de zéro. Il suffit de trouver quelqu'un dont le Système 1 est déjà orienté dans la bonne direction et de lui donner de l'élan.
Et pourquoi ça marche aussi bien des deux côtés ? Parce que le Système 1 n'est pas paresseux par défaut de caractère ou d'intelligence. C'est une question de biologie pure. Le cerveau humain consomme environ 20% de l'énergie totale du corps pour seulement 2% de sa masse. C'est énorme. Pour survivre, il a développé des raccourcis automatiques qui permettent de traiter un maximum d'informations en dépensant un minimum d'énergie. Le Système 1 est ces raccourcis. Il n'est pas une faiblesse. C'est un mécanisme d'économie d'énergie indispensable. Le problème est que dans un environnement saturé d'informations conçues précisément pour exploiter ces raccourcis, ces mêmes mécanismes deviennent des portes d'entrée. Les opérations d'influence, qu'elles viennent de l'est ou de l'ouest, sont construites par des gens qui connaissent cette biologie et qui en font leur outil de travail.
Est-ce que le contenu qui vous mobilise le plus, celui qui indigne, qui confirme ce qu'on pense, qui donne l'impression de savoir, a été conçu pour produire exactement cette réaction ? Et si les deux camps utilisent les mêmes outils, comment reconnaître une information sincère d'une opération bien construite ?

Commentaires