Retour au blog

Matrice DIMA : Principe et applications

22 juillet 2025 7 minutes de lecture

Là où la matrice MITRE ATT&CK formalise les menaces sur le plan cyber et la matrice DISARM les menaces sur le plan de la désinformation, la matrice DIMA se concentre sur le plan des biais cognitifs. Une attaque cognitive correspond à l’utilisation intentionnelle d’un ou plusieurs biais ou heuristiques dont l’objectif est de provoquer une réaction de la cible.


Rappel sur le fonctionnement de la matrice DIMA

Le modèle DIMA structure l’exploitation de biais cognitifs en quatre grandes phases, correspondant aux étapes de réception et de traitement de l’information par un individu.
DIMA :

  • Détecter,
  • Informer,
  • Mémoriser,
  • Agir.

Pour chacune des quatre phases, la matrice liste des tactiques, et pour chacune de ces tactiques une ou plusieurs techniques. Dans la nomenclature de la matrice, les tactiques sont « TA XXXX » et les techniques « TE XXXX ».

Toutes les tactiques et techniques sont référencées dans un framework accessible via cette
framindmap
.

Le plugin

Le 6 juillet 2025, les membres du M82 Project publient un plugin qui, en s’appuyant sur la matrice DIMA, propose un score de détection de la manipulation cognitive.

En résumé, l’extension récupère le contenu de la page, détecte la présence de techniques de manipulation répertoriées dans la matrice (par mots‑clés et expressions), calcule un score pondéré en fonction du contexte puis affiche le résultat sous forme d’un bouton/score et d’un tableau récapitulatif.

Matrice DIMA

Pour voir les détails techniques : Documentation_technique.md.
Pour télécharger le plugin : plugin_chrome.

Tests du plugin

J’ai testé le plugin sur plusieurs sites (après avoir écrit un petit script permettant de tester plusieurs pages d’un même site grâce à un flux RSS). Je l’ai testé sur des sites « fiables », et des sites « de désinformation ». Pour déterminer les sites fiables et de désinformation, je me suis appuyé sur des classements comme celui de NewsGuard.

Rappelons que l’idée ici n’est pas de juger de la véracité d’une information, mais bien de détecter des manipulations cognitives.

MédiaArticles analysésScore moyenNiveau de risque
francesoir.fr1014,8Faible
legrandsoir.info1020Faible
fdesouche.com1010Faible
ripostelaique.com1019,2Faible
lesmoutonsrebelles.com1013,2Faible
Analyse DIMA de sites de désinformation
MédiaArticles analysésScore moyenNiveau de risque
lemonde.fr1811,3Faible
lefigaro.fr1818,03Faible
liberation.fr5015,28Faible
actu.fr298,4Faible
francebleu.fr2221,7Modéré
Analyse DIMA de sites fiables

Clairement l’indicateur ne propose pas d’alertes particulières sur les sites de désinformation. On voit même que le seul site qui affiche un niveau de risque « modéré » et un site supposé fiable, francebleu.fr (score : 21,7).

À priori, cette homogénéité des scores peut paraître surprenante, mais elle est tout à fait cohérente. Comme nous l’avons dit, le fonctionnement algorithmique du plugin ne lui permet pas (et ce n’est pas le but recherché) de s’attarder sur la véracité d’une information ; ce sont les biais cognitifs qui sont recherchés. Et on peut tout à fait supposer que des articles de désinformation soient « bien » écrits, sans chercher à jouer sur les biais cognitifs du lecteur. C’est ce qui semble être le cas dans les tests réalisés ci-dessus. D’ailleurs, à l’inverse, on peut complètement imaginer un site considéré comme fiable employer ces techniques.

Une bonne illustration de cette explication est la presse people, connue pour ses titres racoleurs, et ses styles qu’on peut considérer comme mélodramatiques. J’ai passé les (22) articles à la une du site voici.fr au détecteur, et sans surprise, on retrouve une fréquence d’articles « modérés » ou « élevés » beaucoup plus importante, avec des scores atteignant parfois 40.

Qu’en conclure ?

Pour commencer, cette première version du plugin, comme le rappellent ses auteurs, reste assez rudimentaire. La pondération pourra sans doute être affinée, et les paramètres ajustés.

Il y a un autre défaut manifeste à ce plugin. Par son fonctionnement, il n’analyse que le contenu que d’une page web. Cela peut être problématique dans la détection de certains biais. Prenons un cas pratique : l’illusion de fréquence. Aussi connue sous le nom de phénomène Baader-Meinhof, « l’illusion de fréquence est un biais […] dans lequel, après avoir remarqué une chose pour la première fois, on a tendance à la remarquer plus souvent, ce qui conduit à croire qu’elle apparaît fréquemment, ou plus fréquemment qu’auparavant » (wikipédia).

C’est une technique apparement employée par certains adversaires : par exemple, un rapport de Viginum sur la campagne prorusse Matriochka explique que les auteurs de la campagne utilisent la technique du Dopplegänger (en créant des faux sites internets prenant l’apparence de vrais sites internets) et développent des techniques de diffusion automatique ou automatisée de ces articles. Cette démarche s’appuie en partie sur l’illusion de fréquence : en voyant passer l’information un grand nombre de fois, la cible pourra donner une importance plus grande à l’information que celle qu’elle lui aurait donnée à l’origine. Dans le cas de la campagne Matriochka, Viginum explique que des campagnes de désinformation sur les JOP 2024 se sont appuyées sur cette technique. À force d’entendre répété que la France n’est pas capable d’assurer la sécurité des Jeux, on finit par se dire que c’est vrai.

La technique de l’illusion de fréquence est bien référencée dans la matrice DIMA (TE0121). Elle est aussi présente dans le plugin : certains mots-clés lui sont associés (encore, toujours, répétition, familier). On voit bien ici qu’avec le plugin, la détection de la technique de l’illusion de fréquence se concentre dans la page. Or, ce n’est pas en répétant un grand nombre de fois une même information dans un article, ni en expliquant dans cet article que cette information est récurrente que l’on convaincra la cible : c’est en l’exposant plusieurs fois à cet information à travers différents articles. Si je me mets à la place de l’attaquant dans la campagne Matriochka, ce n’est pas en répétant 50 fois dans un article que la France est incapable d’assurer la sécurité des JOP, ni en écrivant que la France démontre pour la 50e fois qu’elle est incapable d’organiser ces jeux que j’atteins ma cible : c’est en l’exposant à 50 médias (articles, tweets, posts) différents que je vais la convaincre. Ça, le plugin qui se cantonne à ses 3000 caractères ne peut pas le détecter.

Une piste d’amélioration pour le plugin pourrait être de le connecter à une base de données qui contienne ces informations.

Pour ce qui est du plugin en lui-même, c’est-à-dire l’application de la matrice sous forme de plugin (petit indicateur dans le coin du navigateur), j’identifie deux problèmes. Le premier est évidemment qu’on imagine mal des gens (en nombre) aller d’eux-même l’installer, car cette installation peut-être fastidieuse, ou simplement car par méconnaissance de l’outil, on n’a pas envie de faire confiance à l’indicateur. Le second problème est l’inverse du premier : il serait contreproductif que des utilisateurs du plugin lui vouent une confiance absolue, et ne se méfient pas/plus face à un article mal analysé.

Toutefois cela ne remet pas en cause l’importance que pourrait prendre la matrice DIMA dans la LIO, la LID ou la L2I.

En prenant en compte l’aspect cognitif, dans la LID et la L2I, des attaques informationnelles peuvent être détectées beaucoup plus efficacement. Il est possible de quantifier (grâce à un algorithme) une atteinte au biais cognitifs, là où l’enjeu de la véracité de l’information fait appel à des paramètres plus philosophiques ou politiques. On peut également utiliser ces biais pour réagir face à une campagne de désinformation, en organisant une contre-campagne. Ces mêmes techniques peuvent être exploitées dans la L2I/LIO.