Module 2.2

L’IA et la lutte contre les manipulations de l’information

🔫 L’IA générative, une menace dans le domaine de la lutte informationnelle ?

L’essor de l’IA, combiné aux mécanismes algorithmiques des réseaux sociaux, pose de nombreuses questions quant aux conséquences en matière d’intégrité de l’information. En particulier, cette combinaison technologique fait peser le risque d’une altération de la perception de la réalité par les citoyens, susceptible de produire des effets préjudiciables sur le fonctionnement de nos démocraties, fondé sur la notion de confiance.

Néanmoins, si les technologies d’IA sont susceptibles d’accroître le niveau de menace lié aux ingérences numériques étrangères, elles offrent également de formidables possibilités de renforcer nos défenses pour lutter contre les manipulations de l’information.

Dans le cadre de ses opérations, VIGINUM observe depuis deux ans un recours croissant à l’IA générative par les différents acteurs étrangers de la menace informationnelle. S’appuyant sur les observations de VIGINUM et de partenaires internationaux, le rapport «  Défis et opportunités de l’IA dans la LMI » s’attache ainsi à détailler différents cas d’usages de l’IA observés en source ouverte dans le cadre de tentatives d’ingérence numérique étrangère. En particulier, trois grands types d’utilisation de l’IA générative sont en train de modifier la physionomie de la menace informationnelle :

  • Un changement d’échelle dans la génération de contenus faux réalistes. Concrètement, les capacités à générer des textes ou des contenus audiovisuels inauthentiques, sous différentes formes, augmentent.
  • Un appui sans précédent pour la génération et la gestion de comptes inauthentiques sur les plateformes en ligne. La combinaison de modèles génératifs textuels et de modèles génératifs visuels est susceptible de faciliter la création de faux comptes crédibles, utilisés pour la diffusion de contenus sur les plateformes en ligne. Grâce à l’IA générative, ces faux comptes sont plus difficilement identifiables par les dispositifs de détection des comportements inauthentiques mis en place par les plateformes.
  • Une capacité décuplée pour la réplication et la publication coordonnée de contenus inauthentiques à grande échelle. Les capacités des acteurs malveillants sont démultipliées pour mener des actions coordonnées multiplateformes, voire même pour internationaliser leurs stratégies.

Bien que les exemples documentés en source ouverte tendent à démontrer que l’usage de l’IA ne permet pas, pour le moment, de faciliter la propagation d’une campagne de manipulation de l’information ni d’en augmenter l’impact, le recours croissant à cette technologie pourrait entraîner une élévation structurelle de la menace informationnelle, en ce qu’elle permet d’accroître la réactivité des acteurs malveillants, ainsi que l’échelle et la furtivité de leurs actions. En outre, par sa capacité à générer du faux crédible, l’IA fait peser le risque d’un scepticisme généralisé du public à l’égard de l’authenticité de tout type de contenu en ligne. Si l’authenticité devenait plus facilement contestable, le rapport à la réalité et aux faits pourrait s’en trouver profondément altéré. Dans un contexte où la confiance du grand public envers l’information semble fragilisée, ce phénomène est susceptible d’accroître encore davantage la défiance d’une partie de l’opinion envers les médias traditionnels et les fact-checkers, créant de facto un terreau favorable aux acteurs de la menace informationnelle.

RAPPORT I Défis et opportunités de l’intelligence artificielle dans la lutte contre les manipulations de l’information

VIGINUM, février 2025

📔 Consulter le rapport

✌️ L’IA, une opportunité pour mieux lutter contre les manipulations de l’information

Face à ces différents risques, les outils d’IA peuvent aussi être mis à profit pour trouver des solutions. Par exemple, lors du stade de veille et de détection des manipulations de l’information, l’usage de l’IA permet d’aller plus loin dans l’analyse exploratoire de contenus. Quelques exemples ci-dessous :

  1. Utiliser une combinaison de différents modèles d’IA pour mener des analyses sur des contenus audiovisuels, à partir d’un ensemble de vidéos YouTube. On peut ainsi rapidement, avec un outil de transcription comme « Whisper », convertir une piste audio en texte écrit, puis utiliser d’autres outils en IA pour faire des recherches de thématiques ou de mots clés dans des bandes son, générer des résumés de contenus etc…
  2. Faire du « topic modeling », c’est-à-dire une modélisation mathématique s’appuyant sur des outils d’IA, qui facilite la détection des thématiques traitées dans un large corpus de textes et permet ensuite de regrouper les contenus traitant de la même thématique.
  3. Utiliser D3LTA, un code open source développé par VIGINUM et utilisable par toute personne ayant des notions de code : GitHub – VIGINUM-FR/D3lta.

Focus sur D3LTA de VIGINUM I Les manipulations de l’information s’appuient sur la diffusion coordonnée et inauthentique de récits à fort impact, vers une vaste audience. Plusieurs techniques sont aujourd’hui employées pour dupliquer largement ces textes inauthentiques afin d’atteindre les publics ciblés :

1. le “copy-pasta” : consiste à dupliquer un contenu textuel avec des modifications mineures (changement d’un seul mot, ajout d’emojis ou de hashtags) ;

2. la reformulation : un même texte peut être dupliqué de nombreuses fois, en étan au préalable reformulé de multiples manières, en utilisant des grands modèles de langage (LLM) de type ChatGPT ;

3. la traduction : afin de toucher un large public multilingue, un même contenu narratif peut être dupliqué de nombreuses fois dans plusieurs langues.

En 2024, VIGINUM a publié un article de recherche intitulé « Unmasking information manipulation ». L’article présente le code open source « D3lta » et explique comment celui-ci peut être utilisé pour détecter des textes qui avaient été dupliqués de manière inauthentique à l’aide des trois techniques précédemment citées.

Bien utilisées, les technologies d’IA offrent donc de nombreuses possibilités pour « outiller » la lutte
contre les manipulations de l’information.

🫳 Peut-on facilement repérer des contenus générés par IA ?

A mesure que les technologies d’IA générative évoluent, il devient de plus en plus difficile de détecter des contenus textuels ou audiovisuels générés grâce l’intelligence artificielle. Quelques conseils peuvent néanmoins être mis en pratique :

Pour les textes :
Les outils d’IA générative ont tendance à utiliser fréquemment les mêmes mots et tournures grammaticales, dont certaines sont recensées sur le site Pangram. Généralement, il s’agit de textes comportant :

  • Des paraphrases lourdes ;
  • Une structure redondante (intro, début de phrases en gras, conclusion qui résumé tout le texte, de nombreux bullet points etc..).
  • A l’inverse, les textes écrits par l’humain vont avoir tendance à comporter plus d’erreurs de ponctuation, de tonalités offensives et des avis marqués, des chiffres et des dates, des contenus
    surprenants et créatifs.

Pour les images :
Aujourd’hui, de nombreux détecteurs d’images générées par IA existent, mais leurs performances sont très variables. Ainsi, une image générée par IA, qui aura ensuite été légèrement modifiée (ajout de textes sur l’image, compression et reformatage, changement de couleurs etc…) ne sera pas toujours détectée comme telle par les détecteurs.

Conseil : le Plugin AFP WeVerify – Deep Fake Detector est un outil relativement efficace pour la détection d’images générées par IA.

Ce module a été rédigé par les équipes de VIGINUM, le service technique et opérationnel de l’État chargé de la vigilance et de la protection contre les ingérences numériques étrangères.

La création de VIGINUM, le service de vigilance et de protection contre les ingérences numériques étrangères, par décret n°2021-922 du 13 juillet 2021, est venue compléter le dispositif français de lutte contre les ingérences numériques étrangères. Ce service opérationnel à compétence nationale est rattaché au secrétaire général de la défense et de la sécurité nationale (SGDSN), qui est en charge de la conduite des missions interministérielles dans le domaine de la défense et de la sécurité nationale. VIGINUM a pour principale mission de détecter et de caractériser les opérations d’ingérence numérique étrangères. Pour accomplir ses missions, VIGINUM mène de méticuleux travaux de recherche et d’investigationen OSINT (recherche en sources ouvertes) qui impliquent d’analyser des données publiquement accessibles sur les plateformes en ligne, parmi lesquelles peuvent figurer des données à caractère personnel. A ce titre, VIGINUM a été autorisé par décret du 7 décembre 2021 à mettre en œuvre un traitement automatisé de données à caractère personnel.