< Retour

Rédactrice en chef & Vice-présidente senior chargée des partenariats, Europe et Canada

Chine Labbé : « Constituer son propre corpus de sources fiables est aujourd’hui indispensable »

À l’heure où les faux récits se propagent à grande vitesse sur le Web, le monde de l’information est à un tournant : comment restaurer la confiance sans freiner le flux numérique ? Fondée en 2018, la start-up NewsGuard s’est donné pour mission d’apporter une réponse concrète à ce défi en évaluant la fiabilité des sites d’actualité et en démentant les principales fausses informations qui circulent en ligne, grâce à une analyse journalistique rigoureuse. Rencontre avec Chine Labbé pour comprendre comment naviguer dans un environnement informationnel saturé.

Dans quel contexte émerge le projet NewsGuard ?

Chine Labbé I Face à une information manipulée ou volontairement déformée, la réponse depuis quelques années a souvent été celle du fact-checking. Malheureusement, la vérification des faits, bienque nécessaire, n’est pas suffisante, et ne peut plus être notre seule arme. La loi de Brandolini, également appelée « principe d’asymétrie du bullshit », le démontre : il est facile de créer en quelques secondes une fausse information, mais il est bien plus long et laborieux de la démentir. Ainsi, alors que nous peinons à démentir certaines infox à temps, d’autres apparaissent très souvent dans la foulée. Par ailleurs, les articles de vérification des faits n’atteignent pas toujours leur cible et peuvent même renforcer des théories du complot chez certaines personnes qui estiment que les grands médias participent à une conspiration supposée.

NewsGuard est né d’une volonté de faire un pas de côté, de s’écarter du fact-checking, aussi appelé « debunking », pour se concentrer davantage sur le « pre-bunking », qui consiste à ne plus courir après les infox, mais à éduquer les citoyens en amont, à les « immuniser » en quelque sorte contre les faux récits. Notre idée de départ était de nous appuyer sur le fact-checking pour analyser les sources d’information et fournir des indications supplémentaires à nos partenaires et aux internautes sur la fiabilité de celles-ci, afin qu’ils puissent décider en toute connaissance de cause où placer leur confiance.

Ainsi, sans se prononcer sur l’article que vous êtes en train de lire, si la source a déjà diffusé plusieurs informations erronées par le passé, nous vous en informons, pour vous permettre de prendre cette information avec plus de recul. Dans ce contexte, nous avons mis en place une extension de navigateur permettant aux utilisateurs de vérifier la fiabilité de leurs sources. Nous vendons également les données que nous collectons à des partenaires afin de les aider à déterminer, selon leurs propres critères, les meilleurs emplacements pour leur publicité. Nous sommes désormais présents dans neuf pays (France, Italie, Royaume-Uni, Allemagne, Autriche, États-Unis, Canada, Australie et Nouvelle-Zélande) et avons analysé plus de 11 000 sites d’information, soit plus de 35 000 sources avec leurs comptes associés sur les réseaux sociaux.

En mettant à jour nos analyses en permanence, nous donnons également la parole aux sites que nous évaluons pour leur indiquer les critères sur lesquels nous pensons qu’ils vont échouer. Nous leur laissons ainsi la possibilité de nous convaincre du contraire ou de changer certaines pratiques, afin de contribuer à un écosystème d’information plus sain en ligne. Nous alimentons par ailleurs une autre base de données, les « Empreintes des récits faux », qui recense les récits faux les plus viraux et dangereux, notamment les récits de désinformation étrangère en provenance de la Russie, de la Chine et de l’Iran. Ce catalogue recense déjà plus de 3 000 cas d’infox circulant en ligne, et nous en détectons environ 20 de plus chaque semaine.

On entend souvent parler de « désinformation » et de « mésinformation ». Comment distinguer ces concepts ? Est-il même possible de les traiter séparément aujourd’hui ?

Chine Labbé I C’est un débat intéressant. Au départ, la différence entre « désinformation » et « mésinformation » réside dans la notion de volonté. La mésinformation consiste à relayer des informations fausses sans intention de nuire ; nous pouvons donc tous en être coupables si nous relayons une information sans l’avoir vérifiée. À l’inverse, lorsqu’il est question de désinformation, il y a souvent un acteur malveillant derrière, dont l’objectif est de vous persuader d’une fausse information ou de promouvoir un agenda politique. Il y a ici une réelle intention de tromper et d’imposer une vision du monde. Toutefois, dans le climat politique et social tendu qui prévaut actuellement en France comme dans le monde, nous observons une politisation de ces termes.

En effet, ces mots sont aujourd’hui utilisés comme des armes partisanes, aussi bien à gauche qu’à droite de l’échiquier politique, ainsi que par des acteurs antidémocratiques. La Russie, par exemple, a créé son propre réseau de « fact-checking » pour faire exactement le contraire de ce que ce concept implique et discréditer des informations bien réelles. Aujourd’hui, lorsqu’on parle de « désinformation », nous prenons le risque de perdre une partie de nos interlocuteurs, qui y voient une tentative de censurer certains points de vue. Il y a quelques mois, NewsGuard a donc décidé de moins recourir à ces termes et de privilégier des qualifications plus précises, en évoquant exactement le type de fausses informations rencontrées. Ainsi, si nous tombons sur une vidéo générée par l’intelligence artificielle, nous la qualifierons comme telle afin d’éviter toute réaction épidermique. Cela ne signifie pas pour autant que nous allons complètement cesser d’utiliser ces termes, mais lorsque l’on parle de « récits », il est salutaire d’être précis.

Quelle est aujourd’hui la menace numérique la plus importante pour nos démocraties, notamment en France ?

Chine Labbé I La France, comme beaucoup d’autres démocraties occidentales, est la cible de nombreuses campagnes de désinformation russes. Un exemple récent est la campagne Storm-1516, qui avait déjà visé les États-Unis en amont de l’élection présidentielle de 2024 et l’Allemagne en amont des élections fédérales anticipées de février dernier. Cette campagne s’appuie sur de faux témoignages de prétendus lanceurs d’alerte, soit générés par l’IA soit incarnés par des acteurs. Ceux-ci sont relayés sur des comptes qui comptabilisent peu, voire pas du tout d’abonnés sur les réseaux sociaux, puis repris par des sites intégralement générés par l’IA, sans aucune supervision humaine.

En décembre 2024, la campagne Storm-1516 a commencé à cibler la France avec une intensité accrue. En avril 2025, nous avions ainsi recensé cinq récits faux la visant, ayant généré près de 55,8 millions de vues sur les réseaux sociaux. À ce moment-là, la France semblait épargnée par un élément clé de la stratégie de désinformation de Storm-1516 : un réseau coordonné de sites se faisant passer pour des médias locaux pour distribuer les infox. Mais depuis, il a été révélé qu’un réseau de 139 faux sites d’actualité a été créé entre février et août 2025. Tous les éléments de cette campagne sont donc désormais réunis. Ces faux sites web font souvent écho à des médias bien réels, avec des noms comme « tvfrance2.fr » ou encore « courrierfrance24.fr », et inspirent donc naturellement confiance. Toutefois, lorsque l’on se penche sur leurs mentions légales, on constate qu’ils présentent de faux noms de société ; que tout est fictif. Une simple analyse de leurs adresses IP suffit à montrer qu’ils appartiennent à un réseau de faux sites, parfois créés par séries de dizaines en une seule journée.

Est-il possible pour un utilisateur ordinaire de repérer ces menaces ?

Chine Labbé I Ce n’est pas un exercice facile. Les techniques que nous avions développées il y a un an pour repérer les sites générés par l’IA par exemple sont déjà obsolètes en raison de l’avancée des technologies, et le travail d’analyse nécessaire pour les détecter est de plus en plus chronophage. Il est difficile d’attendre d’un utilisateur qu’il détermine de lui-même si un site est généré par l’IA ou non. Chez NewsGuard, nous utilisons des outils de détection de l’IA en première ligne, mais ils ne peuvent jamais être le seul instrument employé, car ils ne permettent pas de dire avec 100% de certitude qu’un site a été intégralement généré par l’IA.

Il peut en effet y avoir des faux positifs comme des faux négatifs. Il faut donc rester vigilant, vérifier les URLs, ne pas se fier à des sites que l’on ne connaît pas, et toujours se tourner vers des sources d’actualité en lesquelles on a vraiment confiance. Constituer son propre corpus de sources fiables auxquelles se référer en cas de besoin est aujourd’hui indispensable. Chacun doit avoir ses propres repères, et ils ne seront pas les mêmes d’une personne à l’autre, ce qui est sain, mais il faut s’atteler à se les créer.

Aujourd’hui, de plus en plus d’individus privilégient l’IA générative aux moteurs de recherche pour chercher leurs sources. Comment abordez-vous cette évolution ?

Chine Labbé I Tout d’abord, il est important de rappeler que la majorité des utilisateurs ne se servent pas encore des outils génératifs pour se renseigner sur l’actualité. À titre d’indication, le Digital News Report 2025 du Reuters Institute indique que seuls 7 % des gens le font, même si ce chiffre grimpe à 15 % pour les moins de 25 ans. Cela dit, même si ces chiffres restent faibles, ils sont révélateurs d’une vraie tendance. On l’observe de plus en plus sur la plateforme X, avec des utilisateurs qui ont pour réflexe de se tourner vers son chatbot Grok pour poser des questions liées à l’actualité lors d’événements d’actualité d’envergure. En septembre dernier par exemple, de nombreux utilisateurs ont demandé en temps réel à Grok si Charlie Kirk, un militant conservateur américain, avait bel et bien été assassiné. Et Grok les a induits en erreur en leur répondant que non. On recense aujourd’hui trois risques principaux liés à l’utilisation de l’IA générative pour s’informer.

Le premier, c’est que, par définition, ces outils sont « probabilistes », et vont fournir la réponse la plus probable, qui ne sera pas nécessairement la plus juste et factuelle. Par ailleurs, l’IA peut parfois « halluciner », c’est-à-dire inventer une citation, une date ou même une statistique, et ainsi induire l’individu en erreur.

Le deuxième problème, c’est l’absence de « garde-fous » suffisants permettant d’apprendre à ces outils à distinguer les sources et à ne pas les traiter de la même manière, notamment lorsque l’une est un média connu de désinformation russe, et l’autre un média de qualité. Depuis un an, nous effectuons des audits tous les mois des principaux chatbots d’IA générative, pour tester leur capacité à résister à reproduire des récits faux liés à l’actualité. En août 2024, dans 18 % des cas, les dix principaux chatbots sur le marché répétaient des infox comme s’il s’agissait de faits avérés. Un an plus tard, ce chiffre a atteint 35 %, soit presque le double. Cela s’explique en partie car les chatbots sont désormais tous connectés à Internet, et ils vont chercher des informations en ligne – y compris sur des sources peu fiables – là où un an plus tôt ils s’abstenaient parfois de répondre. Ainsi, si une cinquantaine de sources propagent une fausse information et qu’un seul média authentique dit l’inverse, les chatbots vont plutôt avoir tendance – en tout cas pour le moment – à relayer le récit majoritaire, même s’il est faux. Le dernier risque réside dans l’instrumentalisation, par des acteurs malveillants, de cette vulnérabilité. Là où il y a un « vide » de données fiables, ces acteurs peuvent contaminer les réponses des chatbots, en saturant le web de récits alternatifs.

On qualifie ce phénomène de contamination ou empoisonnement des données, « LLM grooming » ou « LLM poisoning » en anglais. Nous avons notamment documenté comment le réseau Portal Kombat (aussi connu sous le nom de réseau Pravda), qui regroupe environ 180 sites Internet diffusant du contenu pro-russe dans une quarantaine de langues, inonde les résultats de recherche et, par conséquent, les réponses des chatbots. Cette stratégie semble fonctionner puisque lors d’un audit mené en mars dernier, nous avons constaté que les principaux chatbots répétaient les récits poussés par le réseau Pravda dans 33% des cas lorsqu’on leur posait des questions relatives à ces récits.

Sur quelles dimensions faut-il former les médias qui sont en première ligne de toutes ces menaces ?

Chine Labbé I Dans un contexte de menaces protéiformes, la transmission pédagogique est devenue indispensable. Aujourd’hui, on ne parle plus seulement de contenus faux, mais aussi d’une multiplication de contenus de mauvaise qualité générés par l’IA qui éclipsent les contenus qualitatifs ; c’est le phénomène d’« AI slop ». Ainsi, il faut encourager les médias à se recentrer sur ce qui fait leur différence face à l’IA générative, notamment le reportage de terrain. Il est urgent de leur fournir les moyens de se concentrer sur ce qui fera leur plus-value demain par rapport à ces slops.

Il faut également réfléchir à des modèles économiques permettant à ces médias de survivre, car les chatbots, en se nourrissant de contenus en libre accès sur Internet, récupèrent des revenus publicitaires qui devraient revenir aux médias de qualité. Pour éviter les manipulations, et regagner la confiance de leurs lecteurs, les médias doivent aussi réapprendre à faire preuve de vigilance dans le choix des experts auxquels ils donnent la parole, car personne n’est à l’abri de « faux spécialistes ». Et plus que jamais, l’heure est au partage de bonnes pratiques et de données pour tous ceux qui veulent s’assurer que, demain, l’information de qualité existe encore, et soit accessible au plus grand nombre.

* * *

Cet interview a été réalisée par Benjamin Treilhes, étudiant en Master Communication, Médias et Industries Créatives à Sciences Po Paris. Il collabore avec Cyber for Good à travers l’Impact Studio de Sciences Po Paris.

Directeur exécutif du Forum sur l’Information et la Démocratie

Camille Grenier : « Il n’y aura pas d’innovation sans régulation »

Tandis que l’Union Européenne s’apprête à assouplir les règles sur l’IA et la protection des données, d’autres voix se lèvent pour évoquer les risques. De fait, le manque de régulation des plateformes numériques génère d'importantes vulnérabilités pour nos démocraties. Camille Grenier, directeur exécutif du Forum sur l’Information et la Démocratie, analyse les mutations de l’espace numérique et les principes pour le réguler. Le Forum sur l’Information et la Démocratie, créé en 2019 est une organisation internationale qui rassemble États, société civile et monde de la recherche pour promouvoir un espace informationnel démocratique et pluraliste.

Responsable de Cyberguerre à Numerama

Amine Baba Aissa : « La lune de miel avec le numérique est terminée »

L’intelligence artificielle est la technologie qui s’est diffusée massivement le plus rapidement. “Près de 9 Français sur 10 ont entendu parler de l’IA générative, et 4 sur 10 l’utilisent, selon une étude d’IPSOS de février 2025. Quelles sont les conséquences, les risques et les opportunités associés à la révolution de l’IA ? Dans un contexte géopolitique en pleine évolution, l’utilisation croissante d’outils technologiques soulève des enjeux de souveraineté, de protection des personnes vulnérables face aux menaces cybers, mais aussi de compréhension des enjeux techniques par le grand public. Nous avons exploré ces enjeux avec Amine Baba Aissa, journaliste responsable de la rubrique Cyberguerre chez Numerama.

Ex-ministre du numérique de Taiwan, ambassador-at-large et à l’origine du mouvement civic tech vTawian

Audrey Tang : « A Taiwan, l’IA a permis d’amplifier le consensus plutôt que le conflit »

A Taipei, les prodiges de l’intelligence artificielle avancent de pair avec la révolution démocratique. Audrey Tang, ex-ministre du numérique, ambassador-at-large et à l’origine du mouvement civic tech vTawian, revient sur la puissance de la technologie face aux enjeux de participation citoyenne et de lutte contre la polarisation. Dans cette île qui domine la production des semi-conducteurs (chips) utilisés par l’IA, la technologie devient un sujet démocratique, géopolitique et… géothermique.