En 2025, pouvons-nous considérer Internet comme un allié de la démocratie ?
Audrey Tang I Comme le montre l’exemple de Taïwan et l’utilisation de l’IA, Internet représente une force pour le bien commun et un allié naturel de la démocratie. Cela dit, aujourd’hui, de nombreux systèmes d’IA sont conçus avec l’objectif de piéger les utilisateurs dans la boucle algorithmique. Nous devenons des humains noyés dans la boucle de l’IA. C’est comme un hamster sur sa roue : il continue de courir sans contrôler sa direction et sans savoir où il va. Le problème, c’est que les algorithmes ont compris que la meilleure manière de nous garder collés à l’écran est de provoquer la colère. Ainsi, les nuances entre nous s’aplanissent, tandis que les voix les plus bruyantes et les plus extrêmes sont amplifiées. Un autre problème est ce que l’on appelle désormais le « slop » — une immense quantité de contenu – des photos ou des vidéos - mais qui est entièrement généré par l’IA, sans vraie valeur informationnelle. Plus les gens restent coincés dans la roue du hamster, plus leur esprit critique diminue. C’est ce que j’appelle l’intelligence addictive.
Nous devons remplacer cela par ce que j’appelle l’intelligence assistive. Au lieu de laisser les avis extrêmes brûler l’écran, il faut traiter cette énergie comme une puissance géothermique et la canaliser vers la co-création. Un proverbe taïwanais dit « La pression crée des diamants. » Deux plaques tectoniques qui se heurtent pendant 4 millions d’années font monter Yushan, la plus haute montagne de Taïwan, d’un demi-centimètre chaque année. Cette énergie est aussi la raison pour laquelle Taïwan est un diamant de la démocratie. Je pense que la clé est de changer la manière dont les réseaux sociaux utilisent l’IA. Dans nos systèmes, il n’y a pas de bouton retweet ou d’option « dunk » (ndr, humilier ou clasher quelqu’un) qui amplifie la confrontation.
À la place, via des plateformes de délibération comme Join et Polis, les gens peuvent répondre aux déclarations des autres simplement en disant « d’accord », « pas d’accord », ou en ajoutant leur propre opinion. Il n’y a pas de fonction de repartage moqueur. Cela amplifie naturellement les voix du centre et celles des personnes capables de bâtir des ponts.
En mars dernier, nous avons envoyé au hasard 200 000 SMS invitant des personnes dans tout le pays à partager leurs idées sur la fraude générée par l’IA, comme les arnaques deepfake où quelqu’un se fait passer pour une célébrité vendant des actions ou des cryptomonnaies.
Quand on interroge les gens individuellement, la plupart ne souhaitent pas que le gouvernement contrôle les médias ou les plateformes sociales, mais ils considèrent la fraude comme un problème sérieux.
À partir de ces répondants, nous avons sélectionné au hasard 447 volontaires pour former une assemblée citoyenne en ligne : environ 45 salles virtuelles de 10 personnes chacune. Ils ont discuté en visioconférence ; l’IA a aidé à résumer les points de vue, fournir des sous-titres en direct et faire émerger les synergies entre les différentes salles. Il n’y avait pas de partage viral, et les neuf autres salles ne pouvaient pas voir ce qui était dit ailleurs. Ce type de conception permet au consensus de parler plus fort que les extrêmes. Par exemple, certains participants ont proposé que les publicités sur les réseaux sociaux portent par défaut un avertissement du type « ceci est probablement une arnaque », à moins que l’annonceur ne signe de son vrai nom.
D’autres ont affirmé que si une publicité d’investissement anonyme entraîne un préjudice, la plateforme devrait en être conjointement responsable. À l’époque, TikTok n’avait pas encore de présence juridique à Taïwan, donc les gens estimaient qu’il n’était pas approprié de simplement « couper » la plateforme, mais qu’on pouvait réduire son trafic de 1 % par jour afin que les concurrents récupèrent progressivement les revenus publicitaires. Toutes ces mesures sont proportionnées et utilisent la force minimale nécessaire pour retirer du contenu ou réguler les plateformes. Finalement, quel que soit le parti, l’âge, le genre ou la profession, plus de 85 % des Taïwanais pouvaient accepter les propositions. Les 15 % restants n’ont pas vu leurs propositions initiales adoptées, mais estimaient malgré tout que le processus était légitime. Nous avons mené les discussions en mars, confirmé la faisabilité avec les plateformes en avril, puis adopté des amendements à la loi sur les signatures électroniques en mai et à la loi anti- fraude en juillet.
Depuis, le volume des publicités frauduleuses a chuté de plus de 90 %, et on en voit à peine lorsqu’on fait défiler les réseaux sociaux. Voilà à quoi ressemble l’usage d’Internet et de l’IA pour amplifier le consensus plutôt que le conflit. Et cela est clairement favorable à la démocratie. En 2014, vTaiwan a été créé comme une consultation ouverte et décentralisée rassemblant les Taïwanais en ligne et hors ligne, redécouvrant la force de la participation citoyenne dans le processus démocratique.
Pouvez-vous partager les résultats de cette initiative aujourd’hui ?
Audrey Tang I La création de vTaiwan en 2014 a été un moment charnière pour moi et pour tout le mouvement civic tech à Taïwan, démontrant la puissance latente de l’intelligence collective. Aujourd’hui, son résultat le plus durable est d’avoir fondamentalement transformé la culture de gouvernance. Nous sommes passés d’un environnement de faible confiance, où le gouvernement était vu avec suspicion, à un environnement où la capacité d’agir du public est considérée comme allant de soi. La plateforme, utilisant des outils comme Polis, a démontré que nous pouvons étendre la démocratie délibérative en cartographiant visuellement le consensus approximatif parmi une diversité d’opinions, plutôt qu’en laissant les voix les plus fortes dominer. Cette approche a conduit à des changements politiques concrets, comme la régulation de services tels qu’Uber et l’élaboration de notre législation sur la FinTech.
Plus de 80 % des sujets discutés via vTaiwan ont abouti à une action gouvernementale réel.
L’impact le plus significatif de vTaiwan est son modèle de résilience face à la polarisation et à la désinformation. En créant un espace où des personnes ayant des points de vue profondément différents sont encouragées à trouver un terrain d’entente — un mécanisme de rapprochement plutôt que de division — nous avons montré au monde une voie praticable pour la démocratie numérique. La technologie elle-même est open source et transparente, permettant aux citoyens d’inspecter les données et le code, ce qui est essentiel pour restaurer la confiance. Mais le modèle taïwanais ne consiste pas seulement à adopter de meilleures politiques : il s’agit d’instaurer une habitude de collaboration fréquente et rapide, où les citoyens ressentent un sentiment de propriété des enjeux politiques, transformant le conflit- magma en énergie géothermique favorisant la co-création.
En tant qu’Européens, que devrions-nous apprendre de l’expérience de vTaiwan ?
Audrey Tang I vTaiwan continue d’évoluer et d’inspirer mon travail aujourd’hui, particulièrement dans le domaine de la gouvernance de l’IA. Les Européens peuvent également tirer les leçons de vTaiwan, notamment les assemblées citoyennes et la délibération assistée par l’IA, pour garantir que le développement et l’usage de l’IA soient orientés par les personnes les plus concernées. La mission initiale de transformer l’Internet des objets en un Internet des êtres se manifeste désormais dans des technologies qui augmentent notre intelligence collective.
Je considère vTaiwan comme un laboratoire civique essentiel, dirigé par des volontaires, démontrant que la confiance radicale dans les citoyens, combinée à une technologie ouverte, est le moyen le plus efficace de renforcer et de pérenniser la démocratie à l’échelle mondiale.
Plus globalement, pensez-vous que les efforts législatifs européens sont suffisants pour contrôler et protéger l’espace numérique ?
Audrey Tang I Il est encourageant que l’UE utilise son pouvoir démocratique et économique pour adopter des lois complètes comme le Digital Services Act et le Digital Markets Act. Ces efforts sont essentiels pour établir des normes mondiales, notamment pour s’attaquer aux méfaits des modèles économiques extractifs et limiter le pouvoir immense des géants numériques. Je salue l’intention et l’engagement d’utiliser le droit pour imposer l’interopérabilité, l’équité et la responsabilité. Cette approche fondée sur l’État de droit constitue une base vitale de protection pour les citoyens et un fondement indispensable pour un espace numérique plus digne de confiance.
Toutefois, je pense que la seule régulation, centrée principalement sur les sanctions et la conformité, ne suffit pas à sécuriser l’avenir de notre liberté numérique.
D’après l’expérience de Taïwan, notamment grâce à notre approche « l’humour contre la rumeur », je vois la nécessité d’une stratégie double où l’engagement civique et le développement de technologies open source sont aussi importants que la réglementation. Alors que l’UE s’attaque au pouvoir des entreprises par le haut, nous nous attachons à augmenter l’intelligence collective par le bas. Nous devons investir dans des infrastructures numériques ouvertes et des algorithmes de rapprochement qui privilégient la collaboration dans la diversité plutôt que la division, et nous devons nous assurer que les citoyens soient dotés de compétences sur l’esprit critique et la culture informationnelle, et pas seulement de l’inclusion numérique.
Nous ne pourrons vraiment contrôler l’espace numérique qu’en donnant à chacun les moyens de co-créer, afin de garantir que la technologie serve l’humanité, et non l’inverse. La meilleure législation sera celle qui laisse suffisamment de place pour que ce type d’innovation civique puisse prospérer.
Pouvez-vous partager un exemple concret montrant comment l’open source peut protéger la démocratie ?
Audrey Tang I Un exemple puissant de la manière dont l’open source peut protéger la démocratie est la carte des masques (Mask Map) que nous avons développée à Taïwan au début de la pandémie. En période d’instabilité et d’incertitude, nous faisions face à une double menace : la COVID-19 et une infodémie (ndr, épidémie de désinformation) dangereuse autour des pénuries de masques. Le gouvernement a décidé de rationner les masques et, en trois jours, nous avons créé une carte publique en temps réel affichant l’inventaire de chaque pharmacie à Taïwan, à partir des données fournies par l’API ouverte du gouvernement. Cette carte n’était pas un produit gouvernemental : c’était une contribution de la civic tech utilisant du code et des principes de conception en open source. La puissance de l’open source a permis à des centaines de développeurs de contribuer immédiatement, en optimisant l’interface utilisateur, en créant des interfaces vocales pour les personnes malvoyantes et en l’intégrant à des applications cartographiques populaires comme Google Maps et Line (ndr, un réseau social japonais très utilisé en Asie).
Cette co-création rapide et décentralisée a protégé notre démocratie de deux manières. Premièrement, elle a résolu un problème logistique avec une transparence radicale, montrant directement où les masques pouvaient être obtenus, ce qui a facilité le partage de l’information et donc de l’accès aux masques. Grâce à un code source ouvert, les citoyens pouvaient vérifier l’exactitude des données et faire confiance au processus, ce qui a directement contré les rumeurs et la désinformation. Deuxièmement, cela a démontré un principe fondamental pour la résilience démocratique : le gouvernement n’est pas la seule source de solutions.
En travaillant avec la communauté des hackers civiques, nous avons transformé une crise nationale en une opportunité d’intelligence collective, transformant les soi-disant défaillances gouvernementales en un code commun pour l’amélioration de la société. Ce modèle — où le gouvernement fournit seulement les données ouvertes et où les citoyens forgent les outils — est la manière dont nous construisons la confiance et la résilience face aux menaces futures : une extraordinaire innovation sociale numérique.
En quoi la désinformation numérique représente-t-elle un danger pour la démocratie ? Pouvez-vous expliquer le mécanisme et les objectifs de ce phénomène ?
Audrey Tang I Le danger de la désinformation numérique pour la démocratie est, au fond, une crise de confiance collective et de réalité partagée. Le mécanisme est ingénieux et profondément cynique : il exploite le modèle économique des plateformes sociales, qui privilégient l’engagement plutôt que la vérité. Un mensonge circule plus vite qu’une vérité, car il est souvent conçu pour être plus sensationnel, polarisant ou émotionnellement frappant.
Les acteurs de la désinformation — qu’il s’agisse de forces autoritaires, de groupes politiques ou même d’entreprises — exploitent cela en élaborant des récits adaptés pour cibler des communautés spécifiques, exploitant des failles sociales ou politiques existantes. Leurs objectifs principaux sont de saper la confiance dans les institutions démocratiques, d’accroître la polarisation pour empêcher le dialogue constructif et, finalement, de manipuler la participation citoyenne afin de favoriser des résultats non démocratiques. Ils n’ont pas besoin que tout le monde croie au mensonge ; il suffit de générer assez de confusion et de méfiance pour que les gens doutent de tout, menant à l’apathie ou à l’extrémisme.
Un exemple actuel de ce mécanisme est la montée de l’IA générative. Si une vidéo d’un politicien ou d’une personnalité publique disant ou faisant quelque chose de controversé peut être instantanément et de manière crédible falsifiée, le public perd sa capacité à distinguer le vrai du faux. L’objectif ne se limite pas à discréditer une personne. Cela introduit le « dividende du menteur », où même une information authentique et compromettante peut être rejetée comme un deepfake. Notre attention doit donc se déplacer du simple debunking (vérification du contenu) vers le renforcement de la résilience sociétale, en donnant aux citoyens des outils open source et des compétences permettant d’analyser de manière critiques les médias. L’objectif final ? Co-créer un environnement numérique vérifiable et digne de confiance. C’est ainsi que nous libérons l’avenir, ensemble.
* * *
Cet interview a été réalisé par Giulio Zucchini, Head of Democracy and Digital d'Advens for People and Planet.

Directeur exécutif du Forum sur l’Information et la Démocratie
Camille Grenier : « Il n’y aura pas d’innovation sans régulation »
Tandis que l’Union Européenne s’apprête à assouplir les règles sur l’IA et la protection des données, d’autres voix se lèvent pour évoquer les risques. De fait, le manque de régulation des plateformes numériques génère d'importantes vulnérabilités pour nos démocraties. Camille Grenier, directeur exécutif du Forum sur l’Information et la Démocratie, analyse les mutations de l’espace numérique et les principes pour le réguler. Le Forum sur l’Information et la Démocratie, créé en 2019 est une organisation internationale qui rassemble États, société civile et monde de la recherche pour promouvoir un espace informationnel démocratique et pluraliste.
Responsable de Cyberguerre à Numerama
Amine Baba Aissa : « La lune de miel avec le numérique est terminée »
L’intelligence artificielle est la technologie qui s’est diffusée massivement le plus rapidement. “Près de 9 Français sur 10 ont entendu parler de l’IA générative, et 4 sur 10 l’utilisent, selon une étude d’IPSOS de février 2025. Quelles sont les conséquences, les risques et les opportunités associés à la révolution de l’IA ? Dans un contexte géopolitique en pleine évolution, l’utilisation croissante d’outils technologiques soulève des enjeux de souveraineté, de protection des personnes vulnérables face aux menaces cybers, mais aussi de compréhension des enjeux techniques par le grand public. Nous avons exploré ces enjeux avec Amine Baba Aissa, journaliste responsable de la rubrique Cyberguerre chez Numerama.

Directeur administratif et financier de Droit Pluriel
Sébastien Courou : « Nous sommes tous vulnérables face aux menaces numériques »
Engagée pour l’égalité et la défense des droits des personnes en situation de handicap, l’association Droit Pluriel agit au croisement du droit, de l’inclusion et du numérique. Accompagnée par le programme Cyber for Good en 2025, elle a entrepris une réflexion profonde sur la protection des données et la cybersécurité. Son directeur adjoint, Sébastien Courou, revient sur les apprentissages et les transformations nées de cette collaboration.