< Retour

Expert Cyber & IA I Advens

Léonard Keat : « L’IA ne crée pas le problème de souveraineté numérique, elle l’amplifie »

Face à l’arrivée de l’IA dans le paysage numérique, le secteur associatif se retrouve à la croisée des chemins : entre opportunités inédites pour renforcer sa mission et défis croissants en matière de cybersécurité. Comment ces acteurs, souvent limités en ressources, peuvent-ils tirer parti des outils intelligents sans s’exposer aux risques d’un monde toujours plus connecté ? Rencontre avec Léonard Keat, expert en cyber et IA chez Advens, pour décrypter les enjeux et les solutions d’une technologie en pleine mutation.



L’intelligence artificielle fait déjà partie de notre quotidien en tant qu’étudiants, citoyens et consommateurs… quels sont les risques majeurs associés à cette technologie ?

Léonard Keat I  L’IA s’invite dans nos vies avec une efficacité redoutable : elle nous assiste, nous simplifie la tâche, nous fait gagner un temps précieux. Mais derrière cette promesse de confort se cache un risque insidieux : celui de l’affaiblissement de notre autonomie intellectuelle. À force de déléguer nos réflexions et nos décisions, nous risquons de perdre ce qui fait notre singularité : notre capacité à comprendre, à questionner, à créer. Le danger n’est pas l’outil en lui-même, mais l’abandon progressif de notre esprit critique. L’IA doit rester un levier d’émancipation, pas un substitut à notre intelligence.

Quels sont les principaux risques liés à l’utilisation de l’IA dans les systèmes de cybersécurité ?

Léonard Keat I L’IA promet une vigilance constante, mais elle n’est pas infaillible. Elle peut se tromper, halluciner, et classer une menace comme bénigne — ou l’inverse. Dans un domaine aussi critique que la cybersécurité, une erreur minuscule peut ouvrir une brèche immense. Pire encore : l’IA elle-même peut devenir une cible, voire un vecteur d’attaque. Les modèles intégrés aux systèmes de défense sont exposés à des manipulations, comme le montre les études sur les menaces de l'IA générative.

« L’enjeu est donc double : protéger et fiabiliser les systèmes, mais aussi l’intelligence artificielle qui les renforce ».

Comment l’IA peut-elle être utilisée pour renforcer la détection et la prévention des cyberattaques ?

Léonard Keat I L’IA agit comme un radar intelligent, capable de repérer l’invisible. Elle analyse des flux massifs de données, détecte des comportements suspects, et anticipe les intrusions avant même qu’elles ne se produisent. Par exemple, dans nos boîtes mail, elle filtre les tentatives de phishing avec une précision exponentielle. Mais son vrai pouvoir réside dans sa capacité à corréler des signaux faibles, à apprendre des attaques passées, et à assister les analystes dans leurs décisions. L’IA ne remplace pas l’humain, elle l'augmente — en lui offrant une vision plus large, plus rapide, et plus fine des menaces.

La digitalisation des services privés ou publics de la dernière décennie (et plus) a sous-estimé les questions de souveraineté numérique. Est-ce que ce sujet est plus pris en compte dans l’intégration de l’IA dans les entreprises et les administrations aujourd’hui ?

Léonard Keat I L’essor de l’IA agit comme un nouveau révélateur : il met en lumière les abandons face à une numérisation trop désordonnée et trop dépendante de solutions étrangères. Aujourd’hui, certaines initiatives privées tentent de reprendre la main, en privilégiant des modèles souverains comme Mistral. Mais ces choix restent souvent symboliques, faute d’un véritable écosystème européen solide. L’IA ne crée pas le problème de souveraineté numérique — elle l’amplifie.

« Sans stratégie commune, les entreprises et les administrations risquent de rester captives de technologies qu’elles ne contrôlent ni dans leur conception, ni dans leur évolution ».

Quels sont les défis majeurs pour maintenir la souveraineté numérique face à la domination des grandes plateformes étrangères ?

Léonard Keat I Le défi est immense, car il ne s’agit pas seulement de technologie, mais de volonté politique et de coopération stratégique au niveau européen. Face aux géants américains et chinois, l’Europe peine à parler d’une seule voix. Des initiatives comme Mistral montrent un potentiel, mais restent isolées. Sans un soutien massif et coordonné, ces projets risquent de perdre leur indépendance. La souveraineté numérique ne se décrète pas : elle se construit, patiemment, avec des investissements, des alliances et une vision commune. Aujourd’hui, cette vision manque — et c’est là le vrai risque.

L’utilisation massive des chatbots (Chatgpt, Mistral, Gemini..) est-elle durable d’un point de vue environnementale ?

Léonard Keat I L’IA conversationnelle soulève une vraie question de sobriété numérique. Chaque requête, chaque réponse, mobilise des ressources considérables — serveurs, énergie, refroidissement. Ce n’est pas l’usage ponctuel qui pose problème, mais la frénésie de sollicitations pour des tâches parfois triviales. Avant d’interroger un chatbot, ne pourrait-on simplement chercher par soi-même, ou demander à son entourage ? L’enjeu est de retrouver le bon sens dans nos usages. L’IA peut nous aider, mais elle ne doit pas devenir notre premier réflexe. La durabilité commence par une réflexion sur la pertinence de chaque interaction.

Comment s’assurer que les systèmes d’IA ne reproduisent pas ou n’amplifient pas des biais qui pourraient nuire à la sécurité ou à la confidentialité ?

Léonard Keat I Les biais ne sont pas toujours conscients : ce sont des héritages invisibles, souvent enfouis dans les données, les méthodes d’apprentissage ou les règles implicites des modèles. Pour les corriger, les concepteurs doivent agir en amont, avec rigueur et transparence. Mais la responsabilité ne repose pas uniquement sur eux. En tant qu’utilisateurs, nous devons aussi apprendre à formuler nos requêtes avec attention, à interroger nos propres biais. Car un biais peut naître d'une simple phrase mal formulée. Il est de notre ressort d'utiliser l'IA avec conscience et responsabilité.

* * *

Directeur administratif et financier de Droit Pluriel

Sébastien Courou : « Nous sommes tous vulnérables face aux menaces numériques »

Engagée pour l’égalité et la défense des droits des personnes en situation de handicap, l’association Droit Pluriel agit au croisement du droit, de l’inclusion et du numérique. Accompagnée par le programme Cyber for Good en 2025, elle a entrepris une réflexion profonde sur la protection des données et la cybersécurité. Son directeur adjoint, Sébastien Courou, revient sur les apprentissages et les transformations nées de cette collaboration.

Directeur général de Les Surligneurs

Vincent Couronne : « Le droit est le langage de la démocratie »

À l’ère de la désinformation, le droit devient un référentiel essentiel pour éclairer le citoyen. Le legal checking, méthode rigoureuse de vérification des discours politiques, médiatiques ou virales, s’impose comme un outil clé pour préserver l’intégrité de l’information et renforcer la démocratie. Comment cette approche, inspirée du fact-checking, permet-elle de démêler le vrai du faux dans un espace public saturé d’affirmations controversées ? Échange avec Vincent Couronne, fondateur de Les Surligneurs, pour comprendre comment le droit doit rester un outil et un langage commun entre institutions, médias et citoyens.

Directeur général I Wikimedia France

Rémy Gerbet : « Wikipedia est un commun numérique, non lucratif et sans publicité »

Face à la concentration des plateformes et à la marchandisation des données, le modèle de Wikipedia rappelle qu’une autre voie est possible — celle d’une information transparente et accessible à tous, portée par une communauté mondiale de contributeurs. Mais ce modèle, essentiel pour l’équilibre de l’espace informationnel, ne peut prospérer sans soutien. Comment préserver et développer cet écosystème alternatif, où la connaissance reste un bien commun et non une marchandise ? Rencontre avec Rémy Gerbet, directeur général de Wikimedia France, pour explorer les défis et les horizons d’un web plus ouvert, plus solidaire et résolument humain.