< Retour

Expert Cyber & IA I Advens

Léonard Keat : « L’IA ne crée pas le problème de souveraineté numérique, elle l’amplifie »

Face à l’arrivée de l’IA dans le paysage numérique, le secteur associatif se retrouve à la croisée des chemins : entre opportunités inédites pour renforcer sa mission et défis croissants en matière de cybersécurité. Comment ces acteurs, souvent limités en ressources, peuvent-ils tirer parti des outils intelligents sans s’exposer aux risques d’un monde toujours plus connecté ? Rencontre avec Léonard Keat, expert en cyber et IA chez Advens, pour décrypter les enjeux et les solutions d’une technologie en pleine mutation.



L’intelligence artificielle fait déjà partie de notre quotidien en tant qu’étudiants, citoyens et consommateurs… quels sont les risques majeurs associés à cette technologie ?

Léonard Keat I  L’IA s’invite dans nos vies avec une efficacité redoutable : elle nous assiste, nous simplifie la tâche, nous fait gagner un temps précieux. Mais derrière cette promesse de confort se cache un risque insidieux : celui de l’affaiblissement de notre autonomie intellectuelle. À force de déléguer nos réflexions et nos décisions, nous risquons de perdre ce qui fait notre singularité : notre capacité à comprendre, à questionner, à créer. Le danger n’est pas l’outil en lui-même, mais l’abandon progressif de notre esprit critique. L’IA doit rester un levier d’émancipation, pas un substitut à notre intelligence.

Quels sont les principaux risques liés à l’utilisation de l’IA dans les systèmes de cybersécurité ?

Léonard Keat I L’IA promet une vigilance constante, mais elle n’est pas infaillible. Elle peut se tromper, halluciner, et classer une menace comme bénigne — ou l’inverse. Dans un domaine aussi critique que la cybersécurité, une erreur minuscule peut ouvrir une brèche immense. Pire encore : l’IA elle-même peut devenir une cible, voire un vecteur d’attaque. Les modèles intégrés aux systèmes de défense sont exposés à des manipulations, comme le montre les études sur les menaces de l'IA générative.

« L’enjeu est donc double : protéger et fiabiliser les systèmes, mais aussi l’intelligence artificielle qui les renforce ».

Comment l’IA peut-elle être utilisée pour renforcer la détection et la prévention des cyberattaques ?

Léonard Keat I L’IA agit comme un radar intelligent, capable de repérer l’invisible. Elle analyse des flux massifs de données, détecte des comportements suspects, et anticipe les intrusions avant même qu’elles ne se produisent. Par exemple, dans nos boîtes mail, elle filtre les tentatives de phishing avec une précision exponentielle. Mais son vrai pouvoir réside dans sa capacité à corréler des signaux faibles, à apprendre des attaques passées, et à assister les analystes dans leurs décisions. L’IA ne remplace pas l’humain, elle l'augmente — en lui offrant une vision plus large, plus rapide, et plus fine des menaces.

La digitalisation des services privés ou publics de la dernière décennie (et plus) a sous-estimé les questions de souveraineté numérique. Est-ce que ce sujet est plus pris en compte dans l’intégration de l’IA dans les entreprises et les administrations aujourd’hui ?

Léonard Keat I L’essor de l’IA agit comme un nouveau révélateur : il met en lumière les abandons face à une numérisation trop désordonnée et trop dépendante de solutions étrangères. Aujourd’hui, certaines initiatives privées tentent de reprendre la main, en privilégiant des modèles souverains comme Mistral. Mais ces choix restent souvent symboliques, faute d’un véritable écosystème européen solide. L’IA ne crée pas le problème de souveraineté numérique — elle l’amplifie.

« Sans stratégie commune, les entreprises et les administrations risquent de rester captives de technologies qu’elles ne contrôlent ni dans leur conception, ni dans leur évolution ».

Quels sont les défis majeurs pour maintenir la souveraineté numérique face à la domination des grandes plateformes étrangères ?

Léonard Keat I Le défi est immense, car il ne s’agit pas seulement de technologie, mais de volonté politique et de coopération stratégique au niveau européen. Face aux géants américains et chinois, l’Europe peine à parler d’une seule voix. Des initiatives comme Mistral montrent un potentiel, mais restent isolées. Sans un soutien massif et coordonné, ces projets risquent de perdre leur indépendance. La souveraineté numérique ne se décrète pas : elle se construit, patiemment, avec des investissements, des alliances et une vision commune. Aujourd’hui, cette vision manque — et c’est là le vrai risque.

L’utilisation massive des chatbots (Chatgpt, Mistral, Gemini..) est-elle durable d’un point de vue environnementale ?

Léonard Keat I L’IA conversationnelle soulève une vraie question de sobriété numérique. Chaque requête, chaque réponse, mobilise des ressources considérables — serveurs, énergie, refroidissement. Ce n’est pas l’usage ponctuel qui pose problème, mais la frénésie de sollicitations pour des tâches parfois triviales. Avant d’interroger un chatbot, ne pourrait-on simplement chercher par soi-même, ou demander à son entourage ? L’enjeu est de retrouver le bon sens dans nos usages. L’IA peut nous aider, mais elle ne doit pas devenir notre premier réflexe. La durabilité commence par une réflexion sur la pertinence de chaque interaction.

Comment s’assurer que les systèmes d’IA ne reproduisent pas ou n’amplifient pas des biais qui pourraient nuire à la sécurité ou à la confidentialité ?

Léonard Keat I Les biais ne sont pas toujours conscients : ce sont des héritages invisibles, souvent enfouis dans les données, les méthodes d’apprentissage ou les règles implicites des modèles. Pour les corriger, les concepteurs doivent agir en amont, avec rigueur et transparence. Mais la responsabilité ne repose pas uniquement sur eux. En tant qu’utilisateurs, nous devons aussi apprendre à formuler nos requêtes avec attention, à interroger nos propres biais. Car un biais peut naître d'une simple phrase mal formulée. Il est de notre ressort d'utiliser l'IA avec conscience et responsabilité.

* * *

Rédactrice en chef & Vice-présidente senior chargée des partenariats, Europe et Canada

Chine Labbé : « Constituer son propre corpus de sources fiables est aujourd’hui indispensable »

À l’heure où les faux récits se propagent à grande vitesse sur le Web, le monde de l’information est à un tournant : comment restaurer la confiance sans freiner le flux numérique ? Fondée en 2018, la start-up NewsGuard s’est donné pour mission d’apporter une réponse concrète à ce défi en évaluant la fiabilité des sites d’actualité et en démentant les principales fausses informations qui circulent en ligne, grâce à une analyse journalistique rigoureuse. Rencontre avec Chine Labbé pour comprendre comment naviguer dans un environnement informationnel saturé.

Directeur exécutif du Forum sur l’Information et la Démocratie

Camille Grenier : « Il n’y aura pas d’innovation sans régulation »

Tandis que l’Union Européenne s’apprête à assouplir les règles sur l’IA et la protection des données, d’autres voix se lèvent pour évoquer les risques. De fait, le manque de régulation des plateformes numériques génère d'importantes vulnérabilités pour nos démocraties. Camille Grenier, directeur exécutif du Forum sur l’Information et la Démocratie, analyse les mutations de l’espace numérique et les principes pour le réguler. Le Forum sur l’Information et la Démocratie, créé en 2019 est une organisation internationale qui rassemble États, société civile et monde de la recherche pour promouvoir un espace informationnel démocratique et pluraliste.

Responsable de Cyberguerre à Numerama

Amine Baba Aissa : « La lune de miel avec le numérique est terminée »

L’intelligence artificielle est la technologie qui s’est diffusée massivement le plus rapidement. “Près de 9 Français sur 10 ont entendu parler de l’IA générative, et 4 sur 10 l’utilisent, selon une étude d’IPSOS de février 2025. Quelles sont les conséquences, les risques et les opportunités associés à la révolution de l’IA ? Dans un contexte géopolitique en pleine évolution, l’utilisation croissante d’outils technologiques soulève des enjeux de souveraineté, de protection des personnes vulnérables face aux menaces cybers, mais aussi de compréhension des enjeux techniques par le grand public. Nous avons exploré ces enjeux avec Amine Baba Aissa, journaliste responsable de la rubrique Cyberguerre chez Numerama.