< Retour

Module 2.6

Comment mettre en place une gouvernance de l’IA ? 

Objectif I

Mettre en place une gouvernance de l’IA est essentiel pour garantir des usages responsables, alignés avec la mission et les valeurs d’un OSBL. Ce module vise à identifier les rôles, répartir clairement les responsabilités et structurer un cadre éthique et opérationnel, afin d’assurer une adoption maîtrisée, transparente et sécurisée de l’intelligence artificielle.

Ce module est un extrait du Guide sur l’encadrement de l’usage de l’IA au sein des associations et fondations, rédigé par France générosités et Don en Confiance à destination des associations et fondations.

1. Comment définir et répartir les responsabilités ?

🏢L’IA dans votre organisation

L’intégration de l’intelligence artificielle au sein d’un OSBL implique une réflexion profonde  sur la gouvernance. Qui décide des usages de l’IA ? Qui en supervise la mise en œuvre ? Qui en assume les risques ? Sans une répartition claire des rôles et des responsabilités, les projets d’IA peuvent rapidement devenir sources de confusion, de désengagement, voire de risques juridiques ou éthiques. Une gouvernance solide repose sur l’implication  de plusieurs niveaux de responsabilité, chacun jouant un rôle complémentaire. La  structuration des responsabilités est à personnaliser en fonction du contexte de chaque  organisation.

Les repères suivants peuvent être pris en compte dans cette réflexion :  

— La direction générale 

Elle porte la vision stratégique et garantie que l’usage de l’IA s’aligne avec la mission, les  valeurs et les objectifs de l’organisation. Les responsabilités sont les suivantes :  

• valider les grands principes d’utilisation de l’IA (ex. : charte éthique, budget alloué) ; 

•  s’assurer que les projets d’IA respectent les enjeux juridiques (RGPD, RIA, etc.) et les  engagements éthiques de la structure (ex : charte éthique) ;  

• arbitrer en cas de conflits d’intérêts ou de désaccords sur les priorités. 

— Un comité de pilotage dédié à l’IA

Il supervise la mise en œuvre des projets et en évaluer l’impact, avec des  représentants des services concernés (juridique, informatique, DSI, marketing, etc.), ainsi  que des bénévoles ou bénéficiaires, si cela est pertinent. Les responsabilités sont les  suivantes :  

• évaluer les opportunités et risques des projets d’IA (via des audits ou des tests pilotes,  cf. page 13) ;  

• prioriser les initiatives en fonction de leur alignement avec la stratégie globale ;

• rendre  compte régulièrement à la direction et aux équipes. 

— Les responsables métiers

Les responsables métiers ou de services (communication, programmes, finance, etc.)  sont les relais opérationnels de l’IA dans leur domaine. Les responsabilités sont les  suivantes : 

• identifier les besoins concrets de leur service et proposer des cas d’usage pertinents ; 

•  former et accompagner leurs équipes à l’utilisation des outils ;  

• remonter les alertes (ex. : dysfonctionnements, risques éthiques).

— Les équipes techniques

Les équipes techniques (informatique, DSI, data, etc.) garantissent la  faisabilité technique et la sécurité des solutions. Les responsabilités sont les suivantes :

•  choisir et configurer les outils adaptés aux besoins métiers ; 

• sécuriser les données et veiller à la conformité réglementaire ;  

• documenter les processus pour assurer la transparence.  

— Les juristes et responsables conformité  

Ils veillent au respect des cadres légaux (RGPD, RIA, droit du travail et toute autre  réglementation sectorielle applicable). Les responsabilités sont les suivantes :  

• valider les contrats avec les prestataires d’IA (clauses de confidentialité, propriété des  données, sécurité, etc.) ; 

• former les équipes aux obligations légales (ex : droits des personnes, analyse d’impact) ; 

• auditer les outils pour détecter les risques juridiques. 

— Les utilisateurs finaux  

Les utilisateurs finaux (collaborateurs, bénévoles) utilisent l’IA de manière responsable et  remontent les retours terrain. Les responsabilités sont les suivantes :  

• suivre les bonnes pratiques définies par l’organisation (ex. : charte d’usage) et définir un  cadre de sanction ; 

• signaler les problèmes ou limites rencontrés.  

Une gouvernance de l’IA efficiente et pertinente ne doit pas être figée. Il convient  d’instaurer un suivi régulier, une évaluation des formalisations internes liées à l’IA (charte,  fiches de rôle, processus, etc.) et un processus d’amélioration continue défini à l’avance  (capitalisation des retours d’expérience, des tests, réévaluation des outils, formation  continue, etc.). 

Bonne pratique : L’ensemble des responsabilités peut être consigné dans un document  de référence élaboré par la gouvernance pour éviter les flous et les chevauchements, tel  qu’une charte d’usage de l’IA, des fiches de rôle et/ou encore un processus de décision.  

2. Comment construire un cadre responsable et éthique de l’usage de l’IA ? 

L’encadrement de l’utilisation de l’IA au sein d’un OSBL peut prendre différentes formes,  telles qu’une charte éthique et/ou une politique d’usage.  

Une charte éthique est un document de principe qui formalise les valeurs, les  engagements et les lignes directrices morales d’une organisation concernant l’usage  d’une technologie, ici l’IA. Elle vise à garantir que les pratiques sont alignées avec la  mission sociale, les valeurs fondamentales et les attentes des parties prenantes.  

Une politique d’usage est un document opérationnel et contraignant qui définit les règles  pratiques, les procédures et les obligations liées à l’utilisation de l’IA au sein de  l’organisation. 

Bonne pratique : Une association ou une fondation peut commencer par construire sa  charte éthique pour poser les bases, puis décliner ces principes en règles concrètes dans  la politique d’usage. Les deux documents doivent être cohérents et complémentaires : la  charte répond à la question : « Pourquoi et selon quelles valeurs utilisons-nous l’IA ? ». La  politique répond à la question : « Comment utilisons-nous l’IA au quotidien, et quelles sont  les règles ? » 

Pour élaborer sa charte éthique et sa politique d’usage de l’IA, un certain nombre de  grands principes devraient être respectés :  

• Co-construire pour assurer l’efficacité et l’adhésion ;  

• Définir les termes et créer un socle commun de compréhension ;  

• Indiquer une méthode rigoureuse de sélection des outils d’IA ;  

• Préciser les utilisateurs concernés par les principes édictés dans la charte (ex. : salariés,  dirigeants, bénévoles) ;  

• Clarifier les usages interdits et autorisés, avec un rappel des principes fondamentaux ;

•  Lister les outils interdits et ceux autorisés, tout en prévoyant une granularité dans leur  utilisation, par le biais d’une classification des informations par exemple, 

• Présenter un inventaire des risques saillants ;  

• Une charte éthique ou une politique d’usage efficace n’est pas figée et doit être revue  régulièrement. 

 

— La charte éthique  

La co-construction de ce document est essentielle pour en assurer l’adhésion et  l’efficacité, en impliquant l’ensemble des collaborateurs ou à défaut des représentants  des différents services, afin de recueillir différentes perspectives. Cette approche  collaborative permet de couvrir tous les angles, tout en renforçant la légitimité de la charte  auprès des équipes. Les organes représentatifs internes devraient aussi être mobilisés,  comme le Comité Social et Économique (CSE) – surtout si l’IA impacte les conditions de  travail ou utilise les données à caractère personnel des salariés. En intégrant ces acteurs  dès le processus d’élaboration, l’organisation garantit le respect des droits des personnes  concernées, prévient les éventuelles interrogations et résistances et, in fine, renforce la  transparence et la confiance de chacun dans le projet. Bonne pratique Afin de poser un  langage commun qui facilitera la compréhension des enjeux par tous, il est recommandé  de définir en introduction de la charte les termes clés utilisés dans le domaine de l’IA  (intelligence artificielle générative, machine learning, etc.). Comme mentionné  précédemment (Cf page 7), il est essentiel de souligner que les applications d’IA sont de  plus en plus intégrées aux outils et logiciels professionnels existants pour enrichir leurs fonctionnalités. Cette réalité doit être prise en compte, car même si une association ou  une fondation n’envisage pas d’utiliser directement l’IA, une charte dédiée reste  pertinente pour encadrer les usages indirects et garantir une utilisation responsable de  ces technologies.  

— La politique d’usage  

La politique d’usage doit préciser une méthode rigoureuse de sélection des outils, en  s’appuyant par exemple sur les critères détaillés en annexe (sécurité, conformité, coût,  éthique, etc.). Cette démarche permet d’éviter les choix hasardeux et de privilégier des  solutions alignées avec les valeurs et répondant aux contraintes de l’organisation. Ce  document a notamment vocation à :  

• préciser les usages autorisés et ceux strictement interdits, en définissant des limites  nettes pour éviter toute ambiguïté ou dérive ;  

• intégrer un rappel des principes fondamentaux régissant l’utilisation de l’IA afin d’ancrer  ces valeurs dans les pratiques quotidiennes (respect de la vie privée, transparence, 

sobriété numérique, vérification systématique des résultats pour pallier les biais  algorithmiques, etc.) ;  

• lister les outils approuvés par l’organisation, en excluant explicitement ceux qui ne  répondent pas aux critères de sécurité, d’éthique ou de conformité préalablement définis. 

En complément, et selon la sensibilité des données manipulées, il peut être utile d’y  inclure une classification des informations (par exemple, en catégories C1, C2, C3 selon  leur niveau de confidentialité), afin de guider les collaborateurs sur les précautions à  prendre en fonction des données traitées. Enfin, pour sensibiliser les équipes aux enjeux  liés à l’IA, le document peut présenter un inventaire des risques saillants, sans prétendre à  l’exhaustivité, tels que les fuites de données, les biais discriminatoires, la dépendance  technologique ou les non-conformités réglementaires. Cette approche permet aux  utilisateurs de comprendre les dangers et d’adopter des comportements responsables,  tout en offrant à l’organisation un cadre juridique solide pour agir en cas de manquement.  Pour être efficace dans le temps, les charte éthique et politique d’usage ne doivent pas  être figées : elles s’enrichissent au gré des retours terrain et s’adaptent aux besoins  émergents. A cette fin, les modalités de révision régulières devraient être prévues dès la  conception de ces documents, avec des échéances claires et des mécanismes  permettant aux collaborateurs de proposer des ajustements en fonction de l’évolution des  usages, des technologies ou des réglementations. 

 

3. Exemples de bonnes pratiques à inclure dans sa charte éthique ou sa politique d’usage dédiée à l’IA  

Ce que vous allez voir :

Ce chapitre propose des exemples de bonnes pratiques et de clauses à intégrer dans la  charte éthique et/ou la politique d’usage d’IA des OSBL. Prenant en compte les  spécificités du secteur de la générosité, ces recommandations ont pour objectif de  répondre à cinq grandes catégories de risques :

• Risques règlementaires (RGPD, RIA ACT, droits d’auteurs, etc.)

• Risques éthiques (confidentialité, transparence, désinformation, etc.)

• Risques professionnels (fiabilité, intelligibilité, sécurité, fuite des données, accès, etc.)

•  Risques sociétaux (droits fondamentaux, recrutement, etc.)

• Risques environnementaux

🏛️ Risques réglementaires 

D’une manière générale, la connaissance et le respect des réglementations ainsi que le  respect des règles déontologiques doivent être garantis par les associations et fondations,  en particulier dans l’utilisation des SIA. Cela implique notamment,  

• Le respect de la règlementation européenne sur l’IA, et notamment des 7 principes  éthiques énumérés par le RIA (cf. page 10).  

• La protection des données personnelles et des données sensibles : des normes de  sécurité rigoureuses doivent être respectées, conformément aux réglementations  applicables en matière de protection des données. La vie privée des bienfaiteurs  (donateurs, testateurs), des bénévoles, des salariés, des bénéficiaires et de toutes autres  parties prenantes doit être préservée 

• La protection des droits d’auteurs lors de l’utilisation ou de la création de contenus  générés par l’intelligence artificielle. 

⚖️ Risques éthiques  

Transparence à l’égard des utilisateurs finaux :  

• dans la communication : les utilisateurs doivent notamment être clairement informés  lorsqu’ils interagissent avec une intelligence artificielle ou lorsqu’une image ou un  contenu lié à une campagne a été généré à l’aide de l’IA.  

• dans l’utilisation : la transparence doit être démontrée dans le développement, le  déploiement et l’utilisation des technologies d’IA. Des explications claires doivent être  fournies sur les méthodologies, les résultats, les rapports, les mesures et les impacts  potentiels de l’IA sur les utilisateurs finaux.  

Définition des responsabilités : elles doivent être définies à chaque étape de la  conception, du développement et du déploiement de l’IA, conformément aux cadres  internes existants.  

Éthique des données : des normes éthiques doivent être respectées en matière de  collecte, d’analyse et d’utilisation des données (exactitude et pertinence des données,  recueil du consentement).  

Inclusivité et bienveillance : une démarche active contre les préjugés et les  discriminations doit être menée tout au long du cycle de vie des SIA. Un cadre doit être  développé pour surveiller et évaluer les SIA.  

Bonne pratique : Une attention particulière doit être apportée aux outils reposant sur l’IA  générative afin que ceux-ci soient utilisés de manière responsable. Aucun contenu 

entièrement rédigé par l’IA ne doit être publié sans contrôle ni retraitement humain :  vérifications portantes sur l’exactitude, la partialité, le ton et les éventuels plagiats.

🪪Risques professionnels  

L’utilisation de l’IA, hors cadre défini par la politique interne, doit toujours être signalée au  responsable de service, afin que les risques éventuels puissent être gérés de manière  appropriée.  

La sécurité de tout outil d’IA doit être évaluée avant son utilisation : les fonctionnalités de  sécurité, les conditions d’utilisation et la politique de confidentialité de l’outil doivent être  examinées. Tout outil d’IA utilisé doit respecter les normes de sécurité et de protection des  données en vigueur. La réputation du développeur de l’outil, ainsi que celle des services  tiers associés, doit également être vérifiée.  

Seuls des outils d’IA réputés doivent être utilisés : une prudence particulière doit être  exercée lors de l’utilisation d’outils développés par des personnes ou des entreprises dont  la réputation n’est pas encore établie.  

Aucune donnée confidentielle, exclusive ou protégée ne doit être téléchargée ou partagée  dans un système d’intelligence artificielle sans information et accord préalable du service  compétent. En toute hypothèse, de telles données ne peuvent être partagées qu’avec des  solutions qui garantissent le cloisonnement des données et la non-réutilisation à des fins  d’entrainement.  

L’accès à des outils d’IA ne doit pas être accordé à des personnes extérieures à  l’organisation sans l’accord préalable du service concerné ou du responsable référent. Les  procédures requises pour respecter les exigences de conformité en matière de sécurité  doivent être suivies, et aucun identifiant de connexion ou information sensible ne doit être  partagé avec des tiers.  

D’une manière générale, les bonnes pratiques de sécurité applicables à toutes les  données de l’organisation doivent être pareillement respectées en matière d’IA par  l’ensemble des parties prenantes (donateurs, collaborateurs, bénéficiaires, bénévoles,  etc.). Cela inclut l’utilisation de mots de passe robustes, la mise à jour régulière des  logiciels, ainsi que le respect des politiques de conservation et de suppression des  données.  

👥Risques sociétaux  

L’impact social positif de l’IA dans le domaine de la collecte de fonds et des missions  sociales des organisations d’intérêt général doit être maximisé, tandis que tout préjudice 

potentiel doit être minimisé. Une attention particulière doit être portée aux besoins des  bénéficiaires et des communautés concernées.  

L’accès équitable à la technologie doit être garanti pour tous les membres de  l’organisation et les parties prenantes.  

Les préoccupations liées à la santé mentale des employés doivent être prises en  considération et accompagnées de mesures adaptées, notamment en ce qui concerne :  

• La crainte d’être remplacé par des machines (chômage technologique) 

• Le sentiment de perte de pertinence professionnelle  

La dignité humaine doit être respectée, en particulier dans le cadre de la surveillance liée à  l’utilisation des technologies d’IA.  

Lors des processus de recrutement, l’impact potentiel des biais présents dans les jeux de  données des SIA doit être évalué et atténué. La formation doit être assurée pour permettre  aux employés de garder le contrôle sur les outils d’IA.  

La sécurisation de l’emploi doit être garantie, afin que l’IA reste sous contrôle humain. Une  consultation en amont des salariés doit être organisée pour assurer la pertinence des  systèmes d’intelligence artificielle et renforcer la confiance de tous.  

🍃Risques environnementaux 

La durabilité à long terme et l’impact environnemental des technologies d’IA doivent être  pris en compte. A cette fin, des pratiques d’IA durables doivent être promues au sein de  l’organisation d’intérêt général.  

Sobriété de l’outil : des outils d’IA plus sobres doivent être privilégiés, notamment des  modèles spécialisés, plus légers et moins énergivores. Les solutions open source doivent  être favorisées pour encourager la réutilisation et limiter l’impact des phases  d’entraînement, ainsi que les solutions françaises ou a minima européennes.  

Sobriété dans l’usage : l’utilisation de l’IA doit être évaluée en amont pour déterminer si  un autre outil ne serait pas plus adapté. Les utilisateurs doivent être formés à l’utilisation  optimale des prompts (cf. page 6 – Etape 1). 

Pour aller plus loin Comment bien prompter sur l’IA en 2026 pour éviter les risques et  réduire son empreinte ?, France générosités, février 2026 n optimale des prompts (cf. page  6 – Etape 1). 

L’impact environnemental des SIA doit être mesuré régulièrement à l’aide d’indicateurs  tels que :  

• Les ressources abiotiques,  

• Le GWP (potentiel de réchauffement global et émissions de gaz à effet de serre),

• La  consommation d’eau,  

• La consommation d’énergie.  

Pour les algorithmes, des outils comme Green Algorithms, Carbon Tracker, Code Carbon  ou ML CO2 Impact peuvent être utilisés pour évaluer leur empreinte environnementale. De  nombreuses ressources et plusieurs référentiels d’organismes indépendants ou  spécialisés sur l’IA existent afin de permettre de sélectionner les grands principes à inclure  (voire exclure) au sein de sa politique interne de l’usage de l’intelligence artificielle. 

Pour aller plus loin : 

Guide sur l’encadrement de l’IA au sein des associations et fondations – France générosités

Cadre de référence NIG (numérique d’intérêt général) : en 21 critères caractérisés  compatibles avec l’intérêt général  

Framework toward Responsible and Beneficial AI – Fundraising AI  

Manifeste & cartographie de Dial IA 

RIA 31 : le référentiel IA – Éthique et Responsable – INRC  

• Les ressources de Hub France 

Le référentiel AFNOR – 31 fiches pratiques sur l’IA éthique et frugale 

Proposals for Global Governance on AI – UN AI Advisory Body  

IA for good 

Les ressources à venir du projet PANAME de la CNIL, l’ANSSI, le PEReN et le projet IPoP du PEPR Cybersécurité

Ce module est un extrait duGuide : encadrer l’usage de l’IA au sein des associations et fondations, réalisé par France générosités et Don en confiance (Mars 2026).

Ce module est un extrait du Guide sur l’encadrement de l’usage de l’IA au sein des associations et fondations, rédigé par France générosités et Don en Confiance à destination des associations et fondations. Conçu comme un outil d’accompagnement, ce guide propose une démarche en trois étapes clés pour encadrer l’usage de l’IA au sein des organisations d’intérêt général.
→ Vient de paraître : Guide sur l'encadrement de l'IA au sein des associations et fondations - France générosités

Module précédent

Module suivant