Objectif I
Mettre en place une gouvernance de l’IA est essentiel pour garantir des usages responsables, alignés avec la mission et les valeurs d’un OSBL. Ce module vise à identifier les rôles, répartir clairement les responsabilités et structurer un cadre éthique et opérationnel, afin d’assurer une adoption maîtrisée, transparente et sécurisée de l’intelligence artificielle.
Ce module est un extrait du Guide sur l’encadrement de l’usage de l’IA au sein des associations et fondations, rédigé par France générosités et Don en Confiance à destination des associations et fondations.
1. Comment définir et répartir les responsabilités ?
🏢L’IA dans votre organisation
L’intégration de l’intelligence artificielle au sein d’un OSBL implique une réflexion profonde sur la gouvernance. Qui décide des usages de l’IA ? Qui en supervise la mise en œuvre ? Qui en assume les risques ? Sans une répartition claire des rôles et des responsabilités, les projets d’IA peuvent rapidement devenir sources de confusion, de désengagement, voire de risques juridiques ou éthiques. Une gouvernance solide repose sur l’implication de plusieurs niveaux de responsabilité, chacun jouant un rôle complémentaire. La structuration des responsabilités est à personnaliser en fonction du contexte de chaque organisation.
Les repères suivants peuvent être pris en compte dans cette réflexion :
— La direction générale
Elle porte la vision stratégique et garantie que l’usage de l’IA s’aligne avec la mission, les valeurs et les objectifs de l’organisation. Les responsabilités sont les suivantes :
• valider les grands principes d’utilisation de l’IA (ex. : charte éthique, budget alloué) ;
• s’assurer que les projets d’IA respectent les enjeux juridiques (RGPD, RIA, etc.) et les engagements éthiques de la structure (ex : charte éthique) ;
• arbitrer en cas de conflits d’intérêts ou de désaccords sur les priorités.
— Un comité de pilotage dédié à l’IA
Il supervise la mise en œuvre des projets et en évaluer l’impact, avec des représentants des services concernés (juridique, informatique, DSI, marketing, etc.), ainsi que des bénévoles ou bénéficiaires, si cela est pertinent. Les responsabilités sont les suivantes :
• évaluer les opportunités et risques des projets d’IA (via des audits ou des tests pilotes, cf. page 13) ;
• prioriser les initiatives en fonction de leur alignement avec la stratégie globale ;
• rendre compte régulièrement à la direction et aux équipes.
— Les responsables métiers
Les responsables métiers ou de services (communication, programmes, finance, etc.) sont les relais opérationnels de l’IA dans leur domaine. Les responsabilités sont les suivantes :
• identifier les besoins concrets de leur service et proposer des cas d’usage pertinents ;
• former et accompagner leurs équipes à l’utilisation des outils ;
• remonter les alertes (ex. : dysfonctionnements, risques éthiques).
— Les équipes techniques
Les équipes techniques (informatique, DSI, data, etc.) garantissent la faisabilité technique et la sécurité des solutions. Les responsabilités sont les suivantes :
• choisir et configurer les outils adaptés aux besoins métiers ;
• sécuriser les données et veiller à la conformité réglementaire ;
• documenter les processus pour assurer la transparence.
— Les juristes et responsables conformité
Ils veillent au respect des cadres légaux (RGPD, RIA, droit du travail et toute autre réglementation sectorielle applicable). Les responsabilités sont les suivantes :
• valider les contrats avec les prestataires d’IA (clauses de confidentialité, propriété des données, sécurité, etc.) ;
• former les équipes aux obligations légales (ex : droits des personnes, analyse d’impact) ;
• auditer les outils pour détecter les risques juridiques.
— Les utilisateurs finaux
Les utilisateurs finaux (collaborateurs, bénévoles) utilisent l’IA de manière responsable et remontent les retours terrain. Les responsabilités sont les suivantes :
• suivre les bonnes pratiques définies par l’organisation (ex. : charte d’usage) et définir un cadre de sanction ;
• signaler les problèmes ou limites rencontrés.
Une gouvernance de l’IA efficiente et pertinente ne doit pas être figée. Il convient d’instaurer un suivi régulier, une évaluation des formalisations internes liées à l’IA (charte, fiches de rôle, processus, etc.) et un processus d’amélioration continue défini à l’avance (capitalisation des retours d’expérience, des tests, réévaluation des outils, formation continue, etc.).
Bonne pratique : L’ensemble des responsabilités peut être consigné dans un document de référence élaboré par la gouvernance pour éviter les flous et les chevauchements, tel qu’une charte d’usage de l’IA, des fiches de rôle et/ou encore un processus de décision.
2. Comment construire un cadre responsable et éthique de l’usage de l’IA ?
L’encadrement de l’utilisation de l’IA au sein d’un OSBL peut prendre différentes formes, telles qu’une charte éthique et/ou une politique d’usage.
Une charte éthique est un document de principe qui formalise les valeurs, les engagements et les lignes directrices morales d’une organisation concernant l’usage d’une technologie, ici l’IA. Elle vise à garantir que les pratiques sont alignées avec la mission sociale, les valeurs fondamentales et les attentes des parties prenantes.
Une politique d’usage est un document opérationnel et contraignant qui définit les règles pratiques, les procédures et les obligations liées à l’utilisation de l’IA au sein de l’organisation.
Bonne pratique : Une association ou une fondation peut commencer par construire sa charte éthique pour poser les bases, puis décliner ces principes en règles concrètes dans la politique d’usage. Les deux documents doivent être cohérents et complémentaires : la charte répond à la question : « Pourquoi et selon quelles valeurs utilisons-nous l’IA ? ». La politique répond à la question : « Comment utilisons-nous l’IA au quotidien, et quelles sont les règles ? »
Pour élaborer sa charte éthique et sa politique d’usage de l’IA, un certain nombre de grands principes devraient être respectés :
• Co-construire pour assurer l’efficacité et l’adhésion ;
• Définir les termes et créer un socle commun de compréhension ;
• Indiquer une méthode rigoureuse de sélection des outils d’IA ;
• Préciser les utilisateurs concernés par les principes édictés dans la charte (ex. : salariés, dirigeants, bénévoles) ;
• Clarifier les usages interdits et autorisés, avec un rappel des principes fondamentaux ;
• Lister les outils interdits et ceux autorisés, tout en prévoyant une granularité dans leur utilisation, par le biais d’une classification des informations par exemple,
• Présenter un inventaire des risques saillants ;
• Une charte éthique ou une politique d’usage efficace n’est pas figée et doit être revue régulièrement.
— La charte éthique
La co-construction de ce document est essentielle pour en assurer l’adhésion et l’efficacité, en impliquant l’ensemble des collaborateurs ou à défaut des représentants des différents services, afin de recueillir différentes perspectives. Cette approche collaborative permet de couvrir tous les angles, tout en renforçant la légitimité de la charte auprès des équipes. Les organes représentatifs internes devraient aussi être mobilisés, comme le Comité Social et Économique (CSE) – surtout si l’IA impacte les conditions de travail ou utilise les données à caractère personnel des salariés. En intégrant ces acteurs dès le processus d’élaboration, l’organisation garantit le respect des droits des personnes concernées, prévient les éventuelles interrogations et résistances et, in fine, renforce la transparence et la confiance de chacun dans le projet. Bonne pratique Afin de poser un langage commun qui facilitera la compréhension des enjeux par tous, il est recommandé de définir en introduction de la charte les termes clés utilisés dans le domaine de l’IA (intelligence artificielle générative, machine learning, etc.). Comme mentionné précédemment (Cf page 7), il est essentiel de souligner que les applications d’IA sont de plus en plus intégrées aux outils et logiciels professionnels existants pour enrichir leurs fonctionnalités. Cette réalité doit être prise en compte, car même si une association ou une fondation n’envisage pas d’utiliser directement l’IA, une charte dédiée reste pertinente pour encadrer les usages indirects et garantir une utilisation responsable de ces technologies.
— La politique d’usage
La politique d’usage doit préciser une méthode rigoureuse de sélection des outils, en s’appuyant par exemple sur les critères détaillés en annexe (sécurité, conformité, coût, éthique, etc.). Cette démarche permet d’éviter les choix hasardeux et de privilégier des solutions alignées avec les valeurs et répondant aux contraintes de l’organisation. Ce document a notamment vocation à :
• préciser les usages autorisés et ceux strictement interdits, en définissant des limites nettes pour éviter toute ambiguïté ou dérive ;
• intégrer un rappel des principes fondamentaux régissant l’utilisation de l’IA afin d’ancrer ces valeurs dans les pratiques quotidiennes (respect de la vie privée, transparence,
sobriété numérique, vérification systématique des résultats pour pallier les biais algorithmiques, etc.) ;
• lister les outils approuvés par l’organisation, en excluant explicitement ceux qui ne répondent pas aux critères de sécurité, d’éthique ou de conformité préalablement définis.
En complément, et selon la sensibilité des données manipulées, il peut être utile d’y inclure une classification des informations (par exemple, en catégories C1, C2, C3 selon leur niveau de confidentialité), afin de guider les collaborateurs sur les précautions à prendre en fonction des données traitées. Enfin, pour sensibiliser les équipes aux enjeux liés à l’IA, le document peut présenter un inventaire des risques saillants, sans prétendre à l’exhaustivité, tels que les fuites de données, les biais discriminatoires, la dépendance technologique ou les non-conformités réglementaires. Cette approche permet aux utilisateurs de comprendre les dangers et d’adopter des comportements responsables, tout en offrant à l’organisation un cadre juridique solide pour agir en cas de manquement. Pour être efficace dans le temps, les charte éthique et politique d’usage ne doivent pas être figées : elles s’enrichissent au gré des retours terrain et s’adaptent aux besoins émergents. A cette fin, les modalités de révision régulières devraient être prévues dès la conception de ces documents, avec des échéances claires et des mécanismes permettant aux collaborateurs de proposer des ajustements en fonction de l’évolution des usages, des technologies ou des réglementations.
3. Exemples de bonnes pratiques à inclure dans sa charte éthique ou sa politique d’usage dédiée à l’IA
Ce que vous allez voir :
Ce chapitre propose des exemples de bonnes pratiques et de clauses à intégrer dans la charte éthique et/ou la politique d’usage d’IA des OSBL. Prenant en compte les spécificités du secteur de la générosité, ces recommandations ont pour objectif de répondre à cinq grandes catégories de risques :
• Risques règlementaires (RGPD, RIA ACT, droits d’auteurs, etc.)
• Risques éthiques (confidentialité, transparence, désinformation, etc.)
• Risques professionnels (fiabilité, intelligibilité, sécurité, fuite des données, accès, etc.)
• Risques sociétaux (droits fondamentaux, recrutement, etc.)
• Risques environnementaux
🏛️ Risques réglementaires
D’une manière générale, la connaissance et le respect des réglementations ainsi que le respect des règles déontologiques doivent être garantis par les associations et fondations, en particulier dans l’utilisation des SIA. Cela implique notamment,
• Le respect de la règlementation européenne sur l’IA, et notamment des 7 principes éthiques énumérés par le RIA (cf. page 10).
• La protection des données personnelles et des données sensibles : des normes de sécurité rigoureuses doivent être respectées, conformément aux réglementations applicables en matière de protection des données. La vie privée des bienfaiteurs (donateurs, testateurs), des bénévoles, des salariés, des bénéficiaires et de toutes autres parties prenantes doit être préservée
• La protection des droits d’auteurs lors de l’utilisation ou de la création de contenus générés par l’intelligence artificielle.
⚖️ Risques éthiques
Transparence à l’égard des utilisateurs finaux :
• dans la communication : les utilisateurs doivent notamment être clairement informés lorsqu’ils interagissent avec une intelligence artificielle ou lorsqu’une image ou un contenu lié à une campagne a été généré à l’aide de l’IA.
• dans l’utilisation : la transparence doit être démontrée dans le développement, le déploiement et l’utilisation des technologies d’IA. Des explications claires doivent être fournies sur les méthodologies, les résultats, les rapports, les mesures et les impacts potentiels de l’IA sur les utilisateurs finaux.
Définition des responsabilités : elles doivent être définies à chaque étape de la conception, du développement et du déploiement de l’IA, conformément aux cadres internes existants.
Éthique des données : des normes éthiques doivent être respectées en matière de collecte, d’analyse et d’utilisation des données (exactitude et pertinence des données, recueil du consentement).
Inclusivité et bienveillance : une démarche active contre les préjugés et les discriminations doit être menée tout au long du cycle de vie des SIA. Un cadre doit être développé pour surveiller et évaluer les SIA.
Bonne pratique : Une attention particulière doit être apportée aux outils reposant sur l’IA générative afin que ceux-ci soient utilisés de manière responsable. Aucun contenu
entièrement rédigé par l’IA ne doit être publié sans contrôle ni retraitement humain : vérifications portantes sur l’exactitude, la partialité, le ton et les éventuels plagiats.
🪪Risques professionnels
L’utilisation de l’IA, hors cadre défini par la politique interne, doit toujours être signalée au responsable de service, afin que les risques éventuels puissent être gérés de manière appropriée.
La sécurité de tout outil d’IA doit être évaluée avant son utilisation : les fonctionnalités de sécurité, les conditions d’utilisation et la politique de confidentialité de l’outil doivent être examinées. Tout outil d’IA utilisé doit respecter les normes de sécurité et de protection des données en vigueur. La réputation du développeur de l’outil, ainsi que celle des services tiers associés, doit également être vérifiée.
Seuls des outils d’IA réputés doivent être utilisés : une prudence particulière doit être exercée lors de l’utilisation d’outils développés par des personnes ou des entreprises dont la réputation n’est pas encore établie.
Aucune donnée confidentielle, exclusive ou protégée ne doit être téléchargée ou partagée dans un système d’intelligence artificielle sans information et accord préalable du service compétent. En toute hypothèse, de telles données ne peuvent être partagées qu’avec des solutions qui garantissent le cloisonnement des données et la non-réutilisation à des fins d’entrainement.
L’accès à des outils d’IA ne doit pas être accordé à des personnes extérieures à l’organisation sans l’accord préalable du service concerné ou du responsable référent. Les procédures requises pour respecter les exigences de conformité en matière de sécurité doivent être suivies, et aucun identifiant de connexion ou information sensible ne doit être partagé avec des tiers.
D’une manière générale, les bonnes pratiques de sécurité applicables à toutes les données de l’organisation doivent être pareillement respectées en matière d’IA par l’ensemble des parties prenantes (donateurs, collaborateurs, bénéficiaires, bénévoles, etc.). Cela inclut l’utilisation de mots de passe robustes, la mise à jour régulière des logiciels, ainsi que le respect des politiques de conservation et de suppression des données.
👥Risques sociétaux
L’impact social positif de l’IA dans le domaine de la collecte de fonds et des missions sociales des organisations d’intérêt général doit être maximisé, tandis que tout préjudice
potentiel doit être minimisé. Une attention particulière doit être portée aux besoins des bénéficiaires et des communautés concernées.
L’accès équitable à la technologie doit être garanti pour tous les membres de l’organisation et les parties prenantes.
Les préoccupations liées à la santé mentale des employés doivent être prises en considération et accompagnées de mesures adaptées, notamment en ce qui concerne :
• La crainte d’être remplacé par des machines (chômage technologique)
• Le sentiment de perte de pertinence professionnelle
La dignité humaine doit être respectée, en particulier dans le cadre de la surveillance liée à l’utilisation des technologies d’IA.
Lors des processus de recrutement, l’impact potentiel des biais présents dans les jeux de données des SIA doit être évalué et atténué. La formation doit être assurée pour permettre aux employés de garder le contrôle sur les outils d’IA.
La sécurisation de l’emploi doit être garantie, afin que l’IA reste sous contrôle humain. Une consultation en amont des salariés doit être organisée pour assurer la pertinence des systèmes d’intelligence artificielle et renforcer la confiance de tous.
🍃Risques environnementaux
La durabilité à long terme et l’impact environnemental des technologies d’IA doivent être pris en compte. A cette fin, des pratiques d’IA durables doivent être promues au sein de l’organisation d’intérêt général.
Sobriété de l’outil : des outils d’IA plus sobres doivent être privilégiés, notamment des modèles spécialisés, plus légers et moins énergivores. Les solutions open source doivent être favorisées pour encourager la réutilisation et limiter l’impact des phases d’entraînement, ainsi que les solutions françaises ou a minima européennes.
Sobriété dans l’usage : l’utilisation de l’IA doit être évaluée en amont pour déterminer si un autre outil ne serait pas plus adapté. Les utilisateurs doivent être formés à l’utilisation optimale des prompts (cf. page 6 – Etape 1).
Pour aller plus loin Comment bien prompter sur l’IA en 2026 pour éviter les risques et réduire son empreinte ?, France générosités, février 2026 n optimale des prompts (cf. page 6 – Etape 1).
L’impact environnemental des SIA doit être mesuré régulièrement à l’aide d’indicateurs tels que :
• Les ressources abiotiques,
• Le GWP (potentiel de réchauffement global et émissions de gaz à effet de serre),
• La consommation d’eau,
• La consommation d’énergie.
Pour les algorithmes, des outils comme Green Algorithms, Carbon Tracker, Code Carbon ou ML CO2 Impact peuvent être utilisés pour évaluer leur empreinte environnementale. De nombreuses ressources et plusieurs référentiels d’organismes indépendants ou spécialisés sur l’IA existent afin de permettre de sélectionner les grands principes à inclure (voire exclure) au sein de sa politique interne de l’usage de l’intelligence artificielle.
Pour aller plus loin :
• Guide sur l’encadrement de l’IA au sein des associations et fondations – France générosités
• Cadre de référence NIG (numérique d’intérêt général) : en 21 critères caractérisés compatibles avec l’intérêt général
• Framework toward Responsible and Beneficial AI – Fundraising AI
• Manifeste & cartographie de Dial IA
• RIA 31 : le référentiel IA – Éthique et Responsable – INRC
• Les ressources de Hub France
• Le référentiel AFNOR – 31 fiches pratiques sur l’IA éthique et frugale
• Proposals for Global Governance on AI – UN AI Advisory Body
• Les ressources à venir du projet PANAME de la CNIL, l’ANSSI, le PEReN et le projet IPoP du PEPR Cybersécurité

Ce module est un extrait duGuide : encadrer l’usage de l’IA au sein des associations et fondations, réalisé par France générosités et Don en confiance (Mars 2026).
Ce module est un extrait du Guide sur l’encadrement de l’usage de l’IA au sein des associations et fondations, rédigé par France générosités et Don en Confiance à destination des associations et fondations. Conçu comme un outil d’accompagnement, ce guide propose une démarche en trois étapes clés pour encadrer l’usage de l’IA au sein des organisations d’intérêt général.
→ Vient de paraître : Guide sur l'encadrement de l'IA au sein des associations et fondations - France générosités