Guide opérationnel

Les 6 axes d'une gouvernance IA
responsable en établissement de santé

Un cadre structuré pour aider les directions, DRH, CME, DSI et cadres de santé à piloter l'IA générative de façon responsable — en conformité avec l'AI Act, le référentiel de certification HAS version 2025 (6e cycle) et le RGPD.

Planifier un échange stratégique →
Évaluer ma gouvernance IA →

L'intelligence artificielle, et en particulier l'IA générative, s'impose au cœur des établissements de santé : projets pilotes, usages métiers, assistants numériques, outils RH et solutions médico-techniques. La question n'est plus « faut-il y aller ? », mais « comment y aller de manière responsable, sécurisée et utile pour les patients et les professionnels ».

Ce cadre s'appuie sur mon expérience de membre expert au sein du programme PACTE de la HAS (certification RS6776 – Certiplace), sur mes missions de conseil et de formation en établissements de santé, et sur mes publications professionnelles (WEKA Santé, LEH Édition, Elsevier Masson, ManagerSante.com®).

Contexte réglementaire et enjeux pour les établissements de santé

Deux cadres structurants modifient en profondeur la manière de concevoir et de piloter les projets d'IA en santé :

Le règlement européen sur l'intelligence artificielle (AI Act) impose aux établissements de santé, en tant que « déployeurs » de systèmes d'IA, de structurer une gestion des risques, une supervision humaine et une traçabilité des usages. Les obligations relatives aux systèmes à haut risque et aux modèles d'IA à usage général (GPAI) entrent en vigueur progressivement à partir de 2025, avec des exigences de documentation, de transparence et de qualité des données.

Le référentiel de certification HAS version 2025 (6e cycle, 2025–2030) renforce le rôle du numérique dans l'évaluation des établissements. Il intègre des exigences spécifiques sur la gouvernance des outils numériques, l'analyse d'impact des dispositifs médicaux numériques (DMN), la cybersécurité et la maîtrise des solutions d'IA utilisées dans le parcours patient.

À ces cadres s'ajoutent le RGPD et les recommandations de la CNIL sur l'IA en santé, les exigences de cybersécurité (directive NIS2, PSSI) et les attentes sociétales croissantes en matière de transparence algorithmique.

Les risques ne sont pas seulement techniques : ils touchent la qualité et la sécurité des soins, la responsabilité médico-légale, l'organisation du travail, le dialogue social, l'image de l'établissement et la confiance des patients.

À qui s'adresse ce guide ?

Aux directions d'établissement et de GHT, DRH, CME, présidents de Commission Médicale, DSI, directions des soins, directions qualité-gestion des risques, cadres de santé, responsables formation et responsables transformation/innovation.

Les 6 axes d'une gouvernance IA responsable

01

Vision stratégique et feuille de route IA

Une gouvernance IA responsable commence par une vision claire : à quoi doit servir l'IA dans votre établissement, pour quels enjeux prioritaires, avec quelles limites et quel niveau d'ambition. L'enjeu est d'inscrire les projets IA dans une feuille de route réaliste, alignée avec le projet d'établissement, le projet médical partagé, le projet social et la stratégie numérique.

  • Clarifier les finalités prioritaires : amélioration de la qualité des soins, soutien aux professionnels, optimisation des processus, pilotage médico-économique, attractivité et QVCT.
  • Cartographier les usages actuels et envisagés de l'IA (clinique, médico-technique, RH, gestion, formation, communication…).
  • Définir une trajectoire pluriannuelle : phases d'exploration, expérimentation, déploiement et industrialisation.
  • Organiser une gouvernance partagée associant direction, CME, DSI, DRH, directions des soins, qualité et représentants des professionnels.
02

Conformité réglementaire et gestion des risques

L'IA en santé ne peut se développer durablement sans un socle de conformité et de maîtrise des risques. Cela implique de savoir où se trouvent les systèmes d'IA dans l'établissement, sur quelles données ils s'appuient, quelles décisions ils influencent et comment ils sont contrôlés.

Le règlement AI Act impose notamment aux établissements de santé de tenir à jour un registre des systèmes d'IA à haut risque, de garantir une supervision humaine effective et de documenter les mesures de gestion des risques. Le référentiel de certification HAS version 2025 (6e cycle) évalue la capacité de l'établissement à maîtriser la gouvernance de ses outils numériques, y compris les solutions intégrant de l'IA.

  • Mettre en place un registre des systèmes d'IA de l'établissement ou du GHT (solutions internes, éditeurs, dispositifs médicaux numériques, outils bureautiques augmentés par l'IA…).
  • Vérifier la conformité au cadre AI Act (classification des risques, obligations des déployeurs), au RGPD, aux exigences de la CNIL et à la politique de sécurité des systèmes d'information (PSSI).
  • Documenter les risques principaux : biais algorithmiques, erreurs de traitement, dépendance technologique, cybersécurité, confidentialité des données de santé, atteinte à l'e-réputation.
  • Structurer un dispositif de gouvernance des risques : comité IA, articulation avec le comité éthique, cellule qualité-gestion des risques et instances de dialogue social.
03

Qualité, sécurité des soins et évaluation des usages

Chaque usage de l'IA en santé doit être interrogé à l'aune de la qualité et de la sécurité des soins. La question centrale est toujours : en quoi cet usage améliore-t-il concrètement la prise en charge des patients et le travail des professionnels, sans créer de nouveaux risques non maîtrisés ?

L'intégration de l'IA doit aussi être pensée sous l'angle de la charge cognitive des équipes : mal déployée, l'IA peut ajouter des doubles saisies, multiplier les alertes non pertinentes et renforcer la pression sur les professionnels sans revoir l'organisation du travail. L'enjeu est d'en faire un levier d'allègement et non une couche de complexité supplémentaire. Ces enjeux sont détaillés dans mes fiches WEKA Santé consacrées à la gouvernance de l'IA en établissement de santé et à l'adaptation de la charge mentale au poste de travail (voir Ressources WEKA Santé associées en bas de page).

  • Définir des critères de succès pour chaque usage (qualité des décisions, délais, charge mentale, satisfaction des équipes, indicateurs qualité…).
  • Intégrer les projets d'IA dans les démarches qualité, la gestion des risques, la certification HAS (6e cycle) et les analyses de pratiques professionnelles.
  • Prévoir une phase d'évaluation structurée : protocole, mesure des effets sur le travail réel, retours d'expérience, ajustements.
  • Garantir la transparence des usages auprès des patients et des professionnels lorsque les décisions sont influencées par un système d'IA.
04

Leadership, culture et accompagnement du changement

L'IA ne se déploie pas uniquement par la technologie ; elle se déploie par le leadership, la pédagogie et la qualité du dialogue dans l'établissement. Les équipes attendent des repères clairs : ce qui est autorisé, ce qui est encouragé, ce qui est interdit, et comment l'IA va modifier — ou non — leur travail quotidien, leur charge mentale et le sens de leur métier.

Ces approches ont été travaillées dans le cadre de programmes d'amélioration du travail en équipe (programme PACTE de la HAS) et de missions de conseil et de formation auprès d'établissements de santé, en lien avec le CNEH, l'EHESP, WEKA Santé et ManagerSante.com®.

  • Affirmer une vision de direction sur l'IA : opportunités, limites, principes éthiques, posture vis-à-vis des équipes.
  • Impliquer la CME, les cadres, les managers de proximité et les représentants du personnel dans la réflexion et les décisions.
  • Organiser des temps d'échanges réguliers : séminaires de direction, ateliers métiers, réunions d'équipes, webinaires internes.
  • Traiter les sujets sensibles (crainte de substitution, charge de travail, QVCT, sens du métier) avec transparence et co-construction.
05

Compétences, formation et simulation en santé

Aucune gouvernance IA ne tient sans un investissement structuré dans les compétences, à tous les niveaux : directions, managers, soignants, fonctions support. L'enjeu est moins de former des experts techniques que de développer une culture partagée, des réflexes de bon usage et des repères de discernement face aux outils d'IA.

Les formations que j'anime au CNEH (4 modules certifiés, éligibles Qualiopi et financement OPCO/ANFH) et mes interventions à l'EHESP intègrent systématiquement la simulation en santé, les cas d'usage concrets et les mises en situation pour ancrer les apprentissages dans la réalité du terrain. En savoir plus sur les formations IA santé →

  • Construire un plan de développement des compétences IA pour les dirigeants, les cadres, les professionnels de santé, les fonctions support et les équipes formation.
  • Intégrer la simulation en santé, les cas d'usage concrets et les mises en situation dans les dispositifs de formation pour sortir du discours purement théorique.
  • Articuler les formations IA avec les enjeux de qualité, de gestion des risques, de QVCT, de management et de certification HAS (6e cycle, 2025–2030).
  • S'appuyer sur les dispositifs de financement et de certification (Qualiopi, opérateurs de compétences, ANFH, etc.) pour structurer l'offre de formation.
06

Pilotage, indicateurs et amélioration continue

Une gouvernance IA responsable repose sur un pilotage régulier et objectivé : quelles solutions sont réellement utilisées, quels bénéfices sont observés, quels incidents ou signaux faibles doivent conduire à ajuster la trajectoire.

  • Mettre en place un tableau de bord IA : cartographie des projets, niveaux de déploiement, bénéfices attendus et observés, principaux risques et plans d'action.
  • Organiser des revues périodiques en comité IA, en COMEX, en CME et dans les instances ad hoc, pour partager les avancées et arbitrer les priorités.
  • Capitaliser sur les retours d'expérience des équipes : succès, freins, besoins non couverts, points de vigilance.
  • Ajuster régulièrement la feuille de route en fonction des résultats, des nouveaux usages, des évolutions réglementaires (AI Act, certification HAS) et de l'offre du marché.

Exemples de démarches en établissement de santé

Cartographie et gouvernance IA dans un GHT

Dans un GHT de plus de 4 000 lits, la mise en place d'un registre des systèmes d'IA et d'un comité IA pluridisciplinaire a permis de cartographier en moins de six mois plus de 30 usages d'outils intégrant de l'IA, dont certains non déclarés. Le séminaire de gouvernance IA a associé direction, CME, DSI, DRH et directions des soins, et a débouché sur une feuille de route structurée sur 3 ans.

Formation-sensibilisation à l'IA générative dans un centre hospitalier

Dans un centre hospitalier spécialisé, un programme de sensibilisation à l'IA générative pour l'ensemble des cadres a été intégré au plan de formation, avec des ateliers de simulation à partir de cas concrets de terrain (rédaction de protocoles, aide à la décision, analyse de données qualité). Le taux de participation a dépassé 80 % et les retours ont mis en lumière un besoin de repères éthiques et de cadre d'usage formalisé.

Intégration de l'IA dans la démarche qualité et certification

Une direction qualité-gestion des risques a intégré l'évaluation des usages d'IA dans sa cartographie des risques, en lien avec les exigences du référentiel de certification HAS version 2025. Chaque projet IA est désormais associé à des indicateurs concrets et fait l'objet de revues régulières en CME et en comité qualité.

Comment je peux accompagner votre établissement

Je vous accompagne dans la structuration et la mise en œuvre de votre gouvernance IA responsable — du diagnostic initial à la feuille de route opérationnelle.

Expertise et références
Expérience 20+ ans en management et organisations de santé
HAS Membre expert programme PACTE (RS6776 – Certiplace)
Publications 73+ fiches WEKA Santé · Ouvrages LEH Édition & Elsevier Masson
Formation CNEH (4 modules certifiés) · EHESP
Média ManagerSante.com® — Fondateur

Selon vos besoins, nous pouvons construire ensemble :

Découvrir l'offre d'accompagnement IA →

Questions fréquentes — Gouvernance IA en établissement de santé

Pourquoi l'AI Act concerne-t-il directement mon établissement de santé ?
Le règlement européen sur l'intelligence artificielle (AI Act) s'applique non seulement aux fournisseurs de solutions d'IA, mais aussi aux « déployeurs », c'est-à-dire aux organisations qui utilisent des systèmes d'IA dans le cadre de leur activité. Les établissements de santé sont directement concernés : systèmes d'aide à la décision clinique, outils de gestion des flux, solutions RH, dispositifs médicaux numériques intégrant de l'IA. Les obligations portent sur la gestion des risques, la supervision humaine, la traçabilité et la transparence, avec des sanctions en cas de non-conformité.
Quels sont les premiers chantiers concrets pour structurer une gouvernance IA ?
Trois chantiers prioritaires permettent de poser les bases : cartographier les usages existants de l'IA dans l'établissement (y compris les usages informels et les outils bureautiques augmentés), mettre en place un comité IA pluridisciplinaire (direction, CME, DSI, DRH, qualité, représentants des professionnels), et formaliser un cadre d'usage décrivant ce qui est autorisé, encouragé et interdit. Ces trois actions créent un socle de visibilité et de dialogue indispensable avant tout déploiement structuré.
Comment articuler IA générative et référentiel de certification HAS 2025 ?
Le référentiel de certification HAS version 2025 (6e cycle, 2025–2030) renforce les exigences sur la gouvernance du numérique et des dispositifs médicaux numériques. Intégrer l'IA dans la démarche de certification passe par l'évaluation systématique des usages d'IA dans la cartographie des risques, la documentation des mesures de maîtrise (supervision humaine, traçabilité, formation des utilisateurs) et l'inscription de l'IA dans les plans d'action qualité et sécurité des soins. Les visites de certification évalueront la capacité de l'établissement à démontrer cette maîtrise. Voir les formations IA santé →
Faut-il créer un comité IA dédié ou intégrer l'IA dans les instances existantes ?
Les deux approches sont possibles et dépendent de la taille et de la maturité de l'établissement. Un comité IA dédié offre un espace de dialogue spécifique, utile en phase de structuration. À terme, l'enjeu est d'intégrer les sujets IA dans les instances existantes (COMEX, CME, comité qualité, comité éthique, instances de dialogue social) pour éviter une gouvernance en silo et garantir un portage institutionnel transversal.
Comment sensibiliser rapidement les cadres et les managers à l'IA générative ?
Un programme de sensibilisation efficace combine trois dimensions : une acculturation aux enjeux (ce que fait l'IA, ce qu'elle ne fait pas, ses limites et ses risques), des ateliers de prise en main sur des cas d'usage concrets liés au métier (rédaction de protocoles, aide à la synthèse, analyse de données qualité), et un temps de dialogue sur les questions éthiques, managériales et organisationnelles. La simulation en santé et les mises en situation sont des leviers particulièrement efficaces pour dépasser le discours théorique.
Quel est le lien entre IA, charge mentale et qualité de vie au travail (QVCT) ?
L'IA peut réduire la charge cognitive des professionnels (automatisation de tâches répétitives, aide à la synthèse, réduction du temps de saisie) mais elle peut aussi l'aggraver si elle est mal intégrée : doubles saisies, alertes non pertinentes, injonction à aller plus vite sans revoir l'organisation du travail. Une gouvernance IA responsable intègre systématiquement l'analyse d'impact sur le travail réel et la charge mentale des équipes, en lien avec la démarche QVCT de l'établissement.
Par où commencer si mon établissement n'a pas encore de démarche IA structurée ?
Commencer par un état des lieux simple : quels outils intégrant de l'IA sont déjà utilisés (y compris de façon informelle), quels besoins sont exprimés par les équipes, quels risques sont identifiés. Ensuite, désigner un binôme de pilotage (direction + référent métier), formaliser un cadre d'usage minimal et organiser une première session de sensibilisation pour les cadres. L'objectif n'est pas de déployer immédiatement des solutions, mais de créer les conditions d'un dialogue structuré et d'une trajectoire maîtrisée.

Pour aller plus loin

Pour situer votre démarche dans le cadre réglementaire et éthique international, vous pouvez vous appuyer sur les références suivantes.

Règlement européen sur l'intelligence artificielle (AI Act)

Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l'intelligence artificielle.

Texte consolidé — EUR-Lex

Certification des établissements de santé — Référentiel HAS 2025 (6e cycle)

Haute Autorité de Santé. Référentiel de certification pour la qualité des soins — version 2025 (6e cycle, 2025–2030). Ressources, fiches pédagogiques, guide méthodologique.

Page dédiée au 6e cycle — HAS

Éthique et gouvernance de l'IA en santé — OMS (2021)

World Health Organization. Ethics and governance of artificial intelligence for health: WHO guidance. Geneva: WHO; 2021.

Version en ligne — IRIS WHO

État de préparation des systèmes de santé face à l'IA — OMS Europe (2025)

World Health Organization, Regional Office for Europe. Artificial intelligence is reshaping health systems: state of readiness across the WHO European Region. 2025. Enquête menée auprès de 50 États membres.

Outil interactif

Votre gouvernance IA est-elle structurée ?

18 questions · 6 axes · 5 minutes · Résultats immédiats et recommandations personnalisées.
Basé sur les référentiels HAS, CNIL, ANAP et AI Act.

Voir mon niveau de maturité IA →

Ressources WEKA Santé associées

Les fiches pratiques suivantes, publiées aux Éditions WEKA Santé, approfondissent les enjeux abordés dans ce guide :

Adapter la charge mentale au poste de travail

WEKA Santé, Fiche repère QVCT — en lien avec les axes 3 et 5.

Voir l'ensemble des publications WEKA Santé →

Jean-Luc Stanislas — Expert IA générative et management en santé

Jean-Luc Stanislas

Expert IA générative, Leadership & Management en Santé — Fondateur ManagerSante.com®

Membre expert HAS Programme PACTE · Certifié IA Générative (RS6776) · Formateur CNEH · Intervenant EHESP · Auteur WEKA Santé & LEH Édition

Envie de faire le point sur votre gouvernance IA ?

Un échange de 30 minutes suffit pour dresser un premier état des lieux et identifier les priorités pour votre établissement.

Planifier un échange →

Jean-Luc STANISLAS — Membre expert HAS Programme PACTE · Fondateur ManagerSante.com® · Certifié IA Générative RS6776