Un cadre structuré pour aider les directions, DRH, CME, DSI et cadres de santé à piloter l'IA générative de façon responsable — en conformité avec l'AI Act, le référentiel de certification HAS version 2025 (6e cycle) et le RGPD.
Planifier un échange stratégique →L'intelligence artificielle, et en particulier l'IA générative, s'impose au cœur des établissements de santé : projets pilotes, usages métiers, assistants numériques, outils RH et solutions médico-techniques. La question n'est plus « faut-il y aller ? », mais « comment y aller de manière responsable, sécurisée et utile pour les patients et les professionnels ».
Ce cadre s'appuie sur mon expérience de membre expert au sein du programme PACTE de la HAS (certification RS6776 – Certiplace), sur mes missions de conseil et de formation en établissements de santé, et sur mes publications professionnelles (WEKA Santé, LEH Édition, Elsevier Masson, ManagerSante.com®).
Deux cadres structurants modifient en profondeur la manière de concevoir et de piloter les projets d'IA en santé :
Le règlement européen sur l'intelligence artificielle (AI Act) impose aux établissements de santé, en tant que « déployeurs » de systèmes d'IA, de structurer une gestion des risques, une supervision humaine et une traçabilité des usages. Les obligations relatives aux systèmes à haut risque et aux modèles d'IA à usage général (GPAI) entrent en vigueur progressivement à partir de 2025, avec des exigences de documentation, de transparence et de qualité des données.
Le référentiel de certification HAS version 2025 (6e cycle, 2025–2030) renforce le rôle du numérique dans l'évaluation des établissements. Il intègre des exigences spécifiques sur la gouvernance des outils numériques, l'analyse d'impact des dispositifs médicaux numériques (DMN), la cybersécurité et la maîtrise des solutions d'IA utilisées dans le parcours patient.
À ces cadres s'ajoutent le RGPD et les recommandations de la CNIL sur l'IA en santé, les exigences de cybersécurité (directive NIS2, PSSI) et les attentes sociétales croissantes en matière de transparence algorithmique.
Les risques ne sont pas seulement techniques : ils touchent la qualité et la sécurité des soins, la responsabilité médico-légale, l'organisation du travail, le dialogue social, l'image de l'établissement et la confiance des patients.
Aux directions d'établissement et de GHT, DRH, CME, présidents de Commission Médicale, DSI, directions des soins, directions qualité-gestion des risques, cadres de santé, responsables formation et responsables transformation/innovation.
Une gouvernance IA responsable commence par une vision claire : à quoi doit servir l'IA dans votre établissement, pour quels enjeux prioritaires, avec quelles limites et quel niveau d'ambition. L'enjeu est d'inscrire les projets IA dans une feuille de route réaliste, alignée avec le projet d'établissement, le projet médical partagé, le projet social et la stratégie numérique.
L'IA en santé ne peut se développer durablement sans un socle de conformité et de maîtrise des risques. Cela implique de savoir où se trouvent les systèmes d'IA dans l'établissement, sur quelles données ils s'appuient, quelles décisions ils influencent et comment ils sont contrôlés.
Le règlement AI Act impose notamment aux établissements de santé de tenir à jour un registre des systèmes d'IA à haut risque, de garantir une supervision humaine effective et de documenter les mesures de gestion des risques. Le référentiel de certification HAS version 2025 (6e cycle) évalue la capacité de l'établissement à maîtriser la gouvernance de ses outils numériques, y compris les solutions intégrant de l'IA.
Chaque usage de l'IA en santé doit être interrogé à l'aune de la qualité et de la sécurité des soins. La question centrale est toujours : en quoi cet usage améliore-t-il concrètement la prise en charge des patients et le travail des professionnels, sans créer de nouveaux risques non maîtrisés ?
L'intégration de l'IA doit aussi être pensée sous l'angle de la charge cognitive des équipes : mal déployée, l'IA peut ajouter des doubles saisies, multiplier les alertes non pertinentes et renforcer la pression sur les professionnels sans revoir l'organisation du travail. L'enjeu est d'en faire un levier d'allègement et non une couche de complexité supplémentaire. Ces enjeux sont détaillés dans mes fiches WEKA Santé consacrées à la gouvernance de l'IA en établissement de santé et à l'adaptation de la charge mentale au poste de travail (voir Ressources WEKA Santé associées en bas de page).
L'IA ne se déploie pas uniquement par la technologie ; elle se déploie par le leadership, la pédagogie et la qualité du dialogue dans l'établissement. Les équipes attendent des repères clairs : ce qui est autorisé, ce qui est encouragé, ce qui est interdit, et comment l'IA va modifier — ou non — leur travail quotidien, leur charge mentale et le sens de leur métier.
Ces approches ont été travaillées dans le cadre de programmes d'amélioration du travail en équipe (programme PACTE de la HAS) et de missions de conseil et de formation auprès d'établissements de santé, en lien avec le CNEH, l'EHESP, WEKA Santé et ManagerSante.com®.
Aucune gouvernance IA ne tient sans un investissement structuré dans les compétences, à tous les niveaux : directions, managers, soignants, fonctions support. L'enjeu est moins de former des experts techniques que de développer une culture partagée, des réflexes de bon usage et des repères de discernement face aux outils d'IA.
Les formations que j'anime au CNEH (4 modules certifiés, éligibles Qualiopi et financement OPCO/ANFH) et mes interventions à l'EHESP intègrent systématiquement la simulation en santé, les cas d'usage concrets et les mises en situation pour ancrer les apprentissages dans la réalité du terrain. En savoir plus sur les formations IA santé →
Une gouvernance IA responsable repose sur un pilotage régulier et objectivé : quelles solutions sont réellement utilisées, quels bénéfices sont observés, quels incidents ou signaux faibles doivent conduire à ajuster la trajectoire.
Dans un GHT de plus de 4 000 lits, la mise en place d'un registre des systèmes d'IA et d'un comité IA pluridisciplinaire a permis de cartographier en moins de six mois plus de 30 usages d'outils intégrant de l'IA, dont certains non déclarés. Le séminaire de gouvernance IA a associé direction, CME, DSI, DRH et directions des soins, et a débouché sur une feuille de route structurée sur 3 ans.
Dans un centre hospitalier spécialisé, un programme de sensibilisation à l'IA générative pour l'ensemble des cadres a été intégré au plan de formation, avec des ateliers de simulation à partir de cas concrets de terrain (rédaction de protocoles, aide à la décision, analyse de données qualité). Le taux de participation a dépassé 80 % et les retours ont mis en lumière un besoin de repères éthiques et de cadre d'usage formalisé.
Une direction qualité-gestion des risques a intégré l'évaluation des usages d'IA dans sa cartographie des risques, en lien avec les exigences du référentiel de certification HAS version 2025. Chaque projet IA est désormais associé à des indicateurs concrets et fait l'objet de revues régulières en CME et en comité qualité.
Je vous accompagne dans la structuration et la mise en œuvre de votre gouvernance IA responsable — du diagnostic initial à la feuille de route opérationnelle.
Selon vos besoins, nous pouvons construire ensemble :
Pour situer votre démarche dans le cadre réglementaire et éthique international, vous pouvez vous appuyer sur les références suivantes.
Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l'intelligence artificielle.
Haute Autorité de Santé. Référentiel de certification pour la qualité des soins — version 2025 (6e cycle, 2025–2030). Ressources, fiches pédagogiques, guide méthodologique.
World Health Organization. Ethics and governance of artificial intelligence for health: WHO guidance. Geneva: WHO; 2021.
World Health Organization, Regional Office for Europe. Artificial intelligence is reshaping health systems: state of readiness across the WHO European Region. 2025. Enquête menée auprès de 50 États membres.
Outil interactif
18 questions · 6 axes · 5 minutes · Résultats immédiats et recommandations personnalisées.
Basé sur les référentiels HAS, CNIL, ANAP et AI Act.
Les fiches pratiques suivantes, publiées aux Éditions WEKA Santé, approfondissent les enjeux abordés dans ce guide :
Le recours à l'IA au sein des établissements de santé : gouvernance, déploiement et bonnes pratiques
WEKA Santé, Fiche pratique — en lien avec les axes 1, 2 et 6.
Adapter la charge mentale au poste de travail
WEKA Santé, Fiche repère QVCT — en lien avec les axes 3 et 5.
Expert IA générative, Leadership & Management en Santé — Fondateur ManagerSante.com®
Membre expert HAS Programme PACTE · Certifié IA Générative (RS6776) · Formateur CNEH · Intervenant EHESP · Auteur WEKA Santé & LEH Édition
Un échange de 30 minutes suffit pour dresser un premier état des lieux et identifier les priorités pour votre établissement.
Planifier un échange →Jean-Luc STANISLAS — Membre expert HAS Programme PACTE · Fondateur ManagerSante.com® · Certifié IA Générative RS6776