Ce que trois professionnels ont construit sans le savoir

Une directrice des soins d'un centre hospitalier de taille moyenne utilise depuis huit mois un outil d'IA générative pour synthétiser les données médico-économiques de ses pôles. Elle a affiné sa façon de questionner l'outil, réunion après réunion. Ses comptes rendus de pôle sont plus denses, plus rapidement produits, mieux articulés avec les indicateurs du contrat d'objectifs et de moyens. Elle ne formalise rien. Ce sont, dit-elle, « ses petites habitudes ».

Un DRH d'un établissement voisin rédige depuis six mois ses fiches de poste avec l'appui d'un outil d'IA. Ce qui lui prenait trois heures prend désormais quarante minutes. Il a gardé en mémoire les formulations qui fonctionnent le mieux pour une cadre supérieure de santé, pour un technicien biomédical, pour un attaché d'administration hospitalière. Il ne se souvient plus de la manière dont il rédigeait avant. Personne ne lui a demandé d'écrire comment il procède désormais.

Un directeur général, de son côté, a demandé à son assistante de centraliser « les formulations qui marchent bien » dans un fichier Word partagé sur le réseau interne. Il pense que c'est géré. Le fichier existe. Il est incomplet, non daté, sans règles de mise à jour, sans responsable identifié.

Aucun des trois n'a nommé ce qu'il a construit. Aucun des trois ne le protège. Et si demain l'outil change, le compte est supprimé, ou la personne qui sait s'en servir part — tout recommence à zéro.

Un risque sans nom dans les référentiels existants

Ce que ces trois professionnels ont construit n'a pas encore de nom dans les référentiels qualité, les PCA ou les GPEC hospitalières. Ce n'est ni une donnée, ni un document, ni un logiciel métier. Ce n'est pas non plus une procédure, puisque rien n'est écrit. C'est un savoir-faire incorporé dans la relation entre un professionnel et un outil d'IA générative — invisible pour tout audit classique, absent des cartographies de risque.

La théorie de la charge cognitive, formulée par John Sweller en 1988, aide à comprendre ce qui se joue. Lorsqu'un professionnel délègue à une machine une partie du travail intellectuel répétitif — structurer, reformuler, produire des variantes — il libère de la ressource mentale pour les dimensions à plus forte valeur ajoutée : l'arbitrage, la validation, la décision. Ce transfert n'est pas neutre. Si la théorie de la charge cognitive décrit le mécanisme du soulagement intellectuel, c'est l'observation de terrain qui révèle ce qu'il produit : un ensemble de formulations métier affinées, de séquences de questionnement éprouvées, de repères d'usage — construit dans la durée et invisible pour tout audit classique.

Cet actif échappe aux catégories classiques de la gestion de l'information hospitalière. Il n'est ni archivé, ni sauvegardé, ni tracé. Il n'apparaît pas dans les tableaux de bord DSI. Il ne figure dans aucune fiche de poste.

Ce n'est pas un sujet pour les experts en numérique. C'est un sujet pour tous ceux qui ont commencé à travailler différemment — même modestement — depuis que ces outils existent. Le développement théorique complet de cette notion est disponible dans l'article précédent consacré au capital cognitif augmenté en santé.

Quatre façons de perdre ce que vous avez mis des mois à construire

Quatre scénarios de perte se rencontrent déjà dans les établissements engagés dans une démarche d'acculturation numérique. Aucun n'est théorique. Leur point commun : la perte est invisible. Aucune alerte, aucun voyant rouge, aucune remontée au comité de pilotage qualité.

Scénario Pour le praticien avancé Pour l'utilisateur du quotidien
Incident technique Séquence de travail perdue suite à corruption de session ou à la fermeture inopinée d'un compte « J'ai changé de poste informatique, je ne retrouve plus rien de ce que j'avais préparé »
Changement d'outil Migration imposée par la DSI, formulations métier inaccessibles sur le nouvel outil « L'hôpital a bloqué l'outil que j'utilisais, je dois tout réapprendre »
Évolution de l'outil Mise à jour de l'IA générative — les séquences calibrées perdent leur pertinence « L'outil ne répond plus pareil qu'avant, je ne comprends pas pourquoi »
Départ humain Le référent IA quitte l'équipe sans transmission structurée « La cadre qui savait comment s'en servir est partie en retraite »
Infographie : quatre scénarios de perte des pratiques professionnelles assistées par l'IA en santé — Jean-Luc STANISLAS, mai 2026
Quatre façons de perdre ce que vos équipes ont construit avec l'IA — Jean-Luc STANISLAS, mai 2026

Ces quatre scénarios partagent une caractéristique qui devrait mobiliser l'attention des directions : la perte n'apparaît dans aucun indicateur de suivi. Aucun certificat de non-conformité n'est délivré. Aucune fiche d'événement indésirable n'est ouverte. L'activité continue — simplement, elle redevient ce qu'elle était avant l'appui de l'outil. Le gain de temps s'évapore. La qualité de sortie régresse. Les professionnels qui avaient progressé repartent d'un niveau antérieur, souvent sans s'en rendre compte immédiatement.

Ce que ces quatre scénarios ont en commun

La perte n'est pas technique — elle est organisationnelle. Ce qui disparaît, ce ne sont pas des données. C'est un savoir-faire professionnel construit dans la relation entre un praticien et un outil, qui n'a jamais été formalisé, transmis ni protégé. C'est exactement ce qui se passe quand un référent qualité expérimenté part à la retraite sans avoir transmis son expertise — sauf que personne ne l'a encore mis dans une procédure de suppléance.

Quand la fragilité organisationnelle devient visible

Cet article est lui-même le produit de deux longues sessions de travail entre deux outils d'IA générative complémentaires, menées le 19 avril 2026. Ce qui devait être un réglage de trente minutes est devenu une journée de reconfiguration en profondeur — une démonstration involontaire, en temps réel, de ce que cet article décrit.

Trois enseignements transférables se dégagent de cette journée, formulés ici pour un lecteur non technicien.

Premier enseignement. Un outil d'IA générative de haute qualité est capable de diagnostiquer ses propres dérives — à condition que le professionnel lui ait fixé des règles explicites au préalable. Sans ces règles, la dérive est silencieuse : l'outil produit, le professionnel valide par habitude, et une lente dégradation s'installe sans être perçue. C'est la transposition exacte de ce que la gestion des risques appelle un « événement indésirable silencieux » — l'absence de signal n'est pas l'absence d'incident.

Deuxième enseignement. La frontière entre ce qui doit évoluer et ce qui doit rester stable dans un dispositif de travail assisté par l'IA n'est jamais tracée spontanément par l'outil. C'est une décision managériale. Laisser l'outil fixer lui-même cette frontière revient à accepter une dérive de périmètre non pilotée — l'équivalent, pour une activité de soins, d'un protocole qui évoluerait sans validation de la CME.

Troisième enseignement. Un savoir-faire IA qu'une seule personne dans l'établissement maîtrise n'est pas une compétence organisationnelle. C'est une compétence individuelle non transmise — exactement comme un protocole de soin qui n'existe que dans la tête d'un seul praticien. L'analogie avec les référents douleur, qualité ou hémovigilance est ici directe : ces fonctions ont été institutionnalisées précisément parce que l'expertise individuelle, laissée sans cadre, est vulnérable au départ, à la maladie ou au simple changement de poste.

Cette journée a impliqué deux outils complémentaires — Claude (Anthropic) pour la production et l'architecture du dispositif, Perplexity pour le sourcing académique vérifiable. La distinction de rôles entre les deux est développée dans les prochains articles de la série.

Ce que le PCA, la GPEC et le plan de gestion des risques ne couvrent pas encore

Trois constats parallèles permettent de situer l'angle mort. Les guides HAS (octobre 2025) et HAS-CNIL (mars 2026) traitent du bon usage, de la fiabilité et de la confidentialité des systèmes d'IA générative en contexte de soins. Ils posent des principes essentiels. Ils ne posent pas, à ce jour, la question de la continuité du patrimoine méthodologique construit par les professionnels au fil des mois d'usage — ni celle des conditions de sa transmission.

Les PCA et PRA renforcés par le programme CaRE, consolidés par l'arrêté du 3 juillet 2025, couvrent l'infrastructure des systèmes d'information et la cybersécurité des établissements. Ils cartographient les applications métier critiques et définissent des modes dégradés. Ils ne cartographient pas encore les séquences de travail assistées par l'IA comme des actifs à protéger — alors même que leur disparition n'entraîne pas d'arrêt visible, mais un recul invisible de la performance professionnelle.

Les GPEC hospitalières identifient les compétences clés et les risques de perte liés aux départs. Elles intègrent depuis longtemps la notion de référent qualité, de référent douleur, de référent hémovigilance. Elles n'intègrent pas encore les pratiques IA comme compétences à tracer, à transmettre et à protéger — alors que la dynamique d'appropriation est déjà installée dans la plupart des établissements.

La question n'est pas de savoir si votre établissement utilise l'IA générative. La question est de savoir si ce que vos équipes ont appris à faire avec elle appartient à l'établissement — ou seulement à ceux qui l'ont construit.

Le cadre de gouvernance permettant d'adresser cet angle mort est développé sur la page gouvernance IA.

Quatre questions à poser dans vos prochaines instances

À la DRH et au directeur des soins. Si vous deviez dresser aujourd'hui un inventaire des compétences IA de vos équipes, comme vous le faites pour toute compétence clé dans votre GPEC, seriez-vous en mesure de le faire ?

Au DG et au directeur qualité. Avez-vous identifié vos référents IA comme vous identifiez vos référents qualité, vos référents douleur ou vos référents hémovigilance, avec une procédure de suppléance et de transmission documentée ?

Au président de CME et à l'ensemble des directeurs. Les pratiques de travail assistées par l'IA de vos équipes figurent-elles dans vos procédures opérationnelles, ou existent-elles uniquement dans la mémoire de ceux qui les ont construites ?

Au directeur des systèmes d'information. Lorsque vous planifiez une migration ou un changement d'outil d'IA générative, avez-vous prévu une phase de recensement et de transfert des séquences de travail construites par les équipes, comme vous le feriez pour toute application métier critique ?

Une grille de diagnostic suivra — cinq questions, applicable en moins d'une heure par n'importe quel cadre de direction, quel que soit le niveau d'usage IA de son équipe.

À lire aussi — Publications WEKA Santé

IA & Santé · Fiche n°28
Le recours à l'IA au sein des établissements de santé : gouvernance, déploiement et bonnes pratiques
Repères concrets pour organiser la gouvernance de l'IA, sécuriser les usages et accompagner le déploiement.
IA & Santé · Fiche n°27
IA en santé : cybersécurité, stratégie nationale et gouvernance des données
Enjeux stratégiques de la cybersécurité et de la gouvernance des données dans les projets d'IA en santé.
IA & Santé · Fiche n°25
Certification HAS : maîtrise des risques numériques et systèmes d'IA
Exigences de la certification HAS en matière de maîtrise des risques numériques et d'intégration responsable des systèmes d'IA.

Accès réservé aux abonnés WEKA Santé · Voir toutes mes publications →

Références

Sweller, J. (1988). Cognitive load during problem solving: Effects on learning. Cognitive Science, 12(2), 257-285.

HAS (2025). Premières clefs d'usage de l'IA générative en santé. Décision n°2025.0238.DC.MNS du 23 octobre 2025.

HAS & CNIL (2026). Accompagner le bon usage des systèmes d'intelligence artificielle en contexte de soins. Guide HAS-CNIL, mars 2026.

Ministère de la Santé / Délégation au numérique en santé (2024-2028). Programme CaRE — Cybersécurité, Accélération et Résilience des Établissements de santé. Arrêté du 3 juillet 2025.

Accompagnement des directions. Les dispositifs d'accompagnement structurés sont présentés sur la page accompagnement IA.

Jean-Luc STANISLAS
Membre expert HAS Programme PACTE · Fondateur ManagerSante.com®
Expert IA générative, Leadership & Management en Santé