La revue d’efficacité des CAPA, à quoi bon ?
Et vous, vous le faites ?
On est désormais 1 070 abonnés à cette newsletter. Bienvenue aux nouveaux abonnés depuis la dernière édition et merci à toutes et à tous de nous lire. ❤️
Si vous aimez ce contenu, soutenez-nous en commentant, likant et transférant à quelqu’un que ça pourrait intéresser !
Notre actualité
Retrouvez notre prochain Webinaire « Dossier de lot électronique : bâtir la confiance dans la traçabilité de la donnée ».
Dans nos industries réglementées, où la transparence et la conformité sont essentielles, le dossier de lot est souvent perçu - à tort - comme un outil de contrôle.
En réalité, il s’agit avant tout d’un outil de traçabilité, conçu pour reconstituer fidèlement l’historique de la production, et non pour sanctionner ou auditer.
Le dossier de lot électronique (DDL) permet de comprendre ce qui s’est réellement passé sur le terrain, et d’assurer une meilleure fiabilité de la donnée.
📅 Rejoignez nous le 27 novembre pour un webinaire organisé par UXP Corp, en partenariat avec l’Académie de la Qualité Efficace.
Nous explorerons ensemble comment transformer la traçabilité en un atout de performance, de conformité et de sérénité dans vos opérations industrielles.
🎯 Au cœur de ce webinaire :
La place du DDL dans la réglementation pharmaceutique et la qualité industrielle.
Pourquoi le DDL n’est pas un outil de contrôle, mais la mémoire vivante du lot.
Comment le passage au DDL électronique fiabilise la donnée, renforce la confiance et simplifie la revue qualité.
Tout long to read 🥱Ce qu’il faut retenir
✅ Toutes les CAPA ne nécessitent pas de revue d’efficacité
Utiliser un rationnel qui combine gravité, détectabilité et occurrence pour déterminer les CAPA à évaluer permet d’éviter d’encombrer le système et de se retrouver avec une charge de travail trop lourde pour les équipes.
✅L’analyse de récurrence sur les déviations est un bon moyen d’évaluer facilement l’efficacité des CAPA mais reste limité dans ses résultats (pas d’évaluation des gains suite à l’action mis en place)
✅Une bonne analyse d’efficacité :
N’est pas systématique
Ne se contente pas d’attester de l’implémentation
Doit attester de l’absence de récidive, d’une amélioration mesurable et de la réduction du risque),
Doit prolonger la vie de la CAPA jusqu’à ce qu’elle se révèle efficace
Télécharger le KIT DE COMMUNICATION ICI !
L’autre jour, mon fils de 5 ans me dit « Papa, à quoi ça sert de mettre des CAPA si on n’est pas capables de vérifier qu’elles sont efficaces ? » 🫠 Tout d’abord attendri par son visage rond et son innocence, j’ai d’abord souri avant de me rendre compte que, comme souvent, la vérité sort de la bouche des enfants (imaginaires). Après l’avoir puni bien comme il faut pour m’avoir provoqué une nouvelle crise existentielle, je me suis quand même mis à réfléchir…
Il est frappant de constater à quel point la notion de revue d’efficacité des CAPA, bien qu’elle soit inscrite noir sur blanc dans les bonnes pratiques de fabrication, reste très difficilement appliqué sur le terrain.
Qui n’a pas déjà eu cette discussion :
- « On a eu une déviation sur la [partie de machine] de la [machine] de la ligne 4 !
- Ah bon ?! Mais on l’a pas déjà eu ça ?
- Si, il y a 3 mois…
- Et qu’est ce qu’on avait fait ?
- On avait changé [autre pièce de la machine].
- Et du coup ?
- Bah je sais pas, on l’a changé et puis on a clôturé la CAPA, comme d’hab. »
💭 Bon peut-être que cette discussion n’a jamais eu lieu autre part que dans ma tête (comme beaucoup de choses…). Pourtant, lorsque l’on observe les différents sites industriels pharmaceutique et dispositifs médicaux, on remarque que cette exigence se décline en une multitude d’approches, allant de l’absence totale de mise en œuvre à des systèmes extrêmement lourds et rigoureux, parfois disproportionnés par rapport aux enjeux.
Ce constat révèle déjà une première faiblesse. Alors que le principe paraît simple : vérifier que l’action corrective ou préventive décidée a bien permis d’éliminer le problème ou d’en réduire le risque. Sa traduction opérationnelle suscite des interrogations, des incertitudes et, souvent, une surcharge administrative qui finit par détourner l’objectif initial.
Par où commencer ? 🤔
La première question la plus fondamentale qui revient toujours : faut-il vraiment réaliser une revue d’efficacité pour chaque CAPA mise en place ? La réponse est évidemment : ça dépend. Nous voilà bien avancés, mais la réponse est une fois de plus corrélée à des critères déterminants comme la gravité de la déviation, sa fréquence d’apparition et sa détectabilité.
Lorsqu’un problème présente une gravité faible, que son occurrence est rare et que sa détection est aisée, il apparaît peu pertinent d’investir du temps et des ressources dans une évaluation formelle et chronophage de l’efficacité de l’action entreprise. Non on ne va pas sortir l’artillerie lourde pour s’assurer que Robert ne va pas à nouveau utiliser un stylo noir au lieu d’un bleu pour remplir le dossier de lot… 😵
En revanche, lorsque la déviation a une gravité forte, que sa récurrence menace la robustesse du système, ou que sa détectabilité est faible voire nulle, la revue d’efficacité devient non seulement utile, mais indispensable, car il faut arriver à garantir que le problème ne se reproduira pas et que le risque associé sera effectivement maîtrisé.
Cette approche différenciée implique toutefois une capacité d’analyse fine et un jugement éclairé dès la définition de la CAPA. Or, c’est précisément là que réside une autre difficulté souvent rencontrée dans l’industrie pharmaceutique : comment définir, au moment même où l’on conçoit la CAPA, le mode d’évaluation de son efficacité ?
Trop souvent, pressés par des délais réglementaires ou organisationnels, les équipes définissent à la hâte une action corrective : par exemple mettre à jour une procédure ou réaliser une formation sans réellement anticiper la façon de vérifier que l’action a produit l’effet attendu.
👉 Résultat : l’évaluation repose sur des critères flous, subjectifs ou indirects, ce qui fragilise la crédibilité du processus. Cette lacune est particulièrement visible lorsqu’il s’agit d’actions telles que la sensibilisation du personnel ou la révision documentaire : comment prouver que la simple mise à jour d’un mode opératoire ou la tenue d’une formation a réellement permis d’éviter la réapparition du problème ?
Analyse de récurrence = revue d’efficacité des CAPA ? 📊
La tentation est grande, alors, de se contenter d’affirmer que « rien n’est revenu » et d’en conclure que la CAPA est efficace. Mais une telle approche s’apparente plus à une logique réactive qu’à une démarche proactive. On croise les doigts en espérant qu’il n’y ait pas de nouvel écart pour juger du succès ou de l’échec de la mesure, ce qui est insuffisant dès lors que l’on prétend bâtir une culture qualité solide et durable.
Bien sûr, sur de nombreux sites, cette logique réactive constitue déjà un progrès considérable : lorsqu’aucune revue d’efficacité n’existait auparavant, la simple mise en place d’un suivi de la récurrence des déviations permet déjà d’objectiver les résultats, d’identifier les CAPA réellement efficaces et de pointer celles qui ne l’étaient pas. (« oh tiens le rappel opérateur d’il y a trois mois n’a pas été très efficace, qui aurait pu prédire ?! »)
Dans cette optique, la revue périodique des déviations prend une valeur centrale : elle permet de détecter, à l’échelle macroscopique, des tendances, des répétitions ou des causes communes qui n’apparaissent pas forcément dans la gestion quotidienne. 📈
Ainsi, l’analyse régulière de la récurrence devient, à elle seule, une forme de revue d’efficacité des CAPA et cette méthode présente l’avantage de rationaliser les efforts et de concentrer l’énergie là où elle est réellement nécessaire. En effet, imaginer qu’un site confronté à plusieurs centaines de déviations majeures chaque année puisse réaliser autant de revues d’efficacité formelles relève du rêve mouillé de qualiticien : la charge de travail deviendrait insoutenable et l’objectif se perdrait dans un océan de paperasse.
Et si on veut faire plus ? 👋
Au risque de paraître monomaniaque, la meilleure méthode pour prioriser les CAPA à suivre est de hiérarchiser les situations selon leur gravité, leur fréquence et leur détectabilité. (#thanksGOD) En faisant cela, il devient possible de cibler les quelques dizaines de cas critiques qui justifient une évaluation approfondie, tandis que les autres peuvent être suivis via des analyses globales de tendances.
Avec cette approche, on voit que la revue d’efficacité ne doit pas être une étape mécanique ajoutée au processus CAPA, mais un dispositif intelligent, proportionné, adapté au niveau de risque et intégré dans une dynamique d’amélioration continue.
Là normalement vous êtes déçus, vous vous dites « Gnagnagna tout ça pour ça, au lieu de perdre du temps à lire ça j’aurais pu aller faire une observation de tâche… » et vous auriez raison, il faut faire des observations de tache dès qu’on en a l’occasion ! Mais définir une bonne revue d’efficacité n’est pas aussi simple qu’il n’y parait, pour y parvenir, encore faut-il dissocier clairement deux étapes souvent confondues : la vérification de l’implémentation et la revue d’efficacité. 🔍📋
Vérifier que l’action décidée a bien été mise en place. Par exemple, qu’une nouvelle procédure est diffusée, qu’une machine a été modifiée ou qu’une formation a bien eu lieu relève de l’implémentation. Souvent, les organisations s’arrêtent là, mais constater que cette implémentation produit réellement les effets attendus (absence de récidive, amélioration mesurable, réduction du risque), c’est ça qui relève de l’efficacité.
Cette distinction, bien qu’évidente sur le papier, est rarement respectée dans la pratique, ce qui explique pourquoi tant de CAPA s’avèrent finalement inefficaces malgré une clôture administrative en bonne et due forme. Or, que faire lorsqu’une revue d’efficacité démontre qu’une CAPA n’a pas atteint son objectif ?
Quid des CAPA inefficaces ?
Si on s’en tient à ce qu’on voit habituellement, c’est facile : on clôture malgré tout, en notant que l’efficacité n’est pas prouvée, ou l’on ouvre une nouvelle déviation, histoire de créer une boucle confuse entre les deux processus…
En réalité, il serait nécessaire de repenser le système CAPA lui-même : son objectif ne devrait pas être la simple réalisation d’actions, mais l’éradication des problèmes.
La revue d’efficacité ne serait pas une étape finale optionnelle, mais une composante intégrée, destinée à boucler la boucle jusqu’à ce que la cause racine soit réellement éliminée ou le risque durablement réduit. Si l’action initiale échoue, une nouvelle analyse devrait être menée, non pas comme une déviation supplémentaire, mais comme une prolongation naturelle du processus CAPA. 🔁
Autrement dit, la CAPA ne devrait être considérée comme terminée que lorsque son efficacité est démontrée, ce qui oblige à concevoir le processus comme une démarche vivante, itérative, inscrite dans le temps long de l’amélioration continue. Cette vision exige toutefois une maturité organisationnelle que tous les sites ne possèdent pas encore. Dans les structures déjà très tendu en capacité humaine, il est déjà difficile de traiter le flux quotidien des déviations et de piloter les CAPA de base. 😓
Dans cette optique, plutôt que d’imposer des revues d’efficacité à la chaîne, vouées à rester incomplètes ou artificielles, pourquoi ne pas plutôt introduire progressivement une logique de priorisation, puis renforcer pas à pas la culture de l’efficacité réelle. Ainsi, au lieu d’une avalanche de contrôles superficiels, l’organisation investit son énergie dans quelques cas critiques, obtient des résultats tangibles et bâtit progressivement la confiance et la rigueur nécessaires pour élargir la pratique.
Et il ne s’agit pas de voir ça comme un renoncement, mais de s’assurer que la revue d’efficacité remplisse son rôle premier : non pas générer des dossiers supplémentaires, mais transformer les problèmes en opportunités d’apprentissage et de progrès. En d’autres termes, s’assurer que le process CAPA, au même titre que le process déviation, soit bien un instrument d’amélioration continue. 🚀
👉 Rejoignez notre communauté “Les Gardiens de la Qualité Efficace” !
C’est l’endroit idéal pour partager vos bonnes pratiques, découvrir de nouvelles idées de simplification ou simplement échanger avec d’autres professionnels du secteur.
Ce mois-ci, profitez en ressources exclusives sur la bibliothèque de la Communauté 🔐 :
La fiche reflexe avec tous les outils pour définir des CAPAs pertinents dans le temps
Une grille de décision pour définir quand une vérification d’efficacité est nécessaire pour les CAPAs
🎁 En tant que lecteur, vous avez droit à 1 an d’accès gratuit à la communauté sur Poulpy avec le code TENTACOOL !
Rejoignez-nous et devenez acteur de la qualité de demain ! 🚀
🎧Pour poursuivre sur le sujet ou découvrir d’autres thématiques , vous pouvez écouter nos podcasts suivants :
La pause caf sur l’Efficacité des CAPAs
La pause caf sur L'IA dans la pharma
GMPodcast sur DSI & validation des systèmes en pharma : enjeux, erreurs fréquentes et bonnes pratiques avec Ludivine Richard










Super article, merci !
Petite question cependant : pour le choix de la mise en place de l’effectiveness check, vous mentionnez l’analyse GOD (Gravité, Occurrence, Détectabilité) en prenant les deux extrêmes — d’un côté la déviation bénigne, non récurrente et aisément détectable, et de l’autre la critique qui met tout à l’arrêt. Jusque-là, logique impeccable.
Mais j’aurais plutôt tendance à voir cette analyse comme un outil pour répondre à la question « CAPA ou pas CAPA ? », plutôt que « CAPA avec ou sans revue d’efficacité ? »
Autrement dit, si une situation justifie déjà une CAPA, ne devrait-on pas considérer l’effectiveness check comme allant de soi ?
Il me manque donc un peu le cas intermédiaire : celui où le problème est assez sérieux pour exiger une CAPA, mais pas au point de mériter un effectiveness check formel. Vous voyez ce que je veux dire ? 😅