CHAPITRE IV – Les analyses rétrospectives ou la recherche des causes racines

Root cause analysis and other “post hoc” methods

marius laurent

marius laurent

Ancien directeur – Centre hospitalier universitaire Tivoli – La Louvière – Belgique | Ancien attaché auprès du service qualité et sécurité du patient du ministère de la Santé – Bruxelles – Belgique | Consultant – Plateforme pour l’amélioration continue de la qualité des soins et de la sécurité des patients (PAQS) – Rue de Cent-Pieds 99 – B7133 Buvrinnes – Belgique
Autres articles de l'auteur dans Hygiènes Articles dans PubMeb

CHAPITRE IV – Les analyses rétrospectives ou la recherche des causes racines

Figures

Résumé

Pourquoi signaler les événements indésirables si ce n’est pour apprendre d’eux ? Le modèle de l’analyse rétrospective (l’événement redouté s’est produit) fut le premier à apparaître, sous le nom de recherche de la cause racine. Il convient de chercher, dans l’enchaînement des faits qui mène à l’accident, l’étape responsable du dérapage. L’intérêt pour les facteurs humains introduit, dans le processus inductif de la recherche des causes, la préoccupation de ne pas négliger les causes « latentes », systémiques. Divers schémas théoriques sont proposés, la grille ALARM est la plus connue. Au-delà de la description des méthodes, ce chapitre se penche sur les aspects théoriques de la recherche des causes, et sur les raccourcis logiques que nous prenons en construisant une cause après que l’effet s’est produit. Il fait enfin un détour par la critique de l’efficacité de ces analyses a posteriori.

Mots clés: Sécurité du patient - Evènement indésirable - Quasi-accident - Incident - Evènement précurseur d'accident - Signalement des incidents - Gestion de crise - Gestion du risque

Abstract

Why should we report adverse events if not to learn the lessons they teach us? The model of retrospective analysis (the feared event definitely happened) was the first to appear, under the name of root cause analysis. It implies to look for the particular step in the chain of events that leads to the accident to find the one that is responsible for the failure. The interest for human factors introduces in the inductive process of the search for causes, the concern not to neglect the “latent“, systemic causes. Various theoretical schemes are proposed, the ALARM grid being the best known. Beyond the description of the methods, this chapter examines at the theoretical aspects of the search for causes, and at the logical shortcuts that we take in constructing a cause after the effect has occurred. Finally, it criticize the effectiveness of these “a posteriori“ analyses.

Keywords: Patient safety - Other adverse event - Near-miss - Incident - Precursos event of accident - Reporting - Crisis management - Warning

Article

Une analyse rétrospective examine l’événement indésirable après sa survenue et, s’il s’agit d’un presque accident, après que celui-ci a été notifié. Trois motivations peuvent classiquement justifier l’analyse de l’accident : chercher à comprendre ce qui s’est passé, trouver un responsable et empêcher que les choses se reproduisent avec la même gravité. Le but de ces analyses, compte tenu de la culture en place dans l’hôpital1, est de déterminer ce qui ne s’est pas déroulé comme prévu et pourquoi, afin de mettre en place des actions correctrices efficaces. Le fait de désigner un responsable n’a que peu d’utilité dans ce cadre et est généralement contre-productif. Nous verrons très tôt que les méthodes d’analyse classiques, qu’elles soient rétrospectives ou prospectives, sont les héritières de conceptions de l’accident bien anciennes où le fromage suisse fait figure de référence moderne2. Il convient donc de combler les trous du gruyère en traquant les causes des erreurs actives, mais aussi celles des erreurs latentes. Cette recherche des causes est le dénominateur commun des analyses rétrospectives : si vous en maîtrisez la philosophie, les méthodologies et la pratique, vous pouvez vous intéresser au parc zoologique des variantes diverses et à leurs acronymes déroutants ; fondamentalement, ils font la même chose, mais sur des terrains de jeu généralement plus spécifiques. Ce chapitre est l’exposé détaillé d’une méthode : la RCA (Root cause analysis, analyse des causes racines), qui consiste à reconstruire l’événement et à comprendre comment il s’est déroulé, puis à chercher ce qui l’explique (les causes). RCA est un nom de famille, RMM, Crex, Retex, Orion® et ALARM3 sont des prénoms ; HFACS4-RCA est une RCA où les causes sont classées selon une taxinomie directement inspirée de Reason5 ; PRISMA6 commence comme une RCA, utilise une taxinomie (dite de Einthoven) et ne vise pas le traitement des accidents individuels, mais des catégories regroupant les accidents les plus nombreux.

RCA (SIRE, ACP) : l’analyse systématique des causes profondes

La RCA, méthode la plus anciennement décrite, date de 1961, donc d’avant la conception de Reason de la théorie de l’accident. Elle est contemporaine de la vision de l’accident « chute de dominos7 », résultant d’une défaillance identifiable et d’une chaîne unique et linéaire de liens de cause à effet. Cela explique le singulier de « root cause » : à cette époque, ce que l’on cherche, c’est une cause unique, la racine pivotante de la mauvaise herbe. Cette conception a évolué en même temps que les modèles pour effectivement chercher à cerner les causes multiples de diverses natures qui finissent par converger vers l’accident. Ce n’est donc plus forcément une cause unique qui est la réponse de l’analyse. La RCA est probablement la méthode d’analyse qui est la mieux documentée, et celle à laquelle il est le plus souvent fait référence dans le milieu des soins. La National Patient Safety Foundation8 a récemment revu le processus de la RCA pour en faire une « RCA au carré » en y ajoutant un « A » pour « amélioration ». Les actions de correction et d’amélioration étaient effectivement les grandes absentes des analyses rétrospectives. On parle de RCA2, et c’est cette méthode qui est décrite ici [1]. SIRE est l’acronyme néerlandais de la RCA (systematische incident reconstructie en evaluatie, reconstitution et évaluation systématique des incidents). Il a été utilisé indifféremment en flamand et en français dans les formations données par le service public fédéral Santé publique en Belgique. L’appellation ACP (analyse des causes profondes) est utilisée en France, avec un pluriel qui évite toute équivoque. Les articles contemporains abandonnent progressivement le terme « cause », pour des raisons qui seront explicitées dans la dernière partie de ce chapitre. Ils préfèrent le terme de « facteurs contributifs ». Cette tendance doit être encouragée, ne fût-ce que pour éviter le côté péremptoire et accusateur que revêt souvent le terme « cause » auprès du public et du personnel que vous serez appelé à interviewer.

Déroulement

La RCA suit un ordre précis : choix de l’événement à analyser, reconstitution, recherche des facteurs contributifs, définition puis mise en place des actions réparatrices ou préventives, mesure de leurs effets et feedback au personnel (Figure 1).RQ_XX_HS_CH4_fig1

Choix des événements à analyser

Il existe un préalable important : la RCA n’est pas destinée à pointer du doigt des erreurs humaines ou à tirer des conclusions sur la performance des acteurs. Elle sert surtout – et osons le dire, uniquement – à décrire les conditions organisationnelles ou systémiques qui ont permis l’accident. Si l’événement qui est analysé comprend des éléments pouvant donner lieu à des poursuites judiciaires ou à une forme de punition personnelle, il ne peut faire l’objet d’une RCA. L’analyse n’est possible que dans un climat de parfaite confiance, sous peine de voir des éléments dissimulés ou la réalité travestie pour éviter le blâme. Les événements pouvant donner lieu à une procédure disciplinaire doivent être définis dans l’institution et être connus de tous. La RCA est une méthode pesante, qui demande du temps, mobilise une équipe pluridisciplinaire et nécessite la collaboration des acteurs impliqués dans l’événement. Il est clair que tous les événements ne peuvent être analysés et qu’une sélection doit être faite. La méthode généralement retenue est de faire appel à une grille de criticité. Celle-ci, largement utilisée dans les analyses prospectives, combine la fréquence et le niveau de gravité de l’événement. Les échelles de fréquence et de gravité doivent avoir des définitions claires et stables dans le temps et faire consensus dans l’institution. Elles ne sont pas forcément les mêmes que pour les analyses prospectives. Elles peuvent inclure des définitions s’appliquant au personnel, aux visiteurs ou aux installations. On retient le plus souvent des échelles à quatre niveaux de gravité et autant de niveaux de fréquence (Encadrés 1 et 2). L’évaluation de la gravité se fait en deux temps : le premier évalue l’événement actuel, tel qu’il s’est déroulé. Le deuxième, seul retenu pour l’évaluation définitive, se base sur un worst-case scenario (scénario du pire) : quelle serait la gravité du même accident si aucune des barrières qui en ont éventuellement limité la gravité n’existait ou ne fonctionnait ? Il est particulièrement important d’agir de la sorte lorsqu’on examine la gravité d’un presque accident : par définition il n’a pas eu de conséquence. Ce qui compte ici, ce sont les conséquences qu’il aurait pu avoir. En d’autres mots, la gravité enregistrée ici n’a rien à voir avec celle qui a été attribuée à l’événement indésirable (EI) lors de son enregistrement, par exemple après application de la taxinomie de l’Organisation mondiale de la santé9 (OMS). La fréquence est cotée sur une échelle permettant de bien caractériser les événements rares, là où les échelles de criticité des risques utilisées dans les analyses préventives s’attachent à départager des événements plus fréquents. L’existence d’un registre informatisé dans l’hôpital, qui constitue la « mémoire » des événements passés, permet d’objectiver cette évaluation. On construit alors une matrice 4x4 (Tableau I). Les événements indésirables cotés 3 nécessitent une RCA, ceux cotés 2 ne la nécessitent qu’après évaluation par le coordinateur. La construction de la matrice et l’évaluation des priorités sont l’affaire d’une seule personne et non d’un comité. Notons que la gravité ne doit pas forcément l’emporter sur la fréquence : il y a parfois plus à gagner en termes de sécurité à corriger un problème fréquent, donc plus facile à mesurer et à connaître. C’est en particulier le cas de certains presque accidents, qui peuvent parfois être analysés ensemble à la recherche de points communs, de tendances et d’associations. Ce problème de choix de priorité est d’autant plus difficile à résoudre que les exigences de saine gestion limitent les ressources alors que la demande sociétale évolue vers une exigence de sécurité « sans faute ». La notion de criticité est probablement un peu caricaturale : même un accident grave peut avoir une explication à ce point évidente qu’une brève réunion de service suffise à la cerner et à élaborer des barrières de protection. Une autre sélection possible serait celle basée sur l’impact prévisible de moyens de prévention que l’on mettrait en place. Il conviendrait d’accorder une priorité aux incidents pour lesquels les mesures de prévention ou d’atténuation sont soit évidentes, soit aisées à mettre en œuvre, soit encore probablement très efficaces. Force est d’avouer que cette politique ne peut se baser sur rien de plus concret que la confiance en l’expertise du décideur ou l’expérience partagée avec d’autres établissements [2]. Des méthodes moins exigeantes en ressources (Swarm, PRISMA, FTA…), décrites plus loin, offrent d’intéressantes alternatives.


Encadré 1 – Échelle de gravité

Catastrophique : décès ou atteinte sévère et durable à l’intégrité physique ou intellectuelle (les « événements sentinelles » que l’organisation a définis tombent dans cette catégorie, quelles que soient leurs conséquences).

Grave : nécessite une intervention chirurgicale ou une prolongation de séjour pour plusieurs patients, entraîne une invalidité permanente.

Modérée : nécessite une prolongation de séjour, l’invalidité est limitée dans le temps.

Mineure : pas d’augmentation du niveau des soins.


Encadré 2 – Échelle de fréquence

Fréquent : plusieurs fois par an.

Occasionnel : une ou deux fois en 2 ans.

Rare : une fois en 2 à 4 ans.

Exceptionnel : peut apparaître dans les 5 à 30 ans.


RQ_XX_HS_CH4_tab1

Calendrier et composition de l’équipe

Une RCA doit être entreprise le plus tôt possible après l’événement, idéalement dans la semaine au plus tard, si l’on veut que les enchaînements soient frais dans les mémoires. La priorité reste bien sûr de s’occuper du patient et de maîtriser toutes les conséquences que l’événement indésirable pourrait avoir pour lui, et pour les soignants qui y sont mêlés. Il faut admettre que des compromis sont parfois nécessaires : une RCA trop proche de l’événement peut être ressentie comme une agression par l’acteur impliqué. Une RCA peut durer plus d’un mois, les réunions de l’équipe étant limitées à deux heures, mais chacun peut accomplir des tâches en dehors des réunions (interview, revue de documents, visite sur place…). L’équipe ne devrait jamais dépasser dix personnes. Les équipes efficaces comprennent classiquement de quatre à six « permanents » : d’autres personnes peuvent être invitées à l’une ou l’autre réunion pour une expertise particulière. Les petites équipes sont plus faciles à réunir et travaillent plus vite : il convient de rester réaliste dans leur constitution. L’équipe doit comprendre aussi bien des experts que des personnes « naïves » quant au domaine concerné et au processus même de la RCA. Des cadres peuvent être inclus s’ils sont étrangers au secteur soumis à l’analyse et si des membres de leur staff ne font pas partie de l’équipe. Des experts extérieurs peuvent être sollicités, des règles de confidentialité devant alors être établies. Les participants doivent au moins avoir des connaissances de base sur les facteurs humains et sur la manière dont des aspects systémiques peuvent les influencer et mener à l’accident. La présence de patients ou de représentants des patients est maintenant souvent recommandée. Des hôpitaux forment des équipes de patients « experts » pouvant utilement apporter leur point de vue dans des groupes de réflexion comme celui-ci. Les hôpitaux favorisent de même le signalement des événements indésirables par les patients. L’implication du patient « victime » est le prolongement de cette attitude. Si l’on poursuit jusqu’au bout la logique et l’éthique de l’open disclosure10 (information ouverte), cette attitude est rationnelle : c’est la meilleure manière de prouver au patient que l’on met effectivement tout en œuvre pour que l’accident ne se reproduise pas. Cependant, la présence de la victime risque de murer certains témoins dans le silence et d’empêcher la libre expression des hypothèses. Nous n’avons à ce jour aucun élément probant pour ou contre cette pratique. Il est cependant normal que la victime ou ses proches soient reçus et interviewés. La question se pose aussi pour le médecin et les soignants impliqués dans l’événement. Certains y voient une manière d’éviter qu’ils culpabilisent ou se sentent isolés et incompris après l’accident. D’autres, au contraire, soulignent le poids moral imposé par le fait d’assister à un processus qui les oblige à revivre un événement traumatisant et à supporter les jugements implicites ou explicites des intervenants. Ce statut de « seconde victime11 » nécessite de pouvoir compter sur un soutien psychologique de la part de son hôpital. Là encore, nous n’avons que peu de recul et peu d’expérience. Les revues de morbidité et de mortalité se déroulent généralement, elles, dans un cadre et une ambiance moins traumatisants, en plus petit comité, et se prêtent mieux à leur présence qui y est vivement souhaitée. La présence d’acteurs directs de l’événement dans l’équipe d’une RCA peut également biaiser les résultats de son travail, soit qu’ils élèvent indûment le niveau d’exigence d’actions d’amélioration, soit qu’ils poussent à minimiser leur rôle personnel dans l’accident. Idéalement, le « président » du groupe doit avoir une expérience en RCA, être un bon leader et un bon communicateur. Si de l’information ou de l’expertise doit provenir d’une autre source que les membres de l’équipe, il faut recourir aux interviews.

Implication du management

Le mandat conféré à l’équipe doit être concrétisé au minimum par l’existence d’une charte qui garantit l’absence de poursuite et de blâme vis-à-vis des erreurs (non intentionnelles) commises, et qui favorise la déclaration des événements indésirables. Il doit décrire le sujet de la RCA et les « livrables » attendus. Une fois le sujet choisi, il doit être officiellement avalisé par la direction, qui doit lui donner accès à toutes les informations qui pourraient être utiles, dans le respect de la charte. La direction joue un rôle essentiel pour libérer les membres de l’équipe et accepter que le temps consacré à la RCA ne s’ajoute pas gracieusement à une occupation professionnelle normale. La direction doit être prête à accueillir les conclusions et les propositions que l’équipe émettra lors de son rapport : certaines d’entre elles peuvent la concerner directement et il faut accepter de les entendre. Les règles de confidentialité des informations échangées doivent être clairement énoncées et respectées.

Reconstruction de l’événement indésirable

L’équipe doit se familiariser avec les lieux où s’est déroulé l’événement et avec le matériel qui est éventuellement impliqué. Elle doit identifier la documentation interne qui doit être analysée (procédures, recommandations), ainsi que les documents externes qui doivent être consultés (règlements et lois, mode d’emploi du matériel, recommandations de la littérature). Des aides graphiques doivent être utilisées : diagramme de flux ou ligne de temps, éventuellement pour chaque acteur séparément afin de faire apparaître là où ils sont intervenus et leurs interactions. Ces schémas sont utiles pour déceler les « chaînons manquants », qui ne peuvent subsister si la reconstruction est complète et bien faite. À l’origine, une RCA se construisait de manière inductive : les causes étaient révélées en posant simplement la question « pourquoi ? » et en la répétant (méthode dite des cinq pourquoi). Il est apparu, quand on a adapté la méthode aux soins de santé, qu’il fallait non seulement recueillir les enchaînements de manière naturelle avec des « pourquoi », mais aussi qu’il fallait systématiquement explorer l’événement à la lumière de la conception théorique que l’on a de sa survenue. On ajoute donc une approche déductive à l’approche inductive de base. Notons que les promoteurs de la RCA2 ne font pas de déclaration concrète à ce propos et se limitent à proposer des questions qui explorent les causes systémiques les plus évidentes. Il existe des ensembles de questions à se poser pour découvrir les points qui ne sont pas encore explorés (Annexe 1). L’équipe doit identifier les personnes qui détiennent des informations susceptibles d’améliorer la compréhension des événements. C’est le moment où l’on planifie les interviews qui doivent être menées (Encadré 3). Il est capital pendant toute cette phase de rester aussi objectif que possible : ce sont des faits que l’on cherche à réunir, non des suppositions et des opinions, et encore moins des sentiments (le ressenti). L’équipe doit rester attentive et poser des questions de type « avez-vous observé cela vous-même ? », « qu’est-ce qui vous permet d’affirmer cela ? », par exemple. Cette exigence doit surtout exister en interne, dans toutes les discussions de l’équipe et, a fortiori, dans ses conclusions.


Encadré 3 – Comment mener une interview

La question qui doit être évoquée lors des interviews n’est pas de savoir pourquoi quelqu’un s’est trompé, mais de se faire expliquer pourquoi, à ce moment, l’action menée avait du sens pour l’opérateur. A-t-il procédé « comme d’habitude » ? Que s’est-il passé d’inattendu ?

  • La méthode classique des cinq pourquoi n’est pas utilisée à ce stade, celui de la reconstruction des événements, mais au stade suivant, celui de la reconstruction des facteurs contributifs. « Pourquoi ? » est une question agressive à éviter dans l’interview car elle pousse à se chercher une justification.
  • Idéalement, l’interview se fait en la présence physique de l’interviewé. Les entretiens téléphoniques ne sont possibles que s’il existe un lien de confiance entre les personnes impliquées.
  • Les membres de l’équipe doivent s’abstenir de débattre entre eux avant d’avoir recueilli toutes les informations.
  • Les cadres ne doivent être prévenus que s’il faut libérer les personnes interviewées, ils ne sont pas présents pendant l’interview, sauf s’ils sont impliqués dans le déroulement de l’accident.
  • On interviewe une personne à la fois. Les différences inévitables entre ce que relatent les différents acteurs doivent être éclaircies avant de passer aux conclusions.
  • Les questions doivent être préparées pour ne pas oublier un point important.
  • Ce n’est pas l’équipe qui interviewe, ce serait inutilement impressionnant : un ou deux membres suffisent.
  • On peut s’attendre à ce qu’un employé interviewé demande l’aide ou la présence d’une assistance, syndicale par exemple. L’attitude à adopter doit être décidée au préalable dans l’institution en bonne entente avec le coordinateur. C’est une décision du management, qui en porte la responsabilité. Cependant, si des patients sont interrogés, ils peuvent sans limite être assistés par un familier.
  • Le fait que l’équipe cherche une faille systémique qui a conduit à l’événement indésirable et non un « responsable » doit être expliqué aux membres du personnel qui sont entendus. La même chose doit être expliquée aux patients après leur avoir fait part d’excuses ou de regrets éventuels. Le but de l’équipe est de fournir des recommandations pour éviter la récidive d’un accident, en aucun cas de désigner des coupables.
  • Choisissez des lieux neutres, confortables et discrets pour mener les entretiens. Évitez les face-à-face, évitez d’installer la personne auditionnée dos à une porte, ne vous installez pas dos à une fenêtre ou à une source de lumière qui vous mettrait à contre-jour et empêcherait de voir votre visage.
  • Veillez à ne pas être dérangés, coupez les téléphones fixes et demandez que les portables restent silencieux. Exigez que personne ne consulte son écran pour autre chose que le sujet de l’audition.
  • Expliquez que vous prenez des notes et dites pourquoi. Si vous désirez enregistrer la conversation, obtenez d’abord l’assentiment de la personne auditionnée.
  • Insistez sur la confidentialité des entretiens, ce qui est dit ne doit servir qu’à étayer des conclusions, pas à être cité ou rapporté à quiconque. Cette discrétion doit être imposée à toute autre personne éventuellement présente.
  • Partez de questions générales pour en arriver à éclaircir les points particuliers. Ne soyez jamais inquisiteur, mais expliquez pourquoi vous ne comprenez pas et pourquoi vous avez besoin de l’aide de la personne écoutée. N’hésitez pas à reformuler ce que vous avez entendu et à le résumer.
  • N’interrompez pas, ne faites pas part de vos opinions, ne dites jamais « je n’aurais pas fait comme ça ».
  • Si la personne ne se rappelle plus ce qu’il s’est passé, demandez-lui de raconter comment cela se passe habituellement : ce peut être une aide pour retrouver les faits qui se sont déroulés.
  • Remerciez la personne à la fin de l’interview, assurez-vous qu’elle sache comment vous joindre si une information nouvelle lui revient en mémoire. Si la personne a besoin de soutien, assurez-vous qu’elle sache où trouver de l’aide (et avant l’interview que vous êtes en mesure de lui donner cette information).

Recherche des facteurs contributifs

La recherche des facteurs contributifs est le travail de l’équipe au complet. Il peut s’appuyer sur des outils tels que les cinq pourquoi. On dit de manière schématique que leur recherche doit avoir la profondeur de cinq questions « pourquoi ? » et de cinq réponses. C’est une vision rigide, qui peut amener des pertes de temps à approfondir une piste qui ne mène nulle part, et à manquer une information importante en se contentant de réponses superficielles [3]. Un outil fréquemment utilisé est la construction d’un « arbre des causes » identique à celui qui est utilisé dans la méthode PRISMA. Cette présentation semi-graphique permet de structurer la recherche de facteurs contributifs. Elle est un excellent support pour présenter les résultats de la RCA dans l’institution et en faire le retour d’information auprès des équipes concernées par l’événement indésirable et de la direction commanditaire de l’analyse (Figure 2). Notons que chaque « nœud » d’un arbre des causes est, dans le cas d’une analyse rétrospective, un lien « et », et ne peut pas être un lien « ou ». L’événement est survenu et, après l’analyse, il ne doit plus rester une incertitude quant au « pourquoi » il s’est produit. Si une seule perdure, l’analyse doit être approfondie. D’autres outils existent, tel le diagramme d’Ishikawa auquel il est couramment fait appel (Figure 3). Les dénominations des arêtes du « poisson » ne sont pas imposées, mais elles doivent explorer le spectre des causes autres que l’erreur humaine. Elles servent de guide et d’aide-mémoire lors de l’analyse et évitent de négliger l’une ou l’autre piste systémique. Des auteurs ont décrit différentes « métacatégories » auxquelles on peut rattacher des causes d’un événement indésirable et qui devraient être explorées lors de chaque analyse. Il ne faut pas perdre de vue que la vision des choses doit rester systémique. On ne cherche pas un responsable, on ne se braque pas sur l’erreur humaine : on approfondit les causes latentes. Ces métacatégories ont toutefois un côté théorique attaché à la vision que l’on a de la genèse d’un événement indésirable.RQ_XX_HS_CH4_fig2RQ_XX_HS_CH4_fig3

ALARM

La vision la plus connue est celle du London Protocol de Charles Vincent [4], qui a donné naissance à la méthode ALARM. Largement répandue dans les hôpitaux, elle a été développée par Vincent et l’Association of Litigation And Risk Management dont elle tire son nom [5]. ALARM propose sept catégories de causes systémiques qui doivent absolument être explorées (Tableau II). En France, la Haute Autorité de santé en a développé une grille d’analyse extrêmement détaillée qui peut servir de guide12. Les domaines sont détaillés, et les questions à (se) poser sont explicitées.RQ_XX_HS_CH4_tab2

7CareCat™

Charles Perrow propose le modèle DEPOSE(E)13 [6]. Ses métacatégories adaptées au monde industriel ont été traduites pour le monde des soins de santé (et déposées sous le nom 7CareCat™14 par l’hôpital universitaire de Genève) [7]. Un « aide-mémoire » graphique ou autre peut aider l’équipe à ne pas perdre de vue ce but systémique. Ces sept métacatégories sont le patient, l’équipement, les procédures, les acteurs, les consommables, les locaux et l’organisation. L’intérêt de ce modèle est qu’il permet également d’assurer une meilleure association entre les causes de l’événement indésirable et les actions de prévention et de correction mises en place [8].

HFACS

Il convient de mentionner également la taxinomie HFACS (Human factors analysis and classification system), qui fut développée pour les besoins de l’aviation [9] puis appliquée aux soins de santé [10]. Elle suit à la lettre les conceptions de Reason : l’accident n’a pas une cause unique mais survient à la suite de problèmes se manifestant à quatre niveaux de l’organisation : le premier est celui de l’opérateur et de l’action inappropriée, le second celui des conditions, qui influencent le premier (fatigue, design ergonomique, communication…), le troisième concerne les défauts de supervision (non-suivi des procédures, surcharge de travail) et le quatrième, l’organisation (culture d’entreprise et de sécurité, stratégie et allocation des ressources, etc.). Il est possible d’analyser les événements indésirables et leurs origines potentielles au travers de cette grille [11] : les promoteurs de cette méthode parlent de HFACS-RCA2 (Tableau III).RQ_XX_HS_CH4_tab3

Bow-tie

L’analyse ne doit pas négliger de s’intéresser aux barrières. Si un événement indésirable survient, c’est généralement parce qu’un certain nombre de facteurs déclenchants sont présents et que les mécanismes de détection ou de blocage n’existaient pas ou n’ont pas fonctionné. La méthode Bow-tie15 (nœud papillon) explore bien cet aspect et peut s’appliquer à une analyse rétrospective. La Veteran Administration aux États-Unis a défendu l’utilisation d’un « aide-mémoire » reprenant les cinq règles des liens de cause à effet (The five rules of causation) pour cette étape (Encadré 4) [12]. On doit en tout cas être attentif à respecter ces règles simples lors de la rédaction du rapport. Elles en augmentent la lisibilité et concourent à motiver les décideurs à prendre les mesures correctives suggérées, qui paraissent plus plausibles. Il s’agit de disposer de toutes les informations pour pouvoir suivre cette règle syntactique simple : quelque chose (une cause), conduit à autre chose (un effet), qui augmente la probabilité de voir l’événement indésirable survenir.


Encadré 4 – Les cinq règles de cause à effet (The five rules of causation) et exemples

Règle 1 : Décrivez clairement le lien de cause à effet

: Le résident est fatigué.

: Le résident a travaillé 80 heures cette semaine, ce qui a induit chez lui un état de fatigue qui augmente la possibilité de se tromper en retranscrivant un traitement.

Règle 2 : Soyez précis et positif dans vos formulations

: Le manuel est mal rédigé

: Le manuel de la pompe est rédigé en petits caractères (8 points) et sans illustration : les infirmières y recourent rarement, ce qui augmente la probabilité de mal programmer la pompe.

Règle 3 : L’erreur humaine n’est pas une cause, elle doit avoir une explication causale

: Le résident s’est trompé dans la dose, ce qui a provoqué un surdosage.

: Dans le logiciel de prescription, les lignes des listes de choix sont très proches et mal individualisées, ce qui augmente le risque de cocher à tort une ligne voisine menant à une erreur de dose susceptible d’entraîner un surdosage.

Règle 4 : Une violation de procédure n’est pas une cause, elle doit avoir une explication causale

: Le technicien n’a pas suivi la procédure d’injection au CT scan, ce qui a provoqué une embolie gazeuse.

: Le bruit et l’agitation dans la zone de préparation, joints à la pression à la productivité, augmentent la probabilité de sauter l’une ou l’autre étape de la procédure d’injection, pouvant entraîner l’utilisation d’une seringue vide et une embolie gazeuse.

Règle 5 : Un acte non exécuté n’est une cause que s’il est clairement obligatoire

: L’infirmière n’a pas relevé l’allergie au latex du patient.

: L’absence de directives claires sur qui relève les allergies augmente la probabilité que l’allergie au latex du patient passe inaperçue et provoque un accident allergique en salle d’opération.

Source : Bagian JP, Gosbee J, Lee CZ, et al. The veterans affairs root cause analysis system in action. Jt Comm J Qual Improv 2002;28(10):531-545.

Note :

CT : computed tomography, tomographie assistée par ordinateur.


Élaboration des actions

Chaque facteur contributif mis en évidence lors de l’étape précédente doit se voir opposer une action visant à empêcher l’événement indésirable de se reproduire ou, à défaut, à en limiter la gravité. Il est raisonnablement possible de prévoir l’efficacité d’une action selon sa catégorie : une action tend à installer une « barrière » là où il n’y en avait pas. Le malheur veut que les barrières les plus efficaces soient souvent les plus spécifiques et les plus coûteuses en temps, en argent ou en ressources, et l’expérience montre que la majorité des actions proposées après une RCA tombent dans les catégories « améliorer la formation » ou « créer une procédure ». L’une et l’autre négligent le fait que l’erreur et la violation sont des phénomènes inévitables. Même si on peut espérer chez les personnes concernées une diminution du risque, elle ne sera que temporaire compte tenu de l’inévitable migration naturelle vers une nouvelle zone de travail ou le risque ressenti est accepté16, et compte tenu du turnover de personnel, généralement très rapide dans les hôpitaux. La Veteran Administration reprend la classification des actions selon leur efficacité (Tableau IV) [12]. Elle rappelle bien la structure des barrières et n’est pas différente de propositions plus récentes [13]. À chaque facteur contributif devrait être associée au moins une action dont l’efficacité est forte ou intermédiaire. Les mesures faibles ne sont jamais inutiles, mais elles ne devraient pas exister seules. C’est malheureusement trop souvent le cas et c’est la principale critique adressée aux RCA, alors que la démarche de la RCA n’est pas en cause, mais bien le manque de prise en compte de l’efficacité des mesures par manque d’expérience ou de formation des équipes [14]. La personne responsable de l’implémentation doit être désignée. Le HFACS-RCA² propose une méthode HFIX (Human factors intervention matrix, matrice d’intervention des facteurs humains) basée sur la matrice de Haddon [15] pour élaborer des corrections. Pour chaque facteur explicatif (« causal ») décelé par l’analyse, HFIX envisage un questionnement qui porte systématiquement sur cinq dimensions : l’environnement, la tâche elle-même, la technologie, l’individu et l’équipe, la supervision et l’organisation [11]. Le HFACS-RCA² propose une méthode FACES (faisabilité, acceptabilité, coût, efficacité, stabilité dans le temps) pour évaluer ces interventions, qui rappelle les critères SMART (spécifique, mesurable, atteignable, réaliste et temporellement défini).RQ_XX_HS_CH4_tab4

Mesure de l’implémentation et de l’efficacité

À chaque action proposée, l’équipe doit associer un ou plusieurs indicateurs pour en assurer le suivi, et désigner une personne responsable de ce dernier. Idéalement, cette personne détient l’autorité lui permettant de mobiliser les ressources nécessaires à cette implémentation et à l’évaluation. L’indicateur prioritaire est le respect du délai imparti. Les indicateurs doivent être des indicateurs de procédure ou de résultat. Si les premiers peuvent être suivis à relativement court terme, les indicateurs de résultat sont plus difficiles à documenter et requièrent souvent de longues durées d’observation et de collecte. L’équipe et le management doivent faire les compromis nécessaires entre exhaustivité et efficacité dans ce choix.

Retour d’information et soutien

Les équipes soignantes, les patients et les familles doivent être informés des conclusions de la RCA et doivent pouvoir faire part de leurs suggestions ou critiques. Les conclusions doivent être discutées avec le management au plus haut niveau possible parce que l’adoption des actions mobilisera certainement des ressources et du personnel. Si la direction rejette certaines conclusions ou actions, l’équipe RCA doit en être avertie et doit pouvoir argumenter. Elle ne peut être contrainte à changer ses conclusions. Il est capital que ce retour d’information se déroule au mieux : le soutien de la direction est indispensable au bon déroulement des actions et sera un formidable encouragement à l’équipe lorsqu’il s’agira d’entreprendre une nouvelle RCA. Inutile d’insister sur le fait que La RCA est longue et lourde. La principale critique repose sur le fait que les recommandations émanent d’un groupe de travail qui n’a pas forcément le même point de vue ni les mêmes préoccupations que celles des professionnels qui accomplissent les tâches. Ces recommandations sont donc très « top-down17 », et ne sont peut-être pas facilement acceptées, surtout si le retour d’expérience des professionnels n’a pas été sollicité.

Autres techniques plus légères

Des techniques moins lourdes et plus interactives existent.

Swarm

Swarm repose sur la notion de « swarm intelligence », littéralement l’intelligence de l’essaim. Elle reconnaît l’apport d’une discussion libre au sein d’un groupe pluridisciplinaire. Celle-ci consiste par exemple en une revue d’un cas par une équipe multidisciplinaire où le service impliqué est largement représenté. Le groupe est mené par une ou deux personnes aguerries en gestion de la sécurité. La méthode Swarm respecte cinq étapes : les deux premières sont indépendantes de l’événement étudié et rappellent le contexte dans lequel l’analyse doit se dérouler. Les buts de celle-ci et l’absence de vision punitive sont rappelés, les participants se présentent. Ensuite seulement, les faits entourant l’événement sont exposés, une ligne de temps est établie par le groupe, qui discute librement des causes possibles dans la quatrième phase. Les conclusions tirées à la fin de la rencontre comportent des propositions d’action et la désignation de responsables pour ces actions [16].

Orion®

Largement utilisée dans les hôpitaux français, Orion® est la méthode de référence suggérée pour le fonctionnement des comités de retour d’expérience, les Crex, créés au départ dans les services de radiothérapie. Elle est issue de l’aviation civile et a été adaptée au monde hospitalier. Elle est le fruit d’un travail d’Air-France Consulting dans le cadre des interventions de la Mission nationale d’expertise et d’audits hospitaliers (Meah) [17]. Les Crex et Orion® se sont généralisés aux autres services hospitaliers par la suite [18]. La méthode Orion® prévoit une analyse en six étapes effectuée par un groupe multidisciplinaire et menée par un coordinateur qui n’est pas impliqué dans l’événement étudié. La première étape consiste à réunir les informations sur l’événement, le plus souvent par l’interview de témoins ou de participants (le déclarant de l’événement par exemple). Mais il peut également s’agir du débriefing collectif de l’accident ou, quand rien d’autre n’est possible, de la relation écrite aussi objective et complète que possible d’un témoin. Ensuite, on établit la ligne de temps, en se limitant aux faits objectifs qui ont été identifiés : il ne peut y avoir d’interprétation à ce stade. La troisième étape est celle de la comparaison entre ce qui s’est passé et ce qui était attendu, soit parce que décrit dans une procédure locale, soit parce qu’il s’agit de recommandations reposant sur des bases scientifiques (consensus sur la prise en charge d’une pathologie, par exemple). Les écarts sont identifiés : des actions n’ont peut-être pas été réalisées, ou leur résultat a été inattendu, ou les actions elles-mêmes étaient inadéquates ou mal mises en œuvre. La quatrième étape est celle de la recherche des facteurs contributifs (pour ne pas parler de « causes ») et des facteurs qui ont eu une influence, dans quatre domaines qui correspondent en gros à la globalisation des sept métacatégories d’ALARM et à leur adaptation à une cible plus locale qu’institutionnelle : l’organisation, les procédures, la formation… ; les aspects techniques, matériels… ; le facteur humain (conditions de travail, fonctionnement de l’équipe, acteurs et patient) ; l’environnement ou le contexte. Les facteurs influents, recherchés dans les mêmes domaines, sont importants : ils ont souvent un caractère générique qui peut les faire apparaître dans d’autres accidents. Chacun des facteurs identifiés se voit associé dans le cinquième temps à une action correctrice, qui doit être réaliste et qui n’apporte pas elle-même de nouveaux risques de défaillance. Le sixième temps est celui de la rédaction du rapport. La méthode est généralement appréciée des utilisateurs, même si certains estiment que sa simplicité n’est qu’apparente [19]. Le malheur veut que son nom, même s’il est enregistré, entre en concurrence avec l’acronyme ORION utilisé dans le monde de l’infectiologie (Outbreak reports and intervention studies of nosocomial infection : rapports d’épidémie et études d’intervention sur les infections nosocomiales).

PRISMA, une méthode plus légère et plus rapide

Si la méthode PRISMA (Prevention and recovery information system for monitoring and analysis18) [20] s’appuie aussi sur une recherche des causes racines, la méthodologie de cette recherche est plus sommaire donc plus rapide et ne mobilise que peu de collaborateurs pendant peu de temps. Sa particularité est de ne pas proposer d’actions d’amélioration sur la base d’un événement indésirable particulier, mais sur celle du spectre des causes issu de l’analyse d’une série d’accidents. Elle est donc peu adaptée pour être appliquée à tout un hôpital, à moins de décentraliser totalement le traitement des événements indésirables, au risque de perdre ou de diluer des informations. Elle se prête effectivement mieux aux analyses par de petites équipes, à l’échelle d’un service par exemple. Ce découplage entre l’événement indésirable et son analyse d’une part et des actions correctrices d’autre part est un considérable gain de temps. Il rend toutefois l’efficacité de la méthode difficile à évaluer. PRISMA est très largement utilisée aux Pays-Bas, où elle est née [21,22]. Elle a été popularisée en Belgique lors de son adoption par l’ensemble des services de radiothérapie (PRISMA-RT) sur injonction du Collège de radiothérapie19. PRISMA s’intéresse aux accidents et aux presque accidents. Elle invite à analyser aussi bien les causes de l’événement indésirable que les facteurs qui ont contribué à ce que l’événement ne se produise pas (les barrières). Elle se déroule en trois étapes : la reconstruction de l’événement indésirable et la construction d’un arbre des causes, la classification des causes racines par la taxinomie d’Eindhoven, et le choix des actions d’amélioration à partir de matrices d’action. Il n’y a en principe pas de sélection des événements à analyser puisque tous devraient l’être.

Reconstruction de l’événement indésirable

Ici aussi, on réunit une équipe pour analyser l’événement. Elle est habituellement succincte, composée par exemple du coordinateur et d’un membre ou d’un cadre du staff concerné. Ce n’est que pour des événements complexes, graves ou remarquables que l’équipe est étoffée. Dans la mesure où l’activité liée à PRISMA a lieu le plus souvent pendant l’activité normale d’un service, l’intégration de patients est difficile et n’a été que rarement décrite. Ici encore, la déclaration d’un événement indésirable est un point de départ, mais elle est rarement assez explicite. Des questions supplémentaires doivent sans doute être posées au déclarant et aux acteurs et témoins de l’événement. Et ici encore, le but n’est pas de chercher des responsables à blâmer, mais de comprendre comment les choses se sont déroulées. La vision doit être systémique, l’attitude aussi objective que possible, séparant les faits des opinions, suppositions et émotions. Le résultat de cette analyse et de la recherche de causes se traduit dans un outil graphique : l’arbre des causes (Figure 2). Il comprend ici une partie gauche classique établissant l’arborescence des causes de l’événement, et une partie droite en ce qui concerne les presque accidents, qui explique ce qui a empêché l’événement de se produire (prévention) ou qui en a supprimé les conséquences (récupération). L’événement doit être correctement identifié : c’est ce qui ne s’est pas déroulé comme prévu ou de façon erronée lors de la dernière activité ou tâche avant l’incident. Cet événement s’est déroulé parce qu’une ou plusieurs causes directes étaient réunies. La cascade des questions « pourquoi » permet habituellement de trouver des causes secondaires à ces causes directes, jusqu’à ce que l’on rencontre une des deux règles d’arrêt. La première est particulière à PRISMA : l’explication, si elle existe, sort du périmètre de compétence de l’équipe d’analyse. Ce périmètre doit être clairement établi avant d’entreprendre l’analyse : c’est bien souvent la limite physique ou fonctionnelle d’un service. En radiothérapie, si un rendez-vous doit être remis parce que le matériel n’était pas disponible à cause d’une panne de courant générale dans l’hôpital, l’analyse s’arrête là. La recherche de la cause de la panne n’appartient pas à la compétence du service, il n’y a plus de réponse aux « pourquoi », à moins de sortir du périmètre prévu. La seconde est simplement l’absence de données objectives pour permettre de répondre au dernier « pourquoi ». On s’arrête donc à des « causes initiales », similaires aux « causes profondes » ou « racines » de la RCA. On peut vérifier la cohérence de l’arbre des causes en vérifiant qu’on peut le remonter depuis les causes initiales jusqu’à l’événement par des « parce que », « étant donné que ». Comme dans toutes les analyses rétrospectives, les causes sont liées entre elles par des liens « et » : c’est parce que ces causes étaient présentes ensemble que l’événement s’est produit. S’il subsiste des liens « ou », cela veut dire que l’analyse est incomplète et laisse subsister des ambiguïtés, qui doivent être levées.

Classification des causes profondes

Chacune des causes initiales est caractérisée et mise dans une des cases de la taxinomie d’Eindhoven, en suivant l’ordre prévu (Encadré 5 – Annexe 2). Cet ordre a son importance : il permet d’explorer d’abord les causes latentes, qu’elles soient techniques ou organisationnelles, avant d’explorer les causes directes (les facteurs humains menant à l’erreur ou à la transgression). Il prend en compte le biais naturel qui consiste à chercher d’abord l’erreur humaine en oubliant que celle-ci est le plus souvent sous-tendue par des facteurs techniques ou organisationnels, y compris culturels. On reconnaît clairement dans les facteurs humains le schéma « SRK20 » de Rasmussen repris par Reason. Ces facteurs humains donnent lieu à autant de codes que les facteurs latents ensemble et il ne faut dès lors pas s’étonner qu’en dénombrant les facteurs causaux d’une série d’événements, les facteurs humains y soient largement représentés [23]. C’est un biais classique des systèmes taxinomiques : si une catégorie de causes dispose de nombreux sous-types, cette cause est mieux représentée dans les résultats. Rappelons que Reason estime que l’accident se trouve au carrefour d’une erreur humaine (ou d’une transgression) et d’une cause latente. Il a ajouté cette dernière à la conception de Heinrich, qui voyait la responsabilité humaine dans 88% des accidents. Il n’y a pas de concurrence ou de confusion possible entre la taxinomie de l’OMS et la taxinomie d’Eindhoven : cette dernière encode les causes décelées à l’événement, la première décrivant l’événement lui-même et son contexte. Elles sont complémentaires et non redondantes.


Encadré 5 – Classification d’Eindhoven

Défaillances techniques (T)

  • T-externe (T-ex) : se situent hors du contrôle et de la responsabilité du niveau de l’organisation concernée.
  • T-design (TD) : provoquées par une conception inadéquate (ergonomie).
  • T-construction (TC) : bonne conception, mauvaise réalisation dans la phase de construction.
  • T-matériel (TM) : catégorie pour les autres défauts du matériel (non TD ou TC).

Défaillances organisationnelles (O)

  • O-externe (O-ex) : les défaillances se situent hors du contrôle et de la responsabilité du niveau de l’organisation concernée.
  • O-transfert d’informations (knowledge) (OK) : mesures insuffisantes pour garantir un transfert d’informations ou de connaissances adéquat (ex. : formation des nouveaux).
  • O-protocoles (OP) : ont trait à la qualité et à la disponibilité des protocoles et procédures.
  • O-priorité de gestion (management) (OM) : liées à une décision de gestion.
  • O-culture (OC) : conséquences d’une approche commune et des comportements qui en découlent.

Défaillances humaines (H)

  • H-externe (H-ex) : hors du contrôle et de la responsabilité de l’organisation concernée.
  • H-raisonnement (HKK) : incapacité d’une personne à utiliser ses connaissances (knowledge).
  • H-qualifications (HRQ) : inadéquation des qualifications ou formations (pratique et théorie) par rapport à la tâche à exécuter (R pour rule-based).
  • H-coordination (HRC) : défauts au niveau de la coordination de l’organisation ou de l’équipe devant accomplir une tâche.
  • H-vérification (HRV) : contrôle incorrect ou incomplet d’une situation ou vérification non effectuée avant le début de l’activité.
  • H-intervention (HRI) : planification ou exécution incorrecte d’une tâche.
  • H-monitoring (HRM) : ont trait à la surveillance d’un processus ou de l’état du patient au cours d’un processus ou après traitement.
  • H-motricité fine (HSS) : ont trait à l’exécution d’une tâche qui requiert une motricité fine (les S pour skill, compétence, et slip, erreur, dérapage).
  • Motricité globale (HST) : ont trait à un mouvement du corps entier (laisser tomber un prélèvement) (T pour tripping, trébucher).

Problème lié au patient (PRF) (RF : related factor).

Problème non classable (X)

On envisage dans l’ordre les défaillances techniques, puis organisationnelles avant de se pencher sur les défaillances humaines et sur celles liées à la présence du patient, afin d’éviter le biais classique de recherche d’une responsabilité humaine (Annexe 2).


Choix des actions d’amélioration à partir de matrices d’action

À partir d’une série d’événements analysés et recueillis dans une base de données, il devient possible d’établir un « profil PRISMA » (Figure 4), lequel permet en particulier de déceler les causes latentes qui prédominent dans une organisation et d’imaginer des solutions adaptées. On peut s’inspirer pour ce faire de matrices « code-action » (Tableau V). PRISMA est une méthode décentralisée. Elle implique des acteurs différents pour certains traitements et induit de ce fait un risque d’hétérogénéité des résultats. Elle implique aussi une phase de classification taxinomique : tous les encodeurs ne codent pas de la même manière, de sorte que des différences de « profil PRISMA » d’un service à l’autre ou d’une institution à l’autre ne peuvent jamais être formellement attribuées à des différences de culture, d’équipement, d’organisation ou de fonctionnement. Même les comparaisons dans le temps sont hasardeuses si les personnes assurant l’analyse et l’encodage changent.RQ_XX_HS_CH4_fig4RQ_XX_HS_CH4_tab5

Traitement des presque accidents

On construit, à droite de l’arbre des causes, l’enchaînement des facteurs (planifiés ou fortuits) qui soit ont empêché l’événement de survenir, soit ont diminué son impact sur le patient. C’est une bonne manière de visualiser l’action positive des barrières existantes et de faire réfléchir à la façon de tirer profit à l’avenir de l’éventuel obstacle non planifié qui a joué le même rôle. Une brève taxinomie peut être utilisée pour les classer (Tableau VI). La nuance « planifié » ou non est importante : ce qui a évité l’accident fait-il partie d’une procédure existante dans l’institution prévue pour intercepter ce genre d’accident, ou moins spécifiquement d’une procédure plus globale de gestion du risque ? Le non planifié recouvre les initiatives individuelles ou collectives originales, ou qui font partie d’une culture tacite, qui méritent probablement d’être soulignées et peut-être formalisées de sorte que ce qui n’est pas planifié le devienne.RQ_XX_HS_CH4_tab6

L’arbre des causes : une RCA « light »

La RCA « classique » mobilise des ressources importantes et pendant longtemps. Sa conclusion ne mène pas toujours à des recommandations constructives [24] et sa représentation graphique est pauvre (diagramme d’Ishikawa). En particulier, il existe, tant dans la méthode (cinq pourquoi) que dans sa représentation graphique, une vision en silos, isolant les facteurs humains des facteurs systémiques. L’arbre des causes de la méthode PRISMA est peu exploré par la littérature anglo-saxonne. Il est dérivé d’une méthode plus générale, dite « Fault tree analysis » (FTA), ou arbre des défaillances, qui prend en compte, outre les « causes » observables d’un accident déjà survenu, les menaces potentielles identifiées qui auraient pu le provoquer. Il comporte donc une vision prospective, a priori. Il en sera question dans le chapitre sur le Bow-tie. Le FTA est peu documenté dans le domaine des soins de santé, même s’il a trouvé récemment une belle illustration dans l’analyse des erreurs de diagnostic [25]. PRISMA, comme les versions historiques de la RCA, est une méthode purement inductive. On se contente de réunir des faits, sans aucune idée préconçue, à coup de « pourquoi ». Les biais cognitifs peuvent faire dériver cette recherche de causes vers la responsabilité du dernier acteur présent avant l’événement (« erreur fondamentale d’attribution ») et la recherche de la « pomme pourrie ». Pour suivre d’autres pistes que l’erreur humaine, particulièrement celles suggérées par des théories sur la genèse des accidents, les équipes sont appelées à étudier obligatoirement des catégories théoriques de causes (la communication, la charge de travail, le comportement du patient…) pour en confirmer ou en infirmer la présence. Ce processus est caractéristique des méthodes déductives : PRISMA ne le prévoit pas, mais tant la RCA (moderne) que le FTA l’encouragent. Sa représentation graphique est synthétique et permet d’offrir une vision agrégée de plusieurs épisodes semblables. Cette agrégation des données (qui existe dans PRISMA par simple dénombrement des causes « initiales » et leur classification) permet de construire des arbres où il est possible d’attacher des probabilités aux « nœuds » (relation « et » en logique booléenne) donc de quantifier des risques. L’arbre des causes n’est donc pas « simplement » une méthode RCA du pauvre : il a d’autres caractéristiques et ouvre d’autres perspectives d’intervention. Non seulement il peut comme la RCA définir des « causes profondes » auxquelles s’attaquer, mais il offre l’option d’éliminer des nœuds intermédiaires. Dans ce sens, l’arbre des causes n’est pas forcément une solution de compromis, mais a sa place dans les méthodes rétrospectives.

Une critique des analyses rétrospectives

Causalité

Toutes les analyses rétrospectives s’appuient sur la recherche de ce qui a pu provoquer l’accident après que celui-ci a eu lieu. Toutes reposent sur la reconstitution minutieuse de ce qui semble a priori une ligne causale, ou la convergence de plusieurs d’entre elles. Connaissant l’accident (l’effet), nous essayons par une procédure itérative de remonter aux causes racines. Cette méthode ne s’applique, dès lors, que si le modèle de génération des accidents que nous avons adopté est soit un modèle linéaire, soit un modèle multilinéaire, où les enchaînements suivent des chemins « logiques ». La construction d’une ligne du temps comme première étape à toutes nos « analyses de causes » est évidemment typique et illustrative de cette vision. Nous baignons dans une culture où le respect de la notion de causalité est ancré dans notre mode de raisonnement alors même que la définition de ce lien « de cause à effet » est toujours source de controverse. La référence habituelle est celle faite aux (neuf) critères de Bradford Hill [26]. Il les énumère, mais considère qu’aucun n’est absolument nécessaire ni suffisant ; ce sont des arguments plus ou moins forts en faveur du lien causal : la force de l’association (l’amplitude de l’effet ne laisse pas de place au doute) ; la constance de l’association, observée souvent par des observateurs différents (c’est la puissance du lien statistique entre la cause et l’effet) ; la spécificité de l’association (elle n’existe pas pour un autre candidat causal) ; le lien temporel entre la cause et l’effet, qui doit être logique et crédible ; le gradient, autrement dit, le lien entre l’intensité de la cause et celle de l’effet ; la plausibilité scientifique (Hill est réservé sur ce critère) ; la cohérence du lien avec d’autres arguments ou observations ; les preuves expérimentales (des interventions qui modifient l’exposition à la cause en modifient les effets) ; l’analogie avec d’autres liens observés. Retenons de ces critères que la cause précède l’effet, que cause et effet sont contigus dans le temps et l’espace, que la même cause produit toujours le même effet, et qu’il existe une proportionnalité entre l’amplitude de la cause et celle de l’effet. Par ailleurs, la nature de ce lien doit s’inscrire dans les connaissances théoriques du moment ou du moins être une hypothèse de recherche. Dans le domaine des biosciences et de la médecine en particulier, Federika Russo et Jon Williamson jugent que, pour parler de causalité, les deux familles de critères énumérés par Hill doivent être considérées comme nécessaires : les critères qui évaluent les différences (appelons-les statistiques), et ceux qui se réfèrent à une explication « mécanique » (une théorie physiologique par exemple) [27]. Nous devons garder en mémoire l’avertissement de David Hume : nous ne pouvons jamais observer directement un lien de causalité, seule nous est accessible et observable la « conjonction constante de deux objets ». Les pères de la statistique ne se sont d’ailleurs jamais préoccupés de la notion de causalité, pour laquelle n’existe pas de notation mathématique à l’époque classique. Leurs recherches portaient bien plus vers les « corrélations parfaites ». Rasmussen note que « la percée de la science moderne est due à Galilée et à Newton qui ont remplacé les observations des phénomènes par des mesures de variables et les lois de causalité par des relations mathématiques entre variables […]. La représentation quantitative et mathématique des sciences physiques et de l’ingénierie a connu un tel succès que le concept qualitatif de causalité a été discrédité par les scientifiques21 » [28]. Bertrand Russel par exemple n’accorde aucun crédit à la notion de causalité qui, pour lui, est étrangère au domaine de la science [29]. Ainsi, « la cause précède l’effet » est pour lui une proposition qui n’accepte pas la réfutation et ne répond pas à la définition de « proposition scientifique » selon Karl Popper. Ce point de vue tient peut-être la route dans les sciences « dures » (mathématique et physique) mais il n’est pas partagé dans les sciences de la vie, en médecine en particulier. Connaître le virus cause d’une pandémie est la condition sine qua non du développement d’un vaccin. Ce discrédit nourri de positivisme ne s’est levé a perduré jusqu’à la fin du siècle dernier, où la causalité s’est réinvitée à la table des sciences, avant tout du fait de l’intérêt des chercheurs qui se sont penchés sur l’intelligence artificielle. L’un d’entre eux, Judea Pearl, décrit ce qu’il appelle l’échelle du lien causal, avec trois échelons qu’il définit ainsi [30] : l’association (il existe un lien probabiliste que je peux observer et décrire), l’intervention (que se passe-t-il quand j’interviens dans ce lien ?) et le scénario contrefactuel (que se serait-il passé si j’avais empêché la cause de survenir ?). Le lien causal est un lien logique bien plus puissant que la simple corrélation, nous le sentons davantage que nous ne pouvons le démontrer, les règles précédentes nous aident à franchir le pas entre corrélation et causalité. De ce point de vue, l’émergence de l’evidence based medicine (médecine basée sur les preuves) représente un glissement des valeurs des éléments probants : les arguments mécanistes, physiologiques ou pharmacologiques par exemple perdent leur poids face aux arguments quantitatifs et statistiques, au point d’être relégués à un arrière-plan où on ne les cite même plus. Or, même si la condition nécessaire de la coexistence des deux types d’arguments a pu trouver des exceptions, insister sur les seuls arguments statistiques et négliger ceux qui s’appuient sur une explication rationnelle et scientifique pour affirmer le lien causal fait courir le risque d’un dérapage [31].

Utilité du big data

Il est difficile à notre époque de ne pas faire une brève digression du côté des mégadonnées (big data). Des théoriciens pensent que la possibilité de traiter des quantités inouïes de données rend les corrélations à ce point solides que la recherche d’un lien causal devient superflue [32] : un événement a est toujours suivi d’un événement b, b suit a, quelle importance de savoir si a cause b ou non ? À cela deux objections : ce raisonnement permet sans doute de prédire l’occurrence de l’événement b, mais à condition que je n’intervienne pas sur le système. Ainsi, si à la suite d’une observation sur un grand nombre de patients, je conclus que ceux qui boivent du café vivent plus vieux, je suis tenté de me mettre à boire du café. Je néglige le fait que j’ignore tout des deux populations (buveurs ou non) et de ce qui les différentie éventuellement outre leur goût ou non pour le café (facteurs confondants). En outre, je fais une supposition acrobatique qui voudrait que changer mon comportement prolonge ma vie, ce qui est difficilement vérifiable puisque je ne connaîtrai jamais quelle aurait été la durée de ma vie si j’avais continué à ne pas boire de café. Sans rapport causal établi entre la consommation de café et la survie, rien ne m’autorise à franchir ce pas logique. La seconde objection est d’ordre éthique. La vision « naïve » que nous avons de l’informatique et des algorithmes qu’elle utilise est qu’un algorithme n’a ni religion ni avis préconçu, en d’autres mots qu’il est par nature objectif. C’est oublier que bien des algorithmes sont imaginés au sein de sociétés commerciales qui ont des buts précis, dont celui d’être rentable est l’un des plus fréquents. Penser que cela ne puisse avoir aucune influence sur la manière dont les algorithmes sont créés ou sélectionnés est naïf [33]. La force brute du big data nous assure de corrélations qui peuvent exister, mais est impuissante à établir les liens causaux indispensables à notre appréhension du monde, qui est nécessaire pour guider nos actes [34]. La taille de la gigantesque « soupe » de données analysée pour en tirer des conclusions peut faire croire que ces dernières sont à l’abri de biais22 [35]. Qu’il suffise de rappeler que les logiciels de reconnaissance faciale fonctionnent bien mieux chez les Blancs que chez les Noirs, simplement parce que les données brutes qui servent à l’apprentissage sont plus nombreuses et de meilleure qualité pour cette population…

Complexité

Notre culture voudrait également que nous vivions dans un monde ordonné, logique et compréhensible. Nos références restent celles de la physique newtonienne et du cartésianisme, et la vision tayloriste et procédurale de l’organisation du travail. Dans ce monde idéal, toutes les lois sont connues ou connaissables si l’on s’en donne la peine. La relation cause-effet y est symétrique, les effets sont prévisibles (donc le fait de ne pas les prévoir est blâmable) et le passé peut être reconstruit à partir de la connaissance du présent [36]. Mais le monde dans lequel nous vivons, en particulier le domaine hospitalier, est « complexe », fait d’interactions multiples et d’enchaînements fortement couplés23. Son comportement est caractérisé par les interactions qui existent ou se créent entre ses membres humains ou entre ceux-ci et le système technique. De ces interactions naissent des propriétés nouvelles (que l’on dit « émergentes »), qui peuvent éventuellement devenir à leur tour des causes d’accident. Toute interprétation visant à rationaliser ce monde sera probablement réductrice et soumise à des biais. Nos méthodes classiques cessent de s’appliquer si nous admettons que les accidents sont des phénomènes « émergents », ou fruits de « résonances fonctionnelles ». Des outils existent pour s’adapter à ces conceptions et les analyser, mais ils sont difficiles à mettre en œuvre et à interpréter [37]. Le problème avec la recherche de causes est qu’il se pose à l’envers : nous avons d’une part un effet (l’événement indésirable), et d’autre part une série d’observations qui entourent cet effet ; la cause, elle, n’est pas observable. De nos observations, nous inférons une explication que nous appelons « cause » faute de mieux, nous ne la déduisons pas. Nous sommes tellement baignés dans ces liens « de cause à effet » que, lors de la recherche de causes, nous raisonnons comme si ce lien était parfaitement symétrique et réversible, ce qui n’est pas le cas. En d’autres mots, devant un événement qui est l’effet, nous pouvons construire des explications susceptibles de mener à cet événement, mais nous ne sommes pas en mesure de vérifier que, si cette explication se répète, elle aura la même conséquence. Nous le croyons peut-être, mais nous ne pouvons le prouver. Les causes que nous identifions sont des causes que nous construisons, elles sont pragmatiques et non scientifiques24.

Cadre de référence

L’observation montre que les causes retenues peuvent être différentes selon l’outil d’investigation utilisé, surtout si celui-ci s’appuie sur une théorie particulière expliquant les accidents, comme celles passées en revue [38]. En d’autres mots, nous ne trouvons que ce que nous cherchons. J’ai souligné ce fait en présentant la taxinomie d’Eindhoven de la méthode PRISMA : le poids des facteurs humains dans les possibilités de codage introduit le risque d’une perception erronée de la prééminence de ceux-ci dans la genèse des événements indésirables. Mais il en va de même lorsque nous nous fions à une analyse guidée par des catégories de causes à envisager, telles que les méthodes Orion® ou ALARM : recourir trop tôt à ces catégories dans notre recherche des causes nous met des œillères qui nous feront peut-être passer à côté d’explications qui nous auraient semblé évidentes sans cela. C’est un prix possible à payer pour ces outils qui nous contraignent à chercher le « pourquoi » plutôt que le « qui a », à penser « causes systémiques » plutôt que « responsabilité humaine ». Les explications causales décrivent des objets qui interagissent dans des chaînes d’événements. Cependant, ni les objets ni les événements ne peuvent être définis objectivement. Leur identification dépend d’un cadre de référence qui est considéré comme acquis, et les explications causales ne sont adaptées qu’à la communication entre des individus qui ont une expérience similaire et qui partagent plus ou moins intuitivement le même cadre, et les définitions qui le sous-tendent [28]. Nous sommes de plus naturellement attirés vers certaines causes « préférées ». Celles que nous comprenons, par exemple, ou celles sur lesquelles nous avons une prise et pour lesquelles nous pouvons proposer des solutions rapides. Celles qui confirment nos théories auxquelles nous tenons ou, plus modestement, qui nous semblent apporter une explication dont nous pouvons nous satisfaire pour arrêter là nos efforts [39].

Biais de rétrospection

L’observation montre que le simple fait de savoir qu’un accident s’est produit biaise notre jugement. Nous jugeons différemment a priori ou a posteriori. L’exemple classique est l’opinion d’un téléspectateur d’un match de football sur une sortie téméraire du gardien de but de son équipe favorite. Selon qu’il le regarde en direct, ignorant du résultat, ou en différé en sachant si le résultat fut un but intercepté ou un but marqué par l’adversaire, la sortie sera géniale ou irresponsable. On parle de biais de rétrospection. Il est présent en médecine également. On a par exemple demandé à un panel d’observateurs de dénombrer les biais qui altèrent le raisonnement diagnostique d’un médecin confronté à un scénario simple : il a prescrit un examen radiologique pour étayer son diagnostic. Si le résultat est négatif (normal), cela suggère que nous pouvons imaginer que le médecin se soit trompé ; mais pas forcément : sa stratégie peut être d’avoir choisi un examen facile à réaliser pour exclure les autres possibilités. Il n’empêche que les observateurs croient déceler bien plus de biais altérant son raisonnement quand le test revient négatif (3,76 contre 1,75) [40]. L’auteur conclut que le biais existe bien plus dans le chef de l’observateur que dans celui de la personne observée. Il est bien sûr évident que, dans toutes les analyses rétrospectives, nous savons que les choses se sont mal passées, puisque c’est un accident qui déclenche l’analyse. Les observateurs doivent donc faire un effort constant pour rester objectifs alors qu’ils connaissent « la fin de l’histoire », ce qui n’était pas le cas de ceux qui ont vécu l’histoire telle qu’elle s’est réellement déroulée. La RCA et le FTA sont largement documentés dans la littérature internationale. Si l’on excepte la critique théorique décrite plus haut qui raccroche ces méthodes à des systèmes de conception de l’accident qui sont linéaires ou multilinéaires, leur principale faiblesse réside dans le fait qu’il faut choisir d’une manière ou d’une autre les cas traités (les événements les plus graves ou les plus critiques, ceux pour lesquels le patient et sa famille exigent des explications, ou plus prosaïquement ceux pour lesquels on imagine pouvoir prendre des mesures utiles), et que le passage de l’investigation à la définition d’actions correctrices reste difficile [2]. PRISMA pose un autre problème : elle n’est quasiment pas documentée en dehors des Pays-Bas où elle a cependant un grand succès, et est pour le moins élusive sur les méthodes préconisées pour mettre en place des actions correctrices. Le problème de la sélection des événements que l’on analyse ne se pose pas : PRISMA exige une analyse de tous les événements indésirables, ce qui semble peu réaliste sauf si on en limite l’utilisation à un service particulier. Nous ne disposons pas d’éléments probants quant à son efficacité à résoudre des problèmes concrets ; ce que l’on ne peut que regretter après que cette méthode a été choisie par les radiothérapeutes belges. Une revue de la littérature récente retient 25 articles sur l’utilisation de la méthode ou de modifications de celle-ci depuis sa description en 1997. Sur ces 25 études, 21 viennent des Pays-Bas. C’est peu pour se forger une certitude.

Pertinence des actions correctrices

La dernière critique porte sur le hiatus qui existe entre le travail de recherche d’explications à l’événement et la mise en place d’actions correctrices et, en particulier, sur le choix de celles-ci et la façon de prédire leur efficacité [24]. L’aviation civile américaine utilise une méthode d’analyse qui s’apparente à la RCA classique jusqu’à la reconstruction des causes (CAST pour Commercial Aviation Safety Team25) [41]. CAST ajoute une évaluation de la pertinence du fait d’attribuer la cause de l’événement à chaque facteur décelé par la RCA, et une évaluation de la probabilité que ce facteur se répète à l’avenir. Le produit des deux donne une mesure de la priorité à accorder à une intervention relative à cette cause. Pour chaque solution ou action d’amélioration proposée, on évalue à quel point elle corrige la cause ou le facteur ou en bloque les effets et, enfin, la confiance que l’on a dans le fait que ces actions d’amélioration pourront être menées à bien comme prévu.

Le choix de la simplicité

Bien peu de responsables de la sécurité ont suivi une formation à la gestion des facteurs humains et peuvent se targuer d’une expertise dans la conduite d’une RCA, qui reste une méthode lourde et exigeante en temps. Peut-être que leurs compétences seraient parfois mieux utilisées à revoir la littérature qui existe sur le type d’accident concerné plutôt qu’à lui consacrer une RCA chaque fois qu’il survient [42].

Notes :

1- Voir : https://www.risqual.net/publication-scientifique/chapitre-ii-la-culture-de-securite-graal-ou-panacee (Consulté le 12-01-2023).
2 Voir : https://www.risqual.net/publication-scientifique/chapitre-i-une-histoire-de-la-securite-partie-1-de-la-mine-de-charbon-a-la-salle-doperation#title11 (Consulté le 12-01-2023).
3- Revue de mortalité et de morbidité, comité de retour d’expérience, retour d’expérience, Orion®, Association of Litigation And Risk Management (Association de gestion des risques et des litiges).
4- Human factors analysis and classification system, système d’analyse et de classification des facteurs humains.
5- Voir : https://www.risqual.net/publication-scientifique/chapitre-i-une-histoire-de-la-securite-partie-1-de-la-mine-de-charbon-a-la-salle-doperation#title11 (Consulté le 12-01-2023).
6- Prevention and recovery information system for monitoring and analysis, système d’information sur la prévention et de rétablissement pour la surveillance et l’analyse.
7- Voir : https://www.risqual.net/publication-scientifique/chapitre-i-une-histoire-de-la-securite-partie-1-de-la-mine-de-charbon-a-la-salle-doperation#title5 (Consulté le 12-01-2023).
8- Fondation nationale pour la sécurité des patients (États-Unis).
9- Voir : https://www.risqual.net/publication-scientifique/chapitre-iii-le-signalement-des-evenements-indesirables-intentions-methodes-et-resultats#title7 (Consulté le 12-01-2023).
10- Voir : https://www.risqual.net/publication-scientifique/chapitre-ii-la-culture-de-securite-graal-ou-panacee#title8 (Consulté le 12-01-2023).
11- Voir : https://www.risqual.net/publication-scientifique/chapitre-ii-la-culture-de-securite-graal-ou-panacee#title9 (Consulté le 12-01-2023).
12- Voir : https://www.has-sante.fr/plugins/ModuleXitiKLEE/types/FileDocument/doXiti.jsp?id=c_1123074 (Consulté le 12-01-2023).
13- Design, équipement, procédures, operateurs, fournitures (supplies), environnement local et général.
14- Sept cat(égories) de soin (care).
15- Décrite dans le chapitre suivant sur les analyses prospectives.
16- Sur la notion de migration, voir : https://www.risqual.net/publication-scientifique/chapitre-i-une-histoire-de-la-securite-partie-1-de-la-mine-de-charbon-a-la-salle-doperation#title10 (Consulté le 12-01-2023).
17- De haut (direction) en bas (opérateurs).
18- Système d’information sur la prévention et de rétablissement pour la surveillance et l’analyse. L’acronyme est malheureusement utilisé à d’autres fins et rencontré dans d’autres contextes dans le domaine de la santé et de la sécurité des patients (Prefered reporting items for systematic reviews and meta-analysis, éléments préférés de rapport pour une revue systématique et une méta-analyse).
19- www.prisma-rt.be (Consulté le 13-12-2022).
20- Skill-Rule-Knowledge (compétence, règle, connaissance), https://www.risqual.net/publication-scientifique/chapitre-i-une-histoire-de-la-securite-partie-1-de-la-mine-de-charbon-a-la-salle-doperation#title10 (Consulté le 12-01-2023).
21- Traduction par l’auteur.
22- La même hybris a frappé les tenants des théories néocapitalistes sur « la main aveugle de l’économie » : si un système comprend un très grand nombre d’opérateurs qui influencent l’économie, les comportements vertueux des uns compensent les comportements mal intentionnés des autres, de sorte que les lois de l’économie continuent à s’appliquer. Jusqu’au jour où, après 40 ans de certitude, un tsunami économique balaye tout à la suite du krach boursier et de la crise économique de 2008 [35].
23- Il est important de comprendre le fossé qui existe entre un système « compliqué » et un système « complexe ». Un avion, c’est compliqué sans plus. C’est plus compliqué qu’un vélo, mais c’est un objet qui est connaissable et explicable. Une fois cet avion en vol, avec un équipage dont les membres ont leur formation propre, leur histoire et leur culture, voire leur langue, et sont confrontés à des conditions météo et des interactions avec des centres de contrôle au sol, il constitue un système complexe.
24- Pour prendre un exemple, si nous avons un témoin du niveau d’huile dans le moteur de notre voiture, le fait qu’il soit éteint nous rassure : le niveau est bon. S’il s’allume, il nous alerte : il faut ajouter de l’huile. Mais s’il est éteint, c’est peut-être simplement que l’ampoule est morte, et s’il est allumé, c’est peut-être pour une autre raison, parce que nous ignorons tout de la manière dont il a été conçu. Tirer des conclusions d’un « effet » (l’état du voyant) sur sa cause est fréquent. C’est souvent juste, mais nous ne pouvons ni l’affirmer ni le prévoir et, quand c’est faux, cela peut avoir des conséquences dramatiques (voyez à ce propos la description de l’accident de Three Mile Island, en annexe 1 de https://www.risqual.net/sites/default/files/2022-09/RQ_XX_HS_CH1bis_Laurent_annexe1.docx (Consulté le 13-12-2022).
25- http://www.cast-safety.org/ (Consulté le 13-12-2022).

Informations de l'auteur

Financement : l’auteur déclare ne pas avoir reçu de financement.

Liens d’intérêt : l’auteur déclare ne pas avoir de lien d’intérêt.

Références

1- RCA² : improving root cause analyses and actions to prevent harm. Boston, MA: National Patient Safety Foundation, 2015.

2- Vincent C, Carthey J, Macrae C, et al. Safety analysis over time: seven major changes to adverse event investigation. Implement Sci 2017;12(1):151.

3- Card AJ. The problem with “5 whys”. BMJ Qual Saf 2017;26(8):671-677.

4- Taylor-Adams S, Vincent C. Systems analysis of clinical incidents: The London protocol. Clin Risk 2004;10(6):211-220.

5- Vincent C, Taylor-Adams S, Chapman EJ, et al. How to investigate and analyse clinical incidents: clinical risk unit and Association of litigation and risk management protocol. Br Med J 2000;320(7237):777-781.

6- Perrow C. Normal accidents: living with high risk technologies. 2nd Ed. Princeton, NJ: Princeton University Press, 2011. 452 p.

7- Cottet P, d’Hollander A, Cahana A, et al. A new process-centered description tool to initiate meta-reporting methodology in healthcare - 7CARECATTM. Feasibility study in a post-anesthesia care unit. Ann Fr Anesth Reanim 2013;32(10):e129-134.

8- Vacher A, El Mhamdi S, d’Hollander A, et al. Impact of an original methodological tool on the identification of corrective and preventive actions after root cause analysis of adverse events in health care facilities: results of a randomized controlled trial. J Patient Saf 2021;17(7):483-489.

9- Wiegmann DA, Shappell SA. A human error analysis of commerical aviation accidents using the human factors analysis and classification system (HFACS). Washington, D.C.: Office of Aviation Medicine, 2001.

10- Diller T, Helmrich G, Dunning S, et al. The human factors analysis classification system (HFACS) applied to health care. Am J Med Qual 2014;29(3):181-190.

11- Wiegmann DA, Wood LJ, Solomon DB, et al. Implementing a human factors approach to RCA²: tools, processes and strategies. J Healthc Risk Manag 2021;41(1):31-46.

12- Bagian JP, Gosbee J, Lee CZ, et al. The veterans affairs root cause analysis system in action. Jt Comm J Qual Improv 2002;28(10):531-545.

13- Hettinger AZ, Fairbanks RJ, Hegde S, et al. An evidence-based toolkit for the development of effective and sustainable root cause analysis system safety solutions. J Healthc Risk Manag 2013;33(2):11-20.

14- Kellogg KM, Hettinger Z, Shah M, et al. Our current approach to root cause analysis: is it contributing to our failure to improve patient safety? BMJ Qual Saf 2017;26(5):381-387.

15- Haddon W Jr. The changing approach to the epidemiology, prevention, and amelioration of trauma: the transition to approaches etiologically rather than descriptively based. Am J Public Health 1968;58(8):1431-1438.

16- Li J, Boulanger B, Norton J, et al. “SWARMing” to improve patient care: a novel approach to root cause analysis. Jt Comm J Qual Patient Saf 2015;41(11):494-501.

17- Debouck F, Rieger É, Petit H, et al. Méthode Orion® : analyse systémique simple et efficace des événements cliniques et des précurseurs survenant en pratique médicale hospitalière. Cancer Radiother 2012;16(3):201-208.

18- Francois P, Sellier E, Imburchia F, et al. Le comité de retour d’expérience (Crex) : une méthode pour l’amélioration de la sécurité des soins. Rev Epidemiol Sante Publique 2013;61(2):155-161.

19- Kamalanavin K, François P, Boussat B. Gestion de la sécurité du patient en équipe : que pensent les professionnels des revues de morbidité et mortalité et des comités de retour d’expérience ? Risques Qual 2019;16(3):139-144.

20- van Vuuren W, Shea CE, van der Schaaf TW. The development of an incident analysis tool for the medical field. Eindhoven (The Netherlands): Eindhoven University of Technology, 1997.

21- van der Schaaf TW. PRISMA incidenten analyse: een instrument voor risicobeheersing in de zorgsector. Kwaliteit in Beeld 1997;7(5):2-4.

22- Zegers M, de Bruijne MC, Wagner C, et al. Adverse events and potentially preventable deaths in dutch hospitals: results of a retrospective patient record review study. Qual Saf Health Care 2009;18(4):297-302.

23- Smits M, Langelaan M, de Groot J, et al. Examining causes and prevention strategies of adverse events in deceased hospital patients: a retrospective patient record review study in the Netherlands. J Patient Saf 2021;17(4):282-289.

24- Peerally MF, Carr S, Waring J, et al. The problem with root cause analysis. BMJ Qual Saf 2017;26(5):417-422.

25- Rogith D, Iyengar MS, Singh H. Using fault trees to advance understanding of diagnostic errors. Jt Comm J Qual Patient Saf 2017;43(11):598-605.

26- Hill AB. The environment and disease: association or causation? Proc R Soc Med 1965;58(5):295-300.

27- Russo F, Williamson J. Interpreting causality in the health sciences. Int Stud Philos Sci 2007;21(2):157-170.

28- Rasmussen J. Coping safely with complex systems. American Association for the Advancement of Science Annual Meeting, Boston (MA), 11-15 February 1988.

29- Russell B. On the notion of cause. Proc Aristot Soc 1912;13(1):1-26.

30- Pearl J. Causality: models, reasoning, and inference. New York, NY: Cambridge University Press, 2000, 392 p.

31- Russo F, Williamson J. Epistemic causality and evidence-based medicine. Hist Philos Life Sci 2011;33(4):563-581.

32- Anderson C. The end of theory: the data deluge makes the scientific method obsolete. Wired Magazine 2008;16 July.

33- Gianfrancesco MA, Tamang S, Yazdany J, et al. Potential biases in machine learning algorithms using electronic health record data. JAMA Intern Med 2018;178(11):1544-1547.

34- Barrowman N. Correlation, causation, and confusion. New Atlantis 2014;Summer/Fall:23-43.

35- Clark A, Treanor J. Greenspan - I was wrong about the economy. Sort of. The Guardian 2008;24 October.

36- Dekker S, Cilliers P, Hofmeyr JH. The complexity of failure: implications of complexity theory for safety investigations. Saf Sci 2011;49(6):939-945.

37- Hollnagel E, Hounsgaard J, Colligan L. FRAM – The functional resonance analysis method: a handbook for the practical use of the method. Middelfart (Danemark): Centre for Quality, 2014.

38- Lundberg J, Rollenhagen C, Hollnagel E. What-you-look-for-is-what-you-find - The consequences of underlying accident models in eight accident investigation manuals. Saf Sci 2009;47(10):1297-1311.

39- Lundberg J, Rollenhagen C, Hollnagel E. What you find is not always what you fix–how other aspects than causes of accidents decide recommendations for remedial actions. Accid Anal Prev 2010;42(6):2132-2139.

40- Zwaan L, Monteiro S, Sherbino J, et al. Is bias in the eye of the beholder? A vignette study to assess recognition of cognitive biases in clinical case workups. BMJ Qual Saf 2017;26(2):104-110.

41- Pham JC, Kim GR, Natterman JP, et al. Recasting the RCA: an improved model for performing root cause analyses. Am J Med Qual 2010;25(3):186-191.

42- Hibbert PD, Thomas MJW, Deakin A, et al. Are root cause analyses recommendations effective and sustainable? An observational study. Int J Qual Health Care 2018;30(2):124-131.

Citation

Culture de sécurité : une approche alternative. Lyon. Health & co, 2022.

Copyright : © Health & Co 2023.