CHAPITRE II – La culture de sécurité : graal ou panacée ?

Safety culture: grail or panacea?

Marius Laurent

Marius Laurent

Ancien directeur – Centre hospitalier universitaire Tivoli – La Louvière – Belgique | Ancien attaché auprès du service qualité et sécurité du patient du ministère de la Santé – Bruxelles – Belgique | Consultant – Plateforme pour l’amélioration continue de la qualité des soins et de la sécurité des patients (PAQS) – Rue de Cent-Pieds 99 – B7133 Buvrinnes – Belgique Autres articles de l'auteur dans Risques et qualité Articles dans PubMeb
Marius Laurent

CHAPITRE II – La culture de sécurité : graal ou panacée ?

Figures

Résumé

La culture de sécurité est-elle la clef que nous attendons pour améliorer la sécurité de nos soins ? Est-il réaliste de croire que l’on peut changer la culture d’une entreprise, sa culture de sécurité ? Les sociologues en doutent souvent. La culture « juste », qui cantonne le reproche et le blâme à des circonstances exceptionnelles, est trop souvent un nouveau déguisement pour les relations d’autorité préexistantes. Les liens entre la sécurité des soins et la culture de sécurité sont délicats à assurer : il faut d’abord s’accorder sur comment mesurer l’une et l’autre. Et si le changement est possible, faut-il viser l’hôpital ou un service ?

Mots clés: Facteur de risque - Gestion du risque - Culture sécurité - Sécurité du patient

Abstract

Is safety culture the key we expect to improve the safety of our care? Is it realistic to believe that we can change a hospital’s culture, its safety culture? Sociologists often question this. The “just” culture, which confines blame to exceptional circum-stances, is too often a new disguise for pre-existing authority relationships. The links between safety of care and safety culture are difficult to ascertain we must first agree on how to measure each. If there is room for change, should it be hospital-wide or department-wide?

Keywords: Risk factors - Warning - Safety culture - Patient safety

Article

Challenger et Columbia ou l’insuffisance de la culture de sécurité

Challenger explose 73 secondes après son décollage le 28 janvier 1986. La cause physique de l’accident est un défaut dans un joint entre les deux segments inférieurs du « booster » à carburant solide. Un jet de gaz chaud a pu atteindre le réservoir d’hydrogène, l’endommager et le faire exploser. Ce joint avait déjà posé des problèmes d’étanchéité : on avait noté des fuites lors de lancements précédents à basse température. Aucun test supplémentaire n’avait été commandé par la NASA1, ni effectué par le constructeur des boosters ou par le fabricant du joint pour corriger ces non-conformités. Or les propriétés physiques de ce joint dépendent de la température : le froid nuit à son élasticité. Il était prévu qu’il soit soumis à des températures « normales » pour la Floride, notion vague qui néglige le fait que le climat de cet État n’est pas toujours idyllique et que des gels profonds peuvent y survenir. C’était le cas le jour du lancement, et de longues délibérations ont eu lieu. Les ingénieurs responsables des boosters y ont dit leurs réserves. Les responsables non-techniciens de la NASA les ont repoussées au prétexte que d’autres lancements dans le froid avaient eu lieu sans problème autre qu’une fuite minime. Ils se sentaient « le couteau dans le dos » car le programme prenait du retard et les crédits dépendaient de nouveaux succès. Les techniciens manquèrent d’assertivité, de sorte que leurs arguments furent écartés sans résistance.

La navette Columbia, elle, se désintègre lors de son entrée dans l’atmosphère le 1er février 2003, après un lancement le 16 janvier. La cause physique de l’accident est un dégât provoqué par un élément en mousse isolante détaché du booster pendant la phase de décollage, qui endommage la protection thermique du bord d’attaque de l’aile gauche. Lors de l’entrée dans l’atmosphère, la perte de la protection contre l’échauffement provoque la fonte de la structure en aluminium de l’aile et la désintégration du module. L’analyse photographique avait montré que le détachement d’éléments en mousse lors du lancement survenait dans 80% des cas analysés, mais elle n’avait donné lieu à aucune recommandation de la NASA. La classification de cet événement était même passée de la catégorie « anomalie de vol » à la catégorie « maintenance », dépourvue de risque, sans qu’aucun test ait été effectué. La réparation de l’isolant en mousse dégradé avait évolué d’un remplacement de la couverture isolante à une simple réparation locale, sans validation de cette nouvelle procédure.

David Woods relève cinq caractéristiques générales qui peuvent expliquer ces deux accidents [1] : la migration du système depuis une zone de fonctionnement sûre vers une zone qui l’est moins du fait de contraintes externes (tenir des promesses de performance irréalistes face à des restrictions budgétaires qui imposent un grand nombre de vols rapprochés) ; la négligence de signaux de danger sous prétexte que tout s’est bien passé jusqu’ici ; l’absence de vision d’ensemble du problème (le rôle de l’impact de la mousse sur la structure de protection thermique est systématiquement sous-estimé sans argument probant, des analyses techniques très superficielles sont utilisées pour justifier des conclusions passées et non pour tester de nouvelles hypothèses) ; l’incapacité d’envisager de nouvelles hypothèses alors que de nouveaux arguments s’accumulent ; le fonctionnement en silos, avec peu de communication entre les unités. Au-delà des causes physiques, les commissions d’enquête soulignent les failles organisationnelles autour du concept de culture de sécurité.

Qu’est-ce que la culture de sécurité ?

La culture est un volet jugé indispensable à la mise en place d’un système intégré de gestion de la sécurité. La définition d’une culture organisationnelle et d’une culture de sécurité est nécessaire. Elle se heurte toutefois d’emblée à un problème théorique et à de nombreux amalgames qui compliquent l’abord de ce sujet. Le terme « culture de sécurité » est récent, il n’est apparu que dans le traitement et l’analyse de l’accident survenu en 1986 à Tchernobyl [2], avant de devenir une explication facile à tout ce qui ne pouvait être compris [3]. La sécurité est effectivement le cœur de métier d’entreprises à très haut risque, où la culture de sécurité se confond avec la culture organisationnelle. Mais c’est une situation rare. Partout ailleurs, elle n’est qu’un compartiment particulier de la culture d’entreprise, qui la modèle et qu’elle influence à son tour. Les définitions proposées suggèrent souvent l’existence de valeurs communes partagées par les membres de l’entreprise, mais restent discrètes sur l’étendue réelle de cette communauté. Parle-t-on de toute l’entreprise, de services de celle-ci, de groupes professionnels, ou de groupes plus ou moins informels, plus ou moins influents d’individus ? Ces sous-cultures, rarement partagées en dehors du groupe, sont peut-être des phénomènes dignes d’intérêt : elles offrent des stratégies et des points de vue propres pour aborder la complexité des systèmes dans lesquels nous vivons et faire face à notre ignorance devant les nouvelles propriétés qui y émergent. On dit souvent que c’est au travers des dimensions explorées par les questionnaires auto-administrés qui servent à la mesurer que l’on décrit le plus facilement la culture de sécurité. Cette conception rappelle douloureusement la définition de l’intelligence, qui veut qu’elle soit ce que mesurent les outils de détermination du QI (quotient intellectuel).

Culture organisationnelle : culturaliste ou fonctionnaliste ?

Pour beaucoup, la culture de sécurité s’inscrit dans la culture de l’organisation. On parle alors de la programmation mentale partagée qui différencie les membres d’un groupe de ceux d’un autre. Elle est une construction sociale. « L’esprit de corps » en est une illustration simple. Elle fait partie des « gènes » de l’organisation, elle en est une propriété structurelle. Elle représente ce que l’organisation est ou fait. On parle de vue interprétative ou intrinsèque, ou de vision culturaliste. Si la culture et l’organisation ne font qu’un, l’évolution de la culture est liée aux caractéristiques de l’organisation et non l’inverse. Mintzberg avait déjà défini une typologie des stratégies organisationnelles. Pour parler de culture de sécurité, il convient de se trouver autant que possible devant ce qu’il appelle une « organisation apprenante ». De telles organisations sont aptes à la gestion du changement : elles s’adaptent avec souplesse à l’imprévu, sont peu prescriptives et peu dogmatiques, leurs stratégies ne sont pas stéréotypées et naissent des circonstances (elles sont dites « émergentes ») [4]. La culture organisationnelle fait aussi référence à des dimensions générales de l’environnement (leadership, rôles, communication…) et à des dimensions spécifiques dont la culture de sécurité est un exemple. Les liens entre la culture organisationnelle, considérée comme une prémisse de la culture de sécurité, et les attitudes individuelles devant la sécurité (respect des règles et des procédures, participation active à l’amélioration de celles-ci et à leur diffusion) ont été largement étudiés et confirment cette filiation [5]. La vision culturaliste est assez pessimiste : la culture peut s’observer, éventuellement se mesurer, mais nous n’avons pas de prise directe sur elle sans changer fondamentalement l’organisation : elle est comme la météo, elle existe, on en jouit ou on la supporte.

Au-delà de la vision assez statique de la propriété intrinsèque apparaît une vision plus fonctionnaliste : la culture s’acquiert et a une utilité. Elle est alors quelque chose que l’organisation « a », et non plus « est » ou « fait ». C’est une vision controversée, qui n’est corroborée que par quelques observations : le fait d’être amené à participer à des initiatives de sécurité peut conduire à une plus grande motivation individuelle à améliorer la sécurité [6], même si cela prend du temps. À l’inverse, le caractère « top-down2 » de certaines initiatives, pour modifier des techniques de soin par exemple, peut dégrader la perception qu’ont les acteurs de la culture organisationnelle. Cette perception est et reste une caractéristique des individus : elle est différente pour chacun [7].

Ces deux visions, la culturaliste ou la fonctionnaliste, entraînent des conséquences fondamentales (Tableau I). Si la culture est intrinsèque à l’organisation, il n’est pas possible de la modifier sans toucher d’abord et avant tout à l’organisation. Il existe des études qui tendent à démontrer que des changements organisationnels peuvent modifier la perception que les acteurs ont de la sécurité, mais elles laissent dans l’ombre la réponse à la question de savoir si la perception que l’on a de la culture est cette culture [8]. Notons que la vision « fonctionnaliste » est clairement héritée de Reason (qui est psychologue), pour qui la culture peut être importée (top-down), imposée et améliorée. Le resilience engineering3 parle moins de culture, et a une vision plus proche de la vision culturaliste. Les théoriciens des « High Reliability Organizations4 » (HRO) ont parlé de la mise en place d’une culture de sécurité, avant d’abandonner le terme pour chercher plutôt ce qui favoriserait son éclosion bottom-up. D’autres auteurs soulignent que la confusion entretenue entre la culture et les aspects sociaux et sociétaux risque de gauchir la perception que l’on a de la culture et de la limiter à des aspects organisationnels. Ainsi, le fait apparemment vertueux de désigner un coordinateur de la sécurité dans un hôpital n’est pas forcément dicté par un impératif sécuritaire, mais peut l’être par des considérations économiques et réglementaires ou afin de motiver davantage le personnel et de limiter son turnover.

Imaginer une culture de sécurité qui fasse abstraction des relations de pouvoir et d’autorité est une vision de bisounours. Ainsi, au moment du lancement de Challenger, la NASA, en retard sur son programme, était menacée par les décisions budgétaires du Congrès qui exigeait des résultats concrets. Elle mettait dès lors sous pression Thiokol, le constructeur des boosters. Les objections de ses techniciens ont été rejetées d’abord par le management de Thiokol, puis par la NASA sous prétexte qu’elles n’étaient pas scientifiques : elles ne reposaient pas sur des faits, alors que plusieurs lancements avaient réussi par temps froid (ou en tout cas sans que les défauts d’étanchéité observés aient eu de conséquence). L’autorité des décideurs de la NASA fut à ce point prégnante que les objections des techniciens disparurent complètement du procès-verbal [9]. Perrow estime dès la deuxième édition de son livre Normal accident que les liens d’autorité sont bien plus importants que les explications par la « culture », à laquelle il ne croit guère [10]. Il existe des divergences entre le point de vue des sociologues, généralement sceptiques quant au lien causal entre culture et comportement, et les gestionnaires de la sécurité, plus influencés par des considérations psychologiques et par l’héritage de Reason, qui pour la plupart voudraient y croire [11]. Si la culture est simplement un des attributs de l’organisation, elle est accessible au changement et aux manipulations et peut avoir un effet sur le fonctionnement de l’organisation. Mais les arguments qui prouveraient ce lien sont rares et peu convaincants [12,13]. La littérature sur la culture organisationnelle et sur sa composante « culture de sécurité » est essentiellement pragmatique. L’aspect théorique des concepts en jeu, leurs articulations causales et surtout leurs liens avec la performance en ce qui concerne la sécurité sont peu explorés et les relations peu conclusives. La notion de culture reste vague et imprécise. Elle offre une explication élégante aux failles de sécurité auxquelles on ne trouve pas d’explication.RQ_XX_HS_CH2_tab1

Culture de sécurité : quelle définition ?

Dans le domaine de la santé, Kizer, repris par la European Society for Quality in Health Care5, définit la culture de sécurité comme « un modèle cohérent et intégré de comportements individuels et organisationnels, fondé sur des valeurs et des croyances partagées, dans lequel tous les efforts sont continuellement consacrés à éviter ou limiter les dommages causés aux patients par le système de soins, et à apprendre à partir de ses expériences, heureuses ou malheureuses6 » [14]. Reason précise que « les valeurs partagées (ce qui est important) et les convictions (comment les choses fonctionnent) sont en interaction avec la structure et les systèmes de contrôle de l’organisation et créent des normes de comportement qui favorisent la sécurité des patients » [15]. Néanmoins, il existe une grande confusion entre les termes « culture de sécurité » et « climat de sécurité » (comme entre « culture organisationnelle » et « climat »), en partie du fait qu’il y a un continuum entre ces deux concepts [16]. La culture s’occupe des « valeurs », la science qui l’étudie est l’anthropologie et ses méthodes d’investigation sont largement qualitatives (audit, entretiens). Le climat a davantage à voir avec les comportements, les habitudes, les expressions, et le terme « attitude » revient souvent ; les sciences de référence sont la psychologie et la sociologie, et les méthodes d’investigation sont semi-­quantitatives (questionnaires ciblés). Le climat décrit donc davantage les manifestations visibles, observables et mesurables de la culture, et la manière dont elle est ressentie. Mais les deux termes sont régulièrement utilisés de manière interchangeable.

La nature de la culture

Modèle des couches superposées

Ce continuum entre climat et culture est souligné par la théorie de l’organisation en « couches successives » de la culture de sécurité : le contexte environnemental et social, les valeurs partagées et les manifestations observables [17]. Cette théorie est la suite directe de celle décrivant la culture de l’organisation [18]. Première « couche », le noyau de cette culture concerne les hypothèses de base que l’on conçoit sur la nature du monde et de sa réalité, sur la nature du temps, de l’espace, et sur celle de notre humanité et de nos relations interpersonnelles. Peu « visible », il est fait de valeurs implicites même si elles sont évidentes pour les membres de l’organisation. Il peut être observé de manière qualitative et échappe à l’évaluation quantitative. On peut l’aborder par l’observation, la collecte de documents, ou par des interviews. Ce noyau s’inscrit dans la nature et l’histoire des sociétés, dépasse les limites de l’entreprise et a un caractère national, voire au-delà. Il comprend des caractéristiques telles que la déférence à l’autorité, l’aversion à l’incertitude, la tendance « collectiviste » (travail en équipe, partage des tâches et des responsabilités), le degré d’affirmation de soi, la vision à court ou long terme, la recherche de la performance, l’altruisme, l’égalité des sexes… [19]. La couche suivante est celle des valeurs partagées et des « attitudes » concernant le hardware (équipement de sécurité par exemple), le software (connaissances, procédures), les personnes (catégories de personnel, niveau de formation ou de motivation) et les attitudes face au risque (responsabilité, scepticisme, communication). Elle est largement explicite et consciente et est explorée par toute une série de questionnaires structurés, le plus souvent auto-administrés, qui délimitent des « dimensions » de la culture. Chacune de ces dimensions peut être mesurée mais, d’une dimension à l’autre, la distance psychologique entre chaque unité de mesure n’est pas forcément la même. Ces mesures concernent un groupe observé et doivent répondre à des propriétés psychométriques pour permettre les comparaisons. La définition des références (à qui l’on se compare) a son importance : une mesure faite dans un service clinique sera par exemple plus proche de la mesure faite dans le même service d’un autre hôpital que de celle faite dans tout son hôpital. Enfin, la couche externe est celle des manifestations (artefacts), elle est visible (publications internes, notes de service, procès-verbaux de réunion, code vestimentaire…), mais le lien avec une culture n’est pas toujours explicite. Cette conception, peu dynamique, implique des rapports unilatéraux, quasi de cause à effet, entre les couches centrales et les couches externes, sans contre-réaction.

Modèle d'influence réciproque

Le modèle d’influence réciproque, lui, définit trois niveaux en interaction les uns avec les autres : psychologique, comportemental et situationnel [20]. Des facteurs psychologiques gouvernent l’individu. Celui-ci est en partie le produit de la situation et de l’environnement organisationnel qui l’entoure, mais il en est aussi partiellement l’auteur. La situation dicte des comportements, eux-mêmes influencés par l’individu, mais les comportements modifient la situation dans le temps. De même, l’individu et ses comportements sont liés par des interactions réciproques. C’est essentiellement l’aspect de réciprocité qui différencie les deux modèles. Pour le reste, la parenté entre ce qui est situationnel et le noyau, entre l’individu et le niveau des valeurs et attitudes, entre le comportement et les artefacts est évidente. Des approches plus « pragmatiques » envisagent la culture de sécurité comme une caractéristique dynamique d’une organisation. C’est le cas de l’outil Manchester Patient Safety Framework7 (MaPSaF) qui fut promu par le NHS8 [21,22]. On situe alors la culture dans un continuum évolutif qui va de l’immaturité totale, la culture « pathologique » (« la sécurité n’est pas notre affaire, c’est celle des autres »), à la maturité parfaite, la culture « générative » (« la sécurité est présente à l’esprit en toutes circonstances »). Ce continuum est généralement évalué par des techniques d’audit et d’interview, dans des domaines particuliers de l’organisation (implémentation du changement, priorité donnée à la sécurité, déclaration et apprentissage autour des événements indésirables, communication à propos de la sécurité, travail en équipe multidisciplinaire…). L’échelle de maturité le plus souvent utilisée est à cinq niveaux (Tableau II), extension de l’échelle originale à trois niveaux dite de Westrum [23]. Le modèle de Westrum n’est pas le seul, même s’il est celui le plus souvent utilisé dans le monde hospitalier. Les échelles de maturité posent néanmoins un problème méthodologique : l’attribution d’un niveau de maturité à un service ou à une organisation passe par des interviews et des analyses qualitatives. Leur répétabilité n’est que rarement testée, de sorte qu’à peine la moitié des publications sur ces méthodes évaluent la fiabilité et la validité de ces attributions [24]. Reason [15] propose de voir la culture de sécurité comme un amalgame de sous-cultures. Le terme de sous-culture ne décrit pas ici ce que partage un groupe particulier, mais un aspect particulier de la culture globale. Quatre attributs (sous-cultures) selon Reason définissent cette culture, et les liens entre ces sous-cultures sont réciproques :

  • équité : un environnement équitable et transparent dans lequel les gens sont encouragés à être ouverts et en confiance, mais aussi (plus tard dans ses écrits) où la distinction est claire entre comportements acceptables et inacceptables ;
  • signalement : un climat de confiance dans lequel les gens sont prêts à signaler systématiquement les incidents d’une manière simple, significative et utile, en sachant que ces déclarations n’ont pour but que d’améliorer la sécurité de l’organisation ;
  • organisation apprenante : l’organisation peut tirer les bonnes conclusions de ses expériences, en particulier du signalement des événements indésirables, et est capable de mettre en œuvre les améliorations nécessaires ;
  • souplesse : l’organisation a la résilience et l’agilité suffisantes pour ajuster ses réactions et se reconfigurer en fonction du contexte et de circonstances en constante évolution.

Une fois de plus, il existe une parenté entre la dimension psychologique et l’équité, entre la dimension comportementale et le signalement, et entre la dimension situationnelle et l’organisation apprenante et résiliente.

RQ_XX_HS_CH2_tab2

La culture et la responsabilité

Culture no blame

Culture et déclaration d’événements indésirables (et apprentissage à partir de celle-ci) sont intimement mêlées. Il est difficile d’imaginer que les acteurs acceptent de signaler les événements indésirables en l’absence d’une culture de sécurité qui prévoie leur protection. En même temps, ce signalement fait partie des éléments qui définissent la culture [25]. À la suite des publications de Reason et du rapport To err is human de l’Institute of Medicine [26], l'idée que ni l’erreur ni le non-respect des procédures n’étaient des fautes s’est généralisée dans le domaine des soins. Le report de la responsabilité de l’erreur sur des failles organisationnelles (dites systémiques) a donné naissance à une culture dite « no blame », qui exclut le blâme et la punition. De louables efforts ont vu le jour pour protéger le déclarant et le mettre à l’abri d’éventuelles poursuites judiciaires ou disciplinaires quand il signale des faits auxquels il est mêlé. Ce fut le cas au Danemark et en Italie par exemple, qui ont pris de telles dispositions légales et, dans une moindre mesure, dans certains États des États-Unis où existent des conventions entre les procureurs et certaines organisations hospitalières. Une directive européenne de 2003 concernant l’aviation civile (2003/42/EC) recommande aux États membres de ne pas institutionnaliser les poursuites pénales à l’encontre de ceux qui signalent un incident, sauf en cas de « négligence grave ». Le blâme et la punition sont des ennemis de la sécurité : ils conduisent à la dissimulation des erreurs et à l’impossibilité d’en tirer des leçons. La vision systémique reconnaît que l’amélioration des procédures, la standardisation de certaines activités, l’éducation et l’entraînement ainsi que la structuration de la rétribution peuvent améliorer la sécurité. La gestion des (in)compétences médicales en particulier doit être considérée comme une mission confiée au système et non à un individu. En faire par exemple la responsabilité du seul directeur médical, comme en Belgique, ne peut qu’inciter celui-ci à mettre en place une organisation qui objective collectivement les pratiques incompétentes et les moyens de les corriger et de les prévenir, plutôt que de les laisser à l’appréciation subjective et au jugement moral des collègues [27]. Si le système ne lui permet pas d’instaurer une telle organisation, et ce sera parfois le cas, il ne peut que refuser cette responsabilité.

Culture « juste »

Le report de la responsabilité de l’erreur sur l’organisation en tant que système a donné naissance à une culture dite no blame dont les déviations, sombrant trop dans le « bonisme », ont poussé à définir plutôt une culture « juste », où le blâme et la sanction restent possibles mais sont réservés à des situations particulières, clairement codifiées dans l’organisation, telles que les délits ou les manquements délibérés et répétés. Si le blâme et la sanction cessent d’être une solution pour éviter les erreurs, les acteurs restent responsables de leurs actes s’ils sortent du cadre d’une attitude professionnelle correcte et compétente, et ils doivent rendre des comptes (en particulier aux patients). Deux éléments sont d’importance : la culture de sécurité repose sur une vision partagée des rôles de chacun, qui doit être explicitée dans l’organisation de manière lisible et compréhensible chaque fois que possible, et être soutenue par la direction. Il existe ensuite un lien fort entre la culture de sécurité « orientée patient » d’un hôpital ou d’un service et le ressenti du personnel quant à sa propre sécurité. L’un et l’autre aspect doivent être abordés et développés simultanément, même si les responsabilités légales sont différentes. La sécurité du personnel implique la médecine du travail, les conseillers en prévention (internes ou externes), la direction des ressources humaines et des points de rencontre avec les syndicats (en Belgique, les comités pour la prévention et la protection au travail ou CPPT). Ces instances sont peu ou pas impliquées dans la gestion de la sécurité des patients. Il y a là un champ de possibilités pour motiver davantage le personnel de soins [28]. L’intérêt que les organismes d’accréditation et de certification portent à la prise en compte de la qualité de vie du professionnel participe de la même réflexion. La question capitale qui se pose néanmoins est de savoir si la notion de culture juste est réaliste et acceptable, et si le glissement du no blame de la responsabilité universelle du « système » vers une notion d’équité est compris et accepté par chacun dans les hôpitaux [29]. Il n’est pas sûr qu’à cet égard l’effort didactique ait été à la hauteur de l’obstacle à franchir. La culture no blame est simple à comprendre : l’erreur signalée (ou le non-respect d’une procédure) ne donne pas lieu à sanction, mais à une recherche des causes profondes (rendue possible par le signalement) et à la mise en place d’actions correctrices. Elle ne prend pas en compte la notion de responsabilité, ou alors elle la distribue entre les couches de l’organisation, quitte à en exonérer l’opérateur [30]. La culture juste, elle, admet l’exception des négligences graves ou répétées et des actes délibérés, voire délictueux. Le problème des définitions proposées quant à ce qui est juste ou non est qu’elles semblent claires et « vertueuses » à la direction et aux experts qui les énoncent, mais sont mal ou pas du tout comprises par l’opérateur, qui dans les faits sera celui qui déclarera ou pas les événements indésirables [31]. Cette ambiguïté persistante sur ce qu’est effectivement la justice est un obstacle que peu d’hôpitaux dans le monde ont franchi. Pas plus que n’est résolue la question de savoir si les notions de justice et de ce qu’elle recouvre sont les mêmes pour tous les membres d’une organisation. C’est ainsi que la « justice distributive », réglant la manière dont les ressources, mais aussi les responsabilités, sont allouées peut, selon les institutions, les pays ou les groupes culturels, choisir une voie « contributive » (celui qui contribue davantage aux ressources en jouit plus), « utilitaire » (celui qui en a davantage besoin en profite plus) ou « égalitaire » (à chacun la même part). La perception que nous pouvons avoir de la justice a une dimension personnelle et culturelle, mais aussi sociale et organisationnelle [32].

La négligence peut être définie comme une attitude en dessous des standards définis comme normaux par la société. Est ainsi négligente une personne qui n’assure pas un niveau de compétence que l’on est en droit d’attendre de quelqu’un engagé dans cette activité, soit en omettant de faire ce qu’une personne raisonnable et prudente ferait dans les mêmes circonstances, soit en posant des actes que la même personne ne poserait pas. Si un dommage s’ensuit, on parle de négligence. On constate d’emblée que, même si la définition cherche une forme d’exhaustivité, elle n’évite ni l’imprécision ni l’ambiguïté. Quels sont les standards normaux, quelle est exactement la compétence attendue, qu’est-ce qu’une attitude raisonnable ou prudente et qui va en juger ? Et à quelle aune ? Il faut bien reconnaître que, dans le monde hospitalier, on s’est le plus souvent contenté de cette définition vague pour expliquer la différence entre ce qui est accepté sans sanction et ce qui ne l’est pas. On a oublié de préciser que ceux qui tracent la « ligne de partage des eaux » et fixent la sanction sont les mêmes qui le faisaient vingt ans plus tôt, avant To Err is human. Le choix des juges, les procédures de décision qu’ils doivent suivre, les possibilités d’interjeter appel de leurs décisions ne sont pas mieux spécifiés. Croit-on réellement qu’une simple déclaration de principes suffise pour créer une culture juste et qu’elle recueille automatiquement l’adhésion et la confiance du personnel (soignant et autre) ? L’imbrication de la notion de pouvoir dans la culture organisationnelle ou de sécurité [9] mérite toute notre attention lorsque nous parlons de justice. Une réflexion, collective si possible, devrait davantage éclairer les recoins sombres.

Les différentes formes de justice

La justice peut être considérée selon différents angles. La justice de fond se base sur le fait qu’il existe des règles et des procédures acceptées a priori comme justes et appropriées par chacun. La justice procédurale doit veiller à l’indépendance du juge, permettre une instruction à charge et à décharge et offrir une possibilité d’appel et des délibérations séparées sur la culpabilité éventuelle et sur la peine (Annexe 1). Ici nous intéressent plus particulièrement la justice punitive et la justice réparatrice.

Justice punitive (« retributive justice »)

La justice punitive est celle que nous connaissons le mieux, celle des cours pénales. Si une culture juste l’adopte, elle fera la part des choses entre l’erreur par inadvertance qui appelle la compréhension et une enquête sur les causes profondes, les conduites à risque qui nécessitent un accompagnement, et les négligences et actes délibérés qui peuvent entraîner des mesures disciplinaires voire l’intervention de la justice. Comme toujours, le diable se cache dans les détails : nous avons vu à quel point la définition des termes utilisés nous laisse sur notre faim. Il va donc falloir tracer la ligne qui sépare ce qui est permis de ce qui ne l’est pas au cas par cas. Qui va tracer cette ligne de démarcation, sinon celui qui détient un pouvoir dans l’hôpital, autrement dit celui dont on redoute le jugement ? Or cette personne n’est pas immunisée contre les conflits d’intérêts : le cadre d’un service infirmier où une erreur est commise préférera que cette erreur soit une faute punissable plutôt que de se retrouver au cœur d’une analyse de causes profondes susceptible de révéler des failles dans son organisation. Il est donc difficile de réunir les deux conditions indispensables pour susciter la confiance et recueillir l’adhésion que sont l’indépendance du juge et son expertise. Une exigence rarement rencontrée dans les hôpitaux est celle de l’existence d’une structure d’appel permettant de mettre en doute la décision du « juge ».

Justice réparatrice (« restorative justice »)

La justice réparatrice ne cherche pas à « punir » le responsable d’un accident ou le coupable d’un délit, mais à réparer les effets de ses actes ou omissions sur les victimes. Elle parle de victimes au pluriel, qu’il faut toutes identifier. Le parallèle est tentant avec le travail des cours civiles qui condamnent à une indemnisation, quasi exclusivement financière en l’occurrence. L’argent ne guérit pas toutes les plaies, et toutes les victimes ne voient pas leurs besoins satisfaits : c’est un modèle imparfait et inégalitaire de justice réparatrice. L’existence de peines où les responsables d’un accident de la route sont par exemple contraints de travailler quelques semaines dans des services qui prennent en charge la réadaptation de patients accidentés et handicapés, représente aussi une forme de justice réparatrice. La justice réparatrice nécessite de connaître et de comprendre les besoins de la première victime et, pour cela, il faut au moins être capable de rencontrer celle-ci, de l’informer honnêtement. Il faut d’abord pouvoir l’écouter, ce qui nécessite au minimum de lui laisser le temps de suivre le cheminement normal après une « agression » (colère, peur, déni, confusion, tristesse…). Cette écoute est un premier pas indispensable. Chacun souligne qu’il est important de pouvoir présenter des excuses. Cette nécessité se heurte au fait que l’existence de ces excuses peut être interprétée comme un aveu de culpabilité dans une procédure en justice qui ferait suite, de sorte que la forme de ces excuses ou d’un dédommagement éventuel doit être soigneusement pesée sur le plan juridique. Les soignants, et les médecins en particulier, sont parfois laissés bien seuls devant ce dilemme. Peu d’hôpitaux peuvent s’appuyer sur un service juridique qui prenne en charge de manière proactive les rapports avec la victime en coordonnant les nécessités nées de conceptions souvent contradictoires. La victime attend la reconnaissance de l’erreur et des excuses, la certitude que cela ne pourra pas arriver à d’autres à l’avenir, la neutralisation des frais qu’occasionnent les complications éventuelles, et parfois un dédommagement. Le soignant est partagé entre la pression du lien compassionnel qui le lie à son patient et la crainte des conséquences que pourraient avoir des manifestations maladroites de regrets pour ce qui s’est passé. Son assureur lui murmure à l’oreille de se taire, mais son silence lui paraît être une lâcheté. Dans quelques États des États-Unis existe une disposition qui protège celui qui présente des excuses contre cette notion d’aveu de culpabilité (loi dite « I’m sorry9 »). On n’y observe pas nécessairement moins de plaintes, et le simple fait de « favoriser » les excuses ne nous dit pas si celles-ci sont effectivement présentées, de manière appropriée et répondant aux attentes des victimes [33]. À l’inverse d’une idée généralement reçue, il n’est pas clair que le fait d’admettre une erreur et de s’en excuser auprès du patient soit de nature à le dissuader de porter plainte [34,35], pas plus que n’augmente le nombre de poursuites après une communication, même écrite sur un dommage provoqué [36]. Notons que la première demande généralement exprimée par le patient et sa famille est altruiste : le désir qu’un accident semblable ne puisse plus advenir. Proposer au patient de participer activement à la recherche des causes profondes de l’accident et à celle de mesures concrètes visant à empêcher sa reproduction est une solution trop peu envisagée.

La justice réparatrice nécessite d’identifier toutes les victimes : la notion de deuxième (voire de troisième) victime dépend spécifiquement de cette approche. La deuxième victime (le soignant ou le médecin en cause) connaît souvent un profond sentiment de dépréciation personnelle et professionnelle. Elle est peu réceptive à l’explication systémique et est prompte à se culpabiliser. Elle s’isole et fuit les contacts : elle ne demande pas une aide qu’elle croit le plus souvent inexistante et qui de plus ne lui semble pas méritée. Il faut s’attaquer à cet isolement : la participation à la recherche des causes systémiques est une solution possible, mais pas sans risque. La deuxième victime a aussi des devoirs, ne fût-ce que de raconter honnêtement son rôle à la première victime (et à la troisième, le cas échéant), de chercher à comprendre et à satisfaire ses besoins, de montrer des signes de regrets, et de s’engager à participer aux efforts pour prévenir la récurrence de l’accident. La troisième victime (l’établissement) doit offrir un soutien aux deux autres et leur assurer qu’elle recherche activement ce qui a causé l’accident (plutôt que qui en est responsable). Ses investigations doivent rester respectueuses du fait que chacun a fait de son mieux avant que l’accident survienne, et doivent avoir pour objectif de trouver les moyens de prévenir sa récidive. La première victime, quant à elle, doit être encouragée à respecter l’humanité de la deuxième victime et à collaborer à la recherche de solutions de prévention. Des échelles qui évaluent l’équité d’une culture juste ou le recours à une forme réparatrice de la justice ont été proposées. Elles sont peu répandues et nous ne disposons que de peu d’exemples de leur utilisation [37,38].

Discussion

Il n’y a pas forcément contradiction entre justice punitive et justice réparatrice, mais il peut y avoir une complémentarité. Les deux reconnaissent que l’accident crée un déséquilibre qu’il faut corriger et qu’il doit exister une proportionnalité entre l’acte, le dommage et la réponse. Elles diffèrent quant aux moyens mis en œuvre pour rétablir l’équité : répondre à l’accident par la punition (une autre violence ?), ou par la recherche de ce que l’on peut faire pour guérir les blessures provoquées [39]. À l’hôpital, la justice punitive n’est souvent qu’une caricature de justice. Elle est l’alibi qui permet aux ressources humaines d’aider une direction à mettre au pas une personne, ou à s’en débarrasser purement et simplement. Elle est avant tout un instrument de pouvoir. Elle réduit l’événement indésirable à la négligence d’un individu, qui doit être rééduqué, « just-culturé » [29]. La déclaration des événements indésirables n’est possible que dans un monde où le déclarant peut faire confiance à la bonne foi de sa direction et à sa volonté de le protéger. Cette confiance dépend fondamentalement de la culture de sécurité existante et des protocoles mis en place. Si la culture juste qui a été mise en place est basée sur une justice punitive, et que des garanties n’ont pas été apportées quant à l’indépendance du juge et à sa compétence, elle n’inspire qu’une confiance relative [40]. L’anonymisation des déclarations est importante pour protéger le déclarant contre l’extérieur10. Le déclarant attend de son organisation qu’elle ne le punisse ni sur la base de sa déclaration spontanée, ni à l’avenir [41]. La notion de justice réparatrice est en revanche indispensable pour prendre en compte la notion de deuxième (et troisième) victime et pour tenter de soulager leurs souffrances. La notion de culture juste à l’hôpital ne considère que rarement les différentes facettes que comporte la notion de justice. Le raccourci qui veut que le « non punitif » trouve sa limite dans les actes volontaires ou délictueux n’est pas satisfaisant : la limite n’est pas binaire, elle est plutôt une transition insensible qui va du fait systémique pur à l’acte individuel criminel. Admettre qu’il peut y avoir sanction pose une série de questions qui doivent être débattues dans les hôpitaux. Qui juge, comment et avec quelle possibilité d’appel ? La procédure est-elle la même pour tout le monde, les règles à observer, les procédures et les recommandations sont-elles effectivement et explicitement reconnues et acceptées ? Le devenir et la prise en charge de la deuxième victime sont-ils assurés ? Même si ces questions sont sensibles et difficiles à débattre, elles ne peuvent être scotomisées : tôt ou tard se posera un problème de responsabilité personnelle, de négligence ou d’incompétence que le « système » n’expliquera pas ni n’excusera [42]. La culture juste trouve aussi sa limite dans l’inévitable jugement par les pairs, et la crainte de celui qui commet une erreur d’être déprécié à leurs yeux. L’effort didactique doit donc concerner l’ensemble de l’organisation. Le changement d’attitude doit être généralisé si l’on veut éviter que des événements continuent d’être cachés : la peur de la sanction n’est pas le seul obstacle, le regard des autres en est un parfois bien plus puissant. Même là où la loi protège le déclarant d’un événement indésirable, le Danemark en l’occurrence, et où l’on pourrait croire que la culture est plus proche du no blame que la nôtre, le problème du soutien organisationnel et psychologique aux secondes victimes se pose avec la même acuité que chez nous [43]. Enfin, des voix s’élèvent pour rappeler que la sanction est parfois souhaitée et demandée par la seconde victime : elle est une reconnaissance de son humanité. La première victime y voit une forme de respect qui lui est dû. Éviter « névrotiquement » de punir (ou de réparer) sous prétexte de ne pas créer d’obstacle à la déclaration spontanée d’événements indésirables pose de sérieux problèmes moraux et sacrifie les moyens (la reconnaissance de l’humanité des acteurs) à une fin potentielle, même louable (la sécurité des patients) [44,45]. Le terme même de « seconde victime » est jugé inapproprié par les patients victimes d’un accident médical (et par leurs avocats) [46]. Ces critiques sont souvent le fait de tenants d’une justice punitive, mais même l’inventeur du concept et de son appellation, Albert Wu, souligne que cette dernière comporte des connotations péjoratives pour le personnel médical et peut être déplaisante pour le patient [47]. Cela étant, elle est bien comprise avec toutes ses nuances dans le monde des gestionnaires de la sécurité. Ils doivent tenir compte, dans leur communication avec les patients et les soignants, du fait que ces termes peuvent prêter à confusion et qu’il convient de n’en user qu’avec prudence. Le concept reste cependant vertueux et d’actualité. Il est difficile de s’abstraire des aspects moraux et de l’omniprésence de la culpabilité dans notre monde judéo-chrétien. Ces aspects colorent également le monde de la sécurité du patient. Il est tentant de faire le parallèle entre la déclaration des événements indésirables et la confession, entre les excuses faites au patient et le repentir, et entre le pardon attendu de la victime et l’absolution [48].

Le climat (ou la culture) éthique

S’il existe un questionnaire valide sur le climat éthique, il n’y a pas de rapport démontré avec le climat de sécurité : vont-ils de pair [49,50] ? Le climat éthique, comme le climat de sécurité, comporte diverses dimensions [51]. Les attitudes éthiques peuvent obéir à des impératifs personnels ou sociaux très différents : la diversité des réponses à des quiz éthiques célèbres en atteste. Une vision stricte, déontologique, s’oppose à une vision utilitariste [52]. Pour étudier le monde de la santé, les questionnaires ne sont guère adaptés à la pluridisciplinarité des équipes soignantes et leur structure permet rarement de préciser ces dimensions, mais plutôt le « climat éthique » pris dans son ensemble [27].

La mesure de la culture

La culture peut être mesurée par le niveau d’effort observable pour améliorer la sécurité sur une base quotidienne. La volonté de participer au débriefing des actes dangereux, de déclarer ses propres défaillances et de les analyser, la rapidité avec laquelle des actions d’amélioration sont mises en place, le degré de priorité accordé à la sécurité plutôt qu’à la productivité sont autant d’efforts observables. Identifier les unités d’effort permet de dresser une check-list qui servira de base aux outils d’évaluation. On peut y ajouter des indicateurs de résultat tels que le nombre d’incidents déclarés. Le « gold standard », l’indicateur de résultat ultime et indiscutable de la sécurité des soins, n’existe malheureusement pas : la diminution du nombre d’événements indésirables ou de leurs conséquences peut être due à des fluctuations dans le signalement ou la détection. Plutôt que de définir un indicateur, certains défendent l’idée de fixer des buts à atteindre qui concourent au développement d’une culture. Par exemple, des normes de comportement, une réduction du nombre d’événements indésirables et de leurs conséquences, le niveau d’attention accordé à la sécurité, le niveau d’accord entre les membres de l’organisation quant à l’évaluation des risques, les efforts consentis pour conscientiser les autres, et la capacité à générer un programme de sécurité. Chaque but intermédiaire peut être vu sous l’angle d’une « dimension » de la culture de sécurité. Le European Network for Patient Safety11 (EUNetPas) [53] et la Health Foundation12 [54] ont émis des propositions sur les conditions que doit remplir un outil de mesure de la culture de sécurité : proposer au moins une version dédiée à l’activité hospitalière ; être applicable ailleurs qu’à l’hôpital ; s’appliquer à divers niveaux (hôpital, service, équipe…) ; être disponible aux formats « papier » et électronique ; fournir une documentation complète ; avoir démontré son utilité ; mesurer suffisamment de dimensions. Trois outils en particulier remplissent ces critères :

  • Surveys on Patient Safety Culture13 (SOPS®) et sa version hospitalière, Hospital Survey on Patient Safety Culture™ (HSOPS), de l’Agency for Healthcare Research and Quality14 (AHRQ) (États-Unis) (http://www.ahrq.gov/professionals/quality-patient-safety/patientsafetyculture/hospital) ;
  • Safety Attitudes Questionnaire15 (SAQ) (University of Texas/Johns Hopkins University) (États-Unis) [55], dont il existe de nombreuses versions dédiées à l’un ou l’autre service, et de nombreuses traductions y compris en français ;
  • Manchester Patient Safety Framework (MaPSaF) (University of Manchester) (Royaume-Uni). Il n’existe plus de site internet actif pour cette méthode qui semble sombrer dans l’oubli. Son aspect qualitatif (interview, groupes de parole…) en fait un outil lourd, mais qui explore probablement bien mieux les valeurs intrinsèques d’une culture que les questionnaires auto-administrés (https://webarchive.nationalarchives.gov.uk/20171030124256/http://www.nrls.npsa.nhs.uk/resources/?EntryId45=59796).

Des revues critiques des outils publiés existent, qui permettent des comparaisons et des choix [16,56,57,58]. Peu d’outils sont traduits en français, de sorte que le HSOPS est le seul développé ici.

Hospital Survey on Patient Safety Culture™

Largement utilisé aux États-Unis, le HSOPS [59] a connu une diffusion mondiale. Sa définition de la culture comprend sept « dimensions » à l’échelle des services (attentes et implication des supérieurs hiérarchiques concernant la sécurité des soins, organisation apprenante et amélioration continue, travail d’équipe dans le service, liberté de parole [ouverture à la communication], réponse non punitive à l’erreur, feed-back et communication à propos des erreurs, disponibilité des ressources humaines), trois dimensions à l’échelle de l’hôpital (soutien du management pour la sécurité des soins, travail d’équipe entre les services de l’établissement, organisation des transitions et transferts), et deux dimensions de résultat (perception globale de la sécurité, fréquence du signalement des événements indésirables). Chaque dimension est explorée par trois à quatre questions, les réponses obéissant à une échelle de Lickert à cinq niveaux. Certaines questions appellent des échelles inversées pour éviter les réponses automatiques et les déceler. Le questionnaire est proposé aux professionnels en contact avec les patients selon un protocole standardisé. La version 2.0 est plus courte, comporte moins de formulations négatives, et accepte une catégorie « non applicable » dans les réponses possibles. Des annexes permettent par exemple de tester la manière dont la sécurité sur les lieux de travail est abordée. Le questionnaire original 1.0 a été soumis à une évaluation psychométrique. Sa fiabilité et sa fidélité sont jugées satisfaisantes. Tout au plus remarque-t-on que les dimensions sont moins clairement délimitées qu’on pourrait l’espérer, de sorte que les évaluations ou les comparaisons par dimension sont sujettes à la critique [60]. Ce questionnaire a été traduit en français et soumis à des tests psychométriques [61]. Cette traduction a été utilisée dès 2008 et a servi lors de trois mesures successives de la culture dans les hôpitaux belges, où sont également employées des traductions en néerlandais et en allemand [62]. Un autre questionnaire a été développé en France, et a été testé à petite échelle (507 répondants) dans six hôpitaux [63]. Sa validation psychométrique a été publiée [64]. Il prend néanmoins des libertés avec la structure du questionnaire original, ce que la traduction « belge » a cherché à éviter afin de garder une possibilité de comparaison avec les bases de données américaines et une structure uniforme des traductions dans les trois langues nationales. On ne constate pas de différence de performance entre ces deux versions [65].

Limites

La validation psychométrique n’est réalisable que sur des questionnaires quantitatifs ou semi-quantitatifs. Des outils basés sur des audits ou des groupes de parole comme le Manchester Patient Safety Framework ne sont pas évaluables. Faut-il les rejeter ? Non, certainement pas, mais il convient de reconnaître qu’ils se prêtent mal à des études comparatives ou à des études cherchant à démontrer une évolution dans le temps. La traduction de ces questionnaires n’est pas chose aisée et il est facile d’imaginer que des nuances de formulation puissent influencer les résultats. Les validations psychométriques visent à vérifier que les dimensions sont mesurées de la même manière, et qu’elles sont bien indépendantes (ce qui est rarement le cas). Une revue récente des traductions qui ont donné lieu à des analyses psychométriques montre une grande hétérogénéité des résultats, suffisante pour soulever le doute sur les comparaisons de langue à langue dans certains cas [66]. Car même si la langue est identique dans deux pays différents (le Royaume-Uni et les États-Unis), l’évaluation du questionnaire n’est pas la même : la manière dont les choses sont comprises et interprétées dépend de contextes culturels qui dépassent le seul aspect linguistique [67]. La critique du HSOPS porte sur le fait que ce n’est pas tant la culture de sécurité qui est mesurée que la perception que des membres du personnel (soignant en l’occurrence) ont de celle-ci. La mesure est donc celle d’un « climat » de sécurité plus que d’une culture, mais c’est le propre des mesures par questionnaires auto-administrés [68].

La culture s’améliore-t-elle ?

La culture est-elle le reflet fidèle des valeurs de l’organisation, auquel cas la changer nécessite de changer toute l’organisation, ou bien la culture façonne-t-elle l’organisation autant qu’elle est façonnée par elle ? Nous avons vu que le monde de la sécurité en santé penche pour cette dernière hypothèse « optimiste » où, sans refonte de l’organisation, il est possible d’infléchir sa culture de sécurité, qui déteindra sur la culture organisationnelle. Il n’existe que peu d’études qui tendraient à prouver l’action bénéfique d’une intervention sur la culture de sécurité, et les revues systématiques soulignent la faiblesse du lien entre intervention et changement dans la mesure de la culture [16]. Celles portant sur l’effet bénéfique de l’instauration de tours de sécurité sont les plus convaincantes [69,70] même si, plusieurs mois après leur mise en place dans un hôpital universitaire suisse, les mesures de climat de sécurité n’ont pas évolué, pas plus que les projets d’amélioration qui ont été émis à leur suite [71]. Les tours de sécurité où l’on interroge moins les participants sur ce qui aurait pu mal tourner, mais davantage sur ce qui se passe bien et pourquoi (une approche « Safety-II », en somme16) diminuent de plus le stress au travail [72]. Des arguments existent également en faveur de l’effet de techniques inspirées du « crew resource management17 », et de TeamSTEPPS18 en particulier [73]. Des revues de littérature récentes confirment que l’existence de liens entre des interventions qui visent à modifier une culture de sécurité et les mesures de cette culture est difficile à affirmer [74]. Seuls les tours de sécurité, et les politiques traitant non pas de l’organisation dans son entièreté, mais bien des unités de soins, tirent leur épingle du jeu [75]. Ceci ne doit pas nous empêcher de percevoir que le développement de novo d’une culture de sécurité, par exemple d’une culture juste, dépend fortement de la culture organisationnelle sous-jacente. La réussite de l’implantation d’une culture juste est ainsi nettement plus facile et efficace dans une institution flexible et tournée vers l’extérieur que dans une structure hiérarchiquement figée [76]. La vision d’une culture de sécurité qui pourrait être instaurée ou modifiée par un programme « top-down », même intelligent et ingénieux, méconnaît l’existence des couches profondes de la culture : les valeurs et croyances implicites. Il est probablement judicieux de tester la culture de l’organisation avec un outil simple avant de décider d’investir dans l’effort de l’implémentation d’une culture juste [77]. La culture juste elle-même peut être évaluée : des échelles ont été proposées, mais sont globalement peu répandues [37,38]. Le problème de l’évolution de la culture dans le temps est difficile à débattre. Il a été bien étudié en Belgique, où presque tous les hôpitaux ont accepté de confier les données de leurs mesures de qualité à une équipe universitaire, et où déjà trois mesures ont été effectuées. La base de données belge regroupe plus de 167 000 questionnaires reçus et interprétables. Les résultats de l’évolution de 2009 à 2016 sont encourageants et globalement positifs, en particulier pour les dimensions « support du management » et « organisation apprenante et amélioration continue » [62]. Les interfaces et les transferts restent un point négatif. Les mesures que nous utilisons et qui ont franchi les tests psychométriques sont des questionnaires auto-administrés, qui reflètent les conceptions et les attitudes des acteurs testés. Ils correspondent plus à une mesure de l’« attitude de sécurité » qu’à celle de la culture de sécurité. Cette mesure est entachée des conceptions propres des individus, qui varient dans le temps. On sait que les attentes en matière de sécurité sont d’autant plus importantes que le système est déjà sécurisé. Il ne faut donc pas s’étonner de la stagnation des mesures alors que des indicateurs plus objectifs (nombre et qualité des signalements d’événement indésirable par exemple) évoluent plus franchement.

Quel lien avec les événements indésirables ?

L’existence d’une culture de sécurité améliore-t-elle la sécurité des patients ? La réponse à cette question est difficile parce que, lorsque nous parlons de mesure de la culture, nous ne sommes pas sûrs de bien mesurer celle-ci et non la perception qu’en a le personnel. En ce qui concerne la sécurité, la plupart des articles la mesurent en dénombrant des événements indésirables, ce qui pose évidemment la question de la manière dont ces derniers sont détectés. Des revues de littérature déjà anciennes ne trouvent aucune caractéristique organisationnelle qui influencerait la sécurité, y compris la culture organisationnelle [78]. Elles ne relèvent pas de lien entre culture (ou climat) et implication dans les accidents, même si des paramètres tels que la compliance aux règles et la participation active aux initiatives d’amélioration en dépendent [79]. Des travaux plus récents s’efforcent d’éclaircir la nature d’un lien éventuel. C’est ainsi qu’une relation inverse entre la culture mesurée et la sécurité évaluée par le nombre d’événements indésirables détectés par le Global Trigger Tool19 a été observée [80]. Elle n’a pas trouvé d’autre explication que la qualité des mesures réalisées, soit parce que le Trigger Tool, adéquat pour des comparaisons dans le temps, ne se prête pas à des mesures comparatives entre services différents, soit parce que les échantillons sont trop petits. Effectivement, des équipes différentes formées et entraînées à la revue de dossier ne détectent pas les événements indésirables de la même manière : le taux de détection varie selon l’hôpital (donc selon l’équipe aux commandes du Trigger Tool) de 27 à 99 pour 1 000 journées d’hospitalisation. Les comparaisons entre hôpitaux sont donc sujettes à caution [81]. Si, en revanche, on se réfère à une détection d’événements indésirables basée sur les Patient Safety Indicators20 (PSI) [82], qui se servent des données tirées des résumés hospitaliers encodés en vue du calcul du financement, on trouve un lien entre la culture et la sécurité [83]. Les PSI examinés ici dénombrent les pneumothorax iatrogènes, des infections acquises et des complications post-opératoires diverses. Ils permettent de calculer un index composite, qui est comparé aux résultats de la mesure de la culture, hôpital par hôpital. La corrélation est faible, mais elle existe. Cependant, la valeur des PSI, basés sur des données administratives, est mise en doute depuis longtemps [84]. Une étude montre une relation inverse nette entre la culture mesurée par le HSOPS et le nombre d’infections du site opératoire dans sept hôpitaux du Minnesota (moins d’infections là où la culture mesurée est la meilleure) [13]. Sans surprise, c’est la dimension « disponibilité des ressources humaines » qui pèse le plus lourd. Les infections de site prises en compte sont celles que déclarent volontairement les hôpitaux, sans contrôle externe. Ce rapport entre culture et infections semble confirmé dans une revue récente, dont les auteurs soulignent qu’il est permis de se demander si ce ne sont pas les mesures mises en place pour éviter infections et contaminations qui ont amélioré la culture et non l’inverse [85]. A contrario, une étude portant sur les infections liées aux cathéters centraux et aux sondes urinaires nous montre une diminution de ces infections après une intervention multifactorielle. Les mesures de culture de sécurité entre le début et la fin de chaque programme n’ont toutefois pas évolué : les améliorations sont indépendantes de toute évolution de la culture de sécurité (telle qu’elle est mesurée) [12]. Une remarque intéressante souligne que la mesure d’une culture par les questionnaires auto-administrés repose sur la proportion de réponses « positives » (moyenne ou médiane dans un service), mais néglige la dispersion des résultats : son auteur parle de culture « solide » là où cette dispersion est faible. Les deux grandeurs interviennent conjointement dans l’explication de durées de séjour différentes d’un service de réanimation néonatale à l’autre [86]. Des événements précurseurs aux erreurs de diagnostic (indisponibilité du dossier ou de résultats) sont relevés moins fréquemment dans des polycliniques qui réalisent de bonnes performances dans la mesure de leur culture de sécurité (en utilisant le HSOPS) [87]. La plupart des auteurs restent donc circonspects sur l’existence d’un lien clair entre la culture de sécurité telle que nous la mesurons et la survenue d’événements indésirables. Ce lien prête encore à controverse dans bien des articles. Nos mesures de la culture sont-elles une évaluation réaliste de sa qualité et de la profondeur de son enracinement ? Sans oublier que le dénombrement des événements indésirables est un piètre indicateur du niveau de sécurité [88,89]. Si l’on veut explorer plus avant les composantes de ce qu’est une culture, il faut faire appel à d’autres outils, qui soient largement qualitatifs, basés sur des audits et des interviews. Ils dépendent des « examinateurs » et nécessitent beaucoup de prudence dans l’interprétation des conclusions qu’on en tire [90,91].

La culture de sécurité aujourd’hui

Historiquement, la vision « fonctionnaliste » héritée de Reason, pour qui la culture peut être importée, imposée et améliorée (top-down) est largement adoptée, avec l’ensemble de ses conceptions. Elle imprègne les certitudes de nos gestionnaires hospitaliers de la sécurité. Le HSOPS explore par exemple les dimensions (Reason aurait parlé de sous-cultures) que le management peut influencer lors de la mise en place d’une culture de sécurité. Les études ont vite montré que, mesurée de la sorte, la culture de sécurité variait non seulement d’un hôpital à l’autre, mais d’un service à l’autre dans le même hôpital, sans rapport avec la « performance sécuritaire » [92]. Cette vision fait de la culture un des outils du management qui permet à ce dernier de disséminer des symboles servant son pouvoir et portant les valeurs de l’organisation. La culture peut même devenir un mécanisme de contrôle, de stratégie, et être « manipulée » par les techniques de ressources humaines. Elle implique également que, si l’on postule que la culture peut être (re)construite, il existe alors des cultures meilleures que d’autres, ce qui implique la référence à des normes. L’échelle de maturité de Westrum en est une, discutée plus haut. Elle implique surtout que la culture de sécurité devrait être une responsabilité du management, et que ne pas réussir à en instaurer une qui soit de qualité est une faute, humaine le plus souvent. Cette faute est toutefois trop souvent imputée à l’opérateur [93]. Paradoxe : la gestion de la sécurité repose sur une attitude neutre vis-à-vis de l’erreur humaine et sur une culture juste, mais échouer à l’instaurer est une faute (blâmable ?). Comme si la vision de Reason était un ouroboros, un serpent qui se dévore lui-même en se mordant la queue… Leape voit plusieurs raisons à l’impossibilité d’instaurer une telle culture [94] : la résistance de membres clés de l’organisation (les médecins par exemple), le système de financement de la médecine et de rétribution des médecins qui favorise le « rendement », la nécessité de contenir les coûts, et la nature complexe des soins médicaux.

Les visions plus récentes de la théorie de la sécurité sont moins enthousiastes que Reason sur l’importance du rôle de la culture de sécurité, si tant est qu’elle en ait un. Le resilience engineering parle peu de culture, et en a une vision proche de la vision « interprétative ». Hollnagel rappelle que ce n’est pas parce qu’on a trouvé un moyen de la mesurer que la culture existe : comment prouver que ce que nos instruments de mesure évaluent est effectivement une culture (et pas la perception que nous en avons) ? Les théoriciens du modèle HRO21 fournissent une liste d’éléments à développer dans les institutions. La culture de sécurité en a fait partie, mais elle en a été retirée. La liste restante se suffit à elle-même : la formation et l’entraînement constant des agents, la décentralisation et le fait de confier des responsabilités hors hiérarchie à des experts quand les circonstances le demandent, l’introduction de redondances dans les tâches et les équipes, l’engagement de chacun dans la création de la sécurité, l’effort de maintenir l’organisation à l’intérieur de limites pour la protéger de l’extérieur et favoriser les objectifs qui lui sont propres, la promotion de l’apprentissage continu, et les réseaux informels (hors hiérarchie) pour s’affranchir des imprévus. Même une culture de vision « interprétative » n’est pas immuable et évolue dans le temps en fonction d’un contexte changeant, mais elle est décentralisée, dépend des activités des agents et non de manœuvres venues d’en haut. Elle n’est pas seulement la somme des apports des agents : elle la dépasse et est une propriété émergente de leurs interactions. Le vocabulaire de la culture de sécurité a envahi tout l’espace de la gestion de la sécurité. Même dans les articles qui lui sont dédiés, il n’est que rarement défini, et ses définitions ne sont pas forcément compatibles [95]. On en parle beaucoup, probablement trop, de sorte que l’expression finit par ne plus recouvrir que des notions vagues, sans lien avec la sécurité objective, qui masquent l’impuissance du management à comprendre le monde tel qu’il est et les agents tels qu’ils agissent. La culture de sécurité mérite mieux que d’être réduite à un maquillage ou à un déguisement qui pare les enjeux de pouvoir de beaux atours et qui édulcore l’omniprésence de l’autorité.

Notes :

1- National Aeronautics and Space Administration.
2- Top-down : du sommet vers le bas. Cheminement classique de la décision dans les structures pyramidales. L’inverse est le bottom-up (du bas vers le haut).
3- Ingénierie de la résilience. Voir https://www.risqual.net/publication-scientifique/chapitre-i-une-histoire-de-la-securite-partie-2-lirruption-de-la-complexite#title8 (Consulté le 22-09-2022).
4- Organisations de haute fiabilité. Voir https://www.risqual.net/publication-scientifique/chapitre-i-une-histoire-de-la-securite-partie-2-lirruption-de-la-complexite#title7 (Consulté le 22-09-2022).
5- Société européenne pour la qualité des soins.
6- Les citations sont traduites par l’auteur.
7- Cadre pour la sécurité du patient de Manchester.
8- National Health Service, service national de santé du Royaume-Uni.
9- Je suis désolé.
10- Voir le chapitre sur la déclaration des événements indésirables, à paraître en octobre 2022.
11- Réseau européen pour la sécurité des patients.
12- Fondation (pour la) santé.
13- Enquêtes sur la culture de la sécurité des patients.
14- Agence pour la recherche et la qualité en santé.
15- Questionnaire sur les attitudes en matière de sécurité.
16- Voir https://www.risqual.net/publication-scientifique/chapitre-i-une-histoire-de-la-securite-partie-2-lirruption-de-la-complexite#title8 (Consulté le 22-09-2022).
17- Gestion des ressources de l'équipe.
18- Team strategies and tools to enhance performance and patient safety, outils et stratégies d'équipe pour accroître le rendement des équipes et la sécurité des patients (voir https://www.ahrq.gov/teamstepps/instructor/fundamentals/index.html [Consulté le 22-09-2022]).
19- IHT Global Trigger Tool for Measuring Adverse Events, outil universel (de recherche) d’événements déclencheurs pour le recensement des événements indésirables (Institut pour l'amélioration des soins de santé - Institute for Healthcare Improvement, Boston, États-Unis).
20- Indicateur de la sécurité des patients.
21- Voir https://www.risqual.net/publication-scientifique/chapitre-i-une-histoire-de-la-securite-partie-2-lirruption-de-la-complexite#title7 (Consulté le 22-09-2022).

Annexes

Informations de l'auteur

Financement : l'auteur déclare ne pas avoir reçu de financement.

Liens d’intérêt : l'auteur déclare ne pas avoir de lien d’intérêt.

Références

1- Woods DD. Creating foresight: lessons for enhancing resilience from Columbia. In: Starbuck WH, Farjoun M, eds. Organization at the limit: lessons from the Columbia disaster. Malden, MA: Wiley-Blackwell, 2005:289-308.

2- International Nuclear Safety Advisory Group. Summary report on the post-accident review meeting on the Chernobyl accidents. Vienna, AT: International Atomic Energy Agency, 1986.

3- Townsend AS. Safety can’t be measured - An evidence-based approach to improving risk reduction. Farnham, GB: Gower, 2013. 178 p.

4- Mintzberg HA, Ahlstrand B, Lampel J. Strategy safari: a guided tour through the wilds of strategic management. New York: Free Press, 1998.

5- Neal A, Griffin MA, Hart PM. The impact of organizational climate on safety climate and individual behavior. Saf Sci 2000;34(1-3):99-109.

6- Neal A, Griffin MA. A study of the lagged relationships among safety climate, safety motivation, safety behavior, and accidents at the individual and group levels. J Appl Psychol 2006;91(4):946-953.

7- Bull ER, Byrne-Davis LMT, Swift J, et al. Exploring what teams perceive by “culture” when implementing new models of care. Int J Qual Health Care 2019;31(6):492-494.

8- Magill ST, Wang DD, Rutledge WC, et al. Changing operating room culture: implementation of a postoperative debrief and improved safety culture. World Neurosurg 2017;107:597-603.

9- Antonsen S. Safety culture and the issue of power. Saf Sci 2009;47(2):183-191.

10- Perrow C. Normal accidents: living with high risk technologies. 2nd Ed. Princeton, NJ: Princeton University Press, 2011. 452 p.

11- Myers DJ, Nyce JM, Dekker SWA. Setting culture apart: distinguishing culture from behavior and social structure in safety and injury research. Accid Anal Prev 2014;68:25-29.

12- Meddings J, Reichert H, Greene MT, et al. Evaluation of the association between Hospital Survey on Patient Safety Culture (HSOPS) measures and catheter-associated infections: results of two national collaboratives. BMJ Qual Saf 2017;26(3):226-235.

13- Fan CJ, Pawlik TM, Daniels T, et al. Association of safety culture with surgical site infection outcomes. J Am Coll Surg 2016;222(2):122-128.

14- Kizer KW. Large system change and a culture of safety. In: Scheffler A, Zipperer LA, Eds. Enhancing patient safety and reducing errors in health care. Chicago, IL: National Patient Safety Foundation, 1999.

15- Reason J. Managing the risks of organizational accidents. Aldershot, UK: Ashgate 1997. 252 p.

16- Halligan M, Zecevic A. Safety culture in healthcare: a review of concepts, dimensions, measures and progress. BMJ Qual Saf 2011;20(4):338-343.

17- Guldenmund FW. The nature of safety culture: a review of theory and research. Saf Sci 2000;34(1-3):215-257.

18- Schein EH. Organizational culture and leadership. 4th Ed. San Francisco, CA: John Wiley & Sons, 2010.

19- Yorio PL, Edwards J, Hoeneveld D. Safety culture across cultures. Saf Sci 2019;120:402-410.

20- Cooper MD. Towards a model of safety culture. Saf Sci 2000;36(2):111-136.

21- Parker D. Managing risk in healthcare: understanding your safety culture using the Manchester Patient Safety Framework (MaPSaF). J Nurs Manag 2009;17(2):218-222.

22- Ashcroft DM, Morecroft C, Parker D, et al. Safety culture assessment in community pharmacy: development, face validity, and feasibility of the Manchester Patient Safety Assessment Framework. Qual Saf Health Care 2005;14(6):417-421.

23- Westrum R. A typology of organisational cultures. Qual Saf Health Care 2004;13(suppl 2):ii22-ii27.

24- Goncalves Filho AP, Waterson P. Maturity models and safety culture: a critical review. Saf Sci 2018;105:192-211.

25- Miller N, Bhowmik S, Ezinwa M, et al. The relationship between safety culture and voluntary event reporting in a large regional ambulatory care group. J Patient Saf 2019;15(4):e48-e51.

26- Institute of Medicine (US) Committee on Quality of Health Care in America. To err is human: building a safer health system. Washington DC: The National Academies Press, 2000. 312 p.

27- Dekker SW, Leveson NG. The systems approach to medicine: controversy and misconceptions. BMJ Qual Saf 2015;24(1):7-9.

28- Pousette A, Larsman P, Eklöf M, et al. The relationship between patient safety climate and occupational safety climate in healthcare - A multi-level investigation. J Safety Res 2017;61:187-198. 164 p.

29- Dekker S. Just culture: restoring trust and accountability in your organization. 3rd Ed. Boca Raton, FL: CRC Press, Taylor & Francis Group, 2017.

30- Cribb A, O’Hara JK, Waring J. Improving responses to safety incidents: we need to talk about justice. BMJ Qual Saf 2022;31(4):327-330.

31- Barach P, Small SD. Reporting and preventing medical mishaps: lessons from non-medical near miss reporting systems. BMJ 2000;320(7237):759-763.

32- Weiner BJ, Hobgood C, Lewis MA. The meaning of justice in safety incident reporting. Soc Sci Med 2008;66(2):403-413.

33- Fields AC, Mello MM, Kachalia A. Apology laws and malpractice liability: what have we learned? BMJ Qual Saf 2021;30(1):64-67.

34- Kachalia A, Sands K, Niel MV, et al. Effects of a communication-and-resolution program on hospitals’ malpractice claims and costs. Health Aff (Millwood) 2018;37(11):1836-1844.

35- Ross NE, Newman WJ. The role of apology laws in medical malpractice. J Am Acad Psychiatry Law 2021;49(3):406-414.

36- Painter LM, Kidwell KM, Kidwell RP, et al. Do written disclosures of serious events increase risk of malpractice claims? One health care system’s experience. J Patient Saf 2018;14(2):87-94.

37- Petschonek S, Burlison J, Cross C, et al. Development of the just culture assessment tool: measuring the perceptions of health-care professionals in hospitals. J Patient Saf 2013;9(4):190-197.

38- Dekker S. Restorative just culture checklist. Safety Differently, 2018. Accessible à : https://safetydifferently.com/wp-content/uploads/2018/12/RestorativeJustCultureChecklist-1.pdf (Consulté le 03-10-2022).

39- Samanta A, Samanta J. Gross negligence manslaughter and doctors: ethical concerns following the case of Dr Bawa-Garba. J Med Ethics 2019;45(1):10-14.

40- Heraghty D, Rae AJ, Dekker SWA. Managing accidents using retributive justice mechanisms: when the just culture policy gets done to you. Saf Sci 2020;126:104677.

41- Cook RI, D.Woods D, Miller C. A tale of two stories: contrasting views of patient safety. Chicago, IL: National Health Care Safety Council of the National Patient Safety Foundation at the AMA, 1998. 74 p.

42- Mannion R, Davies H, Powell M, et al. Healthcare scandals and the failings of doctors. J Health Organ Manag 2019;33(2):221-240.

43- Schrøder K, Lamont RF, Jørgensen JS, et al. Second victims need emotional support after adverse events: even in a just safety culture. BJOG 2019;126(4):440-442.

44- Reis-Dennis S. What “just culture” doesn’t understand about just punishment. J Med Ethics 2018;44(11):739-742.

45- Tigard DW. Taking the blame: appropriate responses to medical error. J Med Ethics 2019;45(2):101-105.

46- Clarkson MD, Haskell H, Hemmelgarn C, et al. Abandon the term “second victim”. BMJ 2019;364:l1233.

47- Wu AW, Shapiro J, Harrison R, et al. The impact of adverse events on clinicians: what’s in a name? J Patient Saf 2020;16(1):65-72.

48- Dekker SWA, Long R, Wybo JL. Zero vision and a western salvation narrative. Saf Sci 2016;88:219-223.

49- Cullen JB, Victor B, Bronson JW. The ethical climate questionnaire: an assessment of its development and validity. Psychol Rep 2016;73(2):667-674.

50- Grönlund CF, Söderberg A, Dahlqvist V, et al. Development, validity and reliability testing the Swedish Ethical Climate Questionnaire. Nurs Ethics 2019;26(7-8):2482-2493.

51- Levitt P. Challenging the systems approach: why adverse event rates are not improving. BMJ Qual Saf 2014;23(12):1051-1052.

52- Baertschi B. Neurosciences et éthique : que nous apprend le dilemme du wagon fou ? Igitur - Arguments Philosophiques 2011;3(3):1-17.

53- Kristensen S, Bartels P. Use of patient safety culture instruments and recommendations. Aarhus, DK: European Society for Quality in Healthcare ‐ Office for Quality Indicators, 2010. 35 p.

54- The Health Foundation. Measuring safety culture. London, UK: 2011. 42 p.

55- Sexton JB, Helmreich RL, Neilands TB, et al. The Safety Attitudes Questionnaire: psychometric properties, benchmarking data, and emerging research. BMC Health Serv Res 2006;6:44.

56- Colla JB, Bracken AC, Kinney LM, et al. Measuring patient safety climate: a review of surveys. Qual Saf Health Care 2005;14(5):364-366.

57- Flin R. Measuring safety culture in healthcare: a case for accurate diagnosis. Saf Sci 2007;45(6):653-667.

58- Churruca K, Ellis LA, Pomare C, et al. Dimensions of safety culture: a systematic review of quantitative, qualitative and mixed methods for assessing safety culture in hospitals. BMJ Open 2021;11(7):e043982.

59- Sorra JS, Nieva VF. Hospital Survey on Patient Safety Culture. Rockville, MD: Agency for Healthcare Research and Quality, 2004. 74 p.

60- Blegen MA, Gearhart S, O’Brien R, et al. AHRQ’S Hospital Survey on Patient Safety Culture: psychometric analyses. J Patient Saf 2009;5(3):139-144.

61- Perneger TV, Staines A, Kundig F. Internal consistency, factor structure and construct validity of the French version of the Hospital Survey On Patient Safety Culture. BMJ Qual Saf 2014;23(5):389-397.

62- Vlayen A, Schrooten W, Hellings J. Rapport du benchmarking - Troisième étude nationale sur la culture de sécurité dans les hôpitaux belges. Hasselt, BE: Universiteit Hasselt, 2016. 171 p.

63- Occelli P, Quenon JL, Hubert B, et al. Development of a safety culture: initial measurements at six hospitals in France. J Healthc Risk Manag 2011;30(4):42-47.

64- Occelli P, Quenon JL, Kret M, et al. Validation of the French version of the Hospital Survey on Patient Safety Culture questionnaire. Int J Qual Health Care 2013;25(4):459-468.

65- Boussat B, Francois P, Gandon G, et al. Inconsistencies between two cross-cultural adaptations of the Hospital Survey on Patient Safety Culture into French. J Patient Saf 2021;17(8):e1186-e1193.

66- Waterson P, Carman EM, Manser T, et al. Hospital Survey on Patient Safety Culture (HSPSC): a systematic review of the psychometric properties of 62 international studies. BMJ Open 2019;9(9):e026896.

67- Waterson P, Griffiths P, Stride C, et al. Psychometric properties of the Hospital Survey on Patient Safety Culture: findings from the UK. Qual Saf Health Care 2010;19(5):e2.

68- Azyabi A, Karwowski W, Davahli MR. Assessing patient safety culture in hospital settings. Int J Environ Res Public Health 2021;18(5):2466.

69- Sexton JB, Adair KC, Leonard MW, et al. Providing feedback following leadership walkrounds is associated with better patient safety culture, higher employee engagement and lower burnout. BMJ Qual Saf 2018;27(4):261-270.

70- Schwendimann R, Milne J, Frush K, et al. A closer look at associations between hospital leadership walkrounds and patient safety climate and risk reduction: a cross-sectional study. Am J Med Qual 2013;28(5):414-421.

71- Klimmeck S, Sexton JB, Schwendimann R. Changes in safety and teamwork climate after adding structured observations to patient safety walkrounds. Jt Comm J Qual Patient Saf 2021;47(12):783-792.

72- Sexton JB, Adair KC, Profit J, et al. Safety culture and workforce well-being associations with positive leadership walkrounds. Jt Comm J Qual Patient Saf 2021;47(7):403-411.

73- Staines A, Lécureux E, Rubin P, et al. Impact of TeamSTEPPS on patient safety culture in a Swiss maternity ward. Int J Qual Health Care 2020;32(9):618-624.

74- Morello RT, Lowthian JA, Barker AL, et al. Strategies for improving patient safety culture in hospitals: a systematic review. BMJ Qual Saf 2013;22(1):11-18.

75- Pronovost P, Weast B, Rosenstein B, et al. Implementing and validating a comprehensive unit-based safety program. J Patient Saf 2005;1(1):33-40.

76- David DS. The association between organizational culture and the ability to benefit from “just culture” training. J Patient Saf 2019;15(1):e3-e7.

77- Quinn RE, Rohrbaugh J. A spatial model of effectiveness criteria: towards a competing values approach to organizational analysis. Manage Sci 1983;29(3):363-377.

78- Hoff T, Jameson L, Hannan E, et al. A review of the literature examining linkages between organizational factors, medical errors, and patient safety. Med Care Res Rev 2004;61(1):3-37.

79- Clarke S. The relationship between safety climate and safety performance: a meta-analytic review. J Occup Health Psychol 2006;11(4):315-327.

80- Farup PG. Are measurements of patient safety culture and adverse events valid and reliable? Results from a cross sectional study. BMC Health Serv Res 2015;15:186.

81- Schildmeijer K, Nilsson L, Arestedt K, et al. Assessment of adverse events in medical care: lack of consistency between experienced teams using the global trigger tool. BMJ Qual Saf 2012;21(4):307-314.

82- McDonald KM, Romano PS, Geppert JJ, et al. Measures of patient safety based on hospital administrative data - The patient safety indicators. Rockville, MD: Agency for Healthcare Research and Quality (US), 2002.

83- Mardon RE, Khanna K, Sorra J, et al. Exploring relationships between hospital patient safety culture and adverse events. J Patient Saf 2010;6(4):226-232.

84- Winters BD, Bharmal A, Wilson RF, et al. Validity of the Agency for Health Care Research and Quality Patient safety indicators and the centers for Medicare and Medicaid hospital-acquired conditions: a systematic review and meta-analysis. Med Care 2016;54(12):1105-1111.

85- Braun BI, Chitavi SO, Suzuki H, et al. Culture of safety: impact on improvement in infection prevention process and outcomes. Curr Infect Dis Rep 2020;22(12):34.

86- Tawfik DS, Thomas EJ, Vogus TJ, et al. Safety climate, safety climate strength, and length of stay in the NICU. BMC Health Serv Res 2019;19(1):738.

87- Campione JR, Mardon RE, McDonald KM. Patient safety culture, health information technology implementation, and medical office problems that could lead to diagnostic error. J Patient Saf 2019;15(4):267-273.

88- De Bono S, Heling G, Borg MA. Organizational culture and its implications for infection prevention and control in healthcare institutions. J Hosp Infect 2014;86(1):1-6.

89- Profit J, Sharek PJ, Cui X, et al. The correlation between neonatal intensive care unit safety culture and quality of care. J Patient Saf 2020;16(4):e310-e316.

90- Johnson G. Managing strategic change–strategy, culture and action. Long Range Plann 1992;25(1):28-36.

91- Cooper MD, Collins M, Bernard R, et al. Criterion-related validity of the cultural web when assessing safety culture. Saf Sci 2019;111:49-66.

92- Singer SJ, Gaba DM, Geppert JJ, et al. The culture of safety: results of an organization-wide survey in 15 California hospitals. Qual Saf Health Care 2003;12(2):112-118.

93- Silbey SS. Taming Prometheus: talk about safety and culture. Annu Rev Sociol 2009;35(1):341-369.

94- Leape LL, Shore MF, Dienstag JL, et al. Perspective: a culture of respect, part 1: the nature and causes of disrespectful behavior by physicians. Acad Med 2012;87(7):845-852.

95- Henriqson É, Schuler B, van Winsen R, et al. The constitution and effects of safety culture as an object in the discourse of accident prevention: a Foucauldian approach. Saf Sci 2014;70:465-476.

Citation

Historique : Reçu 20 janvier 2021 – Accepté 18 fevrier 2021 – Publié 27 juin 2023.

Culture de sécurité : une approche alternative. Lyon. Health & co, 2022.

Copyright : © Health & Co 2022.