Page d'accueil du BIT

Chapitre 59 - La politique et le leadership en matière de sécurité

LA POLITIQUE, LE LEADERSHIP ET LA CULTURE EN MATIÈRE DE SÉCURITÉ

Dan Petersen

Leadership et culture sont les deux considérations primordiales pour les entreprises qui visent l’excellence en matière de sécurité. Une politique de prévention peut être jugée importante ou non selon la perception que le travailleur a de l’intérêt réel manifesté par la direction pour cette politique et du soutien qu’elle lui apporte au quotidien. Il n’est pas rare, en effet, que la direction élabore une telle politique de sécurité, mais néglige, par la suite, de s’assurer qu’elle est appliquée au jour le jour, sur le terrain, par les cadres et les agents de maîtrise.

La culture de sécurité et les résultats en matière de prévention

On avait coutume de penser qu’un «programme de sécurité» devait comporter certains «éléments essentiels». Ainsi, aux Etats-Unis, les autorités fournissent des directives sur la nature de ces éléments (politique, procédures, formation, contrôles, enquêtes, etc.). Au Canada, certaines provinces considèrent qu’il existe vingt éléments essentiels de ce type, tandis que des organismes britanniques proposent d’en faire figurer trente dans les programmes de sécurité. Si l’on examine de près les raisonnements qui sous-tendent les différentes listes d’éléments essentiels, on s’aperçoit qu’elles ne font que reprendre le point de vue de quelque auteur du passé (Heinrich ou Bird, par exemple). Il en va de même pour les réglementations relatives aux programmes de sécurité qui, bien souvent, ne font que refléter l’avis d’un auteur d’antan. En fait, ces points de vue sont rarement le fruit d’un effort de recherche; il en résulte que les éléments essentiels retenus peuvent être valables dans une organisation, mais non dans une autre. Si l’on examine les études relatives à l’efficacité des systèmes de sécurité, on constate que, même si de nombreux éléments essentiels interviennent dans les résultats obtenus en matière de prévention, c’est néanmoins la perception que le travailleur a de la culture de l’organisation qui détermine si tel ou tel élément va être efficace. Il existe un certain nombre d’études — citées dans les références bibliographiques en fin de chapitre — qui permettent de conclure qu’il n’y a, dans un programme de sécurité, ni «impératifs absolus» ni éléments «essentiels».

Cette réalité pose de sérieux problèmes, car les réglementations de sécurité se contentent généralement d’enjoindre aux entreprises «d’avoir un programme de sécurité» composé de cinq ou sept éléments, ou même davantage, alors qu’il est évident que plusieurs des actions prescrites vont être inopérantes et vont constituer une perte de temps et un gaspillage d’efforts et de moyens qui pourraient être affectés à des activités de prévention proactives. Les résultats obtenus en matière de sécurité sont déterminés bien plus par la culture qui imprègne l’organisation que par la nature des éléments qui constituent le programme de prévention. Dans une culture de sécurité positive, n’importe quel élément, ou presque, jouera un rôle actif, alors que dans une culture négative, il est fort probable qu’aucun élément ne donnera de bons résultats.

La création d’une culture

Si la culture d’une organisation revêt autant d’importance, la gestion de la sécurité devrait s’efforcer avant tout de créer une culture telle que les activités de prévention donnent des résultats. Le terme culture peut être défini librement comme «la façon dont ça se passe chez nous». Une culture de sécurité est positive dès lors que les travailleurs sont sincèrement convaincus que la sécurité est une valeur capitale de l’organisation et qu’elle y occupe une priorité de haut rang. Pour que le personnel puisse parvenir à cette perception, il est indispensable qu’il juge la direction crédible, que les mots inscrits dans la politique de sécurité soient vécus au quotidien, que les décisions de la direction en matière de dépenses montrent qu’elle consacre de l’argent aux travailleurs (et qu’elle n’a pas pour seul objectif la recherche du profit), que les mesures et les récompenses prévues par la direction poussent les cadres moyens et les agents de maîtrise à des niveaux de performance satisfaisants, que les travailleurs aient un rôle à jouer dans la résolution des problèmes et la prise de décisions, qu’un climat de confiance règne entre la direction et le personnel, que la communication soit franche et que le travail accompli par le personnel soit apprécié à sa juste valeur.

Dans une culture de sécurité positive comme celle qui vient d’être définie, la quasi-totalité des éléments du programme de sécurité sont efficaces. Si une organisation, en fait, possède une telle culture, elle n’aura guère besoin d’un «programme de sécurité», car la prévention fait alors partie intégrante de la gestion. Pour parvenir à une culture de sécurité positive, un certain nombre de conditions doivent être remplies:

  1. Le système mis en place doit assurer des activités proactives régulières, pour les agents de maîtrise (ou les équipes constituées).
  2. Le système doit garantir que les cadres moyens accomplissent les tâches ci-après:
  3. La direction générale doit bien faire comprendre que la sécurité est l’une des grandes priorités de l’organisation.
  4. Les travailleurs qui le souhaitent devraient se voir confier des activités significatives dans le domaine de la prévention.
  5. Le programme de sécurité doit avoir la souplesse requise pour permettre des choix à tous les niveaux.
  6. L’effort de sécurité doit être jugé de manière positive par le personnel.

Ces six conditions pourront être remplies quel que soit le style de gestion de l’organisation — autoritaire ou participatif — et quelle que soit la manière d’aborder le problème de la sécurité.

La culture et la politique en matière de sécurité

En soi, l’existence d’une politique de sécurité ne suffit pas: il faut en assurer le suivi et lui donner une impulsion. Ainsi, le fait que cette politique stipule explicitement que les agents de maîtrise sont responsables de la sécurité ne veut strictement rien dire en l’absence des dispositions ci-après:

Ces conditions valent pour tous les niveaux de l’organisation. Les tâches doivent être définies, les critères d’évaluation des performances doivent être justes et les bons résultats doivent être récompensés. Ainsi, ce n’est pas la politique de sécurité qui détermine les performances, mais la responsabilisation des intéressés. C’est elle qui est la véritable clé de la création d’une culture. Ce n’est que lorsque les travailleurs voient les cadres exécuter quotidiennement leurs tâches de sécurité qu’ils seront persuadés de la crédibilité de l’encadrement et du fait que la direction générale n’a pas agi à la légère lorsqu’elle a entériné la politique de sécurité.

Le leadership et la sécurité

Il est dès lors évident que le leadership joue un rôle capital en matière de sécurité, car il façonne la culture qui va déterminer le succès ou l’échec des efforts de prévention de l’organisation. Un bon meneur d’équipes définit clairement les objectifs recherchés et les dispositions qui vont être prises concrètement pour y parvenir. Le leadership est infiniment plus important que la politique; en effet, par leurs actes et leurs décisions, ceux qui l’exercent envoient des messages très clairs d’un bout à l’autre de l’organisation quant aux mesures qui sont importantes et à celles qui ne le sont pas. Il arrive que des entreprises déclarent dans leur politique que la sécurité et la santé sont des valeurs fondamentales, puis élaborent des mesures et favorisent des structures qui encouragent exactement le contraire.

Par les actions et les programmes qu’il entreprend, par les mesures qu’il adopte et les encouragements qu’il dispense, le leadership détermine le succès ou l’échec des efforts de prévention. Cette constatation n’a jamais été aussi manifeste aux yeux des travailleurs de l’industrie qu’au cours des années quatre-vingt-dix. A aucun moment, en effet, il n’y eut d’allégeance plus déclarée à la sécurité et à la santé qu’au cours de la décennie écoulée. Dans le même temps, il n’y eut jamais autant de réductions ou d’ajustements d’effectifs, ni autant de pressions exercées pour augmenter la production et réduire les coûts avec, pour conséquences, davantage de stress, plus d’heures supplémentaires imposées, plus de travail pour moins de travailleurs, plus d’appréhension pour l’avenir et moins de sécurité de l’emploi qu’auparavant. L’ajustement des effectifs a décimé les rangs des cadres moyens et des agents de maîtrise et imposé davantage de travail à un nombre plus restreint de travailleurs (les personnes clés en matière de sécurité). On a une impression généralisée de surcharge ou de surmenage à tous les niveaux de l’organisation. Or, la surcharge provoque davantage d’accidents, occasionne plus de fatigue physique ou psychologique, plus de stress, plus de situations multipliant les mouvements répétitifs et davantage de troubles dus à des effets traumatiques cumulés. On constate également, dans de nombreuses organisations, une dégradation des rapports entre l’entreprise et le travailleur, caractérisés jusque-là par des sentiments réciproques de confiance et de sécurité. Auparavant, un travailleur restait parfois à son poste même lorsqu’il était «blessé». En revanche, lorsqu’un travailleur a peur pour son emploi et qu’il voit que les rangs des cadres sont si clairsemés et qu’il n’est plus encadré — comme c’est le cas de nos jours —, il en vient à se dire que l’organisation ne se soucie plus de lui; ce sentiment se traduit par une dégradation de la culture de sécurité.

L’analyse de l’écart de planification

De nombreuses organisations appliquent une méthode simple que l’on appelle analyse de l’écart («gap analysis») et qui comprend trois étapes: 1) définir la situation que l’on veut atteindre; 2) définir la situation où l’on se trouve; 3) définir comment passer de l’une à l’autre, c’est-à-dire la manière de combler l’écart.

Définir la situation que l’on veut atteindre . Quel programme de sécurité veut-on pour son organisation? Six critères ont été proposés pour l’évaluation d’un tel programme. On peut en choisir d’autres ou préférer, par exemple, les sept variables «climatiques» de l’efficience d’une organisation établies par Likert (1967), lequel a montré que plus une organisation est performante dans certains domaines, plus elle est susceptible d’être performante sur le plan économique et donc sur celui de la sécurité. Ces variables sont les suivantes:

Il existe d’autres critères d’évaluation, tels ceux proposés par Zembroski (1991) pour déterminer la probabilité d’événements catastrophiques.

Définir la situation où l’on se trouve. C’est sans doute l’étape la plus délicate. On considérait à l’origine que l’efficacité d’un programme de sécurité pouvait être déterminée par le nombre d’accidents du travail ou par quelque sous-ensemble d’accidents (accidents donnant lieu à déclaration, accidents avec arrêt, taux de fréquence, etc.); du fait que ces données sont peu nombreuses, elles n’ont généralement que peu ou pas de validité statistique. Depuis cette constatation faite dans les années cinquante et soixante, les chercheurs ont renoncé à l’étude de ces données et ont tenté d’évaluer l’efficacité des programmes de sécurité en procédant à des audits. L’exercice consiste à prédéterminer ce qu’il convient de faire pour parvenir aux résultats désirés, puis d’établir si ces mesures avaient été mises en œuvre ou non.

Pendant des années, on a supposé que les scores des audits permettaient de prédire les résultats obtenus dans le domaine de la sécurité: plus le score de l’audit est élevé une année, moins il y aura d’accidents l’année suivante. On sait aujourd’hui, grâce à diverses études, que la corrélation entre les scores des audits et le bilan des accidents est plutôt faible, si tant est qu’elle existe. Les études montrent, en effet, que la plupart des résultats des audits (externes, mais parfois conçus à l’intérieur de l’organisation) présentent une corrélation bien meilleure avec le respect des règlements qu’avec le bilan de sécurité; de nombreux travaux et publications le confirment.

Un certain nombre d’études cherchant à établir une corrélation positive entre les résultats des audits et le bilan des accidents dans de grandes entreprises sur le long terme (pour déterminer si le bilan des accidents a effectivement une validité statistique) ont mis en évidence une corrélation nulle, voire négative dans certains cas, entre ces deux éléments. Ces mêmes travaux, en revanche, concluent généralement à une corrélation positive avec le respect des règlements.

Le comblement de l’écart

Il s’avère que les mesures permettant d’évaluer valablement l’efficacité d’un programme de sécurité (c’est-à-dire en véritable corrélation avec le bilan réel des accidents dans de grandes entreprises sur de longues périodes) et pouvant servir à «combler l’écart» sont peu nombreuses:

La mesure sans doute la plus importante est l’enquête de perception qui sert à apprécier l’état actuel de la culture de sécurité d’une organisation; elle permet en effet de recenser les problèmes de sécurité critiques et de mettre en évidence les divergences de points de vue pouvant exister entre la direction et les travailleurs quant à l’efficacité des programmes de sécurité.

Cette enquête débute par un bref questionnaire dont les réponses peuvent être transcrites en graphiques et en tableaux (voir figure 59.1). On demande en général aux participants d’indiquer leur échelon, leur lieu de travail régulier, éventuellement leur catégorie professionnelle. Aucune question ne leur est posée qui permettrait aux personnes chargées de compiler les résultats de les identifier.

Figure 59.1 Exemple de résultats d'une enquête de perception

Figure 59.1

La deuxième partie de l’enquête comporte un certain nombre de questions destinées à déceler la perception que le personnel a de différents aspects de la sécurité, chaque question pouvant intéresser plusieurs de ces aspects. On calcule pour chacun d’eux les réponses positives que l’on exprime en pourcentages cumulés. Les pourcentages correspondant aux différents aspects sont ensuite présentés sous forme de diagramme (voir figure 59.1), les résultats étant classés suivant l’ordre décroissant des perceptions positives exprimées par les travailleurs. Les aspects situés du côté droit du diagramme sont ceux que les ouvriers perçoivent comme étant les moins positifs et qui ont par conséquent le plus besoin d’être améliorés.

Résumé

Nos connaissances quant aux facteurs qui déterminent l’efficacité d’un programme de sécurité ont considérablement progressé au cours des dernières années. Il est désormais admis que la culture de l’organisation est la clé du succès. Le comportement des travailleurs est dicté par la perception qu’ils ont de cette culture; c’est elle, par conséquent, qui va déterminer si tel ou tel élément du programme de sécurité aura un impact positif ou non.

Cette culture ne se crée pas par la simple formulation d’une politique, mais bien par l’exercice d’un leadership, par des décisions et des actes au quotidien et par les dispositions prises pour assurer que les cadres, les agents de maîtrise et les équipes accomplissent leurs tâches en matière de prévention. Elle peut être édifiée sur des bases solides grâce à des systèmes de responsabilisation qui garantissent le niveau de performance fixé et grâce aussi à des mesures qui permettent, favorisent et consolident la participation des travailleurs. Enfin, elle peut être valablement évaluée par des enquêtes de perception, et il est possible d’en améliorer la qualité une fois que l’organisation a défini la situation qu’elle souhaite atteindre.

LA CULTURE DE SÉCURITÉ ET SA GESTION

Marcel Simard

La culture de sécurité est une notion nouvelle dans le monde des spécialistes de la prévention et des chercheurs. On peut considérer qu’elle englobe d’autres concepts relatifs aux aspects culturels de la sécurité du travail, tels que les attitudes et les comportements en matière de sécurité, ainsi que le climat de sécurité sur le lieu de travail, aspects plus communément évoqués et d’ailleurs assez bien documentés.

La question se pose de savoir si la culture de sécurité n’est qu’une expression nouvelle recouvrant d’anciennes notions, ou si elle apporte un message nouveau susceptible d’améliorer notre compréhension de la dynamique de la sécurité organisationnelle. La première partie du présent article tente de répondre à cette question en définissant le concept de culture de sécurité et en étudiant ses dimensions potentielles.

L’autre question que l’on peut se poser au sujet de la culture de sécurité, et qui est traitée dans la deuxième partie du présent article, concerne son rapport avec les résultats obtenus par les entreprises dans le domaine de la prévention. On sait que des entreprises similaires appartenant à une même catégorie de risques ont pourtant des résultats différents en matière de sécurité. La culture de sécurité est-elle un facteur d’efficacité dans ce domaine et, dans l’affirmative, quel est le type de culture de sécurité qui permettra d’obtenir l’impact souhaitable? Cette deuxième partie étudie quelques données empiriques montrant l’incidence de la culture de sécurité sur les résultats obtenus dans la lutte contre les accidents du travail.

Enfin, la troisième partie aborde la question pratique de la gestion de la culture de sécurité, afin d’aider les dirigeants et les cadres à créer une culture de sécurité qui contribue à accroître la sécurité.

La culture de sécurité: concept et réalités

Le concept de culture de sécurité n’est pas encore très bien défini; il se rapporte à toute une série de phénomènes dont certains — comme les attitudes et les comportements des cadres et des travailleurs vis-à-vis du risque et de la sécurité — sont déjà partiellement documentés (Andriessen, 1978; Cru et Dejours, 1983; Dejours, 1992; Dodier, 1985; Eakin, 1992; Eyssen, Eakin-Hoffman et Spengler, 1980; Haas, 1977). Ces études sont importantes en ce sens qu’elles fournissent des témoignages sur la nature sociale et organisationnelle des attitudes et des comportements individuels en matière de sécurité (Simard, 1988); toutefois, comme elles sont axées sur des acteurs particuliers de l’entreprise, tels les cadres ou les travailleurs, elles n’abordent pas la question plus large du concept de culture de sécurité qui caractérise les entreprises elles-mêmes.

On relève, dans les études sur le climat de sécurité réalisées au cours des années quatre-vingt, une tendance des chercheurs à se rapprocher de la démarche globale soulignée par la notion de culture de sécurité. Le concept de climat de sécurité renvoie aux perceptions que les travailleurs ont de leur environnement de travail et, notamment, du degré de préoccupation manifesté par la direction et les cadres vis-à-vis de la sécurité, à leurs activités en matière de prévention, ainsi qu’à leur implication dans la maîtrise des risques sur les lieux de travail (Brown et Holmes, 1986; Dedobbeleer et Béland, 1991; Zohar, 1980). On considère que les travailleurs développent et utilisent cet ensemble de perceptions pour déterminer ce qu’ils croient que l’on attend d’eux et qu’ils se comportent en conséquence. Bien que conceptualisées comme une caractéristique individuelle au point de vue psychologique, les perceptions qui créent le climat de sécurité fournissent une évaluation précieuse de la réaction commune des travailleurs à une caractéristique organisationnelle construite socialement et culturellement, dans le cas présent par la gestion de la sécurité sur le terrain. Par conséquent, même s’il n’appréhende pas la culture de sécurité dans son intégralité, le climat de sécurité peut être considéré comme une source d’information sur la culture de sécurité.

La culture de sécurité est un concept qui contient 1) les valeurs, les convictions et les principes formant l’assise du système de gestion de la sécurité; ainsi que 2) l’ensemble des pratiques et des comportements illustrant et renforçant ces principes élémentaires. Ces convictions et ces pratiques traduisent le sens donné par les membres de l’organisation à leur quête de stratégies relatives aux risques professionnels, aux accidents et à la sécurité du travail. Ces convictions et ces pratiques sont partagées, dans une certaine mesure, par les acteurs eux-mêmes; bien plus, elles agissent également comme un moteur d’activités motivées et coordonnées en matière de sécurité du travail. On peut en déduire que la culture, dans ce cas, se différencie aussi bien des structures concrètes de la sécurité du travail (existence d’un service de sécurité, d’un comité paritaire d’hygiène et de sécurité, etc.) que des programmes de prévention en place (identification et maîtrise des risques, inspection des lieux de travail, enquêtes sur les accidents, analyse de la sécurité des postes de travail, etc.).

Petersen (1993) estime que la culture de sécurité «est au cœur du mode d’utilisation des systèmes et des outils de sécurité» et donne l’exemple suivant:

Deux entreprises avaient, dans le cadre de leur programme de prévention, des politiques analogues en matière d’enquêtes sur les accidents et incidents. Des incidents similaires se sont produits dans chacune d’elles et ont fait l’objet d’enquêtes. Dans la première entreprise, le contremaître s’est aperçu que les travailleurs impliqués avaient un comportement dangereux; il le leur a immédiatement signalé et l’a noté dans leur dossier personnel de sécurité. Le cadre supérieur responsable a félicité ce contremaître d’avoir fait appliquer les consignes de sécurité. Dans la deuxième entreprise, le contremaître a étudié les circonstances de l’incident; il a constaté que celui-ci s’était produit à un moment où l’opérateur était soumis à une forte pression pour respecter les délais de fabrication au cours d’une période marquée par des problèmes d’entretien mécanique qui avaient ralenti la production, et dans un contexte où les travailleurs, préoccupés par de récentes réductions d’effectifs qui leur faisaient craindre pour leur emploi, négligeaient les précautions d’usage. Les dirigeants de l’entreprise ont reconnu l’existence des problèmes d’entretien préventif et ont organisé une réunion avec l’ensemble du personnel intéressé au cours de laquelle ils ont exposé la situation financière du moment et demandé aux travailleurs de veiller à la sécurité tout en œuvrant à l’amélioration de la production pour assurer la survie de l’entreprise.

«Pourquoi, demande Petersen, a-t-on dans l’une des sociétés adressé des reproches à l’opérateur, rempli simplement les formulaires d’enquête et ordonné la reprise du travail, alors que dans l’autre entreprise on s’est rendu compte qu’elle devait faire face à des carences à tous les niveaux?» La différence réside non pas dans les programmes de prévention, mais dans les cultures de sécurité des deux entreprises et, cela, bien que l’application culturelle du programme et les valeurs et convictions qui inspirent les pratiques mises en œuvre déterminent dans une large mesure si le programme possède un contenu réel satisfaisant et a un impact suffisant.

Cet exemple montre que les cadres jouent un rôle en matière de sécurité du travail et que leur engagement et leurs actes contribuent fortement à façonner la culture de sécurité de l’entreprise. Dans les deux cas, les contremaîtres ont réagi en fonction de ce qu’ils ont perçu comme étant «la bonne façon d’agir», une perception que les comportements ultérieurs des dirigeants n’ont fait que renforcer. Dans le premier exemple, la direction a manifestement encouragé une démarche du type «le règlement, c’est le règlement», c’est-à-dire bureaucratique et hiérarchique, alors que dans le deuxième, la démarche a été plus large et a conduit les cadres et les travailleurs à s’investir personnellement dans la sécurité. D’autres approches culturelles sont possibles également. Ainsi, Eakin (1992) relève que, dans les très petites entreprises, il est courant de voir le chef d’entreprise déléguer complètement la responsabilité de la sécurité aux salariés.

Ces exemples soulèvent l’importance d’une gestion dynamique de la culture de sécurité et des processus qu’impliquent la création, la consolidation et le développement de la culture de l’entreprise en matière de sécurité. L’un de ces processus est l’exercice du leadership, manifesté par la direction générale et les autres responsables au sein de l’entreprise, tels les représentants syndicaux. Le souci de la culture d’entreprise a encouragé les études abordant le leadership dans l’entreprise sous un jour nouveau et faisant ressortir l’importance du rôle personnel des chefs naturels et organisationnels dans la manifestation de leur attachement aux valeurs et dans la communication de ces valeurs aux membres de l’organisation (Nadler et Tushman, 1990; Schein, 1985). Dans l’exemple cité par Petersen, la première entreprise illustre une situation où le leadership de la direction a été strictement structurel, puisqu’il s’agissait simplement d’imposer le respect des consignes de sécurité. Dans la deuxième, la direction a fait preuve d’une conception plus large du leadership en assumant à la fois un rôle structurel (par sa décision de laisser le temps d’exécuter la maintenance préventive nécessaire) et un rôle personnel (par la tenue d’une réunion avec les travailleurs pour parler de la sécurité et de la production dans un contexte financier difficile). Dans l’étude d’Eakin mentionnée plus haut, il semble que les cadres supérieurs de certaines petites entreprises n’exercent pas le moindre leadership.

Les cadres moyens et les agents de maîtrise remplissent également une mission très importante dans la dynamique culturelle de la sécurité du travail. Dans une étude portant sur plus d’un millier de contremaîtres, Simard et Marchand (1994) montrent qu’une forte majorité d’entre eux sont impliqués dans la sécurité du travail, même si les schémas culturels de leur engagement peuvent varier. Dans certaines entreprises, le schéma dominant est celui d’une «implication hiérarchique» davantage axée sur le contrôle; dans d’autres, on a affaire à une «implication participative», les contremaîtres incitant et autorisant leurs subordonnés à prendre part à des activités de prévention; enfin, dans quelques entreprises, les contremaîtres abandonnent la sécurité à l’initiative des travailleurs et s’en désintéressent totalement. On voit aisément la correspondance entre ces différents styles de gestion de la sécurité par les agents de maîtrise et ce qui a été dit plus haut au sujet des schémas de leadership des cadres supérieurs en matière de sécurité du travail. Pourtant, l’étude de Simard et Marchand montre de manière empirique que la corrélation n’est pas parfaite, ce qui vient étayer l’hypothèse de Petersen selon laquelle l’un des grands problèmes de nombreux chefs d’entreprise est de trouver le moyen de susciter, chez les cadres moyens et les agents de maîtrise, une culture de sécurité solide axée sur l’être humain. Il n’est pas exclu que ce problème soit dû en partie au fait que la plupart des cadres subalternes continuent de se soucier essentiellement de la production et sont enclins à rejeter sur les travailleurs la responsabilité des accidents du travail et autres défaillances constatées dans ce domaine (DeJoy, 1987, 1994; Taylor, 1981).

Il ne faut pas considérer l’accent mis sur le rôle de la direction et des cadres comme une négation de l’importance des travailleurs dans la dynamique de la culture de sécurité sur le lieu de travail. La perception qu’ils ont de la priorité donnée à la sécurité par leurs chefs hiérarchiques et leurs dirigeants influe sur leur motivation et leur comportement en matière de sécurité (Andriessen, 1978). Ce schéma d’influence exercée du haut vers le bas a été mis en évidence dans de nombreuses expériences comportementales où le retour d’information positif assuré par les cadres a servi à renforcer le respect des consignes formelles de sécurité (McAfee et Winn, 1989; Näsänen et Saari, 1987). On a, par ailleurs, noté que les travailleurs forment spontanément des équipes dès lors que l’organisation du travail leur offre la possibilité de s’impliquer officiellement ou officieusement dans la gestion de la sécurité et la bonne marche de la production (Cru et Dejours, 1983; Dejours, 1992; Dwyer, 1992). Ce dernier type de comportement, axé davantage sur les initiatives prises par les équipes et leur aptitude à l’autorégulation, peut être exploité de manière positive par la direction pour favoriser l’engagement du personnel en faveur de la sécurité et la création d’une véritable culture de sécurité dans l’entreprise.

La culture de sécurité et les taux d’accidents

Les preuves empiriques de l’incidence de la culture de sécurité sur les résultats obtenus dans la lutte contre les accidents du travail ne cessent de s’accumuler. De nombreuses études examinent les caractéristiques d’entreprises ayant de faibles taux d’accidents et les comparent généralement à des entreprises similaires ayant des taux supérieurs à la moyenne. Réalisées dans des pays industriels comme dans des pays en développement, ces études se rejoignent pour considérer que l’intérêt manifesté par des cadres supérieurs pour la sécurité et le leadership qu’ils assument dans ce domaine joue un rôle capital (Chew, 1988; Hunt et Habeck, 1993; Shannon et coll., 1992; Smith et coll., 1978). Par ailleurs, la plupart de ces études montrent que dans les entreprises ayant un faible taux d’accidents, l’implication personnelle des cadres supérieurs dans la prévention est au moins aussi importante que les décisions qu’ils prennent pour mettre en place un système structuré de gestion de la sécurité (ce qui comporte l’engagement de moyens financiers et de ressources professionnelles, la définition de politiques et de programmes, etc.). D’après Smith et coll. (1978), l’implication active des cadres supérieurs a pour effet de motiver les cadres de tous niveaux, car elle entretient leur intérêt en les faisant participer; quant aux travailleurs, ils y voient la preuve que la direction est attachée à leur bien-être. Les résultats de nombreuses études semblent indiquer que l’un des moyens les plus efficaces pour les cadres supérieurs de manifester et de promouvoir leur philosophie axée sur la personne humaine consiste à s’engager dans des actions très visibles telles que des contrôles de sécurité sur les lieux de travail et des réunions avec le personnel.

Nombreuses aussi sont les études concernant le rapport entre culture de sécurité et résultats obtenus dans la lutte contre les accidents du travail: l’engagement des agents de maîtrise en faveur d’une approche participative de la gestion de la sécurité est généralement associé à des taux d’accidents plus faibles (Chew, 1988; Mattila, Hyttinen et Rantanen, 1994; Simard et Marchand, 1994; Smith et coll., 1978). Ce comportement des agents de maîtrise est illustré par de fréquentes interactions et communications formelles ou non avec les travailleurs au sujet du travail et de la sécurité, par l’attention portée à leurs performances dans ce domaine, par un retour d’information positif et par les encouragements à leur participation aux activités de prévention. Par ailleurs, les caractéristiques d’une surveillance efficace de la sécurité sont les mêmes que celles d’une surveillance efficace de l’exploitation et de la production, ce qui ne fait que renforcer l’hypothèse selon laquelle il existe un lien étroit entre une gestion efficace de la sécurité et une bonne gestion globale.

Il est établi qu’un personnel qui se soucie de la sécurité est un facteur positif pour les résultats obtenus par l’entreprise dans ce domaine. Toutefois, il faut se garder de ramener la perception que l’on a d’un comportement sûr à la simple vigilance et au seul respect des consignes de sécurité édictées par la direction, même si de nombreuses expériences comportementales montrent qu’un degré élevé d’observation de ces consignes réduit les taux d’accidents (Saari, 1990). En effet, on sait que l’octroi de certains pouvoirs au personnel et la participation active de celui-ci aux actions de prévention sont des facteurs de réussite des programmes de sécurité du travail. Au niveau de l’entreprise, des études prouvent que les comités paritaires d’hygiène et de sécurité qui fonctionnent bien (dont les membres ont une bonne formation en sécurité du travail, coopèrent à la réalisation des objectifs fixés et bénéficient du soutien de leurs mandants) contribuent largement aux résultats obtenus par l’entreprise dans le domaine de la prévention (Chew, 1988; Rees, 1988; Tuohy et Simard, 1992). De même, au niveau des travailleurs eux-mêmes, les équipes que la direction incite à développer leur propre stratégie de sécurité et à s’autoréguler obtiennent généralement de meilleurs résultats dans ce domaine que les équipes soumises à un régime autoritaire et à la désintégration sociale (Dwyer, 1992; Lanier, 1992).

On peut conclure de ce qui précède que le type de culture de sécurité qui a le plus de chances de donner de bons résultats est celui qui associe le leadership et le soutien des dirigeants, l’engagement personnel des cadres moyens et la participation des travailleurs. En fait, ce type de culture de sécurité se situe à un niveau élevé dans ce que l’on pourrait conceptualiser comme les deux dimensions essentielles de cette culture, à savoir la mission de sécurité et l’engagement en faveur de la sécurité , comme on le voit à la figure 59.2.

Figure 59.2 Typologie des cultures de sécurité

Figure 59.2

La mission de sécurité concerne la priorité accordée à la sécurité du travail dans le cadre de la mission de l’entreprise. Les ouvrages consacrés à la culture d’entreprise soulignent l’importance d’avoir une définition explicite et commune d’une mission qui se dégage des valeurs essentielles de l’entreprise et qui soutient ces valeurs (Denison, 1990). Par conséquent, la dimension de la mission de sécurité montre dans quelle mesure la direction reconnaît que la sécurité et la santé au travail sont des valeurs essentielles de l’entreprise et dans quelle mesure les cadres supérieurs exercent leur leadership pour promouvoir l’intégration de ces valeurs dans les systèmes et les pratiques de gestion. On peut émettre dès lors l’hypothèse qu’un sens aigu de la mission de sécurité (+) a une incidence positive sur les résultats obtenus dans ce domaine, car il incite chacun des membres de l’entreprise à adopter un comportement axé sur la sécurité du travail; il facilite par ailleurs la coordination en définissant un objectif commun, ainsi qu’un critère externe pour l’orientation de ce comportement.

L’engagement en faveur de la sécurité constitue un objectif convergent pour les agents de maîtrise et les travailleurs lorsqu’il s’agit d’assurer la sécurité sur le tas. Les écrits sur la culture d’entreprise tendent à prouver qu’un degré élevé d’implication et de participation contribue au succès, car il crée chez le personnel un sentiment d’appropriation et un sens des responsabilités qui suscitent un engagement volontaire plus marqué, facilitant à son tour la coordination des comportements et rendant pratiquement superflus les systèmes explicites de contrôle bureaucratique (Denison, 1990). Certaines études montrent en outre que l’engagement en faveur de la sécurité peut constituer une stratégie de la direction pour obtenir de bons résultats, mais aussi une stratégie des travailleurs pour améliorer leur environnement professionnel (Lawler, 1986; Walton, 1986).

D’après la figure 59.2, les entreprises qui associent à un degré élevé mission de sécurité et engagement en faveur de la sécurité font preuve de ce que l’on pourrait appeler une culture de sécurité intégrée . Cette expression signifie que la sécurité du travail fait partie intégrante non seulement de la culture de l’entreprise en tant que valeur essentielle, mais aussi du comportement de l’ensemble du personnel, renforçant ainsi la marque d’un engagement total du sommet à la base. Les témoignages évoqués plus haut viennent étayer l’hypothèse selon laquelle ce type de culture de sécurité devrait permettre aux entreprises de réaliser les meilleures performances dans le domaine considéré.

La gestion d’une culture de sécurité intégrée

La gestion d’une culture de sécurité intégrée exige, en premier lieu, que la direction ait la volonté d’intégrer cette culture à celle de l’entreprise, ce qui n’est pas une mince affaire. En effet, cela va bien au-delà de la définition d’une politique déclarée de l’entreprise soulignant l’importance et la priorité accordées à la sécurité du travail et à la philosophie de sa gestion, encore que l’intégration de la sécurité du travail aux valeurs clés de l’entreprise soit l’une des pierres angulaires d’une culture de sécurité intégrée. Au demeurant, la direction devrait être consciente du fait qu’une telle politique constitue le point de départ d’un vaste processus de mutation de l’entreprise, étant donné que la plupart des entreprises ne fonctionnent pas encore avec une culture de sécurité intégrée. Bien entendu, les modalités de cette stratégie de mutation varieront en fonction du type de culture de sécurité qui existe déjà dans l’entreprise (voir les cases A, B et C de la figure 59.2). En tout état de cause, l’une des conditions primordiales est que la direction agisse en harmonie avec cette politique (autrement dit, qu’elle fasse ce qu’elle dit). Cela fait partie de l’art personnel du leadership dont les cadres supérieurs devraient faire preuve dans l’application de cette politique. Autre point capital: les cadres supérieurs devraient faciliter la mise en place ou la restructuration de systèmes formels de gestion afin de favoriser l’édification d’une culture de sécurité intégrée. Si, par exemple, la culture de sécurité existante est du type bureaucratique, le rôle du personnel de sécurité et du comité d’hygiène et de sécurité devrait être réorienté de manière à encourager les agents de maîtrise et les travailleurs à s’engager en faveur de la sécurité. De même, le système d’évaluation des résultats devrait être adapté de façon à reconnaître la responsabilité des cadres subalternes, ainsi que les résultats obtenus par les travailleurs en matière de sécurité.

Les cadres subalternes, et notamment les agents de maîtrise, jouent un rôle décisif dans la gestion d’une culture de sécurité intégrée. Plus précisément, ils devraient répondre des résultats obtenus par leurs équipes en matière de sécurité et inciter les travailleurs à prendre une part active aux efforts déployés dans ce domaine. D’après Petersen (1993), les cadres subalternes ont bien souvent tendance à faire preuve de cynisme à ce sujet, car ils sont confrontés à la réalité des messages parfois contradictoires qu’ils reçoivent des cadres supérieurs et à la mise en œuvre de programmes qui vont et viennent et dont l’impact est souvent faible et éphémère. Il s’ensuit que, dans bien des cas, la mise en place d’une culture de sécurité intégrée peut appeler un changement de comportement des agents de maîtrise vis-à-vis de la sécurité.

Selon une étude de Simard et Marchand (1995), la manière la plus efficace d’amener les agents de maîtrise à changer de comportement est encore d’adopter une démarche systématique comprenant un ensemble de mesures cohérentes et efficaces visant à résoudre trois grands problèmes inhérents à tout processus de changement: 1) la résistance des individus au changement; 2) l’adaptation des systèmes de gestion existants pour qu’ils viennent épauler le processus de changement; 3) le façonnage de la dynamique dans les domaines politique et culturel. Les deux derniers problèmes peuvent être traités en ayant recours au leadership personnel et organisationnel des cadres supérieurs, comme on vient de le voir. En revanche, dans les entreprises syndicalisées, ce leadership devrait modeler la dynamique politique de l’entreprise de manière à dégager un consensus avec les responsables syndicaux pour instaurer une gestion participative de la sécurité au niveau des ateliers. Quant au problème de la résistance des agents de maîtrise au changement, il devrait être abordé non pas de manière directive ou autoritaire, mais par une démarche consultative non directive, leur permettant de participer au processus de changement et, en quelque sorte, de se l’approprier. Des techniques comme celles du groupe ou de la commission ad hoc, qui permettent aux agents de maîtrise et aux membres d’une équipe d’exprimer leurs préoccupations en matière de sécurité et d’aborder la résolution d’un ou de plusieurs problèmes, sont souvent utilisées en association avec une formation spécifique des agents de maîtrise à la gestion participative.

Il est difficile d’imaginer une culture de sécurité véritablement intégrée dans une entreprise qui ne possède ni comité d’hygiène et de sécurité ni délégué à la sécurité; toutefois, de nombreux pays industriels et certains pays en développement se sont dotés d’une réglementation qui incite ou oblige les entreprises à mettre en place une structure de ce genre. Il existe évidemment un risque que ces comités et ces délégués ne deviennent de simples succédanés d’un réel octroi de pouvoirs et d’un réel engagement du personnel au niveau de l’atelier et ne servent qu’à renforcer une culture de sécurité de type bureaucratique. Pour encourager l’instauration d’une culture de sécurité intégrée, comités paritaires et délégués à la sécurité devraient pousser à une approche décentralisée et participative de la gestion de la sécurité, par exemple: 1) en organisant des actions de sensibilisation du personnel aux risques professionnels et aux comportements de prise de risques; 2) en élaborant des procédures et des programmes de formation habilitant les agents de maîtrise et les travailleurs à résoudre divers problèmes de sécurité au niveau de l’atelier; 3) en participant à l’évaluation des résultats obtenus par l’entreprise en matière de sécurité; 4) en assurant un retour d’information qui conforte les agents de maîtrise et les travailleurs dans leur action.

Un autre moyen efficace de promouvoir une culture de sécurité intégrée au sein du personnel consiste à réaliser une enquête d’identification et de prise de conscience des problèmes de sécurité. En général, les travailleurs savent fort bien où se situent nombre de problèmes, mais, comme personne ne leur demande leur avis, ils répugnent à s’impliquer dans le programme de prévention. Réalisée de manière anonyme, une enquête de ce type permet de sortir de l’impasse et de favoriser l’implication du personnel dans la sécurité tout en apportant aux cadres supérieurs un retour d’information utile pour améliorer la gestion du programme de sécurité. Ce genre d’enquête peut être réalisé par la méthode de l’entretien avec questionnaire appliquée à tous les membres du personnel ou à un échantillon statistiquement représentatif (Bailey, 1993; Petersen, 1993). Si l’on veut parvenir à instaurer une culture de sécurité intégrée, il est indispensable d’assurer le suivi de l’enquête entreprise. Une fois les données rassemblées, la direction devrait lancer le processus de mutation en créant des groupes de travail ad hoc avec la participation de personnes appartenant à tous les échelons de l’entreprise, travailleurs compris. Cette façon de procéder est de nature à assurer un diagnostic plus pointu des problèmes recensés et à identifier les moyens d’améliorer la gestion de la sécurité là où le besoin s’en fait sentir. Répétées tous les ans ou tous les deux ans, les enquêtes de ce type permettent de procéder à l’évaluation périodique des progrès réalisés dans le cadre du système de gestion de la sécurité et de la culture de sécurité.

LE CLIMAT ORGANISATIONNEL ET LA SÉCURITÉ

Nicole Dedobbeleer et François Béland

Nous vivons une époque de technologies nouvelles et de systèmes de production complexes où les fluctuations de l’économie mondiale, les exigences de la clientèle et les accords commerciaux affectent les relations sociales au sein des organisations (Moravec, 1994). Les entreprises sont confrontées à de nouveaux défis dans la création et le maintien d’un environnement de travail placé sous le signe de la sécurité et de la santé. Plusieurs auteurs considèrent que les efforts déployés par la direction et son engagement en faveur de la sécurité, ainsi que la qualité de l’encadrement, sont les éléments essentiels d’un programme de prévention (Mattila, Hyttinen et Rantanen, 1994; Dedobbeleer et Béland, 1989; Smith, 1989; Heinrich, Petersen et Roos, 1980; Simonds et Shafai-Sahrai, 1977; Komaki, 1986; Smith et coll., 1978).

D’après Hansen (1993a), l’engagement de la direction en faveur de la sécurité ne suffit pas s’il se contente d’être passif: seul un leadership actif et manifeste capable de créer un climat favorable à un niveau de performance élevé peut faire de l’entreprise un lieu où l’on travaille en toute sécurité. Rogers (1961) indique que «si l’administrateur, le chef militaire ou le chef d’entreprise crée un tel climat au sein de son organisation, le personnel sera plus réceptif, plus créatif, mieux à même de s’adapter aux nouveaux problèmes, plus foncièrement coopératif». Ainsi, le leadership qui s’exerce dans le domaine de la prévention est considéré comme favorisant un climat où l’on apprécie de travailler en sécurité.

Le concept même de climat de sécurité n’a pas fait l’objet de nombreuses études (Zohar, 1980; Brown et Holmes, 1986; Dedobbeleer et Béland, 1991; Oliver, Tomás et Meliá, 1993; Meliá, Tomás et Oliver, 1992). Le personnel d’une entreprise est confronté à des milliers d’événements, d’usages et de procédures qu’il perçoit sous forme d’ensembles connexes, de sorte que tout environnement de travail reflète de nombreux climats et que le climat de sécurité est perçu comme l’un d’eux. Le concept de climat étant complexe et comportant plusieurs niveaux, la recherche sur le climat organisationnel souffre de nombreuses difficultés, conceptuelles et de mesure. Il paraît donc indispensable d’examiner ces problèmes si l’on veut que le climat de sécurité reste un sujet pertinent de recherche et un outil de gestion digne d’intérêt.

Le climat de sécurité est considéré comme une notion significative ayant des implications considérables dès lors qu’il s’agit de comprendre les performances des salariés (Brown et Holmes, 1986) et de parvenir à la maîtrise des accidents (Mattila, Hyttinen et Rantanen, 1994). Si les dimensions du climat de sécurité peuvent être appréciées de manière précise, la direction pourra s’en inspirer pour identifier et évaluer les secteurs qui peuvent être à l’origine de difficultés. Par ailleurs, le recours à un score de climat de sécurité normalisé pourra permettre des comparaisons utiles entre branches d’activité, indépendamment des différences concernant les technologies et les risques. Un tel score peut donc servir de ligne directrice dans l’élaboration de la politique de sécurité d’une entreprise. Le présent article aborde le concept de climat de sécurité dans le contexte des études portant sur le climat organisationnel; il examine les rapports entre la politique de sécurité et le climat de sécurité et étudie les incidences de la notion de climat de sécurité sur le leadership pour l’élaboration et la mise en œuvre d’une politique de sécurité au sein d’une organisation industrielle.

Le concept de climat de sécurité dans le cadre de la recherche sur le climat organisationnel

La recherche sur le climat organisationnel

Le climat organisationnel est un concept très répandu depuis un certain temps. De nombreux articles lui ont été consacrés à partir du milieu des années soixante (Schneider, 1975a; Jones et James, 1979; Naylor, Pritchard et Ilgen, 1980; Schneider et Reichers, 1983; Glick, 1985; Koys et DeCotiis, 1991). Il existe plusieurs définitions de ce concept. L’expression climat organisationnel est utilisée assez librement pour désigner une large catégorie de variables organisationnelles et perceptives qui reflètent les interactions entre l’individu et l’organisation à laquelle il appartient (Glick, 1985; Field et Abelson, 1982; Jones et James, 1979). Selon Schneider (1975a), ce terme devrait désigner un domaine de recherche plutôt qu’un objet spécifique d’analyse ou un ensemble particulier de dimensions. En fait, le concept de climat organisationnel devrait être remplacé par celui de climat utilisé pour désigner un climat précis.

L’étude du climat au sein d’une organisation est malaisée, car il s’agit d’un phénomène complexe comportant plusieurs niveaux (Glick, 1985; Koys et DeCotiis, 1991). Des progrès ont cependant été accomplis dans la conceptualisation du construit de climat (Schneider et Reichers, 1983; Koys et DeCotiis 1991). La distinction entre climat psychologique et climat organisationnel proposée par James et Jones (1974) est désormais admise. La différenciation intervient en termes de niveau d’analyse. Le climat psychologique est étudié au niveau de l’individu, le climat organisationnel l’étant au niveau de l’organisation. Lorsqu’on le considère comme une caractéristique de l’individu, l’expression climat psychologique est préconisée; lorsqu’on le considère comme une caractéristique de l’organisation, il faut parler de climat organisationnel . Ces deux aspects du climat sont considérés comme des phénomènes pluridimensionnels qui décrivent la nature de la perception que les salariés ont de leur vécu au sein d’une structure de production.

Bien que la distinction entre climat psychologique et climat organisationnel soit généralement admise, elle n’a pas pour autant libéré la recherche sur le climat organisationnel de ses difficultés conceptuelles et méthodologiques (Glick, 1985). L’un des problèmes non résolus est celui de l’agrégation. Souvent, le climat organisationnel est défini comme la simple agrégation du climat psychologique à l’organisation (James, 1982; Joyce et Slocum, 1984). La véritable question est de savoir comment on peut regrouper les descriptions que les individus font de leur milieu de travail de manière à représenter une unité sociale élargie, à savoir l’organisation. Schneider et Reichers (1983) observent «qu’il faut se livrer à un travail conceptuel considérable avant de recueillir des données, afin que: a) les grappes d’événements étudiées fournissent un échantillon pertinent du domaine des questions; b) l’enquête soit relativement descriptive et focalisée et vise l’unité (individu, sous-système, ensemble de l’organisation) d’intérêt aux fins d’analyse». Glick (1985) ajoute que le climat organisationnel devrait être conceptualisé comme un phénomène organisationnel plutôt que comme la simple agrégation du climat psychologique. Il confirme également l’existence de multiples unités de théorie et d’analyse (individu, sous-unité, organisation). Le climat organisationnel implique une unité de théorie organisationnelle: il ne désigne pas le climat d’un individu, d’une équipe, d’une catégorie professionnelle, d’un service ou d’un poste. S’agissant du climat d’un individu ou du climat d’un groupe de travail, il faut utiliser d’autres étiquettes et d’autres unités de théorie et d’analyse.

La convergence des perceptions entre salariés d’une organisation a retenu l’attention de bien des chercheurs (Abbey et Dickson, 1983; James, 1982). Les petits écarts notés dans la perception du climat psychologique sont attribués à des erreurs aléatoires et à des facteurs de contenu. Etant donné que l’on demande aux salariés de s’exprimer sur le climat de l’organisation et non sur leur propre climat psychologique ou sur le climat de leur équipe, on considère que nombre de sources de distorsion et d’erreurs aléatoires au niveau de l’individu s’annulent mutuellement quand on agrège les mesures perceptives au niveau de l’organisation (Glick, 1985). Pour bien faire la distinction entre le climat psychologique et le climat organisationnel et évaluer les apports relatifs des processus organisationnels et psychologiques comme déterminants de ces climats, il paraît essentiel de se servir de modèles à niveaux multiples (Hox et Kreft, 1994; Rabash et Woodhouse, 1995). Ces modèles tiennent compte des niveaux psychologiques et organisationnels, mais sans avoir recours aux mesures moyennes de climats organisationnels généralement faites sur la base d’un échantillon représentatif d’individus rejoints dans un certain nombre d’organisations. Il est en effet établi (Manson, Wong et Entwisle, 1983) que l’agrégation, au niveau de l’organisation, de mesures faites à l’échelon des individus donne une estimation faussée des moyennes de climats organisationnels et des effets que les caractéristiques organisationnelles peuvent avoir sur les climats. La thèse selon laquelle les erreurs de mesure au niveau individuel s’annulent lorsqu’on en fait la moyenne sur l’ensemble de l’organisation est dénuée de fondement.

Le concept de climat soulève un autre problème rebelle lorsqu’on se propose de caractériser les dimensions du climat organisationnel ou psychologique. Jones et James (1979) et Schneider (1975a) ont proposé de recourir à des dimensions susceptibles d’influer sur les critères d’intérêt de l’étude ou d’y être associées. Schneider et Reichers (1983) ont prolongé cette idée en argumentant que les entreprises présentent des climats différents selon qu’il s’agit de la sécurité, du service à la clientèle (Schneider, Parkington et Buxton, 1980), des relations professionnelles au sein de l’entreprise (Bluen et Donald, 1991), de la production, de la protection des lieux de travail ou de la qualité. Même si le recours à des critères plus précis se traduit par une certaine concentration des choix relatifs aux dimensions de climat, celui-ci n’en demeure pas moins un terme générique assez large. Le degré de sophistication requis n’a pas encore été atteint pour pouvoir identifier les dimensions des pratiques et procédures pertinentes pour la compréhension des critères particuliers dans des collectivités données — groupes, positions, fonctions, par exemple — (Schneider, 1975a). Le besoin d’études axées sur des critères appropriés n’exclut cependant pas la possibilité qu’un ensemble de dimensions relativement restreint puisse quand même décrire des environnements multiples, alors qu’une dimension particulière peut être liée positivement à certains critères, non liée à d’autres et en corrélation négative avec un troisième ensemble.

Le concept de climat de sécurité

Ce concept s’est développé dans le cadre des définitions généralement admises du climat psychologique et du climat organisationnel. Actuellement, aucune définition spécifique donnant des orientations précises aux fins de mesures ou pour échafauder une théorie n’a été proposée. Les études qui ont cherché à mesurer ce concept sont rares; elles portent notamment sur un échantillon stratifié de 20 entreprises industrielles en Israël (Zohar, 1980), 10 entreprises manufacturières et agro-alimentaires du Wisconsin et de l’Illinois (Brown et Holmes, 1986), 9 chantiers de construction dans le Maryland (Dedobbeleer et Béland, 1991), 16 chantiers de construction en Finlande (Mattila, Hyttinen et Rantanen, 1994; Mattila, Rantanen et Hyttinen, 1994), ainsi que sur des travailleurs de Valence en Espagne (Oliver, Tomás et Meliá, 1993; Meliá, Tomás et Oliver, 1992).

Le climat a été considéré comme un résumé des perceptions saillantes que les travailleurs ont de leur milieu de travail. Les perceptions sont la description du vécu d’un individu au sein d’une organisation plutôt que sa réaction d’appréciation affective à ce vécu (Koys et DeCotiis, 1991). D’après Schneider et Reichers (1983) et Dieterly et Schneider (1974), les modèles de climat de sécurité partent de l’idée que ces perceptions sont indispensables comme cadre de référence pour évaluer l’adéquation des comportements. On pensait qu’à partir d’une variété de signaux présents dans leur environnement de travail les travailleurs développaient des ensembles cohérents de perceptions et d’attentes et se comportaient en conséquence (Frederiksen, Jensen et Beaton, 1972; Schneider, 1975a, 1975b).

Le tableau 59.1 illustre la diversité qui caractérise le type et le nombre de dimensions du climat de sécurité présentées dans les études de validation portant sur ce sujet. Dans la littérature générale consacrée au climat organisationnel, les auteurs ne s’accordent guère sur les dimensions de ce climat. En revanche, les chercheurs sont incités à utiliser des dimensions de climat susceptibles d’influer sur les critères d’intérêt de l’étude ou d’y être associées. Cette démarche a été adoptée avec succès dans les études sur le climat de sécurité. Zohar (1980) a retenu huit ensembles de questions descriptives des événements, pratiques et procédures organisationnels qui permettent de différencier les usines à taux élevés d’accidents de celles à faibles taux (Cohen, 1977). Brown et Holmes (1986), employant le questionnaire de Zohar à quarante questions, ont trouvé un modèle trifactoriel au lieu du modèle octofactoriel de Zohar. Pour mesurer le modèle trifactoriel de Brown et Holmes, Dedobbeleer et Béland se sont servis de neuf variables qu’ils ont choisies comme étant représentatives des préoccupations du secteur du bâtiment en matière de sécurité et qui n’étaient pas toutes identiques à celles figurant dans le questionnaire de Zohar. Un modèle bifactoriel a été trouvé. On est amené à se demander si les différences constatées entres les résultats de Brown et Holmes et ceux de Dedobbeleer et Béland sont imputables à l’utilisation d’une méthode statistique plus adéquate (méthode LISREL des moindres carrés pondérés avec coefficients de corrélation tétrachoriques). Oliver, Tomás et Meliá (1993) et Meliá, Tomás et Oliver (1992) ont repris le modèle de Dedobbeleer et Béland avec neuf variables analogues, mais non identiques, afin de mesurer les perceptions du climat de sécurité chez des travailleurs en état post- ou prétraumatique dans différents types de branches et sont parvenus à des résultats semblables.

Tableau 59.1 Mesures du climat de sécurité

Auteur(s)

Dimensions

Items

Zohar (1980)

Perception de l’importance de la formation à la sécurité
Perception des effets du rythme de travail imposé sur la sécurité
Perception du statut du comité de sécurité
Perception du statut du préposé à la sécurité
Perception des effets d’un comportement prudent sur la promotion
Perception du niveau de risques sur le lieu de travail
Perception des attitudes de la direction envers la sécurité
Perception de l’incidence d’un comportement prudent sur le statut social

40

Brown et Holmes (1986)

Perception par les salariés du degré de préoccupation pour leur bien-être manifesté par la direction
Perception par les salariés du degré d’activité manifesté par la direction pour répondre à cette préoccupation
Perception des risques physiques par les salariés

10

Dedobbeleer et Béland (1991)

Engagement et participation de la direction en matière de sécurité
Implication des travailleurs dans la sécurité

9

Meliá, Tomás et Oliver (1992)

Modèle bifactoriel de Dedobbeleer et Béland

9

Oliver, Tomás et Meliá (1993)

Modèle bifactoriel de Dedobbeleer et Béland

9

Plusieurs stratégies ont été mises en œuvre pour améliorer la validité des mesures du climat de sécurité. Il existe différents types de validité (de contenu, de convergence, de construit, etc.) et plusieurs modes d’évaluation de la validité d’un instrument. La validité de contenu est la représentativité d’échantillonnage du contenu d’un instrument de mesure (Nunnally, 1978). Dans la recherche sur le climat de sécurité, les questions sont celles dont des études antérieures ont montré qu’elles constituaient des mesures signifiantes de la sécurité du travail. D’autres juges «compétents» évaluent généralement le contenu de ces questions, puis l’on se sert d’une méthode appropriée pour regrouper ces jugements indépendants. On ne trouve pas trace de ce genre de procédure dans les articles consacrés au climat de sécurité.

La validité de construit exprime la mesure dans laquelle un instrument permet d’évaluer la construction théorique élaborée par le chercheur. Elle exige la démonstration que le construit existe, qu’il est distinct d’autres construits et que l’instrument considéré mesure ce construit particulier et aucun autre (Nunnally, 1978). Dans son étude, Zohar a suivi plusieurs suggestions d’amélioration de la validité. Il a pris des échantillons représentatifs d’usines et, dans chacune d’elles, un échantillon aléatoire stratifié de vingt travailleurs affectés à la production. Toutes les questions étaient axées sur le climat organisationnel de sécurité. Pour étudier la validité de construit de son instrument, il s’est servi de coefficients de corrélation de rang de Spearman afin de vérifier la concordance entre les scores de climat de sécurité des usines considérées et le classement de ces usines effectué, dans chaque catégorie de production, par des inspecteurs de sécurité en fonction des pratiques de sécurité et des programmes de prévention des accidents. On a calculé les corrélations entre le niveau du climat de sécurité et l’efficacité du programme de prévention telle qu’elle avait été jugée par ces inspecteurs. A l’aide d’analyses factorielles confirmatoires LISREL, Brown et Holmes (1986) ont vérifié la validité factorielle du modèle de Zohar sur un échantillon de travailleurs américains. Ils voulaient valider ce modèle par la répétition préconisée des structures factorielles (Rummel, 1970). Or, les données recueillies n’ont pas permis d’effectuer cette validation. Un modèle trifactoriel a donné une meilleure concordance. Les résultats ont également montré que les structures du climat demeuraient stables d’une population à l’autre. En effet, elles n’étaient guère différentes pour les travailleurs ayant eu des accidents et pour ceux qui n’en avaient pas eu, fournissant ainsi une mesure valide et fiable du climat au sein des groupes. Ensuite, on a comparé les groupes sur la base de leurs scores de climat et on a décelé des disparités dans la perception du climat. Le modèle ayant démontré sa faculté à distinguer les individus dont on sait qu’ils diffèrent, la validité de convergence se trouvait dès lors établie.

Pour vérifier la stabilité du modèle trifactoriel de Brown et Holmes (1986), Dedobbeleer et Béland (1991) ont appliqué deux méthodes LISREL (la méthode du maximum de vraisemblance choisie par Brown et Holmes et la méthode des moindres carrés pondérés) à des travailleurs de la construction. Les résultats ont révélé qu’un modèle bifactoriel donnait une concordance globalement meilleure. La validité de construit a elle aussi été vérifiée par l’étude du rapport entre une mesure perceptive du climat de sécurité et des mesures objectives (caractéristiques structurelles et opérationnelles des chantiers). On a pu mettre en évidence des corrélations positives entre ces deux mesures. Des témoignages ont été recueillis auprès de différentes sources (ouvriers et contremaîtres) et de diverses façons (questionnaire écrit et entretiens). Mattila, Rantanen et Hyttinen (1994) ont reproduit cette étude en montrant que l’on obtenait des résultats semblables à partir de la mesure objective de l’environnement de travail — reflétée par un indice de sécurité — et celles perceptives du climat de sécurité.

Oliver, Tomás et Meliá (1993) et Meliá, Tomás et Oliver (1992) ont procédé à une reproduction systématique de la structure bifactorielle de Dedobbeleer et Béland (1991) sur deux échantillons de travailleurs exerçant des métiers différents; le modèle bifactoriel a donné la meilleure concordance. Les structures de climat ne variant pas entre les ouvriers des chantiers de construction américains et ceux de diverses branches d’activité en Espagne, on a donc obtenu une mesure valide du climat pour différentes populations et différentes catégories professionnelles.

La fiabilité est une condition importante dans l’utilisation d’un instrument de mesure; il s’agit de la précision (cohérence et stabilité) des mesures fournies par cet instrument (Nunnally 1978). Zohar (1980) a évalué le climat de sécurité auprès d’échantillons d’organisations utilisant des technologies variées. La fiabilité de ses mesures perceptives agrégées du climat organisationnel a été déterminée par Glick (1985). Pour cela, il a calculé la fiabilité moyenne à l’aide de la formule de Spearman-Brown fondée sur la corrélation intraclasse (CIC) à partir d’une analyse simple de la variance, et a trouvé une CIC(1,k) de 0,981. Glick en a conclu que les mesures agrégées de Zohar étaient des mesures cohérentes du climat organisationnel de sécurité. Les analyses factorielles LISREL de confirmation effectuées par Brown et Holmes (1986), Dedobbeleer et Béland (1991), Oliver, Tomás et Meliá (1993) et Meliá, Tomás et Oliver (1992) ont établi, elles aussi, la fiabilité des mesures relatives au climat de sécurité. Dans l’étude de Brown et Holmes, les structures factorielles sont restées les mêmes pour les groupes à accidents et ceux sans accident. Oliver et coll. et Meliá et coll. ont démontré, de leur côté, la stabilité des structures factorielles de Dedobbeleer et Béland dans deux échantillons différents.

La politique de prévention et le climat de sécurité

Le concept de climat de sécurité a des implications importantes pour les entreprises industrielles. Il suppose que les travailleurs possèdent un ensemble unifié de connaissances concernant les divers aspects de la sécurité de leur milieu de travail. Ces connaissances étant considérées comme un cadre de référence nécessaire à l’évaluation de l’adéquation du comportement (Schneider, 1975a), elles influent directement sur les résultats obtenus par les travailleurs en matière de sécurité (Dedobbeleer, Béland et German, 1990). Il existe donc des implications appliquées et fondamentales de la notion de climat de sécurité dans les entreprises industrielles. La mesure du climat de sécurité constitue un outil commode que la direction peut utiliser à peu de frais pour identifier et évaluer les secteurs susceptibles de poser des problèmes. Les entreprises devraient en faire un élément de leur système d’information sur la sécurité, information qui pourrait servir de lignes directrices pour l’élaboration d’une politique de sécurité.

Dans la mesure où la perception que les travailleurs ont du climat de sécurité est fortement liée à l’attitude et à l’engagement de la direction vis-à-vis de la sécurité, on peut en conclure qu’un changement d’attitude et de comportement de la direction est indispensable si l’on veut améliorer le niveau de sécurité des entreprises industrielles. Une gestion de qualité constitue déjà, en soi, une politique de sécurité. Zohar (1980) est parvenu à la conclusion que la sécurité devait faire partie intégrante du système de production de telle manière qu’elle soit étroitement liée au contrôle des procédés de production exercé par la direction et les cadres. Ce point ressort bien de la littérature traitant de la politique de sécurité. L’engagement de la direction est jugé essentiel à l’amélioration de la sécurité (Minter, 1991). Les démarches classiques n’ont qu’une efficacité limitée (Sarkis, 1990); elles reposent en effet sur des éléments comme les comités de sécurité, les réunions de sécurité, les consignes de sécurité, les slogans, les campagnes d’affichage, les mesures d’incitation ou les concours de sécurité. D’après Hansen (1993b), ces approches confient la responsabilité de la sécurité à un coordonnateur détaché de sa mission opérationnelle et dont la tâche consiste presque exclusivement à contrôler les risques. Le principal écueil de ces démarches est qu’elles omettent d’intégrer la sécurité dans le système de production et permettent de ce fait assez mal de déceler et de résoudre les négligences et les carences de gestion qui sont des facteurs d’accidents (Hansen, 1993b; Cohen, 1977).

Contrairement aux travailleurs d’usine étudiés par Zohar et par Brown et Holmes, ceux des chantiers de construction ont perçu les attitudes et les actes de leur gestion en matière de sécurité comme une seule et unique dimension (Dedobbeleer et Béland, 1991), tout en reconnaissant que la prévention est une responsabilité conjointe des travailleurs, des cadres et de la direction. Ces résultats ont d’importantes implications pour l’élaboration des politiques de sécurité, car ils laissent entendre que le soutien de la direction et son engagement en faveur de la sécurité doivent être extrêmement explicites. Ils montrent aussi que les politiques de sécurité doivent aborder les préoccupations de la direction dans ce domaine aussi bien que celles des cadres et des travailleurs. Les réunions de sécurité telles que les «cercles culturels» de Freire (1988) peuvent constituer un très bon moyen d’impliquer les travailleurs dans l’inventaire et la résolution des problèmes de sécurité. On voit donc que, pour améliorer la sécurité au travail, les considérations de climat de sécurité sont étroitement liées à la mentalité participative, par opposition à la mentalité autoritaire qui a pu régner dans le secteur de la construction (Smith, 1993). Dans le contexte de l’accroissement des dépenses consenties en faveur de la santé et de la réparation des accidents du travail, on a vu se dégager en matière de prévention une démarche exempte d’antagonisme entre la direction et les travailleurs (Smith, 1993). Cette approche participative appelle dès lors une révolution dans la gestion de la sécurité, de même que l’abandon des programmes et des politiques de sécurité de type traditionnel.

Au Canada, Sass (1989) a évoqué la forte résistance opposée par les directions d’entreprises et les pouvoirs publics à l’extension des droits des travailleurs dans le domaine de la sécurité et de la santé au travail. Cette résistance repose sur des considérations d’ordre économique. Aussi Sass plaide-t-il en faveur «du développement d’une éthique du milieu de travail fondée sur des principes égalitaires, et de la transformation du groupe de travail primaire en une communauté de travailleurs capables de façonner les caractéristiques de leur milieu de travail». Il relève également que le «partenariat» — c’est-à-dire l’association de groupes de travail primaires en qualité d’égaux — est le type de rapport qu’il convient d’instaurer si l’on veut refléter un environnement de travail démocratique dans l’industrie. Au Québec, cette philosophie progressiste a été concrétisée par la mise en place de «commissions paritaires» (Gouvernement du Québec, 1978); la législation impose, aux entreprises de plus de dix salariés, la création d’une telle commission composée de représentants de l’employeur et des salariés. Cette commission a le pouvoir de décision sur les questions suivantes en matière de prévention: définition d’un programme de services de santé, choix du médecin de l’entreprise, examen des risques imminents et élaboration de programmes de formation et d’information. Elle est également chargée du monitorage préventif dans l’entreprise et doit répondre aux réclamations des salariés et de l’employeur, analyser et commenter les rapports d’accidents, tenir un registre des accidents, lésions, maladies et réclamations des salariés, étudier les statistiques et informer sur ses propres activités.

Le leadership et le climat de sécurité

Pour permettre à l’entreprise d’évoluer vers de nouveaux objectifs culturels, il faut que la direction ait la volonté de dépasser son propre «engagement» afin de parvenir à un leadership participatif (Hansen, 1993a). L’entreprise a donc besoin de chefs ayant une vision, dotés de la capacité de déléguer des pouvoirs et prêts à apporter les modifications souhaitables.

Ce sont les chefs qui créent le climat de sécurité par leurs actes. Il leur appartient dès lors de favoriser un climat où le fait de travailler en sécurité est apprécié, en invitant chaque travailleur à ne pas se borner à penser à son propre emploi, mais à se soucier de sa propre sécurité et de celle de ses collègues, et en cultivant et encourageant l’exercice du leadership en faveur de la sécurité (Lark, 1991). Pour parvenir à ce résultat, les dirigeants doivent faire preuve d’un ensemble de qualités: perspicacité, lucidité, motivation, capacité d’insuffler le sens du dévouement et de l’engagement au-delà de l’intérêt personnel, sang-froid, aptitude à susciter une «redéfinition des connaissances» en exprimant de nouvelles ambitions et en les faisant adopter, talent pour susciter l’engagement et la participation, et profondeur de vues (Schein, 1985). Pour pouvoir changer quoi que ce soit au sein d’une entreprise, ses dirigeants doivent avoir la volonté de «débloquer» (Lewin, 1951) la situation existante.

D’après Lark (1991), le leadership dans le domaine de la sécurité exige que la direction et les cadres supérieurs créent un climat collectif dans lequel la sécurité constitue une valeur et où les agents de maîtrise et les autres cadres assument consciencieusement et à tour de rôle la maîtrise des risques. La direction et les cadres supérieurs définissent une politique de sécurité par laquelle ils reconnaissent la valeur qu’ils attachent à chaque salarié et confirment leur engagement en faveur de la sécurité, établissent un lien entre la sécurité, l’existence même de l’entreprise et la réalisation de ses objectifs, précisent qu’ils attendent de chacun qu’il se sente responsable de la sécurité et prenne une part active au maintien de la sécurité et de la santé dans l’entreprise, désignent par écrit un délégué à la sécurité et lui confèrent le pouvoir d’appliquer la politique de l’entreprise en la matière.

Les agents de maîtrise attendent de leurs subordonnés qu’ils se comportent sans prendre de risques et qu’ils participent directement à la reconnaissance des problèmes et à leur résolution. Pour les travailleurs, l’exercice du leadership appliqué à la sécurité signifie qu’ils doivent signaler les défauts constatés, considérer les mesures correctives comme un défi à relever et participer à leur mise en œuvre.

Le leadership incite les gens à prendre des initiatives et leur donne les pouvoirs requis pour le faire. Au cœur de cette notion d’octroi de pouvoirs se trouve le concept de pouvoir, défini comme l’aptitude à maîtriser les éléments qui déterminent la vie de chacun. Toutefois, le nouveau mouvement de promotion de la santé tente de resituer le pouvoir, moins comme le «pouvoir sur» que comme le «pouvoir de» ou le «pouvoir pour» (Robertson et Minkler, 1994).

Conclusion

La recherche sur le climat de sécurité n’aborde que quelques-uns des problèmes conceptuels et méthodologiques auxquels sont confrontés les spécialistes du climat organisationnel. Si, pour l’heure, aucune définition spécifique de la notion de climat de sécurité n’a encore été fournie, certains résultats de recherche sont cependant très encourageants. La plupart des études visent à la validation d’un modèle de climat de sécurité. La définition des dimensions de ce climat a fait l’objet d’une certaine attention; les dimensions préconisées par les études traitant des caractéristiques dont on a constaté qu’elles distinguaient les entreprises à taux élevé d’accidents de celles à faible taux ont servi de point de départ utile pour la définition de ces dimensions. Des modèles octofactoriels, trifactoriels et bifactoriels ont été proposés. Le rasoir d’Occam imposant une certaine parcimonie, la limitation du nombre de ces dimensions semble pertinente; de ce fait, le modèle bifactoriel est le mieux adapté, notamment lorsque le contexte de travail impose l’utilisation de questionnaires courts. Les résultats fournis par l’analyse factorielle pour les échelles fondées sur deux dimensions sont tout à fait satisfaisants. Par ailleurs, une mesure valide du climat s’obtient pour différentes populations et plusieurs professions. Toutefois, si l’on veut que les règles de répétition et de généralisation de la vérification de la théorie soient satisfaites, il faudra entreprendre de nouvelles études. La gageure consiste à définir un univers de dimensions de climat possibles qui ait un véritable sens sur le plan de la théorie et qui soit pratique sur le plan de l’analyse. Les recherches ultérieures devraient également être axées sur des unités organisationnelles d’analyse, avec une évaluation et une amélioration de la validité et de la fiabilité du climat organisationnel dans ses rapports avec la sécurité. Plusieurs études sont en cours dans différents pays, et l’avenir semble prometteur.

Dans la mesure où le concept de climat de sécurité a d’importantes implications pour la politique de prévention, il est capital de pouvoir résoudre les problèmes conceptuels et méthodologiques qui se posent. A l’évidence, ce concept appelle une révolution dans la gestion de la sécurité. Un changement d’attitude et de comportement au niveau de la direction et des cadres devient une condition inéluctable si l’on veut obtenir des résultats en matière de sécurité. Il faut qu’un «leadership participatif» se dégage de la période actuelle où restructurations et licenciements sont un signe des temps. La notion de leadership pose des défis et confère des pouvoirs. Dans ce processus d’octroi de pouvoirs, employeurs et salariés vont développer leur aptitude à collaborer de manière participative. Ils vont aussi améliorer leurs facultés d’écoute et d’expression, d’analyse des problèmes et de création de consensus. Un sens de la collectivité, mais aussi de l’efficacité personnelle doit se manifester. Employeurs et travailleurs seront alors en mesure de progresser en exploitant ces nouvelles connaissances et leurs compétences.

LE PROCESSUS PARTICIPATIF D’AMÉLIORATION DU LIEU DE TRAVAIL

Jorma Saari

La modification du comportement: une technique de gestion de la sécurité

La gestion de la sécurité comprend deux tâches principales. D’une part, il incombe aux organes de sécurité de maintenir à leur niveau actuel les résultats obtenus par l’entreprise en matière de sécurité et, d’autre part, d’appliquer des mesures et des programmes permettant d’élever ce niveau. Il s’agit là de tâches différentes qui exigent des stratégies elles aussi différentes. Cet article décrit, pour le deuxième objectif, une méthode que de nombreuses entreprises ont appliquée avec succès et qui consiste à modifier le comportement; cette technique d’amélioration de la sécurité a trouvé plusieurs applications dans le commerce et l’industrie. Deux expériences portant sur les premières applications scientifiques de la modification du comportement et réalisées de manière indépendante ont été relatées par des Américains en 1978. Elles se situent dans des milieux radicalement différents, puisque Komaki, Barwick et Scott (1978) ont étudié une boulangerie, tandis que Sulzer-Azaroff (1978) a conduit ses expériences dans les laboratoires d’une université.

Le comportement et ses conséquences

La méthode consistant à modifier un comportement met l’accent sur les conséquences de ce comportement. Lorsque des travailleurs sont amenés à opérer un choix entre plusieurs comportements, ils optent pour celui dont ils escomptent le meilleur résultat. Avant d’agir, le travailleur prend en considération un ensemble d’attitudes, d’aptitudes, de matériels et de conditions locales qui influent sur le choix de son action. Mais, ce sont surtout les conséquences prévisibles de cette action qui vont lui dicter son comportement. D’après les théoriciens, c’est parce que les conséquences ont un effet sur les attitudes et les aptitudes, entre autres choses, qu’elles jouent un rôle prépondérant dans le déclenchement d’un changement de comportement (voir figure 59.3).

Figure 59.3 La modification des comportements: une technique de gestion de
la sécurité

Figure 59.3

Le problème, dans le domaine de la sécurité, c’est que de nombreux comportements dangereux amènent le travailleur à opter pour des conséquences positives (c’est-à-dire apparemment gratifiantes pour lui) plutôt que pour un comportement sûr. Une méthode de travail dangereuse peut sembler plus gratifiante si elle est plus rapide, voire plus facile, et attire les félicitations du supérieur. Etant donné que chaque comportement dangereux n’entraîne pas forcément des conséquences négatives (un accident, par exemple) — car il faut la conjonction d’autres facteurs défavorables pour qu’un accident se produise —, les conséquences positives dépassent largement les conséquences négatives, tant en nombre qu’en fréquence.

A titre d’exemple, au cours d’un atelier, les participants ont analysé des vidéocassettes montrant différents postes d’une usine. Ces participants (ingénieurs et opérateurs de machines appartenant à l’usine) ont remarqué, entre autres choses, qu’une machine était en service avec son protecteur ouvert. «On ne peut pas le laisser fermé», a déclaré l’un des opérateurs. «Si la marche automatique s’arrête, j’appuie sur l’interrupteur de fin de course et j’oblige la dernière pièce à sortir de la machine», a-t-il poursuivi, «sinon il faut que j’extraie la pièce non finie et que je la porte sur plusieurs mètres pour la poser sur le transporteur. Cette pièce est lourde; il est donc plus facile et plus rapide d’utiliser l’interrupteur de fin de course».

Ce petit incident illustre parfaitement la manière dont les conséquences escomptées d’un choix affectent nos décisions. L’opérateur veut travailler rapidement et éviter de soulever une pièce lourde et difficile à manipuler; pour des questions de commodité, il rejette donc la méthode la plus sûre. Le même mécanisme peut s’appliquer à tous les niveaux d’une organisation. Ainsi, le directeur d’une usine tient à maximiser le bénéfice d’exploitation et à être récompensé pour ses bons résultats financiers. Si la direction générale se désintéresse de la sécurité, ce directeur aura tendance à privilégier les investissements les plus rentables, c’est-à-dire ceux destinés à optimiser la production plutôt que ceux qui améliorent la sécurité.

Les conséquences positives et négatives

Les pouvoirs publics imposent des règles aux décideurs économiques par voie législative et ils font appliquer la loi en l’assortissant de sanctions. Le mécanisme est direct: le décideur qui commet une infraction peut s’attendre à des conséquences négatives. La différence entre la démarche législative et celle dont il est question dans le présent article réside dans la nature des conséquences. L’application de la loi entraîne des conséquences négatives en cas d’infraction, tandis que les techniques de modification du comportement avalisent les comportements sûrs par des conséquences positives. Les conséquences négatives ont leurs inconvénients, même si elles sont efficaces. Dans le domaine de la sécurité, l’utilisation de conséquences négatives est courante: elle va des sanctions imposées par l’autorité aux réprimandes du supérieur hiérarchique. Les gens essaient d’éviter les sanctions; ce faisant, ils n’hésitent pas à associer la sécurité aux sanctions, comme quelque chose de moins souhaitable.

Les conséquences positives qui renforcent un comportement sûr sont préférables, car elles associent des sentiments positifs à la sécurité. A supposer qu’un opérateur puisse attendre des conséquences plus positives s’il utilise des méthodes de travail sûres, il va s’y conformer. Si un directeur d’usine est apprécié et reçoit une gratification en raison des résultats obtenus dans la lutte contre les accidents, il sera porté à accorder un poids plus grand à la sécurité dans ses décisions.

La palette des conséquences positives possibles est vaste; celles-ci vont de la considération sociale à toute une série de privilèges et d’avantages. Certaines de ces conséquences sont faciles à rattacher au comportement, tandis que d’autres exigent des démarches administratives qui peuvent être très lourdes. Fort heureusement, la simple chance d’être récompensé peut conduire à l’amélioration d’une performance.

D’un comportement dangereux à un comportement sûr

Ce qui est particulièrement intéressant dans les premiers travaux de Komaki, Barwick et Scott (1978) et de Sulzer-Azaroff (1978), c’est l’utilisation d’informations relatives aux résultats envisagés en tant que conséquences. Au lieu de considérer les conséquences sociales ou des récompenses tangibles qui peuvent se révéler difficiles à gérer, ces chercheurs ont mis au point une méthode permettant de mesurer les résultats obtenus par un groupe de travailleurs dans la prévention des accidents et ont utilisé un indice de résultats comme conséquence. Cet indice avait été défini de manière à ne comporter qu’un seul chiffre compris entre 0 et 100. Grâce à son expression simple, il transmettait aux intéressés une image claire des résultats du moment. A l’origine, cette méthode avait pour seul but d’amener les travailleurs à modifier leur comportement et ne visait pas d’autres aspects de l’amélioration du milieu de travail, tels que le recours à des mesures de prévention technique ou à de nouvelles méthodes de travail. Le programme a été mis en œuvre par des chercheurs sans la participation active des travailleurs.

Ceux qui recourent à la méthode de modification du comportement partent de l’hypothèse qu’un comportement dangereux est l’un des principaux facteurs de causalité des accidents, et un facteur qui peut évoluer isolément, sans répercussions ultérieures. Par conséquent, le point de départ naturel d’un programme visant à modifier le comportement consiste à étudier les accidents afin de mettre en lumière les comportements dangereux (Sulzer-Azaroff et Fellner, 1984). La figure 59.4 illustre une application typique de la méthode en plusieurs étapes. D’après ses auteurs, les actes sûrs doivent être indiqués avec une grande précision. La première étape consiste à définir les actes accomplis de manière correcte dans un secteur donné (département, unité, etc.). Ainsi, le port de lunettes de protection à certains postes est un acte sûr. En général, on définit un petit nombre d’actes sûrs — dix, par exemple.

Figure 59.4 La modification des comportements pour la sécurité en sept étapes

Figure 59.4

Voici quelques autres exemples types de comportements sûrs:

  1. Arrimer solidement l’échelle sur laquelle on travaille.
  2. Ne pas se pencher par-dessus le garde-corps d’une passerelle.
  3. Couper le courant lors des interventions sur des installations électriques.
  4. Porter les équipements de protection requis.
  5. Lorsqu’on conduit un chariot élévateur sur une rampe, amener la fourche en position correcte (Krause, Hidley et Hodson, 1990; McSween, 1995).

Si un nombre suffisant de personnes — entre 5 et 30, en règle générale — travaillent dans un secteur donné, on peut dresser une liste de contrôle à partir des comportements dangereux observés. Le principe consiste à choisir, pour cette liste, des objets (comportements) qui n’ont que deux valeurs possibles: correct ou incorrect. Si le port de lunettes de protection, par exemple, constitue un comportement correct en la circonstance, il convient d’observer chaque personne séparément et de voir si elle porte des lunettes de protection ou non. Les observations recueillies fourniront ainsi des données objectives et précises sur la fréquence des comportements sûrs. La liste de contrôle sera complétée par l’inclusion des autres éléments pertinents. Si une liste comporte, par exemple, cent objets, il est facile de calculer l’indice de performance à partir du pourcentage des objets cochés «correct», une fois l’observation achevée. En général, cet indice varie dans le temps.

Lorsque la technique de mesure est au point, on définit un niveau de référence, puis on procède à des observations hebdomadaires (pendant plusieurs semaines), à des heures aléatoires. Après un nombre suffisant de séances d’observation, on obtient une image satisfaisante des écarts de part et d’autre du niveau de référence. Celui-ci doit être fixé à 50 ou 60% si l’on veut avoir un bon point de départ pour noter les améliorations escomptées et faire également ressortir les performances antérieures. Cette technique a fourni la preuve de son efficacité dans la modification du comportement sous l’angle de la sécurité. Dans leur étude, Sulzer-Azaroff, Harris et McCann (1994) recensent 44 travaux publiés qui concluent à l’efficacité de la méthode. Cooper et coll. (1994) relèvent par ailleurs que cette technique peut être utilisée dans presque tous les cas.

L’application pratique de la théorie comportementale

Etant donné que la méthode de modification du comportement présente quelques inconvénients, nous avons mis au point une autre technique qui vise à remédier à certaines lacunes. Ce nouveau programme a été baptisé Tuttava , qui est l’acronyme en finnois des mots production en toute sécurité . Les principales différences sont mentionnées au tableau 59.2.

Tableau 59.2 Différences entre le programme Tuttava et d'autres programmes ou méthodes

Aspect

Modification du comportement en matière de sécurité

Processus participatif d’amélioration du milieu de travail, Tuttava

Base

Accidents, incidents, perception des risques

Analyse du travail, flux de production

Axe

L’être humain et son comportement

Conditions

Application

Spécialistes, consultants

Equipe paritaire travailleurs/cadres et direction

Effet

Temporaire

Durable

Objectif

Changement de comportement

Mutation fondamentale et culturelle

Dans les programmes de sécurité comportementale, la théorie sous-jacente est fort simple: elle part du principe qu’il existe une ligne de démarcation nette entre ce qui est sûr et ce qui est dangereux . Ainsi, le port de lunettes de protection représente un comportement sûr, même si les verres sont de mauvaise qualité optique ou si le champ de vision est rétréci. Or, d’une façon plus générale, cette dichotomie entre sûr et dangereux peut constituer une simplification périlleuse.

Lors d’une visite d’usine, l’hôtesse d’accueil me prie de retirer ma bague. Elle a, ce faisant, accompli un acte sûr, et j’ai fait de même en me conformant à sa demande. Mais, comme ce bijou revêt une grande valeur affective à mes yeux, j’ai été préoccupé pendant toute la visite par l’idée de le perdre. Ce souci a détourné une partie de mon énergie perceptive et mentale de l’observation du milieu environnant et, pour cette raison, mon risque d’être heurté par un chariot, par exemple, était plus grand que d’habitude.

Cette «défense de porter des bagues» trouve sans doute son origine dans des accidents antérieurs mais, tout comme le port de lunettes de protection, il n’est pas évident qu’elle soit un gage de sécurité absolue. Les enquêtes sur les accidents et les personnes qui y prennent part représentent la source la plus naturelle pour l’identification des actes dangereux. Mais cette information peut être trompeuse, car un enquêteur pourra ne pas véritablement comprendre comment un acte précis a pu contribuer à un accident. Par conséquent, un acte qualifié de «dangereux» peut ne pas être dangereux en règle générale. Pour cette raison, Saari et Näsänen (1989) ont défini les cibles comportementales du point de vue de l’analyse du travail; l’accent est mis sur l’outillage et les matériaux, car ceux qui les utilisent quotidiennement sont plus enclins à parler d’objets qui leur sont familiers.

L’observation des individus par des méthodes directes conduit facilement à des reproches qui créent des tensions et un antagonisme entre la direction et les travailleurs, ce qui n’est guère propice à une amélioration suivie de la sécurité. Il est donc préférable de s’attacher à l’aménagement des conditions matérielles plutôt que d’essayer d’agir directement sur le comportement. Le fait de se concentrer sur des comportements liés à l’utilisation de matériaux et d’outils rend extrêmement visible le moindre changement. Un acte donné peut très bien ne durer qu’une seconde, mais il faut qu’il laisse une trace visible. Ainsi, le fait de remettre un outil à sa place ne prend que très peu de temps, mais comme l’outil reste visible et observable, il est inutile d’observer le comportement lui-même.

Tout changement positif visible apporte deux avantages: d’une part, il devient évident aux yeux de chacun que des améliorations ont eu lieu; d’autre part, les gens apprennent à leur niveau de performance en se référant directement à leur environnement, sans avoir besoin d’attendre les conclusions des séances d’observation. De cette manière, les améliorations commencent à agir comme des conséquences positives d’un comportement correct, et le recours à un indice artificiel de résultats devient dès lors inutile.

Les principaux acteurs de la méthode qui vient d’être exposée sont les chercheurs et les consultants extérieurs. Les travailleurs n’ont pas besoin de réfléchir à leurs tâches: il suffit qu’ils modifient leur comportement; en revanche, si l’on veut obtenir des résultats plus tangibles et plus durables, il serait bon de les impliquer dans le processus. Il est donc conseillé d’intégrer dans le programme à la fois des travailleurs et des cadres, pour que l’équipe chargée de l’application de la méthode comprenne des représentants des deux camps. Il serait utile également de pouvoir disposer d’une méthode qui donne des résultats durables sans nécessiter des mesures continues. Malheureusement, le programme normal de modification du comportement n’entraîne pas de changements très visibles, et bien des comportements critiques ne durent qu’une seconde, voire une fraction de seconde.

La méthode exposée présente effectivement les inconvénients décrits. En principe, le retour au niveau de référence devrait intervenir à la fin des séances d’observation. Néanmoins, il se peut, en définitive, que les moyens à investir dans la mise au point du programme et la réalisation des séances d’observation soient trop importants, compte tenu du caractère temporaire des changements réalisés.

L’observation de l’outillage et des matériaux ouvre une sorte de fenêtre sur la qualité opérationnelle d’une entreprise. Si un poste de travail est encombré par un nombre excessif de pièces ou de composants, cela peut dénoter des problèmes dans les modalités d’achat de l’entreprise ou les pratiques des fournisseurs. La présence physique d’un nombre excessif de pièces offre un moyen concret de lancer un débat sur les fonctions de l’entreprise. Peu habitués aux discussions abstraites concernant l’organisation industrielle, les travailleurs peuvent alors participer et joindre leurs observations à l’analyse. Souvent, une remarque portant sur l’outillage ou les matériaux permet d’évoquer des éléments sous-jacents, mais apparents, qui constituent des facteurs de risques. Par nature, ces éléments relèvent généralement de l’organisation et des méthodes et sont donc difficiles à aborder en l’absence d’indications concrètes et sérieuses.

Des dysfonctionnements relevant de l’organisation du travail peuvent également être à l’origine de problèmes de sécurité. Ainsi, lors d’une visite d’usine, on a remarqué que des travailleurs soulevaient des produits finis à la main pour les déposer provisoirement sur des palettes. En fait, le calendrier des achats de l’usine et le programme des livraisons du fournisseur n’étaient pas coordonnés, et les étiquettes des produits n’étaient pas disponibles en temps utile. Il fallait donc mettre les produits de côté, pendant des jours, sur des palettes qui obstruaient une allée. A l’arrivée des étiquettes, les produits étaient repris, toujours à la main, pour être déposés sur la chaîne. Toutes ces opérations représentaient un travail supplémentaire pénible qui ne faisait qu’accroître le risque de lésions dorsales ou autres.

Les quatre conditions du succès d’un programme de prévention

Il faut, pour réussir, avoir une bonne compréhension des aspects théoriques et pratiques du problème rencontré et des mécanismes sous-jacents. Cette compréhension est indispensable à la fixation des objectifs. Il faut ensuite faire connaître ces objectifs, mobiliser les moyens techniques et organisationnels voulus et, enfin, motiver les exécutants (voir figure 59.5). Ce schéma s’applique à n’importe quel programme destiné à apporter des changements.

Figure 59.5 Les quatres étapes d'un programme de sécurité performant

Figure 59.5

Une campagne de sécurité peut être un bon moyen de fournir des informations sur un objectif, mais elle n’aura d’effet sur le comportement des acteurs visés que si d’autres conditions sont satisfaites. Ainsi, l’obligation de porter un casque restera sans effet sur la personne qui ne possède pas de casque, ou si le port du casque est extrêmement inconfortable, par exemple à cause de la rigueur du climat. Une campagne de sécurité peut aussi viser à accroître la motivation, mais elle est vouée à l’échec si elle se contente de délivrer un message abstrait du genre «sécurité d’abord», sauf si les destinataires ont les aptitudes voulues pour traduire un tel message en comportements spécifiques. Le directeur d’usine auquel on demande de diminuer le nombre d’accidents de moitié se trouve dans une situation analogue s’il ignore tout des mécanismes de la prévention.

Il faut donc que les quatre exigences illustrées à la figure 59.5 soient satisfaites. En voici un exemple. Dans le cadre d’une expérience, les travailleurs devaient se servir d’écrans amovibles pour empêcher que l’éclat des arcs de soudage ne gêne leurs collègues des postes voisins. Or, l’expérience a échoué faute d’avoir pris les mesures d’exécution nécessaires. Qui devait mettre l’écran en place, le soudeur ou son voisin exposé à la lumière de l’arc? Etant donné que tous deux travaillaient aux pièces et ne voulaient pas perdre de temps, il aurait fallu passer un accord sur la rémunération avant de commencer l’expérience. Un programme de sécurité ne saurait réussir pleinement que s’il satisfait simultanément à ces quatre conditions.

Le programme Tuttava

Le programme Tuttava (voir figure 59.6) s’étend sur quatre à six mois et couvre une zone de travail comprenant de 5 à 30 personnes. Il est mis en œuvre par une équipe composée des représentants de la direction, des cadres, des agents de maîtrise et des travailleurs.

Figure 59.6 Le programme Tuttava: quatre stades et huit étapes

Figure 59.6

La fixation des objectifs

La première étape consiste à dresser la liste des objectifs précis recherchés (une dizaine environ), exprimés sous forme de bonnes pratiques de travail (voir tableau 59.3). Ces objectifs doivent être: 1) positifs et de nature à faciliter le travail; 2) généralement acceptables; 3) simples et énoncés de manière concise; 4) exprimés par des mots dont le premier soit un verbe d’action afin de souligner les choses importantes à exécuter; 5) faciles à reconnaître et à mesurer.

Tableau 59.3 Exemple de quelques bonnes pratiques de travail

  • Garder les passerelles et les allées dégagées.
  • Ranger les outils au bon endroit après utilisation.
  • Employer, pour les produits chimiques, des récipients et des méthodes d’élimination des déchets qui soient adaptés.
  • Remettre tous les manuels à leur place après usage.
  • Vérifier l’étalonnage correct des appareils de mesure.
  • Remettre les chariots et les palettes à leur place après utilisation.
  • Prendre uniquement la quantité de pièces (boulons, écrous, etc.) nécessaire et remettre à leur place les pièces non utilisées.
  • Retirer des poches tous les objets qui risquent d’en tomber inopinément.

Les mots-clés pour préciser les objectifs sont outils et matières . En général, les objectifs désignent des buts tels que ranger correctement les outils, garder les allées dégagées, réparer immédiatement les fuites et les dysfonctionnements, libérer l’accès aux extincteurs, aux issues de secours, aux tableaux de distribution de courant, aux interrupteurs de sécurité, etc. Le tableau 59.4 énumère, à titre d’exemple, les objectifs d’une fabrique d’encres d’imprimerie.

Tableau 59.4 Objectifs de performance dans une fabrique d'encres d'imprimerie

  • Maintenir les allées et passages dégagés.
  • Garder les poubelles couvertes chaque fois que la chose est possible.
  • Refermer les flacons après usage.
  • Nettoyer et ranger les outils après usage.
  • Mettre les récipients à la terre lors du transport de substances inflammables.
  • Porter les équipements de protection individuelle requis.
  • Utiliser les systèmes d’aspiration localisée.
  • Ne stocker dans les zones de travail que les matières destinées à un usage immédiat.
  • Dans l’atelier de fabrication des encres pour flexographie, n’utiliser que le chariot élévateur à fourche ad hoc.
  • Etiqueter tous les récipients.

Ces objectifs peuvent se comparer aux comportements sûrs définis dans les programmes de modification du comportement, à la différence toutefois que les comportements Tuttava laissent des traces visibles. Ainsi, pour voir si une bouteille a été refermée après usage — ce qui prend moins d’une minute — il est inutile d’observer les gens: il suffit de regarder les bouteilles qui ne sont pas en cours d’utilisation. Cette remarque est importante, car elle évite de montrer quelqu’un du doigt et de faire des reproches.

Les objectifs définissent les changements de comportement que les observateurs attendent des travailleurs; en ce sens, ils sont comparables à ceux du programme de modification du comportement. Cependant, la plupart des objectifs désignent non seulement des comportements de travailleurs, mais des choses qui ont un sens beaucoup plus large. A titre d’exemple, un objectif peut consister à ne stocker dans la zone de travail que les matières dont on a un besoin immédiat. Pour ce faire, il faut analyser le processus de fabrication et bien le comprendre, ce qui peut révéler des problèmes sur le plan technique et organisationnel. C’est ainsi que, parfois, les matériaux ne sont pas convenablement stockés pour une utilisation quotidienne; il arrive aussi que les systèmes de livraison fonctionnent si lentement ou soient si vulnérables aux perturbations que le personnel en entasse trop dans la zone de travail.

La liste de contrôle

Une fois les objectifs suffisamment bien définis, l’équipe d’observateurs établit une liste de contrôle permettant de mesurer le degré de réalisation des objectifs. Une centaine de points de mesure sont choisis dans la zone étudiée. Dans la fabrique d’encres d’imprimerie mentionnée plus haut, il y avait 126 points de mesure. En chacun de ces points, l’équipe observe un certain nombre de situations ou d’objets spécifiques; si c’est une poubelle, par exemple, on se demandera si elle n’est pas trop pleine, si les détritus qu’elle contient sont bien ceux qui lui sont destinés et si son couvercle est bien en place. La réponse ne peut être que «correct» ou «incorrect». Ce mode d’observation dichotomique rend le système de mesure objectif et fiable et permet, lorsque l’exercice est terminé, de calculer un indice de performance compris entre 0 et 100 qui exprime simplement le pourcentage de situations ou d’objets jugés «correct»; en fait, il traduit directement le degré de satisfaction des différents objectifs. Après avoir élaboré un premier projet de liste de contrôle, l’équipe d’observateurs procède à un test. Si le résultat est de l’ordre de 50 à 60% et si chaque membre a obtenu à peu près le même résultat, l’équipe peut passer à l’étape suivante du programme Tuttava. Si, par contre, le résultat de ce test est trop faible — 20% par exemple —, l’équipe devra revoir la liste des objectifs, car le programme doit être positif dans chacun de ses aspects. En effet, un niveau de référence trop bas ne permettrait pas d’évaluer convenablement les performances antérieures et reviendrait à condamner une performance médiocre. Une bonne valeur de référence se situe aux alentours de 50%.

Les améliorations d’ordre technique, organisationnel et méthodologique

Une étape très importante du programme Tuttava consiste à prendre les mesures propres à assurer la réalisation des objectifs de performance. Ainsi, la présence de détritus sur le sol peut s’expliquer par le simple fait qu’il y a pénurie de poubelles. De même, il peut y avoir trop de matériaux ou de pièces sur place parce que le système d’approvisionnement fonctionne mal; il faut donc l’améliorer avant d’exiger des travailleurs qu’ils changent de comportement. Lorsqu’elle examine la faisabilité des objectifs fixés, l’équipe d’observateurs note généralement de nombreuses possibilités d’améliorations d’ordre technique, organisationnel ou méthodologique. A ce stade, les travailleurs peuvent apporter le fruit de leur expérience pratique.

En effet, un travailleur passe toute la journée à son poste et connaît beaucoup mieux le travail qu’il exécute que la direction. En examinant la manière d’atteindre un objectif, il a l’occasion de faire part de ses idées à sa hiérarchie. Par la suite, à mesure que les améliorations prennent corps, il deviendra beaucoup plus réceptif aux demandes qu’on lui adressera. D’ordinaire, cette étape donne lieu à des mesures correctives faciles à gérer. En voici un exemple. Des produits ont été retirés d’une chaîne de fabrication afin de procéder à des réglages; certains de ces produits étaient satisfaisants, d’autres non. Les travailleurs ont demandé que l’on crée des zones distinctes pour recevoir les bons et les mauvais produits, de façon à séparer ceux qu’il faudra remettre sur la chaîne et ceux qui sont à envoyer au recyclage. Cette étape peut également révéler la nécessité de modifications techniques, telles qu’un nouveau système de ventilation dans la zone de stockage des produits de mauvaise qualité. Il peut arriver que ces modifications soient très nombreuses. Ainsi, plus de 300 améliorations techniques ont été apportées dans une usine pétrochimique qui n’emploie pourtant que 60 travailleurs. Il importe évidemment de bien gérer la mise en œuvre des améliorations afin d’éviter des frustrations et des surcharges au sein des services concernés.

Le niveau de référence

Les observations relatives au niveau de référence débutent lorsque la réalisation des objectifs de performance est à peu près assurée et la liste de contrôle suffisamment fiable. Certaines améliorations prennent du temps et il faut parfois revoir les objectifs. Pendant plusieurs semaines, l’équipe d’observateurs procède à des séances hebdomadaires, afin de déterminer le critère prédominant. Cette étape est importante, car elle permet de comparer les résultats ultérieurs aux résultats initiaux. En effet, les gens oublient très vite comment se présentaient les choses quelques mois auparavant. Pour renforcer la dynamique du processus d’amélioration, il faut avoir l’impression de progresser.

Le retour d’information

Au cours de l’étape suivante, l’équipe se consacre à la formation du personnel du secteur considéré. On organise généralement un séminaire d’une heure au cours duquel on communique pour la première fois les résultats des observations relatives au niveau de référence. L’étape du retour d’information commence dès la fin du séminaire et les séances d’observation se poursuivent à un rythme hebdomadaire; dès cet instant, toutefois, les résultats sont immédiatement communiqués à l’ensemble des intéressés par l’affichage de l’indice calculé sur un tableau placé en un point bien visible. Les reproches, critiques et autres commentaires négatifs sont strictement interdits. Même si l’équipe d’observateurs repère des individus qui ne se comportent pas comme l’exigent les objectifs, elle a pour consigne de garder cette information par-devers elle. Parfois, tous les travailleurs sont intégrés d’emblée dans le processus si leur nombre n’est pas trop élevé; il est préférable d’adopter cette solution plutôt que d’avoir recours à des équipes de mise en œuvre comprenant des représentants des divers échelons, mais cela n’est pas possible partout.

Les effets sur la performance

Le changement intervient dans les deux ou trois semaines qui suivent le début du retour d’information (voir figure 59.7). L’ordre règne visiblement sur les lieux de travail. En général, l’indice de performance passe au début de 50 à 60%, et même à 80 ou 90% par la suite. Ce pourcentage peut paraître modique en termes absolus, mais représente une amélioration importante aux yeux des travailleurs.

Figure 59.7 Résultats d'un atelier de chantier naval

Figure 59.7

Etant donné que les objectifs ne concernent pas seulement — et c’est à dessein — des questions de sécurité, les avantages de la méthode vont d’une sécurité et d’une productivité accrues à des économies de matériaux et de surface au sol, en passant par une amélioration de l’aspect des lieux. Pour que l’exercice intéresse chacun, certains objectifs associent la sécurité à d’autres éléments tels que la productivité et la qualité. Cette façon de procéder rend la sécurité plus attrayante aux yeux de la direction, dès lors davantage disposée à débloquer des fonds pour des améliorations de la sécurité jugées moins importantes.

Des résultats durables

Lors de la création du programme, douze expériences ont été menées pour en vérifier les éléments constitutifs, puis un suivi a été réalisé pendant deux ans grâce à des observations sur un chantier naval. Au cours de ces deux années, le nouveau niveau de performance a été parfaitement respecté. C’est ce qui distingue cette méthode de celle qui vise la modification du comportement; en effet, les changements manifestes intervenus au niveau des matériaux, de l’outillage, etc., de même que les améliorations techniques réalisées, font que les progrès enregistrés resteront acquis. Au bout de trois ans, on a évalué l’incidence des améliorations constatées sur le taux d’accidents du chantier. Le résultat était spectaculaire: le nombre des accidents avait chuté de 70 à 80%, ce qui était très supérieur à la baisse prévisible par la méthode de modification du comportement. Par ailleurs, le nombre des accidents sans le moindre lien avec les objectifs de performance avait diminué lui aussi.

Le principal impact sur les accidents n’est pas dû aux changements directement apportés par le programme Tuttava; il s’agit plutôt d’un point de départ pour d’autres mesures. Etant donné que le programme est très positif et donne lieu à des améliorations notables, les rapports entre la direction et le personnel s’améliorent et les équipes se voient encouragées à apporter de nouvelles améliorations.

Une mutation culturelle

Parmi les nombreux utilisateurs du programme Tuttava, dont l’objet premier est de modifier la culture de sécurité, figurait une grande aciérie. Au démarrage du programme, en 1987, on y dénombrait 57 accidents par million d’heures de travail. Auparavant, les responsables de la prévention s’en remettaient pour une large part aux ordres venus d’en haut. Lorsque le président de la société prit sa retraite, la nouvelle direction ne sut pas créer la même demande pour une culture de sécurité et tout le monde s’empressa d’oublier la sécurité. Parmi les cadres moyens, la sécurité avait été considérée jusque-là de manière négative, comme quelque chose à faire en plus parce que le président l’exigeait. En 1987, l’aciérie mit en place dix équipes Tuttava, puis en ajouta de nouvelles chaque année. Aujourd’hui, elle enregistre moins de 35 accidents par million d’heures de travail et la production a régulièrement augmenté au cours de ces années. En fait, le programme a permis de développer la culture de sécurité à mesure que les cadres moyens ont constaté dans leurs services des améliorations qui étaient bonnes à la fois pour la sécurité et la production. Ils sont devenus ainsi plus réceptifs à d’autres programmes et initiatives en faveur de la prévention.

Les avantages pratiques pour cette aciérie ont été considérables. Ainsi, le service de maintenance (effectif de 300 personnes) a signalé un recul de 600 à 200 jours dans le nombre de journées perdues par suite d’accidents du travail, soit une baisse de 400 jours. Le taux d’absentéisme a reculé lui aussi de 1%. Les contremaîtres ont reconnu qu’il était plus agréable d’avoir un lieu de travail bien organisé sur le plan tant matériel que mental. L’investissement consenti n’a représenté dans ce cas qu’une petite fraction des bénéfices obtenus.

Une autre société employant 1 500 personnes a pu gagner 15 000 m2 de surface de production grâce à une meilleure disposition des matériaux et de l’équipement, ce qui lui a permis de réduire son loyer de 1,5 million de dollars E.-U. Une entreprise canadienne a pu économiser près de 1 million de dollars canadiens par an par suite de la réduction des dommages matériels enregistrée grâce au programme Tuttava.

Ce genre de résultats serait impossible sans une profonde mutation culturelle. L’élément le plus important de la nouvelle culture réside dans les expériences positives faites en commun. Comme l’a déclaré un cadre: «On peut acheter le temps des gens, on peut assurer leur présence physique à un endroit donné, on peut même acheter un certain nombre de mouvements musculaires à l’heure. En revanche, on ne peut acheter ni la loyauté ni le dévouement des cœurs et des esprits: il faut les conquérir». La démarche positive de Tuttava permet à la direction et aux cadres de s’assurer la loyauté et le dévouement des travailleurs et de les engager dans d’autres projets constructifs.

LES MÉTHODES DE PRISE DE DÉCISIONS EN MATIÈRE DE SÉCURITÉ

Terje Sten

Une entreprise est un système complexe dans lequel le processus décisionnel intervient dans de nombreux domaines et dans des circonstances très diverses. La sécurité n’est que l’un des nombreux éléments dont les gestionnaires doivent tenir compte au moment de prendre une décision. L’ampleur et la nature des décisions relatives à la sécurité varient considérablement en fonction des caractéristiques des risques à gérer et de la position du décideur dans l’organigramme de l’entreprise.

De nombreuses études ont été réalisées sur la façon dont les gens prennent des décisions, tant sur le plan individuel que dans le contexte de l’entreprise et, notamment, par Janis et Mann (1977); Kahneman, Slovic et Tversky (1982); Montgomery et Svenson (1989). Le présent article examine une série d’études réalisées dans ce domaine au sujet des méthodes décisionnelles utilisées dans la gestion de la sécurité. En principe, la prise de décisions en matière de prévention n’est guère différente de celle qui intervient dans d’autres compartiments de la gestion. Il n’existe aucune méthode simple, aucun ensemble de règles élémentaires permettant de prendre les bonnes décisions dans toutes les situations, car les activités qu’implique la gestion de la sécurité sont trop complexes et variées quant à leur nature et à leur portée.

Notre propos n’est pas de présenter des remèdes ou des solutions simples, mais essentiellement d’exposer quelques-uns des défis qui se posent et des grands principes à appliquer dans tout processus décisionnel efficace en matière de prévention. L’article donne une vue d’ensemble de la portée et des étapes du processus de résolution des problèmes de sécurité, fondé principalement sur les travaux de Hale et coll. (1994). Le processus en question permet de cerner les problèmes et de leur trouver des solutions valables. Il s’agit là d’une première étape importante dans tout processus décisionnel. Pour mettre en perspective les défis que pose dans la réalité la prise de décisions en matière de sécurité, nous examinerons les principes de la théorie de choix rationnel . La dernière partie de l’article étudiera le processus décisionnel dans le contexte de l’organisation et les aspects sociologiques de ce processus. Nous aborderons également quelques-uns des grands problèmes et des principales méthodes de prise de décisions dans le contexte de la gestion de la sécurité, afin de donner un meilleur aperçu des dimensions, des gageures et des pièges de la prise de décisions dans le contexte de la gestion de la sécurité.

Le contexte du processus décisionnel en matière de sécurité

Il est malaisé de présenter de manière générale les méthodes de prise de décisions en matière de prévention, car les questions de sécurité et la nature des problèmes décisionnels évoluent considérablement tout au long de la vie d’une entreprise. De sa naissance à sa disparition, toute entreprise franchit six grandes étapes:

  1. conception;
  2. construction;
  3. mise en service;
  4. exploitation;
  5. maintenance et transformation;
  6. dissolution et démantèlement.

Chacune de ces étapes appelle, en matière de sécurité, des décisions qui ont également une incidence sur les autres étapes. Pendant la conception, la construction et la mise en service, les principaux défis posés concernent le choix, l’élaboration et la mise en œuvre des normes et des spécifications de sécurité. Pendant l’exploitation et les deux dernières étapes, les principaux objectifs en matière de gestion de prévention seront de maintenir et, si possible, d’améliorer le niveau de sécurité. Dans une certaine mesure, la phase de construction représente également une «phase de production», car les mesures de sécurité mises en œuvre au cours de la construction vont avoir un impact sur la sécurité de la construction elle-même après son achèvement.

Les niveaux décisionnels dans la gestion de la sécurité

La nature des décisions relatives à la prévention varie en fonction du niveau organisationnel. Hale et coll. (1994) distinguent trois niveaux principaux de décision pour la gestion de la sécurité au sein d’une entreprise:

Au niveau de l’exécution , les actes des personnes concernées (les travailleurs) influent directement sur la présence et la maîtrise des risques sur les lieux de travail. On se préoccupe de l’identification des risques, ainsi que du choix et de l’application des mesures permettant de les éliminer, de les réduire ou de les maîtriser. Ce niveau disposant d’une latitude limitée, les circuits de retour d’information et de correction ont pour fonction essentielle de corriger les écarts par rapport aux procédures établies et d’assurer le retour à la norme. Dès que l’on constate une situation où la norme convenue n’est apparemment plus adaptée, on fait intervenir le niveau supérieur suivant.

Le niveau de la planification , de l’organisation et des procédures est chargé de concevoir et de concrétiser les mesures à appliquer au niveau de l’exécution à l’ensemble des risques prévus. Le niveau de planification et d’organisation, qui fixe les responsabilités, les procédures, les voies de communication etc., se retrouve dans la quasi-totalité des manuels de sécurité. C’est lui qui élabore les procédures applicables aux nouveaux risques auxquels l’entreprise est confrontée et qui adapte les procédures existantes aux connaissances nouvelles relatives aux risques et à leur contrôle. Ce niveau implique également la traduction de principes abstraits en tâches concrètes à attribuer et à mettre en œuvre; il correspond au circuit ou boucle d’amélioration requis dans de nombreux systèmes de qualité.

Le niveau de la structure et de la gestion est chargé d’appliquer les principes généraux de gestion de la sécurité. Il est activé lorsque l’entreprise considère que les niveaux de planification et d’organisation ne parviennent absolument pas à atteindre les résultats désirés. C’est à cet échelon que le fonctionnement «normal» du système de gestion de la sécurité est surveillé de très près et qu’il est constamment amélioré ou entretenu face à l’évolution de l’environnement extérieur de l’entreprise.

Hale et coll. (1994) soulignent que ces trois niveaux sont des abstractions correspondant à trois types différents de retour d’information. Il ne faut pas considérer qu’ils correspondent aux niveaux hiérarchiques qu’occupent respectivement les travailleurs, les agents de maîtrise et les cadres supérieurs, car les activités à chacun des trois niveaux abstraits mentionnés ci-dessus peuvent être exécutées de très nombreuses manières. Le mode d’affectation des tâches reflète la culture et les méthodes de travail de chaque entreprise.

Le processus décisionnel en matière de sécurité

Les difficultés en matière de sécurité doivent être réglées par un processus de résolution de problèmes ou de prise de décisions. D’après Hale et coll. (1994), ce processus appelé cycle de résolution de problèmes est commun aux trois niveaux de gestion de la sécurité décrits ci-dessus. C’est un modèle de procédure progressive idéalisée qui permet d’analyser les problèmes liés à des écarts potentiels ou réels par rapport aux objectifs fixés ou escomptés en matière de sécurité et de prendre des décisions en conséquence (voir figure 59.8).

Figure 59.8 Cycle de résolution de problèmes (CRP)

Figure 59.8

Bien que, en principe, les étapes soient les mêmes aux trois niveaux de gestion de la sécurité, leur application pratique peut varier quelque peu selon la nature des problèmes traités. Le modèle permet de voir que les décisions concernant la gestion de la sécurité peuvent porter sur de nombreux types de difficultés. Dans la pratique, chacun des six problèmes décisionnels ci-dessous, qui sont fondamentaux dans la gestion de la sécurité, doit être subdivisé en plusieurs sous-décisions qui constitueront la base de choix à opérer.

  1. Qu’est-ce qu’un niveau ou une norme de sécurité acceptable pour l’activité, le service, l’entreprise, etc., considérés?
  2. Quels critères faut-il employer pour évaluer le niveau de sécurité?
  3. Quel est le niveau de sécurité actuel?
  4. Quelles sont les causes des écarts constatés entre le niveau de sécurité acceptable et le niveau observé?
  5. Quels moyens faut-il choisir pour corriger ces écarts et maintenir un bon niveau de sécurité?
  6. Comment assurer l’application et le suivi des mesures correctives?

La théorie du choix rationnel

Si la direction veut obtenir l’adhésion du personnel, il faut que ses méthodes de prise de décisions reposent sur des bases rationnelles. Dans la pratique, ce qui est rationnel est parfois malaisé à définir, et les impératifs logiques de ce qui peut être défini comme une décision rationnelle peuvent être difficiles à satisfaire. La théorie du choix rationnel (TCR), c’est-à-dire la conception d’un processus décisionnel rationnel, a été développée initialement pour expliquer le comportement économique du marché, puis elle a été généralisée pour expliquer non seulement le comportement économique, mais aussi le comportement étudié par la plupart des disciplines des sciences sociales, de la philosophie politique à la psychologie.

On appelle l’étude psychologique du processus décisionnel humain optimal la théorie de l’utilité escomptée subjective (UES). TCR et UES sont en principe identiques; seules leurs applications diffèrent. L’UES est axée sur la réflexion qui préside à la prise de décisions individuelle, tandis que la TCR a une application plus large en ce sens qu’elle explique le comportement au sein d’entreprises ou d’institutions considérées dans leur ensemble — voir, par exemple, Neumann et Politser (1992). La plupart des outils de la recherche opérationnelle moderne utilisent les hypothèses de l’UES. Ils partent de l’idée que le but recherché est la réalisation optimale d’un objectif en présence de contraintes particulières et en supposant que toutes les solutions possibles et leurs conséquences (ou leur loi de distribution) sont connues (Simon et coll., 1992). On peut résumer comme suit l’essentiel de la TCR et de l’UES (March et Simon, 1993):

Lorsqu’il est confronté à une situation qui appelle une décision, le décideur rassemble et examine l’ensemble des solutions possibles parmi lesquelles il va opérer un choix. Cet ensemble est simplement donné: la théorie ne dit pas comment on l’obtient.

A chaque solution possible correspond un ensemble de conséquences, à savoir les événements qui vont découler de l’option retenue. A cet égard, les théories existantes peuvent être rangées en trois catégories:

Le décideur a recours a priori à une «fonction d’utilité» ou à un «ordre de préférence» qui classe tous les ensembles de conséquences par ordre décroissant de préférence. Il existe une autre démarche, à savoir la règle du «risque minimal», par laquelle on envisage le «pire ensemble de conséquences» susceptible de découler de chacune des solutions possibles, puis on choisit la solution dont le pire ensemble de conséquences est préféré aux pires ensembles qui accompagnent les autres solutions.

Le décideur retient la solution la plus proche de l’ensemble de conséquences qui a sa préférence.

L’une des difficultés de la TCR réside dans le fait que le mot rationalité est problématique en soi. Ce qui est rationnel dépend du contexte social dans lequel la décision est prise. Comme le souligne Flanagan (1991), il importe de distinguer entre le rationnel et le logique . Le rationnel se rattache au sens et à la qualité de la vie pour un individu ou un groupe d’individus, ce qui n’est pas le cas du logique. Le problème du bienfaiteur est une question que les modèles de choix rationnel ne réussissent pas à éclaircir, en ce sens qu’ils supposent une neutralité de valeurs qui est rarement présente dans la prise de décisions pratiquée dans la réalité (Zey, 1992). Bien que l’intérêt de la TCR et de l’UES en tant que théories explicatives soit quelque peu restreint, celles-ci ont leur utilité comme modèles théoriques de la prise de décisions «rationnelle». Le fait que le comportement s’écarte souvent des résultats prévus par la théorie de l’utilité escomptée ne signifie pas forcément que cette théorie prescrive de manière inappropriée la façon dont les gens devraient prendre leurs décisions. En tant que modèle normatif, cette théorie s’est avérée utile en suscitant des travaux de recherche sur le pourquoi et le comment de prises de décisions qui sont contraires à l’axiome de l’utilité optimale.

L’application des notions de TCR et d’UES à la prise de décisions dans le domaine de la prévention peut fournir une base d’évaluation de la «rationalité» des choix opérés en matière de sécurité, tels que le choix de mesures préventives en présence d’un problème dont on souhaite réduire la gravité. Il est assez souvent impossible de respecter les principes d’un choix rationnel en raison du manque de données fiables; soit on ne dispose pas du panorama complet des mesures disponibles ou possibles, soit il existe une grande incertitude quant aux effets de différentes mesures. Ainsi, la TCR peut être utile en révélant les points faibles d’un processus décisionnel, mais elle n’oriente guère sur l’amélioration de la qualité des choix à effectuer. L’applicabilité des modèles de choix rationnel souffre d’une carence supplémentaire, en ce sens que les décisions que prennent les entreprises ne visent pas nécessairement des solutions optimales.

La résolution des problèmes

Les modèles de choix rationnel décrivent le processus d’évaluation et de choix entre plusieurs solutions possibles . Mais le choix d’une ligne de conduite impose également ce que Simon et coll. (1992) décrivent comme la résolution des problèmes , opération consistant à choisir les questions qui doivent retenir l’attention, à fixer des objectifs et à rechercher et adopter une ligne de conduite appropriée (les cadres peuvent se rendre compte qu’ils ont des problèmes, mais ne pas appréhender correctement la situation et être incapables dès lors de penser à une ligne de conduite plausible). Comme on l’a vu plus haut, la théorie du choix rationnel plonge ses racines essentiellement dans l’économie politique, la statistique et la recherche opérationnelle, et ce n’est que récemment qu’elle a retenu l’attention des psychologues. L’historique de cette théorie et celui des méthodes de résolution des problèmes sont tout à fait différents. Au début, la résolution des problèmes a surtout été étudiée par les psychologues et, plus récemment, par des spécialistes de l’intelligence artificielle.

La recherche empirique montre que le processus de résolution des problèmes se déroule peu ou prou de la même façon pour une vaste gamme d’activités. On notera que ce processus comprend généralement une recherche sélective portant sur de grands ensembles de possibilités, en appliquant une méthode heuristique, pour orienter cette recherche. Etant donné que, dans la réalité, les possibilités sont pratiquement infinies, une recherche par tâtonnements serait tout bonnement inopérante; il faut qu’elle soit extrêmement sélective. L’une des méthodes fréquemment employées pour orienter la recherche est celle dite de l’alpiniste; elle consiste à s’approcher du but, puis à déterminer le point qu’il est le plus avantageux de chercher à atteindre. Une autre méthode, plus puissante et plus répandue, est celle de l’analyse de la fin et des moyens . Par cette méthode, la personne appelée à résoudre un problème compare la situation présente avec l’objectif fixé, détermine l’écart entre les deux et fait appel à son expérience pour trouver les mesures susceptibles de réduire cet écart. En matière de résolution de problèmes, on sait que le processus de réflexion du chercheur — surtout si celui-ci est un spécialiste — fait appel à quantité d’informations stockées dans sa mémoire et qui peuvent être consultées chaque fois que des indices en signalent la pertinence.

La théorie contemporaine de résolution des problèmes permet, entre autres choses, d’expliquer les phénomènes d’intuition et de jugement que l’on observe souvent dans le comportement des spécialistes. Leur stock de connaissances paraît avoir été indexé en quelque sorte de manière à les rendre accessibles. Le spécialiste utilise cette fonction d’indexation, associée à certaines techniques déductives élémentaires (celle de l’analyse de la fin et des moyens, par exemple), pour trouver des solutions satisfaisantes à des problèmes difficiles.

La plupart des défis que doivent relever les responsables de la sécurité sont d’une nature qui exige le recours à un certain type de résolution de problèmes, par exemple trouver quelles sont les causes sous-jacentes d’un accident ou d’un problème de sécurité pour arrêter des mesures appropriées. Le cycle élaboré par Hale et coll. (1994) — voir figure 59.8 — illustre bien ce qu’impliquent les différentes étapes en question. Ce qui paraît évident, c’est que, pour l’heure, il n’est pas possible, et il n’est peut-être même pas souhaitable, de développer un modèle strictement logique ou mathématique d’un processus idéal de résolution des problèmes, selon des modalités identiques à celles suivies dans le cas des théories du choix rationnel. Au demeurant, ce point de vue est étayé par la connaissance d’autres difficultés mises en évidence dans les exemples réels de résolution de problèmes et de prise de décisions qui sont abordés ci-après.

Les problèmes mal posés, la définition du calendrier et le cadrage

Dans la réalité, on rencontre souvent des situations où le processus de résolution de problèmes devient obscur parce que les objectifs eux-mêmes sont complexes, quand ils ne sont pas mal définis. Il n’est pas rare que la nature même du problème évolue au fur et à mesure qu’on l’étudie. Si ce dernier présente ces caractéristiques, on peut dire qu’il est mal posé . On en trouve des exemples types dans la mise au point de conceptions nouvelles ou les découvertes scientifiques.

Ce n’est que récemment que la résolution de problèmes mal définis est devenue un sujet d’étude scientifique. En pareil cas, il faut avoir une bonne connaissance des critères de solution, mais aussi des moyens de satisfaire à ces critères. Cette double connaissance doit être évoquée au cours du processus; l’évocation des critères et des contraintes conduit à modifier et à remodeler sans cesse la solution. Certains travaux concernant la définition et l’analyse des problèmes dans le cadre de l’étude des risques et de la sécurité ont été publiés et peuvent être mis à profit — voir, par exemple, Rosenhead (1989) et Chicken et Haynes (1989).

La définition du calendrier , qui est la toute première étape de tout ce processus, est également très mal comprise. Ce qui met un problème en tête du calendrier, c’est le fait qu’il ait été détecté et la nécessité de le poser dans des termes qui facilitent sa résolution. Ce sont là des questions qui n’ont été abordées que récemment dans des études relatives aux processus décisionnels. La tâche consistant à définir un calendrier revêt une importance extrême, car l’être humain et les institutions humaines n’ont qu’une aptitude limitée à s’occuper de plusieurs choses en même temps; alors que certains problèmes bénéficient de la plus grande attention, d’autres sont négligés. Lorsqu’un événement surgit brusquement et inopinément (un incendie, par exemple), il arrive qu’il relègue au second plan une planification et une délibération réfléchies.

La façon dont les problèmes sont présentés est fortement liée à la qualité des solutions trouvées. Actuellement, le cadrage des problèmes est encore moins bien compris que la définition du calendrier. L’une des caractéristiques de nombreux progrès scientifiques et technologiques réside dans le fait qu’une modification du cadrage va déboucher sur une démarche résolument nouvelle pour résoudre la difficulté. Un exemple de modification du cadrage de la définition des problèmes de sécurité ces dernières années réside dans le fait que l’intérêt manifesté auparavant pour les particularités des opérations de fabrication ou autres s’est reporté sur les décisions et les conditions qui créent l’ensemble de la situation de travail — voir, par exemple, Wagenaar et coll. (1994).

Le processus décisionnel

Les modèles de processus décisionnel au sein d’une organisation considèrent la question du choix comme un processus logique dans lequel les décideurs cherchent à maximiser leurs objectifs par une série d’étapes méthodiques (voir figure 59.9). En principe, ce processus est le même pour la sécurité que pour les autres questions que l’organisation doit gérer.

Figure 59.9 Le processus décisionnel dans les entreprises

Figure 59.9

Ces modèles peuvent servir de cadre général à la «prise de décisions rationnelle» dans les organisations; toutefois, les modèles idéaux ont leurs limites et négligent plusieurs aspects importants des processus que l’on peut effectivement rencontrer. Nous abordons ci-après quelques-unes des caractéristiques importantes des processus décisionnels dans les organisations.

Les critères appliqués dans les choix organisationnels

Alors que les modèles de choix rationnel se préoccupent de trouver la solution optimale, d’autres critères peuvent être encore plus pertinents dans la prise de décisions. Comme l’ont observé March et Simon (1993), les entreprises recherchent, pour diverses raisons, des solutions satisfaisantes plus que des solutions optimales .

D’après March et Simon (1993), la plupart des processus décisionnels humains, que ce soit au niveau individuel ou organisationnel, visent à trouver et à choisir des solutions satisfaisantes; ce n’est que dans des cas exceptionnels qu’ils cherchent à trouver et à choisir des solutions optimales . Dans la gestion de la sécurité, les solutions satisfaisantes sont généralement suffisantes, ce qui est le cas lorsqu’une solution donnée à un problème de sécurité doit répondre à des critères précis. Les contraintes auxquelles se heurte généralement le choix des décisions de sécurité optimales sont des considérations d’ordre économique, du genre «suffisamment bon, mais le moins cher possible».

La prise de décisions programmée

Ayant étudié les points qu’ont en commun la prise de décisions par l’individu et la prise de décisions sur le plan organisationnel, March et Simon (1993) relèvent qu’une organisation ne peut jamais être parfaitement rationnelle, car ses membres n’ont que des possibilités restreintes de traitement de l’information et que les décideurs peuvent, au mieux, parvenir seulement à des formes de rationalité limitées. En effet: 1) ils doivent généralement agir à partir d’informations incomplètes; 2) ils ne peuvent étudier qu’un nombre restreint de solutions possibles pour parvenir à une décision; 3) ils sont incapables d’attribuer des valeurs précises aux résultats. March et Simon soutiennent que les limites de la rationalité humaine sont institutionnalisées dans la structure et les modes de fonctionnement de nos organisations. Pour rendre le processus décisionnel gérable, les organisations le fragmentent, en font un exercice de routine et le limitent de plusieurs manières. L’existence de différents services et unités de production a pour effet de segmenter l’environnement de l’entreprise, de compartimenter les responsabilités et, par conséquent, de simplifier les domaines d’intérêt et la prise de décisions des cadres, des agents de maîtrise et des travailleurs. Les hiérarchies établies au sein de l’organisation jouent un rôle analogue en prévoyant des filières de résolution de problèmes qui rendent la vie plus facile à gérer. Il en résulte une structure d’attention, d’interprétation et de fonctionnement qui exerce une influence cruciale sur ce que l’on considère comme un choix «rationnel» du décideur individuel dans le contexte organisationnel. March et Simon appellent ces ensembles organisés de réactions des programmes de performance ou, plus simplement, des programmes . Le terme programme n’est pas destiné à véhiculer une connotation de totale rigidité, car le contenu du programme peut s’adapter aux nombreuses caractéristiques qui président à son élaboration. Un programme peut également être subordonné à des éléments indépendants des stimuli qui l’ont activé. Dans ce cas, il est plus juste de le qualifier de stratégie de performance .

Un ensemble d’activités est considéré comme routinier dès lors que le choix a été facilité par l’effet de réactions déterminées à des stimuli définis. Si l’on a renoncé aux recherches, mais que le choix demeure sous la forme d’opérations de calcul courantes clairement définies, l’activité est qualifiée de routinière . En revanche, une activité est considérée comme non routinière dès lors qu’elle doit être précédée d’activités d’élaboration de programme du type résolution de problèmes. La distinction faite par Hale et coll. (1994) (voir plus haut) entre les niveaux d’exécution, de planification et de structure ou de gestion de systèmes a des implications analogues pour la structuration du processus décisionnel.

La programmation influe sur la prise de décisions de deux façons: 1) en définissant le mode de déroulement du processus décisionnel et ses acteurs; 2) en précisant les choix à faire à partir des informations disponibles et des solutions possibles. Les effets de la programmation sont positifs en ce sens qu’ils peuvent accroître l’efficacité du processus décisionnel et assurer que les problèmes ne sont pas laissés sans solution, mais sont traités de manière bien structurée. D’un autre côté, une programmation rigide risque de faire obstacle à la souplesse nécessaire, notamment dans la phase du processus décisionnel qui se préoccupe de trouver de nouvelles solutions. A titre d’exemple, notons que de nombreuses compagnies aériennes ont mis en place des procédures fixes pour le traitement des incidents ou des défectuosités signalés, sous la forme de comptes rendus de vol ou de rapports de maintenance qui exigent que chaque cas soit examiné par une personne désignée à cet effet et qu’une décision soit prise quant aux mesures préventives appropriées. La décision peut parfois consister à ne prendre aucune mesure, mais les procédures garantissent qu’il s’agit alors d’une décision délibérée, et non du résultat d’une négligence, et qu’un décideur responsable participe à la décision.

Le degré de programmation des activités influe sur la prise de risques. Wagenaar (1990) soutient que la plupart des accidents sont la conséquence d’un comportement routinier qui ne tient aucun compte des risques. Le vrai problème du risque se pose aux niveaux plus élevés de l’organisation, là où sont adoptées des décisions non programmées. Mais, le plus souvent, les risques ne sont pas pris consciemment; ils résultent de décisions portant sur des questions qui ne sont pas directement liées à la sécurité, mais où les préalables à une exploitation sûre ont été perturbés par inadvertance. Par conséquent, les dirigeants et autres décideurs de haut niveau laissent subsister des occasions de risques plus qu’ils ne prennent des risques.

La prise de décisions, le pouvoir et le conflit d’intérêts

La capacité d’influer sur les résultats des processus décisionnels est une source de pouvoir parfaitement reconnue et qui a été l’objet d’une attention considérable dans la littérature consacrée aux théories de gestion. Etant donné que les organisations sont à bien des égards des systèmes de prise de décisions, un individu ou un groupe peut y exercer une influence capitale sur les processus décisionnels. D’après Morgan (1986), les types de pouvoir intervenant dans la prise de décisions peuvent être rangés en trois catégories interdépendantes:

  1. Les prémisses des décisions. Il existe plusieurs façons d’influer sur les prémisses des décisions, l’un des moyens les plus efficaces de «prendre» une décision consistant à permettre qu’elle soit prise par défaut. De ce fait, une grande partie de l’activité politique au sein d’une organisation va dépendre de la maîtrise des calendriers et autres prémisses de décisions qui influent sur la façon dont des décisions particulières vont être abordées, d’une manière qui empêche parfois certaines questions fondamentales de faire surface. Par ailleurs, les prémisses des décisions sont manipulées par le contrôle discret noyé dans le choix de la terminologie, des structures de communication, des attitudes, des convictions, des règles et des procédures acceptées sans discussion. Ces éléments façonnent les décisions par la manière dont l’individu réfléchit et agit. D’après Morgan (1986), la perception que l’on a des différents problèmes et de la façon de les aborder agit souvent comme une camisole de force mentale qui nous empêche de voir d’autres moyens de formuler nos préoccupations élémentaires, de même que les autres lignes de conduite possibles.
  2. Les processus décisionnels. La maîtrise des processus décisionnels est généralement plus visible que la maîtrise des prémisses des décisions. La façon de traiter un problème implique des questions telles que: qui doit s’en occuper, quand la décision doit-elle être prise, comment le problème doit-il être examiné en réunion et comment doit-il être porté à la connaissance des intéressés? Les règles de base qui vont orienter la prise de décisions sont des variables importantes que les membres de l’organisation peuvent manipuler afin d’influer sur le résultat.
  3. Les questions à trancher et les objectifs des décisions. Une dernière façon de contrôler la prise de décisions consiste à influer sur les questions et les objectifs, ainsi que sur les critères d’évaluation à employer. Un individu peut façonner ces questions et ces objectifs de manière très directe en rédigeant les rapports et en contribuant à la discussion qui vont mener à la décision. En insistant sur le poids de certaines contraintes, en choisissant et en évaluant les diverses solutions possibles à partir desquelles une décision sera prise et en soulignant l’importance de certaines valeurs ou de certains résultats, les décideurs peuvent exercer une influence considérable sur la décision finale.

Certains problèmes de décision peuvent comporter un conflit d’intérêts, par exemple entre la direction et les salariés. Un désaccord peut survenir sur la définition de la véritable nature du problème — ce que Rittel et Webber (1973) appellent les problèmes «pernicieux», à distinguer des problèmes qui sont «apprivoisés», en ce sens qu’un consensus à leur sujet est assuré. Dans d’autres cas, les parties peuvent être d’accord sur la définition du problème, mais non pas sur la façon de le résoudre, sur les solutions acceptables ou les critères auxquels les solutions doivent satisfaire. Les attitudes ou les stratégies des parties en conflit vont définir non seulement leur comportement vis-à-vis de la résolution du problème, mais aussi les perspectives de parvenir à une solution par la négociation. La manière dont les protagonistes cherchent à satisfaire leurs propres préoccupations joue un rôle important (voir figure 59.10). Une collaboration fructueuse exige que les deux parties affirment leurs besoins respectifs, tout en étant disposées à prendre en considération les besoins de l’autre.

Figure 59.10 Cinq types de négociation

Figure 59.10

Une autre typologie intéressante fondée sur le degré de concordance entre la fin et les moyens a été élaborée par Thompson et Tuden (1959) (cités dans Koopman et Pool, 1991). Ces auteurs suggèrent la «stratégie la mieux adaptée» fondée sur la connaissance des perceptions qu’ont les protagonistes de l’origine du problème et sur leurs préférences quant aux résultats (voir figure 59.11).

Figure 59.11 Typologie d'une stratégie de résolution de problèmes

Figure 59.11

S’il y a accord sur la fin et les moyens, la décision peut être calculée; elle peut, par exemple, être élaborée par des spécialistes. Si les moyens ne sont pas clairs, ces spécialistes devront parvenir à une solution par la concertation (jugement majoritaire). La concertation s’impose aussi en cas de désaccord sur les objectifs. En revanche, s’il y a désaccord à la fois sur la fin et les moyens, l’organisation est vraiment en péril, ce qui exige l’intervention d’un leader charismatique capable d’«inspirer» une solution acceptable pour les parties en conflit.

La prise de décisions au sein d’une organisation ouvre, on le voit, des perspectives qui dépassent largement le cadre du choix rationnel ou des modèles individuels de résolution de problèmes. Les processus décisionnels doivent être considérés dans le cadre des processus d’organisation et de gestion où le concept de rationalité peut revêtir des significations nouvelles et différentes de celles définies par la logique des démarches de choix rationnel que l’on trouve, par exemple, dans les modèles de recherche opérationnelle. La prise de décisions dans le cadre de la gestion de la sécurité doit être considérée dans une perspective qui autorise une parfaite compréhension de tous les aspects des problèmes de décision qui se posent.

Résumé et conclusion

D’une manière générale, la prise de décisions peut être définie comme un processus qui comporte une situation de départ (état initial) que les décideurs perçoivent comme s’écartant d’un objectif à réaliser (état final), sans toutefois savoir d’avance comment modifier l’état initial pour parvenir à l’état final (Huber, 1989). La résolution d’un problème permet de passer de l’état initial à l’état final en appliquant un ou plusieurs opérateurs, c’est-à-dire des activités permettant de modifier les états. Il faut souvent recourir à une série d’opérateurs pour obtenir la modification désirée.

Les travaux des chercheurs sur ce sujet n’apportent pas de réponses simples à la question de savoir comment prendre des décisions en matière de prévention; les méthodes de prise de décisions doivent donc être rationnelles et logiques. La théorie du choix rationnel représente une conception élégante de la manière de prendre des décisions optimales, mais elle est d’une application malaisée lorsqu’il s’agit de gestion de la sécurité. Sa faiblesse la plus évidente réside dans le manque d’éléments valides et fiables sur l’ensemble des choix et sur la connaissance des conséquences. Une autre difficulté tient au fait que le concept de rationalité suppose «un bienfaiteur», lequel peut varier en fonction de la perspective choisie dans une situation de décision donnée. La démarche du choix rationnel peut néanmoins s’avérer utile pour mettre en évidence quelques-unes des difficultés et des carences des décisions à prendre.

Le véritable défi consiste souvent non pas à opérer un choix judicieux entre différentes mesures possibles, mais à analyser la situation pour découvrir la nature réelle du problème. Lorsqu’on analyse un problème relevant de la gestion de la sécurité, la structuration est souvent la tâche la plus importante. Une bonne compréhension du problème est une condition sine qua non dans la recherche d’une solution acceptable. L’important n’est pas de trouver la méthode la meilleure — qui, du reste, n’existe probablement pas, compte tenu de la vaste palette de problèmes qui se présentent dans le domaine de l’évaluation des risques et de la gestion de la sécurité —, mais bien plutôt d’adopter une démarche structurée et d’étayer solidement l’analyse effectuée et les décisions prises de manière à pouvoir retrouver les traces des procédures et des évaluations mises en œuvre.

Certaines organisations gèrent leur prise de décisions au moyen d’actions programmées. Le recours à des procédures invariables pour les processus décisionnels de routine peut se révéler fort utile dans la gestion de la sécurité. On en trouve un exemple dans la manière dont certaines entreprises traitent les écarts et les quasi-accidents signalés. La programmation peut aussi constituer un moyen efficace de maîtriser les processus décisionnels au sein de l’organisation, à condition que les questions soient bien posées et les règles de décision parfaitement claires.

Dans la pratique, les décisions sont prises dans un contexte organisationnel et social où peuvent surgir des conflits d’intérêts. Les processus décisionnels peuvent souffrir de perceptions différentes quant à la nature des problèmes, aux critères ou à l’acceptabilité des solutions proposées. La conscience de la présence de droits acquis et des effets qu’ils peuvent avoir est utile lorsqu’il s’agit de prendre des décisions acceptables pour toutes les parties concernées. La gestion de la sécurité comporte une grande diversité de problèmes; ceux-ci sont déterminés par le cycle de vie, le niveau organisationnel, etc. En ce sens, la nature et la portée des décisions à prendre en matière de prévention sont aussi vastes que dans n’importe quel autre domaine de la gestion.

LA PERCEPTION DES RISQUES

Bernhard Zimolong et Rüdiger Trimpop

Dans la perception des risques, on peut distinguer deux processus psychologiques: la perception du danger et l’évaluation des risques. Selon Saari (1976), l’information traitée au cours de l’accomplissement d’une tâche a deux composantes: 1) l’information nécessaire à l’exécution de cette tâche (perception du danger, etc.); 2) l’information indispensable à la maîtrise des risques (évaluation des risques). Ainsi, lorsqu’un ouvrier du bâtiment qui se trouve en haut d’une échelle et perce des trous dans un mur doit conserver son équilibre et, en même temps, coordonner automatiquement les mouvements de son corps et de ses mains, la perception du danger est un élément essentiel de cette coordination, alors que l’évaluation consciente des risques ne joue qu’un rôle mineur, si tant est qu’elle en joue un. Il semble, d’une manière générale, que les activités humaines soient commandées par la reconnaissance automatique de signaux qui déclenchent une hiérarchie souple, mais mémorisée, de schémas d’action (le processus plus délibéré qui aboutit à l’acceptation ou au refus du risque est abordé dans l’article suivant).

La perception des risques

Du point de vue technique, un risque représente une source d’énergie qui a le potentiel d’infliger une blessure immédiate à l’opérateur ou des dégâts matériels à l’équipement, à l’environnement ou aux ouvrages. Les travailleurs peuvent également être exposés à des agents nocifs tels que des produits chimiques ou des gaz toxiques ou des rayonnements susceptibles de constituer une menace pour la santé. Contrairement aux énergies dangereuses dont la libération peut avoir une action immédiate, les substances toxiques présentent des caractéristiques temporelles très différentes puisqu’elles peuvent avoir soit des effets immédiats, soit des effets différés se manifestant des mois, voire des années après l’exposition. Il se produit souvent un effet d’accumulation de faibles doses de substances toxiques qui ne sont pas perceptibles par les travailleurs qui y sont exposés.

A l’inverse, des énergies dangereuses ou des substances toxiques resteront inoffensives aussi longtemps que les risques sont maîtrisés et qu’il n’existe pas de danger. Le danger exprime le degré relatif d’exposition au risque. En effet, il peut y avoir peu de danger en présence de certains risques dès lors que des précautions suffisantes ont été prises. Il existe une abondante documentation sur les facteurs utilisés pour déterminer si une situation est périlleuse et, dans l’affirmative, à quel point. C’est ce que l’on appelle la perception du risque (le mot risque est utilisé souvent dans le même sens que le mot danger dans les publications sur la sécurité au travail; voir Hoyos et Zimolong 1988).

La perception du risque porte sur la compréhension de réalités perceptives et d’indicateurs de danger, c’est-à-dire sur la perception d’objets, de sons, d’odeurs ou de sensations tactiles. Le feu, une différence de niveaux, des objets en mouvement, des bruits de forte intensité et des odeurs acides sont des exemples de risques évidents qui n’ont pas besoin d’être interprétés. Dans certains cas, les gens réagissent de la même façon à l’apparition soudaine d’un danger imminent. Un bruit strident, une perte soudaine d’équilibre ou la vue d’objets dont la taille augmente rapidement (et qui paraissent donc sur le point de provoquer un choc violent) sont autant de stimuli de peur qui déclenchent des réactions automatiques (se boucher les oreilles, saisir une poignée, esquiver). Une autre réaction de type réflexe consiste à retirer vivement la main au contact d’une surface brûlante. Rachman (1974) en conclut que les stimuli prépondérants en ce qui concerne la peur sont ceux qui présentent des caractéristiques de nouveauté, de soudaineté et de forte intensité.

Il est probable que la plupart des risques ne sont pas perçus directement par nos sens, mais sont déduits d’indicateurs. A titre d’exemples, on peut citer l’électricité, les gaz incolores et inodores comme le méthane et le monoxyde de carbone, les rayons X et les substances radioactives, ainsi que les atmosphères pauvres en oxygène. Leur présence doit donc impérativement être annoncée par des dispositifs qui traduisent l’existence du risque en signaux reconnaissables. Le courant électrique peut être mis en évidence à l’aide d’un détecteur de courant, tandis qu’une température ou une pression anormalement élevées dans un processus chimique pourront être signalées par une jauge ou un manomètre. Il existe également des situations où l’existence d’un risque n’est pas perceptible du tout ou peut être rendue perceptible à un moment donné (le risque d’infection lorsqu’on est en contact avec du sang lors d’analyses médicales, par exemple). La présence du risque doit être déduite de la connaissance que l’on peut avoir des principes courants de causalité ou de l’expérience que l’on a acquise.

L’évaluation des risques

L’étape suivante dans le processus de traitement de l’information est l’évaluation des risques , c’est-à-dire le processus décisionnel appliqué à la question de savoir si et dans quelle mesure une personne va être exposée à un danger. Considérons, par exemple, la conduite d’une voiture à grande vitesse; du point de vue des conducteurs, ce processus ne s’enclenche que dans des conditions imprévues, telles qu’une situation d’urgence. Pour l’essentiel, en effet, le comportement de conduite est automatique et se déroule sans heurts, sans mobiliser spécialement l’attention et sans exiger une appréciation consciente des risques.

Hacker (1987) et Rasmussen (1983) distinguent trois classes de comportement humain: 1) le comportement machinal et quasi automatique, fondé sur la compétence; 2) le comportement procédural, reposant sur des règles ou des procédures apprises ou écrites; 3) le comportement cognitif, basé sur la connaissance, qui regroupe toutes sortes de planifications conscientes et de résolutions de problèmes. Au stade machinal, une information reçue est directement rapportée à une réaction mémorisée qui se déclenche automatiquement, sans délibération ni maîtrise consciente. Si aucune réaction automatique n’est activée et s’il ne se produit aucun événement extraordinaire, le processus d’évaluation du risque passe au stade procédural où la réaction qui convient est choisie parmi un ensemble de procédures mémorisées. Chacun de ces stades implique un programme moteur perceptif réglé avec précision; en général, cependant, ils n’impliquent pas de décisions fondées sur des considérations de risque. Ce n’est qu’aux points de transition qu’un contrôle conditionnel est effectué pour vérifier si l’évolution se déroule conformément au plan. Dans la négative, le contrôle automatique est interrompu et le problème résultant est résolu à un niveau supérieur.

Le modèle GEMS de Reason (1990) décrit les modalités du passage du stade machinal au stade cognitif en présence de circonstances exceptionnelles ou si l’opérateur se trouve confronté à une situation nouvelle. L’évaluation des risques est absente au stade le plus bas, mais elle peut être totalement présente au stade le plus élevé. Au stade moyen, on peut supposer que l’évaluation des risques est bâclée, en quelque sorte; Rasmussen, pour sa part, exclut tout type d’évaluation qui ne soit intégré dans des règles fixes. La plupart du temps, il n’y a ni perception consciente, ni prise en considération lucide des risques en tant que tels. «L’absence de conscience de la sécurité est une situation à la fois normale et saine, en dépit de tout ce qui a pu être dit dans d’innombrables ouvrages, articles et conférences. Le fait d’être sans cesse conscient du danger est une bonne définition de la paranoïa» (Hale et Glendon, 1987). Il est rare que les gens qui font leur travail de manière routinière envisagent les risques ou les accidents à l’avance: ils courent des risques, mais ils ne les prennent pas.

La perception du danger

La perception des situations dangereuses au sens de la perception sensorielle immédiate de formes, de couleurs, de bruits, d’odeurs ou de vibrations peut être limitée par une capacité de reconnaissance restreinte des sens provisoirement altérés par la fatigue, la maladie, l’alcool ou des médicaments. Des facteurs comme l’éblouissement ou le brouillard peuvent fortement troubler la perception; le danger pourra aussi ne pas être détecté à cause d’une vigilance insuffisante ou d’un esprit distrait.

Comme on l’a déjà mentionné, les dangers ne sont pas tous directement perceptibles par nos sens. La plupart des substances toxiques ne sont même pas visibles. Dans ses recherches portant sur une usine sidérurgique, des laboratoires d’analyses médicales et un service municipal de ramassage des ordures, Ruppert (1987) a constaté que sur 2 230 indicateurs de danger mentionnés par 138 travailleurs, seuls 42% étaient perceptibles par les sens. Vingt-deux pour cent de ces indicateurs résultaient de comparaisons avec des critères normatifs (niveaux sonores, etc.). Dans 23% des cas, la perception du danger reposait sur des événements nettement perceptibles interprétés à la lumière des connaissances acquises en matière de dangerosité (la surface brillante d’un sol humide signifie que ce sol est glissant). Dans 13% des cas, enfin, les indicateurs de danger ne peuvent provenir que du souvenir des mesures appropriées qu’il faut prendre: le courant présent dans une prise murale ne peut être détecté que par un dispositif de contrôle adéquat. Ces résultats montrent que les conditions de perception du danger vont de la pure et simple perception à des processus cognitifs déductifs d’anticipation et d’évaluation très sophistiqués. Les relations de cause à effet sont parfois obscures, à peine décelables ou mal interprétées, tandis que l’action différée ou les effets cumulatifs de certains agents dangereux peuvent imposer aux opérateurs un fardeau supplémentaire.

Hoyos et coll. (1991) ont dressé un tableau complet des indicateurs de danger, des impératifs de comportement et des conditions qui jouent un rôle important pour la sécurité dans l’industrie et les services publics. Un questionnaire de diagnostic de sécurité a été élaboré pour servir d’instrument pratique dans l’analyse des risques et du danger par l’observation (Hoyos et Ruppert, 1993). Un total de 391 entreprises, ainsi que les conditions de travail et l’environnement de 69 sociétés de l’agriculture, de l’industrie, du travail manuel et du secteur tertiaire ont été étudiés. Etant donné qu’elles avaient un taux d’accidents supérieur à 30 accidents pour 1 000 salariés et un minimum de trois jours de travail perdus par accident, on peut considérer que l’étude présente une certaine distorsion du fait qu’elle porte sur des lieux de travail dangereux. Au total, 2 373 risques ont été notés par les enquêteurs utilisant le questionnaire mentionné ci-dessous, ce qui dénote un taux de détection de 6,1 risques par lieu de travail; de 7 à 18 risques ont été détectés dans 40% environ des lieux de travail étudiés. Le taux moyen, étonnamment faible, de 6,1 risques par lieu de travail s’explique sans doute par les mesures de sécurité mises en œuvre dans l’industrie et l’agriculture au cours des vingt dernières années. Précisons que les risques signalés ne comprenaient ni ceux imputables à des substances toxiques, ni ceux maîtrisés par des dispositifs ou des mesures de prévention technique; il s’agissait donc de «risques résiduels».

La figure 59.12 présente un tableau des caractéristiques du processus de perception et de reconnaissance du danger. Les enquêteurs ont dû noter tous les risques relevés dans un lieu de travail en fonction de 13 caractéristiques. Ils ont recensé en moyenne 5 caractéristiques par risque et, notamment, la reconnaissance visuelle, l’attention sélective, la reconnaissance auditive et la vigilance. Comme on pouvait s’y attendre, la reconnaissance visuelle joue un rôle beaucoup plus important que la reconnaissance auditive: 77,3% des risques ont été perçus visuellement et 21,2% seulement par l’ouïe. Pour 57,5% des risques observés, les travailleurs devaient partager leur attention entre les tâches à accomplir et les risques à maîtriser; or, l’attention partagée est un processus mental extrêmement contraignant susceptible d’entraîner des erreurs. On a constaté que les accidents étaient souvent dus à un manque d’attention pendant l’exécution d’une double tâche. Ce qui est encore plus alarmant, c’est de constater que, pour 56,3% des risques, les travailleurs devaient faire preuve de rapidité dans leur identification et dans leurs réactions pour éviter d’être touchés et blessés. Seuls 15,9% et 7,3% des risques recensés avaient été annoncés par des signaux acoustiques ou optiques; la perception et la reconnaissance du danger sont donc bien le fait d’une action personnelle.

Figure 59.12 Processus de perception et de reconnaissance des indicateurs de
danger dans l'industrie

Figure 59.12

Dans certains cas (16,1%), la perception du risque est facilitée par des panneaux ou des signaux; en général, toutefois, les travailleurs se fient à leurs connaissances, leur formation et leur expérience professionnelle. La figure 59.13 illustre les caractéristiques du processus d’anticipation et d’évaluation des indicateurs qu’exige la maîtrise du danger sur les lieux de travail. La caractéristique centrale de toutes les activités mentionnées dans cette figure est le besoin de connaissances et d’expérience acquises dans le travail, notamment de connaissances techniques sur les forces, les énergies et les poids mis en œuvre, le besoin d’une formation permettant de reconnaître les défectuosités de l’outillage et des machines, et le besoin, enfin, de l’expérience grâce à laquelle on peut prévoir les défaillances structurelles du matériel, des ouvrages et des matériaux. Comme Hoyos et coll. (1991) l’ont montré, les travailleurs connaissent mal les risques, les consignes de sécurité et les modalités d’un comportement personnel permettant d’éviter les accidents. Seuls 60% des travailleurs du bâtiment et 61% des mécaniciens de garage interrogés savaient comment résoudre correctement les problèmes de sécurité qu’il est courant de rencontrer sur leur lieu de travail.

Figure 59.13 Processus d'anticipation et dévaluation des indicateurs de
danger dans l'industrie

Figure 59.13

L’analyse de la perception du risque montre que plusieurs processus cognitifs interviennent, par exemple la reconnaissance visuelle, l’attention sélective et partagée, l’identification rapide et la réactivité, l’estimation de paramètres techniques et la prévision de risques cachés. En fait, risque et danger sont souvent inconnus des travailleurs: ils pèsent lourdement sur des gens confrontés à toute une série d’impératifs d’ordre visuel et auditif et peuvent porter à l’erreur lorsqu’il faut à la fois accomplir un travail et en maîtriser les risques. Il est donc indispensable d’accorder beaucoup plus d’attention à l’identification et à l’analyse systématiques des risques sur les lieux de travail. Dans plusieurs pays, l’évaluation formelle de ces risques en milieu de travail est obligatoire. A titre d’exemple, les directives de l’Union européenne relatives à l’hygiène et à la sécurité demandent qu’on évalue ceux que présentent les postes informatiques avant leur occupation ou lorsqu’ils subissent des modifications importantes; aux Etats-Unis, l’Administration de la sécurité et de la santé au travail (Occupational Safety and Health Administration (OSHA)) impose l’analyse régulière des risques des unités de production.

La coordination de la tâche et de la maîtrise du risque

Comme le soulignent Hoyos et Ruppert (1993), 1) la tâche à accomplir et la maîtrise du risque peuvent exiger une attention simultanée; 2) on peut les gérer de manière alternative; 3) on peut prendre des précautions avant de commencer le travail (port d’un casque, etc.).

Dans le cas d’impératifs simultanés, la maîtrise du risque repose sur la reconnaissance visuelle, auditive et tactile. Il est en effet difficile, dans les tâches routinières, de séparer l’exécution du travail de la maîtrise des risques qu’il peut présenter. Ainsi, lors de l’opération qui consiste, dans une filature de coton, à couper des fils à l’aide d’un couteau acéré, le danger est omniprésent. Or, il n’existe que deux types de mesures pour éviter de se blesser: l’habileté à manier le couteau ou l’utilisation d’un équipement de protection individuelle. Si l’on veut assurer la sécurité, il faut que la mesure adoptée soit parfaitement intégrée dans la séquence gestuelle de l’opérateur. L’habitude de couper en éloignant le couteau de la main qui tient le fil doit donc être enracinée dans la technique opératoire dès le départ. Dans cet exemple, la maîtrise du risque fait partie intégrante de la maîtrise de la tâche sans qu’il soit besoin de recourir à aucun processus distinct de détection du risque. Il existe probablement un continuum d’intégration dans la tâche à accomplir, dont le degré dépend de l’habileté de l’opérateur et des impératifs de la tâche. Si, d’une part, la perception et la maîtrise du risque sont intégrées de manière inhérente dans la technique opératoire, il n’en reste pas moins, d’autre part, que l’exécution de la tâche et la maîtrise du risque sont des activités nettement distinctes. Les cas où le travail et la maîtrise du risque peuvent être gérés de manière alternative se rencontrent lorsque, pendant l’exécution de la tâche, le potentiel de danger augmente régulièrement ou qu’il se déclenche un signal d’alarme; dans ce type de situation, l’opérateur interrompt son travail et prend les mesures préventives qui s’imposent. L’examen d’une jauge est l’exemple type d’un test de diagnostic élémentaire; lorsqu’un préposé d’une salle de commande constate un écart par rapport au niveau normal sans que cet écart, à première vue, constitue un signe inquiétant de danger, il sera porté à vérifier d’autres indicateurs. Si l’écart se confirme, il effectuera une série rapide de vérifications, conformément à un comportement procédural. Si les différents écarts constatés sont incompatibles avec un schéma familier, le processus de diagnostic passe au niveau cognitif. Dans la plupart des cas, animé par une stratégie ou une autre, l’opérateur va rechercher activement des signaux et des symptômes susceptibles de localiser la cause des écarts (Konradt, 1994). Le système de contrôle de l’attention est normalement en phase de monitorage général, mais il suffit d’un signal soudain (donné par un avertisseur sonore ou, comme ci-dessus, par une jauge dont l’aiguille s’écarte dangereusement de sa position normale) pour embrayer ce système sur le sujet spécifique de la maîtrise du danger. Le signal en question déclenche alors une recherche de la cause des écarts au niveau du comportement procédural ou, en cas d’incident, au niveau cognitif (Reason, 1990).

Le comportement préventif qui intervient avant le début du travail correspond à un troisième type de coordination. L’exemple le plus marquant est l’utilisation d’équipements de protection individuelle.

Les différentes significations du risque

Différentes définitions du risque et des méthodes d’évaluation du risque dans l’industrie et dans la société ont été élaborées dans les domaines de l’économie politique, de l’ingénierie, de la chimie, de la sécurité et de l’ergonomie (Hoyos et Zimolong, 1988). Le mot risque a fait l’objet des interprétations les plus diverses. On l’interprète d’un côté comme désignant la «probabilité d’un événement indésiré»; il exprime dans ce cas la probabilité que quelque chose de désagréable va se produire. Yates (1992a), pour sa part, en donne une définition plus neutre lorsqu’il relève qu’il faut percevoir le risque comme un concept pluridimensionnel qui, dans sa globalité, évoque la perspective d’une perte. La géographie, la sociologie, les sciences politiques, l’anthropologie et la psychologie ont largement contribué à la compréhension actuelle de l’évaluation du risque dans la société. Si, au départ, la recherche était axée sur la compréhension du comportement humain face aux dangers naturels, son champ s’étend désormais aux risques technologiques. Il ressort d’études sociologiques et anthropologiques que l’évaluation et l’acceptation des risques plongent leurs racines dans des facteurs sociaux et culturels. Short (1984) affirme que les réactions au danger sont influencées par le milieu social (famille, amis, collègues, figures publiques respectées). La recherche psychologique sur l’évaluation des risques a commencé par des travaux empiriques portant sur l’étude des probabilités, l’appréciation de l’utilité et les processus décisionnels (Edwards, 1961).

L’appréciation des risques techniques est généralement axée sur la notion de perte potentielle, à savoir la probabilité de survenue de la perte et son ampleur en termes de mort d’hommes, de lésions corporelles et de dommages matériels. Le risque est la probabilité qu’un dommage d’un certain type se produise dans un système donné au cours d’une période déterminée. Pour répondre aux besoins de l’industrie et de la société, on a recours à différentes techniques d’évaluation. Il existe des tables donnant les taux de défaillance d’équipements divers, ainsi que des banques de données sur la fiabilité humaine. La méthode des arbres de défauts (on parle aussi d’arbres des fautes ou des causes) a été employée pour évaluer la sécurité des systèmes. On peut également citer la méthode THERP (Technique for Human Error Rate Prediction) (Swain et Guttmann, 1983) ou des méthodes de décomposition reposant sur des classements subjectifs telles que SLIM-Maud (Embrey et coll., 1984). Ces techniques varient considérablement quant à leurs possibilités de prédiction d’événements futurs comme des incidents fâcheux, des erreurs ou des accidents. S’agissant de prévision d’erreurs dans les systèmes industriels, c’est avec la méthode THERP que les spécialistes ont eu les meilleurs résultats. Dans une étude de simulation, Zimolong (1992) a constaté une concordance étroite entre les probabilités d’erreur obtenues de manière objective et leurs estimations à l’aide de THERP. Zimolong et Trimpop (1994) affirment que ces analyses formelles présentent la plus grande «objectivité» si elles sont effectuées de manière correcte, c’est-à-dire en séparant les faits des opinions et en tenant compte des distorsions de jugement.

La conscience du risque qu’a le grand public ne dépend pas seulement de la probabilité et de l’ampleur d’une perte. Elle peut être influencée par des facteurs tels que l’importance potentielle des dommages, la méconnaissance des conséquences éventuelles, la nature involontaire de l’exposition au risque, la nature incontrôlable du dommage et, parfois aussi, par une médiatisation déformée. L’impression de maîtrise de la situation peut jouer un rôle particulièrement important. Ainsi, nombreux sont ceux qui estiment que l’avion est un moyen de transport très peu sûr car, une fois dans les airs, on n’a plus aucune maîtrise de son sort. Rumar (1988) a constaté que le risque lorsqu’on conduit une voiture est généralement faible, car le conducteur est convaincu qu’il est capable de garder la maîtrise de son véhicule dans la plupart des situations et qu’il est accoutumé au risque. D’autres chercheurs ont étudié les réactions émotionnelles dans des situations de risque. Le potentiel de perte grave déclenche une série de réactions affectives qui, du reste, ne sont pas forcément toutes désagréables: la ligne de démarcation entre la peur et l’exaltation est ténue. Là encore, il semble que l’un des principaux facteurs qui déterminent le risque perçu et les réactions affectives à des situations de risque soit l’impression individuelle de maîtrise ou d’absence de maîtrise. Il n’est donc pas exclu que, pour bien des gens, le risque ne soit rien d’autre qu’une impression.

La prise de décisions en situation de risque

La prise de risques peut être le résultat d’un processus décisionnel délibéré impliquant plusieurs actions: inventaire des lignes de conduite possibles, recensement des conséquences, évaluation de l’intérêt des conséquences et de la probabilité qu’elles se produisent ou décision assise sur un amalgame de ces diverses appréciations. Le fait que les gens font souvent un mauvais choix dans des situations de risque signifie qu’il existe un fort potentiel de décisions plus judicieuses. En 1738 déjà, Bernoulli avait défini la notion de «meilleur pari» comme celui qui maximise l’utilité escomptée de la décision. Ce concept de rationalité veut dire que les gens devraient prendre leurs décisions en évaluant les incertitudes qui subsistent et en considérant leurs choix, les conséquences possibles de ces choix et leurs préférences à cet égard (von Neumann et Morgenstern, 1947). Plus tard, Savage (1954) a généralisé cette théorie pour permettre aux valeurs de probabilité de représenter des probabilités subjectives ou personnelles.

L’utilité escomptée subjective (UES) est une théorie normative qui décrit la façon dont il faudrait procéder pour prendre des décisions. D’après Slovic, Kunreuther et White (1974), «la maximisation de l’utilité escomptée mérite l’attention en tant que ligne directrice d’un comportement intelligent, car elle découle de principes axiomatiques qui seraient sans doute acceptés par tout homme rationnel». Une bonne partie du débat et de la recherche empirique a été centrée sur la question de savoir si cette théorie pouvait également décrire les objectifs qui motivent les décideurs, ainsi que les processus auxquels ceux-ci ont recours pour parvenir à leurs décisions. Simon (1959) a critiqué cette théorie comme étant celle d’une personne qui procède à un choix parmi des solutions possibles connues dont chacune a des conséquences connues. Certains chercheurs sont allés jusqu’à se demander si les gens devaient obéir aux principes de la théorie de l’utilité escomptée. Après des décennies de recherche, les applications de l’UES restent un sujet de controverse; en effet, les études montrent que les facteurs psychologiques jouent un rôle important dans la prise de décisions et que nombre de ces facteurs ne sont pas suffisamment pris en compte par les modèles UES.

En particulier, la recherche sur les jugements et les choix montre que les gens présentent des carences méthodologiques: compréhension des probabilités, négligence de l’effet de taille des échantillons, confiance dans des expériences personnelles trompeuses, appréciation naïve des faits, sous-estimation des risques. Il y a de plus fortes chances que les gens sous-estiment des risques s’ils y ont été volontairement exposés pendant des années, comme le fait de vivre dans des régions sujettes aux inondations ou aux séismes. Des résultats analogues ont été signalés dans l’industrie (Zimolong, 1985). Ainsi, le personnel de manœuvre dans les gares, les mineurs, les bûcherons et les travailleurs des chantiers sous-estiment de manière spectaculaire, par rapport aux statistiques objectives d’accidents, les risques de leurs tâches les plus courantes; en revanche, ils surestiment généralement les tâches manifestement dangereuses de leurs camarades de travail.

Malheureusement, il apparaît que les jugements des spécialistes sont, dans une large mesure, entachés des mêmes distorsions que ceux des profanes, notamment lorsque ces spécialistes sont contraints d’aller au-delà des limites des données disponibles et de se fier à leur intuition (Kahneman, Slovic et Tversky, 1982). La recherche montre également que les désaccords sur les risques ne devraient pas disparaître complètement, même lorsqu’il existe des preuves suffisantes. En effet, les opinions exprimées avec force dès le départ résistent au changement, car elles influent sur le mode d’interprétation des informations recueillies par la suite. Les nouvelles preuves paraissent fiables et informatives si elles concordent avec les opinions initiales; la preuve du contraire est généralement rejetée comme non fiable, erronée ou non représentative (Nisbett et Ross, 1980). Mais, lorsque les gens n’ont pas d’opinions antérieures bien ancrées, c’est l’opposé qui prévaut: ils sont à la merci de la formulation du problème. La présentation d’une même information sur le risque de plusieurs façons différentes (l’indication, par exemple, du taux de mortalité plutôt que du taux de survie) modifie leurs manières de voir et leurs actes (Tversky et Kahneman, 1981). La reconnaissance de cet ensemble de stratégies mentales que les gens appliquent, afin de structurer leur univers et de déterminer leur ligne de conduite ultérieure, a permis une meilleure compréhension du processus de prise de décisions en présence d’un danger potentiel. Bien que ces règles soient valables dans de nombreux cas, elles aboutissent, dans d’autres, à des distorsions importantes et persistantes qui ont de graves implications pour l’évaluation des risques.

L’évaluation individuelle du risque

La démarche la plus répandue pour étudier la façon dont les gens évaluent le risque fait appel à une échelle psychophysique et à des techniques d’analyse multidimensionnelle pour obtenir des représentations quantitatives des attitudes face au risque et de l’évaluation du risque (Slovic, Fischhoff et Lichtenstein, 1980). De nombreuses études montrent que l’évaluation du risque fondée sur des jugements subjectifs est quantifiable et prévisible; elles montrent également que la notion même de risque n’a pas le même sens pour chacun. Lorsque des spécialistes jugent un risque en se fiant à leur expérience personnelle, leurs appréciations sont en corrélation étroite avec les estimations techniques des accidents mortels survenant au cours d’une année. Par contre, les avis des profanes sont davantage influencés par des considérations telles que le potentiel de catastrophe ou d’une menace pour les générations futures; de ce fait, leur estimation des probabilités de perte s’écarte généralement de celles des spécialistes.

On peut regrouper les évaluations du danger par les profanes en deux facteurs (Slovic, 1987). Le premier reflète le degré de compréhension d’un risque par les gens, cette compréhension étant liée à la mesure dans laquelle le risque est observable, connu de ceux qui y sont exposés et peut être détecté immédiatement. Le second facteur traduit le degré à partir duquel le risque fait naître un sentiment de crainte lié à l’absence de maîtrise de la situation ou à la perspective de conséquences graves, d’une exposition des générations futures à des risques élevés ou d’une augmentation involontaire du risque. Plus le score exprimé par ce second facteur est inquiétant, plus le risque sera jugé élevé, plus les gens voudront voir ce risque diminuer et plus ils demanderont l’application d’une réglementation rigoureuse à cette fin. Le fait que le point de vue des spécialistes et celui des profanes s’appuient sur des définitions différentes du concept de risque peut faire naître de nombreuses controverses en ce domaine; les spécialistes auront beau invoquer les statistiques ou les résultats des évaluations techniques des risques, les attitudes des gens et leur manière d’évaluer les risques ne s’en trouveront pas pour autant radicalement changées (Slovic, 1993).

La caractérisation du danger en termes de «connaissance» et de «menace» ramène à la discussion sur les indicateurs de danger décrits plus haut en termes de «perceptibilité». Dans l’industrie, 42% des indicateurs de danger sont directement perceptibles par les sens de l’être humain, 45% doivent être déduits de comparaisons avec des critères normatifs et 3% font appel à la mémoire. La perceptibilité, la menace du danger, mais aussi le frisson qu’il procure, sont des dimensions étroitement liées au vécu des gens en matière de danger et à leur sentiment de pouvoir ou non le maîtriser. Toutefois, pour comprendre et prédire le comportement d’un individu face au danger, il faut arriver à mieux appréhender le rôle que jouent la personnalité, les contraintes liées aux tâches et les variables sociétales.

Il semble que les techniques psychométriques permettent de cerner au sein d’un groupe les similitudes et les différences relatives aux attitudes et aux habitudes personnelles en matière d’évaluation des risques. Cependant, d’autres méthodes psychométriques — telles que l’analyse pluridimensionnelle des jugements de similitude en ce qui concerne le danger — donnent des représentations différentes lorsqu’elles sont appliquées à des ensembles de risques tout à fait différents eux aussi. Bien qu’elle soit informative, l’analyse factorielle ne fournit en aucun cas une représentation universelle des risques. Les études psychométriques présentent un autre point faible, en ce sens que les gens ne sont confrontés au risque que sur le papier et établissent une séparation très nette entre l’évaluation du risque et le comportement dans des situations de danger réel. Les facteurs qui affectent l’évaluation du risque par un individu dans le cadre d’une expérience psychométrique peuvent être insignifiants par rapport au risque réel. Selon Howarth (1988), cette connaissance verbale consciente reflète généralement des stéréotypes sociaux. Par opposition, les réactions à la prise de risque dans la réalité (circulation routière, usine) sont contrôlées par la connaissance tacite qui sous-tend un comportement averti ou routinier.

La plupart des décisions personnelles que l’on est appelé à prendre au quotidien en matière de risque ne sont absolument pas raisonnées; dans l’ensemble, les gens ne sont même pas conscients du risque, alors que la notion sous-jacente des expériences psychométriques est présentée comme une théorie du choix délibéré. Effectuées le plus souvent à l’aide d’un questionnaire, les évaluations de risques sont volontairement conduites «dans un fauteuil». Or, bien souvent, les réactions d’un individu face à une situation de risque résultent d’habitudes acquises qui sont automatiques et se situent au-dessous du niveau général de prise de conscience. En règle générale, les gens n’évaluent pas les risques: on ne peut donc prétendre que leur façon de les évaluer est inexacte et doit être améliorée. La plupart des activités à risque sont nécessairement exécutées au niveau le plus bas du comportement machinal, là où il n’y a tout simplement pas de place pour une prise en compte du risque. L’idée que les risques identifiés après la survenance d’un accident sont acceptés après une analyse consciente est peut-être née au fond d’une confusion entre l’UES normative et les modèles descriptifs (Wagenaar, 1992). On paraît avoir accordé moins d’attention aux conditions dans lesquelles les gens agissent machinalement, obéissent à leur instinct ou choisissent la première mesure qui se présente à leur esprit. Et pourtant, une opinion largement répandue dans la société et parmi les professionnels de la sécurité et de la santé veut que la prise de risque soit un facteur causal essentiel d’incidents et d’erreurs. Dans un échantillon représentatif de Suédois âgés de 18 à 70 ans, 90% ont convenu que la prise de risques était la principale source d’accidents (Hovden et Larsson, 1987).

Le comportement préventif

On peut être amené à prendre délibérément des mesures pour prévenir un danger, atténuer son intensité ou se protéger en prenant des précautions (en portant un casque et des lunettes de protection, par exemple). Du reste, on y est souvent obligé par le règlement d’entreprise, voire par la loi. Ainsi, le couvreur doit dresser un échafaudage avant de travailler sur un toit, afin d’éviter les chutes. Cette démarche peut résulter d’un processus conscient d’évaluation du risque et de l’aptitude personnelle à y faire face, d’un simple processus d’habituation, ou encore d’une obligation légale. Souvent, des panneaux ou des avis rappellent les mesures de prévention qui sont contraignantes.

Hoyos et Ruppert (1993) ont étudié plusieurs types de mesures de prévention dans l’industrie. Quelques-unes sont indiquées à la figure 59.14, avec leurs fréquences d’application respectives. Comme on peut le voir, ces mesures relèvent en partie de l’initiative personnelle, en partie de prescriptions légales et de consignes édictées par l’entreprise. Elles comprennent entre autres la planification du travail, le port d’équipements de protection individuelle, le choix de méthodes de travail sûres (matériaux et outils adaptés), la fixation d’une cadence adéquate et le contrôle des installations, du matériel, des machines et des outils.

Figure 59.14 Processus de planification et de prévention du danger

Figure 59.14

L’équipement de protection individuelle

La précaution la plus fréquemment exigée est l’utilisation d’un équipement adéquat de protection individuelle. Elle constitue, avec les mesures visant la sécurité des manutentions et des travaux de maintenance, l’obligation de loin la plus courante dans l’industrie. Il existe, d’une entreprise à l’autre, de grandes différences dans le degré d’utilisation de l’équipement en question. Dans les usines chimiques et les raffineries de pétrole, par exemple, le taux d’utilisation est voisin de 100%. En revanche, dans le secteur de la construction, les responsables de la sécurité rencontrent des difficultés, ne serait-ce que pour tenter d’imposer régulièrement le port d’un équipement particulier. Il est peu probable que la perception du risque soit le principal facteur de différence. Certaines entreprises ont imposé avec succès l’utilisation d’un équipement de protection individuelle — qui devient alors une habitude (port du casque, etc.) —, en instaurant une bonne culture de sécurité et une évaluation personnelle du risque modifiée en conséquence. Dans sa brève étude sur le port des ceintures de sécurité, Slovic (1987) note que près de 20% des usagers de la route attachent volontairement leur ceinture et que 50% ne la mettraient que si une loi en rendait l’emploi obligatoire; au-delà de ce chiffre, seuls des contrôles et des amendes permettraient de rendre le geste automatique. S’il est important de comprendre les facteurs qui régissent la perception du risque, il est tout aussi important de savoir comment modifier les comportements et, par voie de conséquence, cette perception elle-même. Des mesures de précaution beaucoup plus nombreuses devraient être prises au niveau des entreprises par les bureaux d’études, les gestionnaires et ceux qui prennent des décisions ayant des implications pour des milliers de gens. Pour l’heure, ces niveaux de décision appréhendent mal les facteurs dont dépendent la perception et l’évaluation du risque. Si les entreprises sont considérées comme des systèmes ouverts où différents niveaux d’organisation s’influencent mutuellement et procèdent à des échanges constants avec la société, on peut penser qu’une démarche du type «systèmes» mette en évidence les facteurs qui déterminent la perception et l’évaluation du risque.

Les étiquettes de mise en garde

L’utilisation d’étiquettes et d’avis de mise en garde est une méthode controversée de gestion des risques. Elle est considérée trop souvent comme un moyen commode pour les fabricants d’éluder leurs responsabilités face aux produits à risque. Il va de soi qu’une étiquette de ce genre ne sera efficace que si les renseignements qu’elle fournit sont lus et compris par les intéressés. Frantz et Rhoades (1993) ont constaté que 40% des employés utilisant un classeur à compartiments avaient remarqué l’étiquette de mise en garde apposée sur le tiroir du haut, que 33% en avaient pris partiellement connaissance, mais que personne ne l’avait lue en entier (contrairement à toute attente, 20% ont respecté la mise en garde en remplissant tout d’abord les tiroirs du bas). Il ne suffit évidemment pas de jeter un simple coup d’œil à une mise en garde. Lehto et Papastavrou (1993) ont effectué une analyse approfondie des constatations faites en matière de panneaux et d’étiquettes de mise en garde; ils ont étudié différents facteurs, à savoir les destinataires, la tâche, le produit (ou objet) et le message. En outre, ils ont largement contribué à la compréhension de l’efficacité des mises en garde en examinant différents niveaux de comportement.

L’étude des comportements de type machinal laisse entendre qu’une mise en garde n’a guère d’impact sur la façon dont les gens exécutent une tâche familière, tout simplement parce qu’ils ne vont pas la lire. Lehto et Papastavrou (1993) ont conclu des résultats de leur étude que l’interruption de l’exécution d’une tâche familière peut améliorer sensiblement la perception qu’ont les travailleurs des étiquettes ou panneaux de mise en garde. Dans l’expérience réalisée par Frantz et Rhoades (1993), le nombre des employés ayant remarqué les étiquettes de mise en garde est passé à 93% lorsque le tiroir du haut a été scellé par une note indiquant qu’il s’y trouvait une étiquette. Les auteurs ont toutefois conclu que l’on ne dispose pas toujours de moyens permettant d’interrompre un comportement machinal et que, après une première utilisation de ces moyens, leur efficacité peut considérablement diminuer.

Au niveau du comportement procédural, il faudrait que l’information de mise en garde soit intégrée à la tâche (Lehto, 1992), de sorte qu’elle puisse inspirer des actions appropriées et immédiates. En d’autres termes, la tâche devrait être exécutée conformément aux instructions de l’étiquette de mise en garde. Frantz (1992) a constaté que 85% des sujets interrogés au cours d’une enquête auraient souhaité que les modes d’emploi d’un produit de conservation du bois et d’un nettoyant pour canalisations comportent un avertissement. D’un autre côté, des études ont révélé que les gens n’interprétaient pas toujours correctement les symboles et le texte des panneaux et des étiquettes de mise en garde. En particulier, Koslowski et Zimolong (1992) ont constaté que les travailleurs de la chimie ne comprenaient pas la signification de 40% environ des signaux de mise en garde les plus importants employés dans l’industrie chimique.

Au niveau du comportement cognitif, il semble que les gens remarquent les mises en garde quand ils les cherchent vraiment. Ils s’attendent à en trouver à proximité des produits qu’ils utilisent. Frantz (1992) relève que les sujets se trouvant dans un environnement peu familier avaient respecté les instructions dans 73% des cas lorsqu’ils les avaient lues, mais dans seulement 9% des cas lorsqu’ils ne l’avaient pas fait. Une fois lue, l’étiquette doit être comprise et mémorisée. Plusieurs études portant sur la compréhension et la mémorisation montrent que les gens ont parfois du mal à se souvenir de ce qu’ils ont lu sur un mode d’emploi ou une étiquette de mise en garde. Aux Etats-Unis, le Conseil national de la recherche (National Research Council (NRC)) (1989) prête son concours à l’élaboration de mises en garde. Il insiste sur l’importance de bonnes communications dans les deux sens pour améliorer la compréhension: le communicateur doit faciliter le retour d’information et encourager les questions de la part du destinataire. Les conclusions du rapport de cette institution sont récapitulées dans deux listes de contrôle, l’une à l’usage des cadres, l’autre destinée à guider les destinataires.

L’ACCEPTATION DU RISQUE

Rüdiger Trimpop et Bernhard Zimolong

La notion d’acceptation du risque soulève une question: «Quel est le degré de sûreté de ce qui est suffisamment sûr?» ou, pour être plus précis, «La nature conditionnelle de l’évaluation du risque pose la question du critère normatif de risque à retenir pour attribuer une valeur aux distorsions humaines» (Pidgeon, 1991). Cette question n’est pas sans importance lorsqu’il s’agit par exemple de décider s’il faut prévoir une enveloppe de confinement supplémentaire autour des centrales nucléaires, s’il faut fermer les écoles contenant de l’amiante ou s’il faut éviter tous les ennuis possibles, en tout cas à court terme. Certaines de ces questions relèvent des pouvoirs publics, d’autres de l’individu qui doit choisir entre des actes certains et d’éventuels dangers incertains.

La question de savoir s’il faut accepter ou refuser d’assumer un risque résulte de décisions prises pour déterminer le niveau optimal de risque dans une situation donnée. Dans bien des cas, ces décisions résultent automatiquement, ou presque, de perceptions et d’habitudes acquises par l’expérience et la formation. En revanche, chaque fois qu’il se produit une situation nouvelle ou qu’il survient un changement dans des tâches apparemment familières (par exemple, l’accomplissement de tâches inhabituelles ou semi-routinières), la prise de décisions s’avère plus complexe. Pour mieux comprendre les raisons pour lesquelles les gens acceptent certains risques et en refusent d’autres, il faut définir tout d’abord ce qu’est l’acceptation du risque. Il faut ensuite étudier les processus psychologiques qui mènent à l’acceptation ou au refus, y compris les facteurs concourants. Enfin, il faut considérer les méthodes permettant de modifier un degré d’acceptation du risque jugé trop élevé ou trop faible.

La compréhension du risque

D’une manière générale, dès lors que le risque n’est pas rejeté, cela signifie qu’il a été accepté soit de manière délibérée, soit par étourderie ou par habitude. Ainsi, lorsque les gens se mêlent à la circulation, ils acceptent les risques de dommage matériel, de lésion, de trépas et de pollution en échange des avantages d’une mobilité accrue. La personne qui choisit de se faire opérer considère que le coût ou les avantages de l’intervention dépassent ses inconvénients. Lorsqu’une personne place de l’argent en bourse ou décide de changer de gamme de produits, toutes les décisions impliquant l’acceptation de certains risques et avantages financiers comportent des aléas. Enfin — et les statistiques le montrent —, le choix d’un emploi implique lui aussi des probabilités diverses de lésion ou d’accident mortel.

Si l’on définit l’acceptation du risque uniquement par rapport à ce qui n’a pas été rejeté, on ne répond pas à deux questions importantes. La première a trait à la définition de ce que l’on entend exactement par risque . Quant à la seconde, elle concerne l’hypothèse fréquemment émise selon laquelle le risque correspond simplement à une perte potentielle qu’il faut éviter, alors qu’en réalité il y a une différence entre le fait de tolérer simplement un risque et celui de l’accepter, voire de souhaiter qu’il soit présent pour goûter l’exaltation que procure le danger. Si ces aspects peuvent se traduire par un même comportement (se mêler à la circulation, par exemple), les processus cognitifs, émotionnels et physiologiques sous-jacents sont toutefois différents. Il paraît évident qu’un risque simplement toléré relève d’un niveau d’engagement différent que le risque souhaité pour l’exaltation ou la sensation de «mise en danger» qu’il procure. La figure 59.15 récapitule les différentes facettes de l’acceptation du risque.

Figure 59.15 Facettes de l'acceptation et du rejet du risque

Figure 59.15

Si l’on cherche le mot risque dans des dictionnaires de diverses langues, on voit qu’il a souvent le double sens de «chance, possibilité», d’une part, et de «danger, perte», d’autre part (wej-ji en chinois, Risiko en allemand, risico en néerlandais, rischio en italien, risk en anglais, etc.). Le mot risque a vu le jour au XVIe siècle et s’est répandu par suite d’un changement de mentalités, les gens étant passés de l’impression d’être totalement manipulés par «les bons esprits et les esprits malins» à une notion de chance et de danger pour chaque individu libre d’influer sur son avenir (le mot risque vient probablement du grec rhiza , «racine ou falaise», ou de l’arabe rizq , «ce que Dieu et le destin t’apportent dans la vie»). Dans le langage quotidien, on utilise des dictons comme «Qui ne risque rien n’a rien», «La chance sourit aux audacieux» ou «A vaincre sans péril, on triomphe sans gloire», qui incitent à prendre et à accepter des risques. Risque implique toujours incertitude. Etant donné qu’il existe généralement un certain doute quant au succès ou à l’échec ou quant à la probabilité et à la portée des conséquences, l’acceptation du risque est toujours synonyme d’acceptation d’incertitude (Schäfer, 1978).

La recherche sur la sécurité a largement ramené la signification du risque à ses aspects dangereux (Yates, 1992a). Ce n’est que récemment que les conséquences positives du risque sont apparues à nouveau avec le développement d’activités de loisir d’aventure (saut à l’élastique, moto, voyages, etc.) et une meilleure compréhension des raisons qui poussent les gens à accepter et à prendre des risques (Trimpop, 1994). D’aucuns prétendent que l’on ne peut comprendre le comportement d’acceptation et de prise de risques et exercer une influence sur lui que si l’on tient compte non seulement des aspects positifs du risque, mais aussi de ses aspects négatifs.

Par conséquent, la notion d’acceptation du risque évoque le comportement d’une personne qui se trouve dans une situation d’incertitude par suite de sa décision d’adopter ce comportement (ou de ne pas l’adopter), après avoir pesé les avantages escomptés et les avoir comparés aux inconvénients dans les circonstances données. Ce processus peut être extrêmement rapide et peut même, en cas de comportement machinal ou habituel, ne pas entrer dans le champ conscient de la prise de décisions; c’est ce qui se produit quand on passe la vitesse supérieure parce que le bruit du moteur augmente. A l’autre extrême, ce processus peut être très long et impliquer une réflexion et un débat délibérés entre plusieurs personnes, par exemple lorsqu’il s’agit de planifier une opération à haut risque telle qu’un vol spatial.

Un aspect important de cette définition touche à la perception du risque. Etant donné que la perception et l’évaluation ultérieure sont fonction du vécu, de l’échelle de valeurs et de la personnalité de l’individu, l’acceptation comportementale du risque repose davantage sur des éléments subjectifs que sur des éléments objectifs. En outre, tant qu’un risque n’est pas perçu et pris en compte, il est impossible de réagir à son égard, quelle que puisse être la gravité du danger. En définitive, le processus cognitif qui conduit à l’acceptation du risque est une opération individuelle de traitement d’informations et d’évaluation qui peut être extrêmement rapide.

Yates et Stone (1992b) ont étudié un modèle qui décrit la reconnaissance du risque comme un processus cognitif d’identification, de stockage et de rappel d’informations. Des problèmes peuvent surgir à chaque étape de ce processus; ainsi, la précision d’identification du risque n’est guère fiable, surtout dans des situations complexes ou pour des dangers tels que les rayonnements, les poisons ou d’autres stimuli malaisés à percevoir. En outre, les mécanismes d’identification, de stockage et de rappel d’informations sont liés à des phénomènes psychologiques courants (effet de nouveauté ou d’actualité, familiarisation, etc.). Autrement dit, les gens accoutumés à un certain risque (conduite à grande vitesse, par exemple) finissent par l’accepter comme une situation «normale» et dévalorisent fortement le risque. Formalisé de manière simple, ce processus se présente sous la forme d’un modèle comportant les éléments suivants:

stimulus => perception => évaluation => décision => comportement => retour d’information

Ainsi, un véhicule qui roule lentement peut inciter un dépassement (c’est le stimulus). L’observation de la circulation routière constitue la perception. L’estimation du temps nécessaire au dépassement est l’évaluation, dont le résultat mène à la décision et au comportement consistant à dépasser ou non le véhicule qui précède. Enfin, le degré de réussite ou d’échec de la manœuvre est constaté immédiatement et ce retour d’information influera sur les décisions ultérieures en matière de dépassement. A chaque étape du processus, la décision finale d’accepter le risque ou non peut être influencée. Le bilan coûts-avantages s’établit en fonction de facteurs liés à l’individu, au contexte et à l’objet, facteurs dont la recherche scientifique a constaté qu’ils jouaient un rôle important dans l’acceptation ou le rejet du risque.

Les facteurs influant sur l’acceptation du risque

Fischhoff et coll. (1981) ont retenu les facteurs 1) de perception individuelle; 2) de temps; 3) d’espace; 4) de contexte du comportement comme étant quatre dimensions importantes de la prise de risques et dont il convient de tenir compte dans l’étude des risques. D’autres auteurs ont recours à des catégories différentes et à des étiquettes différentes pour les facteurs qui influent sur l’acceptation du risque. Les propriétés de la tâche (objet du risque), les facteurs individuels et contextuels ont servi à structurer ces nombreux facteurs, comme l’indique la figure 59.16.

Figure 59.16 Facteurs influant sur l'acceptation du risque

Figure 59.16

Dans les modèles normaux d’acceptation du risque, les conséquences des nouveaux risques technologiques (dans la recherche génétique, par exemple) ont souvent été étudiées en termes quantitatifs sommaires (décès, lésions, dommages matériels) et l’on est parvenu à des courbes de probabilités relatives à ces conséquences au moyen d’estimations ou de simulations (Starr, 1969). Les résultats obtenus ont été comparés aux risques déjà «acceptés» par le grand public et correspondent donc à une certaine acceptabilité du nouveau risque considéré. Les données ont été parfois présentées sous forme d’indice de risque permettant de comparer différents types de risque. Les méthodes les plus fréquemment utilisées dans ce but ont été recensées par Fischhoff et coll. (1981); il s’agit de jugements portés par des spécialistes, de données statistiques et historiques, ainsi que d’analyses formelles telles que celles réalisées par la méthode des arbres de défaillances. Les auteurs affirment que, lorsqu’elles sont convenablement conduites, les analyses formelles présentent la plus grande «objectivité», car elles séparent les faits des opinions et tiennent compte d’un grand nombre de facteurs concourants. Des spécialistes de la sécurité ont néanmoins relevé que l’acceptation du risque — tant publique qu’individuelle — pouvait reposer sur des jugements de valeur faussés et des opinions largement médiatisées, et non sur des analyses logiques.

On dit aussi que le grand public est souvent mal informé par les médias et les groupements politiques qui invoquent les données statistiques servant leurs fins. Au lieu de se fier à des partis pris individuels, il faudrait, en matière d’acceptation du risque, prendre en compte uniquement les avis qualifiés fondés sur des connaissances spécialisées et tenir le grand public à l’écart de décisions aussi importantes. Ce point de vue a fait l’objet de vives critiques, car il remet en cause à la fois des valeurs démocratiques (les gens doivent avoir la possibilité de se prononcer sur des questions qui peuvent avoir des conséquences catastrophiques pour leur sécurité et leur santé) et des valeurs sociales (une innovation technologique ou une décision risquée doit-elle profiter à ses bénéficiaires plus qu’à ceux qui en paient la facture?). Fischhoff, Furby et Gregory (1987) ont proposé de tenir compte, pour déterminer l’acceptabilité du risque, des préférences du «public concerné», ces préférences pouvant être exprimées (par la voie d’entretiens ou de questionnaires) ou révélées (par le truchement d’observations). Jungermann, Rohrmann et Wiedemann (1991) ont souligné la difficulté qu’il y a à définir le «public concerné» dans le cas de technologies comme les centrales nucléaires ou les manipulations génétiques, étant donné que plusieurs pays, voire la population mondiale tout entière, peuvent pâtir ou bénéficier de leurs applications.

Le fait de n’avoir recours qu’aux avis des seuls experts a également été examiné. Ces avis, lorsqu’ils sont fondés sur des modèles normaux, sont plus proches des estimations statistiques que ceux du public (Otway et von Winterfeldt, 1982). Curieusement, quand on interroge le profane sur les probabilités de mortalité ou de morbidité d’une technologie nouvelle, son point de vue est beaucoup plus proche de l’avis des experts et des indices de risque. Des études montrent également que, si les gens s’en tiennent à leur première estimation rapide une fois qu’ils sont en possession de données pertinentes, ils la corrigent lorsque des avantages ou des dangers réalistes sont évoqués et discutés par des spécialistes. Par ailleurs, Haight (1986) souligne que les avis des spécialistes étant subjectifs et ceux-ci étant souvent en désaccord quant à leur estimation des risques, le public est parfois plus précis dans son évaluation si le risque est apprécié après qu’un accident s’est produit (la catastrophe de Tchernobyl, par exemple). On peut en conclure que, lorsqu’il donne son avis, le public se fonde sur d’autres dimensions du risque que sur les statistiques concernant le nombre de morts ou de blessés.

Il est un autre aspect qui joue un rôle dans l’acceptation du risque, celui de savoir si les effets perçus de la prise de risques (par exemple, une poussée d’adrénaline ou le fait d’être considéré par la société comme un héros) sont jugés positifs. Machlis et Rosa (1990) ont étudié la notion de risque recherché par rapport au risque toléré ou au risque redouté; leur conclusion est que, dans bien des cas, un risque accru a un effet plus stimulant que dissuasif. Ils ont constaté que les gens pouvaient ne pas être ennemis du risque en dépit d’une médiatisation du danger qu’il représente. On cite le cas d’un parc d’attractions où l’on a constaté qu’un manège était beaucoup plus prisé du public après avoir été remis en service à la suite d’un accident. De même, après le naufrage d’un ferry norvégien qui a obligé les passagers à demeurer sur des icebergs pendant trente-six heures, la société d’exploitation a enregistré la plus forte demande de son existence. Les chercheurs en concluent que la notion de risque recherché modifie la façon dont on le perçoit ou dont on l’accepte et exige de faire appel à des modèles conceptuels différents pour expliquer le comportement de prise de risques. Ces hypothèses sont étayées par des études qui montrent que, pour les policiers en patrouille, le risque d’être attaqué ou tué est curieusement perçu comme un enrichissement de leur mission, alors que pour les policiers chargés de tâches administratives, le même risque est ressenti comme étant redoutable. Vlek et Stallen (1980) ont suggéré d’intégrer des aspects de récompense plus personnels et intrinsèques dans les analyses coûts-avantages pour expliquer les processus d’évaluation et d’acceptation du risque de manière plus complète.

Les facteurs individuels influant sur l’acceptation du risque

Jungermann et Slovic (1987) ont rassemblé des données qui font ressortir des différences individuelles de perception, d’évaluation et d’acceptation de risques «objectivement» identiques entre étudiants, techniciens et écologistes. On a constaté que l’âge, le genre et le niveau d’instruction influent sur l’acceptation du risque, les hommes jeunes et peu instruits prenant les risques les plus grands (guerres, accidents de la circulation, etc.). Zuckerman (1979) a fourni un certain nombre d’exemples de différences individuelles dans l’acceptation du risque et a relevé qu’elles résultaient très probablement de facteurs liés à la personnalité: recherche de sensations fortes ou d’expériences nouvelles, extraversion ou confiance exagérée en soi. La prise en compte des coûts et avantages des risques joue également un rôle dans le processus d’évaluation individuelle et de prise de décisions. En jugeant les risques d’une situation ou d’un acte isolé, différents individus parviennent à des conclusions très diverses. Cette diversité peut se manifester en termes de gradation, du fait, par exemple, de distorsions induites par des considérations de valeur qui font apparaître la décision préférée comme étant moins risquée; ainsi, des individus présomptueux pourront opter pour une valeur d’ancrage différente. Il n’en reste pas moins que les aspects liés à la personnalité n’interviennent que pour 10 à 20% dans la décision d’accepter un risque ou non. Pour expliquer les 80 à 90% restants, il faut considérer d’autres facteurs.

Slovic, Fischhoff et Lichtenstein (1980) ont conclu d’une série d’analyses factorielles et d’entretiens que les profanes ont une appréciation qualitative des risques différente, en ce sens qu’ils font intervenir les dimensions de maîtrisabilité (capacité de maîtrise), de volontarité (volonté d’assumer), de dangerosité et de connaissance préalable du risque. La volontarité et la maîtrisabilité perçue ont été étudiées de façon très approfondie par Fischhoff et coll. (1981). On estime que les risques pris volontairement (motocyclette, alpinisme) présentent un niveau d’acceptation élevé quelque mille fois supérieur à celui des risques sociétaux (pris involontairement). A l’appui de la différence entre risques sociétaux et risques individuels, l’importance de la volontarité et de la maîtrisabilité a été postulée dans une étude de von Winterfeldt, John et Borcherding (1981). Ces auteurs signalent une dangerosité perçue plus faible pour la motocyclette, le métier de cascadeur et la course automobile que pour les accidents nucléaires et les accidents d’avion. Renn (1981) a publié une étude sur la volontarité et la perception de conséquences négatives. Un groupe de sujets a été invité à choisir entre trois types de pilules, tandis que ces mêmes pilules étaient administrées directement à un autre groupe. Bien que toutes les pilules fussent identiques, les sujets qui ont eu la possibilité de choisir ont manifesté beaucoup moins d’effets secondaires que les autres.

Lorsqu’un risque est perçu au niveau individuel comme étant susceptible d’avoir des conséquences redoutables, voire catastrophiques, pour beaucoup de gens, mais comme ayant une probabilité quasi nulle de se produire, il est souvent jugé inacceptable, bien que l’on sache qu’il n’a entraîné que peu ou pas d’accident mortel. Il en est ainsi plus encore des risques ignorés jusqu’alors par la personne appelée à porter un jugement. Des études montrent également que les gens font appel à leurs connaissances et à leur expérience personnelle d’un risque particulier comme point d’ancrage essentiel de leur jugement lorsqu’il s’agit d’accepter un risque bien défini, alors qu’un risque jusque-là inconnu est jugé davantage en fonction de l’appréhension qu’il suscite et de son degré de gravité. Les individus sont plus enclins à sous-estimer un risque, même élevé, s’ils y ont été exposés longtemps; c’est le cas, par exemple, de ceux qui vivent en aval d’un barrage ou dans une zone de séismes ou qui font un travail «ordinairement» à haut risque, comme les mineurs de fond, les bûcherons ou les ouvriers des chantiers de construction (Zimolong, 1985). Par ailleurs, il semble que les gens jugent les risques imputables à l’humain très différemment des risques naturels et acceptent ceux-ci plus facilement que ceux-là. S’agissant de risques déjà acceptés ou de risques naturels, la démarche des spécialistes consistant à situer les risques des technologies nouvelles à l’une ou l’autre extrémité de l’éventail des «risques objectifs» ne semble pas adéquate aux yeux du grand public. On peut prétendre que les risques déjà acceptés sont simplement tolérés, que les nouveaux risques viennent s’ajouter aux anciens et que de nouveaux dangers n’ont pas encore été vécus ou affrontés. En ce sens, les déclarations des spécialistes sont considérées surtout comme des promesses. Relevons enfin qu’il est très difficile de déterminer ce qui est vraiment accepté, compte tenu du grand nombre de personnes apparemment inconscientes des nombreux risques qui les entourent.

Mais, même si l’individu est conscient des risques qui l’entourent, il reste le problème de son adaptation comportementale. Ce processus est parfaitement décrit dans la théorie de la compensation du risque et de l’homéostasie ou stabilisation du risque (Wilde, 1986); celle-ci veut que les individus adaptent leurs décisions en matière d’acceptation de risque et leur comportement de prise de risques en fonction du degré de risque qu’ils perçoivent. Autrement dit, ils se montrent plus prudents et acceptent moins de risques quand ils se sentent menacés; à l’inverse, ils se montrent plus audacieux et acceptent des risques plus élevés lorsqu’ils se sentent en sécurité. Il est donc très difficile pour les spécialistes de concevoir des équipements ou des facteurs de sécurité — ceintures de sécurité, casques de protection, routes de grande largeur, machines encoffrées, etc. — sans que l’utilisateur ne cherche à compenser en quelque sorte la sécurité qu’ils procurent par quelque avantage personnel (cadence accrue, davantage de confort, attention moins concentrée ou tout autre comportement plus «risqué»).

Le fait de modifier le niveau de risque accepté en valorisant un comportement sûr peut inciter à suivre la voie la moins dangereuse. Cette démarche vise à changer les valeurs, les normes et les opinions individuelles pour encourager une autre acceptation du risque et un autre comportement de prise de risques. Parmi les facteurs qui déterminent la probabilité d’acceptation du risque, on peut citer les réponses données aux interrogations du type: la technologie procure-t-elle un avantage correspondant aux besoins du moment, augmente-t-elle le niveau de vie, crée-t-elle de nouveaux emplois, facilite-t-elle la croissance économique, accroît-elle le prestige et l’indépendance du pays, exige-t-elle des mesures de sécurité rigoureuses, augmente-t-elle le pouvoir des grandes entreprises ou aboutit-elle à la centralisation des systèmes politique et économique (Otway et von Winterfeldt, 1982)? D’autres facteurs entrant en ligne de compte dans l’évaluation du risque ont été signalés par Kahneman et Tversky (1979 et 1984); l’issue d’une intervention chirurgicale ou d’une radiothérapie ayant été présentée en termes de 68% de probabilité de survie, 44% des personnes interrogées l’ont choisie, contre 18% seulement lorsqu’on l’associait à 32% de probabilité de décès, ce qui est mathématiquement équivalent. Souvent, les sujets optent pour une valeur d’ancrage personnelle (Lopes et Ekberg, 1980) pour juger de l’acceptabilité d’un risque, surtout lorsqu’il s’agit de risques qui augmentent au fil du temps.

Johnson et Tversky (1983) ont noté l’influence des «cadres émotionnels» (contexte affectif avec émotions induites) sur l’évaluation et l’acceptation du risque. Des émotions positives et négatives ont été induites dans ces cadres par la description d’événements tels que la réussite personnelle ou la mort d’un jeune homme. On a constaté que les sujets ayant des impressions induites négatives jugeaient les risques de mort accidentelle et violente infiniment plus élevés — indépendamment des autres variables contextuelles — que les sujets à émotions positives. Parmi les autres facteurs qui influent sur l’acceptation individuelle du risque, on trouve les valeurs de groupe, les croyances personnelles, les normes sociales, les valeurs culturelles, la situation économique et politique et le vécu récent (par exemple, la vue d’un accident). Dake (1992) affirme que le risque demeure — indépendamment de sa dimension physique — un concept fortement tributaire du système de croyances et de mythes au sein d’un cadre culturel. Yates et Stone (1992b) ont dressé la liste des distorsions (voir figure 59.17) dont on a constaté qu’elles influent sur l’évaluation et l’acceptation du risque.

Figure 59.17 Distorsions individuelles influant sur l'évaluation et l'acceptation du risque

Figure 59.17

Les facteurs culturels influant sur l’acceptation du risque

Pidgeon (1991) définit la culture comme l’ensemble des croyances, règles, pratiques, attitudes et rôles communs à une population ou à un groupe social donné. Les différences de cultures se traduisent par des niveaux de perception et d’acceptation du risque hétérogènes. Il suffit pour s’en convaincre de comparer les normes de sécurité du travail et les taux d’accidents dans les pays industriels à ceux des pays en développement. Néanmoins, l’un des constats les plus immuables entre les cultures et au sein des cultures, c’est que l’on voit généralement émerger les mêmes notions de dangerosité, de risques inconnus, de volontarité et de maîtrisabilité, mais affectées de priorités différentes (Kasperson, 1986). Quant à savoir si ces priorités sont exclusivement tributaires du type de culture, le débat reste ouvert. Ainsi, dans l’estimation des risques liés à l’élimination des déchets toxiques et radioactifs, les Britanniques sont plus axés sur les risques du transport, les Hongrois sur les risques de l’exploitation et les Américains sur les risques écologiques. Ces différences sont attribuées à des facteurs culturels, mais elles pourraient tout aussi bien s’expliquer par des considérations liées à la densité de la population en Grande-Bretagne, le souci de fiabilité de l’exploitation en Hongrie et les préoccupations pour l’environnement aux Etats-Unis, c’est-à-dire par des facteurs situationnels. Dans une autre étude, Kleinhesselink et Rosa (1991) ont constaté que les Japonais perçoivent l’énergie nucléaire comme un risque redoutable, mais pas inconnu, alors que les Américains voient en elle une source de risque largement inconnue. Les auteurs attribuent ces différences de perception à une question d’exposition et, notamment, aux bombes atomiques larguées sur Hiroshima et Nagasaki en 1945. Toutefois, des différences analogues ont été constatées dans l’agglomération de San Francisco entre la population latino-américaine et la population blanche américaine. On peut en conclure que les différences culturelles, de connaissances et individuelles au niveau local jouent peut-être un rôle tout aussi important dans la perception du risque que les distorsions culturelles générales (Rohrmann, 1992).

Ces divergences, et d’autres du même genre, dans les conclusions et les interprétations tirées d’événements identiques ont amené Johnson (1991) à formuler une mise en garde au sujet de l’attribution des différences de perception et d’acceptation du risque à des causes culturelles. L’auteur se méfie des nombreuses définitions proposées pour la culture, qui font de celle-ci une sorte de fourre-tout. Par ailleurs, les divergences d’opinions et les différences de comportements constatées au sein de sous-populations ou d’entreprises d’un même pays rendent plus problématique encore une définition claire et précise de la culture ou de son incidence sur la perception et l’acceptation du risque. Il faut également relever que les échantillons étudiés sont généralement petits et ne sont pas représentatifs des cultures dans leur ensemble et que, souvent, on confond les causes et les effets (Rohrmann, 1995). Parmi les autres aspects culturels étudiés, on trouve des concepts universels, tels que l’individualisme par rapport à l’égalitarisme ou à la foi dans les hiérarchies, ainsi que des facteurs sociaux, politiques, religieux et économiques.

Wilde (1994) a signalé, par exemple, que le nombre d’accidents est inversement proportionnel à la situation économique d’un pays. En période de récession, le nombre des accidents de la circulation baisse, alors qu’il augmente en période de croissance. L’auteur attribue ce constat à un certain nombre de facteurs, dont celui-ci: étant donné qu’en temps de crise il y a plus de chômeurs et que les prix de l’essence et des pièces de rechange augmentent, les gens seront plus prudents afin d’éviter les accidents. A l’inverse, Fischhoff et coll. (1981) considèrent qu’en période de récession les gens sont davantage disposés à accepter des risques et des conditions de travail pénibles pour conserver leur emploi ou en trouver un.

Le rôle du langage et son utilisation par les médias ont été étudiés par Dake (1991), qui donne un certain nombre d’exemples où les mêmes «faits» ont été présentés de manière à soutenir les buts politiques de groupes, organisations ou gouvernements bien précis. Ainsi, les doléances des travailleurs au sujet de risques professionnels suspectés peuvent être qualifiées de «préoccupations légitimes» dans un cas et de «phobies narcissiques» dans un autre. L’information sur les risques dont les tribunaux disposent dans les affaires de lésions corporelles constitue-t-elle des «preuves solides» ou des «vestiges scientifiques»? Sommes-nous confrontés à des «cauchemars» écologiques ou à de simples «éventualités» ou «défis»? On voit donc que l’acceptation du risque est fonction de la situation perçue et du contexte du risque à juger, tout comme de la perception qu’en ont ceux qui jugent (von Winterfeldt et Edwards, 1984). Comme le montrent ces différents exemples, la perception et l’acceptation du risque dépendent fortement de la façon dont les «faits» essentiels sont présentés. La crédibilité de la source d’information, la nature et la portée de la couverture médiatique — bref, les facteurs de «communication du risque» — jouent un rôle plus important dans l’acceptation du risque que les résultats d’analyses formelles ou les jugements de spécialistes ne le laissent entendre. Par conséquent, la communication en matière de risques est un facteur contextuel utilisé dans le but précis de modifier l’acceptation du risque.

La modification de l’acceptation du risque

Pour parvenir de la meilleure façon à un degré élevé d’acceptation d’un changement, le mieux est d’associer ceux qui sont censés accepter le changement en question au processus de planification, de décision et de contrôle, afin qu’ils se sentent véritablement engagés. Sur la base de projets menés à bien, la figure 59.18 indique six étapes qu’il est conseillé de prendre en compte lorsqu’il s’agit d’étudier des risques.

Figure 59.18 Six étapes pour choisir, définir et accepter le risque optimal

Figure 59.18

La détermination du «risque optimal»

Dans les étapes 1 et 2, de gros problèmes se posent pour déterminer la désirabilité et le «risque objectif» du but à atteindre, alors que, dans l’étape 3, il paraît difficile d’éliminer les pires options. Pour les individus comme pour les organisations, les risques sociétaux, de catastrophe ou de létalité à grande échelle semblent être les options les plus redoutées et les moins acceptables. Perrow (1984) note que la plupart des risques sociétaux — tels que ceux qui concernent les recherches sur l’ADN, les centrales nucléaires ou la course à l’armement atomique — possèdent de nombreux sous-systèmes étroitement couplés; autrement dit, s’il se produit une défaillance dans l’un des sous-systèmes, elle peut déclencher des défaillances en cascade. Ces défaillances successives peuvent ne pas être détectées à cause de la nature même de la défaillance initiale, par exemple le non-fonctionnement d’un signal d’alarme. Les risques d’accidents dus à des défaillances interactives augmentent dans les systèmes techniques complexes, ce qui conduit Perrow à dire qu’il serait souhaitable d’associer les risques sociétaux de manière assez lâche (pour qu’ils soient maîtrisables de manière indépendante); il faudrait également pouvoir évaluer, de manière indépendante toujours, le risque et les moyens de se prémunir contre lui, et étudier de très près les technologies ayant un potentiel de conséquences catastrophiques.

La communication du «choix optimal»

Les étapes 3 à 6 concernent la communication: celle-ci est un outil indispensable au développement d’une bonne perception et d’une évaluation correcte du risques, ainsi qu’à l’adoption d’un comportement optimal en matière de prise de risques. La communication sur les risques vise des publics différents: habitants, salariés, patients, etc. Elle emprunte divers circuits — presse, radio, télévision, communication verbale, etc. — dans des situations ou forums différents (stages de formation, séances publiques, articles, campagnes, communications personnelles, etc.). Malgré le peu d’études consacrées à l’efficacité de la communication par les médias dans le domaine de la sécurité et de la santé, la plupart des auteurs s’accordent à penser que la qualité de la communication détermine dans une large mesure la probabilité de changements de comportements ou d’attitudes du public cible vis-à-vis de l’acceptation du risque. Selon Rohrmann (1992), la communication en matière de risques sert également des buts différents, dont quelques-uns sont indiqués à la figure 59.19.

Figure 59.19 Buts de la communication sur les risques

Figure 59.19

Ce type de communication est complexe, son efficacité étant rarement démontrée avec une exactitude scientifique. Rohrmann (1992) dresse la liste des facteurs indispensables à l’évaluation de la communication en matière de risques et donne quelques conseils sur la manière de communiquer efficacement. Wilde (1993) distingue entre la source ou l’initiateur, le message, le circuit suivi et le destinataire et présente des suggestions pour chaque aspect de la communication. Il cite des données qui montrent, par exemple, qu’une communication efficace dans le domaine de la sécurité et de la santé dépend de facteurs tels que ceux mentionnés à la figure 59.20.

Figure 59.20 Facteurs influant sur l'efficacité de la communication sur les risques

Figure 59.20

La création d’une culture d’optimisation du risque

Pidgeon (1991) définit la culture de la sécurité comme un ensemble structuré de significations grâce auquel un peuple ou un groupe d’individus interprète les risques auxquels il est confronté. Cette culture précise ce qui est important et légitime et explique les rapports qui existent entre la vie (ou la mort), le travail et le danger. Une culture de la sécurité se crée et se recrée dans la mesure où ses membres se comportent encore et toujours d’une manière qui semble naturelle, évidente et incontestable et édifient dès lors leur propre version du risque, du danger et de la sécurité. Chaque version comporte également des schémas explicatifs permettant de décrire la genèse des accidents. Dans une structure comme une entreprise ou un pays, les normes tacites et explicites qui régissent la sécurité se situent au cœur d’une culture de la sécurité dont les principaux éléments sont les règles de prise en charge des risques, les attitudes à l’égard de la sécurité et la réflexivité sur la pratique de la sécurité.

Les entreprises industrielles qui vivent déjà une culture de la sécurité sophistiquée soulignent l’importance que revêt la communauté de vues, d’objectifs, de critères et de comportements dans la prise de risques et l’acceptation du risque. Etant donné que l’incertitude est inévitable dans le contexte du travail, il faut trouver un équilibre optimal entre la prise de risques et la maîtrise du danger. Vlek et Cvetkovitch (1989) ont déclaré:

Une bonne gestion du risque consiste à atteindre et à maintenir un niveau adéquat de maîtrise (dynamique) d’une activité technologique, et non pas à évaluer continuellement, ou une seule fois, les probabilités d’accidents et à diffuser le message qu’elles sont et resteront «à un niveau négligeable». Par conséquent, «risque acceptable» est le plus souvent synonyme de «maîtrise suffisante».

Résumé

Lorsque les gens perçoivent d’eux-mêmes qu’ils possèdent une maîtrise suffisante des risques qui peuvent se présenter, ils sont disposés à les accepter pour en toucher les dividendes. Il importe, toutefois, de souligner qu’une maîtrise suffisante doit reposer sur une information, une perception et une évaluation solides et, enfin, sur une décision optimale pour ou contre «l’objectif hasardeux».

RÉFÉRENCES BIBLIOGRAPHIQUES

Abbey, A. et Dickson, J.W., 1983: «R&D work climate and innovation in semiconductors», Academy of Management Journal , vol. 26, no 2, pp. 362-368.

Andriessen, J.H.T.H., 1978: «Safe behavior and safety motivation», Journal of Occupational Accidents , vol. 1, pp. 363-376.

Bailey, C., 1993: «Improve safety program effectiveness with perception surveys», Professional Safety , vol. 38, no 10, pp. 28-32.

Bluen, S.D. et Donald, C., 1991: «The nature and measurement of in-company industrial relations climate», South African Journal of Psychology , vol. 21, no 1, pp. 12-20.

Brown, R.L. et Holmes, H., 1986: «The use of a factor-analytic procedure for assessing the validity of an employee safety climate model», Accident Analysis and Prevention , vol. 18, no 6, pp. 445-470.

Chew, D.C.E., 1988: «Quelles sont les mesures qui assurent le mieux la sécurité du travail? Etude menée dans trois pays en développement d’Asie», Revue internationale du Travail , vol. 127, no 1, pp. 129-145.

Chicken, J.C. et Haynes, M.R., 1989: The Risk Ranking Method in Decision Making (Oxford, Pergamon).

Cohen, A., 1977: «Factors in successful occupational safety programs», Journal of Safety Research , vol. 9, no 4, pp. 168-178.

Cooper, M.D., Phillips, R.A., Sutherland, V.F. et Makin, P.J., 1994: «Reducing accidents using goal setting and feedback: A field study», Journal of Occupational and Organizational Psychology , vol. 67, sept. (partie 3), pp. 219-240.

Cru, D. et Dejours, C., 1983: «Les savoir-faire de prudence dans les métiers du bâtiment», Cahiers médico-sociaux , vol. 3, pp. 239-247.

Dake, K., 1991: «Orienting dispositions in the perception of risk: An analysis of contemporary worldviews and cultural biases», Journal of Cross-Cultural Psychology , vol. 22, pp. 61-82.

—. 1992: «Myths of nature: Culture and the social construction of risk», Journal of Social Issues , vol. 48, pp. 21-37.

Dedobbeleer, N. et Béland, F., 1989: «The interrelationship of attributes of the work setting and workers’ safety climate perceptions in the construction industry», Proceedings of the 22nd Annual Conference of the Human Factors Association of Canada (Toronto).

—. 1991: «A safety climate measure for construction sites», Journal of Safety Research , vol. 22, no 2, pp. 97-103.

Dedobbeleer, N., Béland, F. et German, P., 1990: «Is there a relationship between attributes of construction sites and workers’ safety practices and climate perceptions?», dans D. Biman (directeur de publication): Advances in Industrial Ergonomics and Safety. II (Londres, Taylor and Francis).

Dejours, C., 1992: Intelligence ouvrière et organisation du travail (Paris, L’Harmattan).

DeJoy, D.M., 1987: «Supervisor attributions and responses for multi-causal workplace accidents», Journal of Occupational Accidents , vol. 9, no 3, pp. 213-223.

—. 1994: «Managing safety in the workplace: An attribution theory analysis and model», Journal of Safety Research , vol. 25, no 1, pp. 3-17.

Denison, D.R., 1990: Corporate Culture and Organizational Effectiveness (New York, Wiley).

Dieterly, D. et Schneider, B., 1974: «The effect of organizational environment on perceived power and climate: A laboratory study», Organizational Behavior and Human Performance , vol. 11, pp. 316-337.

Dodier, N., 1985: «La construction pratique des conditions de travail: préservation de la santé et vie quotidienne des ouvriers dans les ateliers», Sciences sociales et santé , vol. 3, pp. 5-39.

Dunette, M.D., 1976: Handbook of Industrial and Organizational Psychology (Chicago, Rand McNally).

Dwyer, T., 1992: Life and Death at Work. Industrial Accidents as a Case of Socially Produced Error (New York, Plenum Press).

Eakin, J.M., 1992: «Leaving it up to the workers: Sociological perspective on the management of health and safety in small workplaces», International Journal of Health Services , vol. 22, no 4, pp. 689-704.

Edwards, W., 1961: «Behavioural decision theory», Annual Review of Psychology , vol. 12, pp. 473-498.

Embrey, D.E., Humphreys, P., Rosa, E.A., Kirwan, B. et Rea, K., 1984: An approach to assessing human error probabilities using structured expert judgement , Nuclear Regulatory Commission NUREG/CR-3518 (Washington, DC).

Eyssen, G., Eakin-Hoffman, J. et Spengler, R., 1980: «Manager’s attitudes and the occurrence of accidents in a telephone company», Journal of Occupational Accidents , vol. 2, pp. 291-304.

Field, R.H.G. et Abelson, M.A., 1982: «Climate: A reconceptualization and proposed model», Human Relations , vol. 35, no 3, pp. 181-201.

Fischhoff, B., Furby, L. et Gregory, R., 1987: «Evaluating voluntary risks of injury», Accident Analysis and Prevention , vol. 19, no 1, pp. 51-62.

Fischhoff, B., Lichtenstein, S., Slovic, P., Derby, S. et Keeney, R.L., 1981: Acceptable Risk (Cambridge, Cambridge University Press).

Fischhoff, B. et MacGregor, D., 1991: «Judged lethality: How much people seem to know depends on how they are asked», Risk Analysis , vol. 3, pp. 229-236.

Flanagan, O., 1991: The Science of the Mind (Cambridge, MIT Press).

Frantz, J.P., 1992: Effect of Location, Procedural Explicitness, and Presentation Format on User Processing of and Compliance with Product Warnings and Instructions , thèse de doctorat, Université du Michigan, Ann Arbor.

Frantz, J.P. et Rhoades, T.P., 1993: «Human factors. A task analytic approach to the temporal and spatial placement of product warnings», Human Factors , vol. 35, pp. 713-730.

Frederiksen, M., Jensen, O. et Beaton, A.E., 1972: Prediction of Organizational Behavior (Elmsford, New York, Pergamon).

Freire, P., 1988: Pedagogy of the Oppressed (New York, Continuum).

Glick, W.H., 1985: «Conceptualizing and measuring organizational and psychological climate: Pitfalls in multi-level research», Academy of Management Review , vol. 10, no 3, pp. 601-616.

Gouvernement du Québec, 1978: Santé et sécurité au travail: politique québécoise de la santé et de la sécurité des travailleurs (Québec, Editeur officiel du Québec).

Haas, J., 1977: «Learning real feelings: A study of high steel ironworkers’ reactions to fear and danger», Sociology of Work and Occupations , vol. 4, pp. 147-170.

Hacker, W., 1987: Arbeitspsychologie (Stuttgart, Hans Huber).

Haight, F.A., 1986: «Risk, especially risk of traffic accident», Accident Analysis and Prevention , vol. 18, pp. 359-366.

Hale, A.R. et Glendon, A.I., 1987: «Individual behaviour in the control of danger», Industrial Safety Series (Amsterdam, Elsevier), vol. 2.

Hale, A.R., Hemning, B., Carthey, J. et Kirwan, B., 1994: Extension of the Model of Behaviour in the Control of Danger. Volume 3 — Extended model description, Delft University of Technology, Safety Science Group (Report for HSE) (Birmingham, Royaume-Uni, Birmingham University, Industrial Ergonomics Group).

Hansen, L., 1993a: «Beyond commitment», Occupational Hazards , vol. 55, no 9, p. 250.

—. 1993b: «Safety management: A call for revolution», Professional Safety , vol. 38, no 30, pp. 16-21.

Harrison, E.F., 1987: The Managerial Decision-making Process (Boston, Houghton Mifflin).

Heinrich, H., Petersen, D. et Roos, N., 1980: Industrial Accident Prevention (New York, McGraw-Hill).

Hovden, J. et Larsson, T.J., 1987: «Risk: Culture and concepts», dans W.T. Singleton et J. Hovden (directeurs de publication): Risk and Decisions (New York, Wiley).

Howarth, C.I., 1988: «The relationship between objective risk, subjective risk, behaviour», Ergonomics , vol. 31, no 4, pp. 657-661.

Hox, J.J. et Kreft, I.G.G., 1994: «Multilevel analysis methods», Sociological Methods and Research , vol. 22, no 3, pp. 283-300.

Hoyos, C.G., Bernhardt, U., Hirsch, G. et Arnhold, T., 1991: «Vorhandenes und erwünschtes Sicherheits-relevantes Wissen in Industriebetrieben», Zeitschrift für Arbeits- und Organisationspsychologie , vol. 35, pp. 68–76.

Hoyos, C.G. et Ruppert, F., 1993: Der Fragebogen zur Sicherheitsdiagnose (FSD) (Berne, Verlag Hans Huber).

Hoyos, C.G. et Zimolong, B., 1988: Occupational Safety and Accident Prevention. Behavioural Strategies and Methods (Amsterdam, Elsevier).

Huber, O., 1989: «Information-processing operators in decision making», dans H. Montgomery et O. Svenson (directeurs de publication): Process and Structure of Human Decision Making (Chichester, Wiley).

Hunt, H.A. et Habeck, R.V., 1993: The Michigan Disability Prevention Study: Research Highlights , rapport non publié, E.E. Upjohn Institute for Employment Research, Kalamazoo, Michigan.

James, L.R., 1982: «Aggregation bias in estimates of perceptual agreement», Journal of Applied Psychology , vol. 67, pp. 219-229.

James, L.R. et Jones, A.P., 1974: «Organizational climate: A review of theory and research», Psychological Bulletin , vol. 81, no 12, pp. 1096-1112.

Janis, I.L. et Mann, L., 1977: Decision-making: A Psychological Analysis of Conflict, Choice and Commitment (New York, Free Press).

Johnson, B.B., 1991: «Risk and culture research: Some caution», Journal of Cross-Cultural Psychology , vol. 22, pp. 141-149.

Johnson, E.J. et Tversky, A., 1983: «Affect, generalization, and the perception of risk», Journal of Personality and Social Psychology , vol. 45, pp. 20-31.

Jones, A.P. et James, L.R., 1979: «Psychological climate: Dimensions and relationships of individual and aggregated work environment perceptions», Organizational Behavior and Human Performance , vol. 23, pp. 201-250.

Joyce, W.F. et Slocum, J.W.,Jr., 1984: «Collective climate: Agreement as a basis for defining aggregate climates in organizations», Academy of Management Journal , vol. 27, no 4, pp. 721-742.

Jungermann, H., Rohrmann, B. et Wiedemann, P.M., 1991: Risiko-Kontroversen. Konzepte, Konflikte, Kommunikation (Berlin, Springer).

Jungermann, H. et Slovic, P., 1987: Die Psychologie der Kognition und Evaluation von Risiko , manuscrit non publié, Technische Universität, Berlin.

Kahneman, D., Slovic, P. et Tversky, A. (directeurs de publication), 1982 : Judgement under Uncertainty: Heuristics and Biases (Cambridge, Royaume-Uni, Cambridge University Press).

Kahneman, D. et Tversky, A., 1979: «Prospect theory: An analysis of decision under risk», Econometrica , vol. 47, pp. 263-291.

—. 1984: «Choices, values, and frames», American Psychologist , vol. 39, pp. 341-350.

Kasperson, R.E., 1986: «Six propositions on public participation and their relevance for risk communication», Risk Analysis , vol. 6, pp. 275-281.

Kleinhesselink, R.R. et Rosa, E.A., 1991: «Cognitive representation of risk perception», Journal of Cross-Cultural Psychology , vol. 22, pp. 11-28.

Komaki, J.L., 1986: «Promoting job safety and accident prevention», dans M.F. Cataldo et T.J. Coats (directeurs de publication): Health and Industry: A Behavioral Medicine Perspective (New York, Wiley).

Komaki, J.L., Barwick, K.D. et Scott, L.R., 1978: «A behavioral approach to occupational safety: Pinpointing and reinforcing safe performance in a food manufacturing plant», Journal of Applied Psychology , vol. 63, no 4, pp. 434-445.

Konradt, U., 1994: «Handlungsstrategien bei der Störungsdiagnose an flexiblen Fertigungseinrichtungen», Zeitschrift für Arbeits- und Organisationspsychologie, vol. 38, pp. 54-61.

Koopman, P. et Pool, J., 1991: «Organizational decision making: Models, contingencies and strategies», dans J. Rasmussen, B. Brehmer et J. Leplat (directeurs de publication): Distributed Decision Making. Cognitive Models for Cooperative Work (Chichester, Wiley).

Koslowski, M. et Zimolong, B., 1992: «Gefahrstoffe am Arbeitsplatz: Organisatorische Einflüsse auf Gefahrenbewusstsein und Risiko-Kompetenz», dans B. Zimolong et R. Trimpop (directeurs de publication): Psychologie der Arbeitssicherheit (Heidelberg, Asanger).

Koys, D.J. et DeCotiis, T.A., 1991: «Inductive measures of psychological climate», Human Relations , vol. 44, no 3, pp. 265-285.

Krause, T.H., Hidley, J.H. et Hodson, S.J., 1990: The Behavior-based Safety Process (New York, Van Norstrand Reinhold).

Lanier, E.B., 1992: «Reducing injuries and costs through team safety», ASSE Journal , juillet, pp. 21-25.

Lark, J., 1991: «Leadership in safety», Professional Safety , vol. 36, no 3, pp. 33-35.

Lawler, E.E., 1986: High-involvement Management (San Francisco, Jossey Bass).

Lehto, M.R., 1992: «Designing warning signs and warnings labels: Part II — Scientific basis for initial guideline», International Journal of Industrial Ergonomics , vol. 10, no 1-2, pp. 115-138.

Lehto, M.R. et Papastavrou, J.D., 1993: «Models of the warning process: Important implications towards effectiveness», Safety Science , vol. 16, pp. 569-595.

Lewin, K., 1951: Field Theory in Social Science (New York, Harper and Row).

Likert, R., 1967: The Human Organization (New York, McGraw Hill).

Lopes, L.L. et Ekberg, P.H.S., 1980: «Test of an ordering hypothesis in risky decision making», Acta Physiologica , vol. 45, pp. 161-167.

Machlis, G.E. et Rosa, E.A., 1990: «Desired risk: Broadening the social amplification of risk framework», Risk Analysis , vol. 10, pp. 161-168.

March, J.G. et Shapira, Z., 1992: «Variable risk preferences and the focus of attention», Psychological Review , vol. 99, pp. 172-183.

March, J.G. et Simon, H.A., 1993: Organizations (Cambridge, Blackwell).

Manson, W.M., Wong, G.Y. et Entwisle, B., 1983: «Contextual analysis through the multilevel linear model», dans Sociologic Methodology, 1983-1984 (San Francisco, Jossey-Bass).

Mattila, M., Hyttinen, M. et Rantanen, E., 1994: «Effective supervisory behavior and safety at the building site», International Journal of Industrial Ergonomics , vol. 13, no 2, pp. 85-93.

Mattila, M., Rantanen, E. et Hyttinen, M., 1994: «The quality of work environment, supervision and safety in building construction», Safety Science , vol. 17, pp. 257-268.

McAfee, R.B. et Winn, A.R., 1989: «The use of incentives/feedback to enhance work place safety: A critique of the literature», Journal of Safety Research , vol. 20, no 1, pp. 7-19.

McSween, T.E., 1995: The Values-based Safety Process (New York, Van Norstrand Reinhold).

Meliá, J.L., Tomás, J.M. et Oliver, A., 1992: «Concepciones del clima organizacional hacia la seguridad laboral: Replicación del modelo confirmatorio de Dedobbeleer y Béland», Revista de Psicología del Trabajo y de las Organizaciones , vol. 9, no 22.

Minter, S.G., 1991: «Creating the safety culture», Occupational Hazards , août, pp. 17-21.

Montgomery, H. et Svenson, O., 1989: Process and Structure of Human Decision Making (Chichester, Wiley).

Moravec, M., 1994: «The 21st century employer-employee partnership», HR Magazine , janv., pp. 125-126.

Morgan, G., 1986: Images of Organizations (Beverly Hills, Sage).

Nadler, D. et Tushman, M.L., 1990: «Beyond the charismatic leader. Leadership and organizational change», California Management Review , vol. 32, pp. 77-97.

Näsänen, M. et Saari, J., 1987: «The effects of positive feedback on housekeeping and accidents at a shipyard», Journal of Occupational Accidents , vol. 8, pp. 237-250.

National Research Council (NRC), 1989: Improving Risk Communication (Washington, DC, National Academy Press).

Naylor, J.D., Pritchard, R.D. et Ilgen, D.R., 1980: A Theory of Behavior in Organizations (New York, Academic Press).

Neumann, P.J. et Politser, P.E., 1992: «Risk and optimality», dans J.F. Yates (directeur de publication): Risk-taking Behaviour (Chichester, Wiley).

Nisbett, R. et Ross, L., 1980: Human Inference: Strategies and Shortcomings of Social Judgement (Englewood Cliffs, Prentice-Hall).

Nunnally, J.C., 1978: Psychometric Theory (New York, McGraw-Hill).

Oliver, A., Tomás, J.M. et Meliá, J.L., 1993: «Una segunda validación cruzada de la escala de clima organizacional de seguridad de Dedobbeleer y Béland. Ajuste confirmatorio de los modelos unifactorial, bifactorial y trifactorial», Psicológica , vol. 14, pp. 59-73.

Otway, H.J. et von Winterfeldt, D., 1982: «Beyond acceptable risk: On the social acceptability of technologies», Policy Sciences , vol. 14, pp. 247-256.

Perrow, C., 1984: Normal Accidents: Living with High-risk Technologies (New York, Basic Books).

Petersen, D., 1993: «Establishing good ‘safety culture’ helps mitigate workplace dangers», Occupational Health and Safety , vol. 62, no 7, pp. 20-24.

Pidgeon, N.F., 1991: «Safety culture and risk management in organizations», Journal of Cross-Cultural Psychology , vol. 22, no 1, pp. 129-140.

Rabash, J. et Woodhouse, G., 1995: MLn Command Reference . Version 1.0, mars, ESRC.

Rachman, S.J., 1974: The Meanings of Fear (Harmondsworth, Penguin).

Rasmussen, J., 1983: «Skills, rules, knowledge, signals, signs and symbols and other distinctions», IEEE Transactions on Systems, Man and Cybernetics , vol. 3, pp. 266-275.

Reason, J.T., 1990: Human Error (Cambridge, Cambridge University Press).

Rees, J.V., 1988: «Self-regulation: An effective alternative to direct regulation by OSHA?», Studies Journal , vol. 16, pp. 603-614.

Renn, O., 1981: «Man, technology and risk: A study on intuitive risk assessment and attitudes towards nuclear energy», Spezielle Berichte der Kernforschungsanlage Jülich .

Rittel, H.W.J. et Webber, M.M., 1973: «Dilemmas in a general theory of planning», Policy Sciences , vol. 4, pp. 155-169.

Robertson, A. et Minkler, M., 1994: «New health promotion movement: A critical examination», Health Education Quarterly , vol. 21, no 3, pp. 295-312.

Rogers, C.R., 1961: On Becoming a Person (Boston, Houghton Mifflin).

Rohrmann, B., 1992: «The evaluation of risk communication effectiveness», Acta Physiologica , vol. 81, pp. 169-192.

—. 1995: «Risk perception research: Review and documentation», dans Arbeiten zur Risiko-Kommunikation (Jülich, Forschungszentrum Jülich), vol. 48.

Rosenhead, J., 1989: Rational Analysis for a Problematic World (Chichester, Wiley).

Rumar, K., 1988: «Collective risk but individual safety», Ergonomics , vol. 31, pp. 507-518.

Rummel, R.J., 1970: Applied Factor Analysis (Evanston, Illinois, Northwestern University Press).

Ruppert, F., 1987: «Gefahrenwahrnehmung — ein Modell zur Anforderungsanalyse für die verhaltensabhängige Kontrolle von Arbeitsplatzgefahren», Zeitschrift für Arbeitswissenschaft, vol. 2, pp. 84-87.

Saari, J., 1976: «Characteristics of tasks associated with the occurrence of accidents», Journal of Occupational Accidents , vol. 1, pp. 273-279.

—. 1990: «On strategies and methods in company safety work: From informational to motivational strategies», ibid. , vol. 12, pp. 107-117.

Saari, J. et Näsänen, M., 1989: «The effect of positive feedback on industrial housekeeping and accidents: A long-term study at a shipyard», International Journal of Industrial Ergonomics , vol. 4, no 3, pp. 201-211.

Sarkis, H., 1990: What Really Causes Accidents , Presentation at Wausau Insurance Safety Excellence Seminar, Canandaigua, New York, juin.

Sass, R., 1989: «The implications of work organization for occupational health policy: The case of Canada», International Journal of Health Services , vol. 19, no 1, pp. 157-173.

Savage, L.J., 1954: The Foundations of Statistics (New York, Wiley).

Schäfer, R.E., 1978: What Are We Talking About When We Talk About «Risk»? A Critical Survey of Risk and Risk Preferences Theories , Research Memoranda, Index no R.M.-78-069 (Laxenburg, Autriche, International Institute for Applied System Analysis).

Schein, E.H., 1985: Organizational Culture and Leadership (San Francisco, Jossey-Bass).

Schneider, B., 1975a: «Organizational climates: An essay», Personnel Psychology , vol. 28, pp. 447-479.

—. 1975b: «Organizational climate: Individual preferences and organizational realities revisited», Journal of Applied Psychology , vol. 60, pp. 459-465.

Schneider, B., Parkington, J.J. et Buxton, V.M., 1980: «Employee and customer perception of service in banks», Administrative Science Quarterly , vol. 25, pp. 252-267.

Schneider, B. et Reichers, A.E., 1983: «On the etiology of climates», Personnel Psychology , vol. 36, pp. 19-39.

Shannon, H.S., Walters, V., Lewchuk, W., Richardson, J., Verma, D., Haines, T. et Moran, L.A., 1992: Health and Safety Approaches in the Workplace , rapport non publié, McMaster University, Toronto.

Short, J.F., 1984: «The social fabric at risk: Toward the social transformation of risk analysis», American Social Review , vol. 49, pp. 711-725.

Simard, M., 1988: «La prise de risque dans le travail: un phénomène organisationnel», dans P. Goguelin et X. Cuny (directeurs de publication): La prise de risque dans le travail (Marseille, Editions Octares).

Simard, M. et Marchand, A., 1994: «The behaviour of first-line supervisors in accident prevention and effectiveness in occupational safety», Safety Science , vol. 19, pp. 169-184.

—. 1995: «L’adaptation des superviseurs à la gestion participative de la prévention des accidents», Relations industrielles , vol. 50, pp. 567-589.

Simon, H.A., 1959: «Theories of decision making in economics and behavioural science», American Economic Review , vol. 49, pp. 253-283.

Simon, H.A. et coll., 1992: «Decision making and problem solving», dans M. Zev (directeur de publication): Decision Making: Alternatives to Rational Choice Models (Londres, Sage).

Simonds, R.H. et Shafai-Sahrai, Y., 1977: «Factors apparently affecting the injury frequency in eleven matched pairs of companies», Journal of Safety Research , vol. 9, no 3, pp. 120-127.

Slovic, P., 1987: «Perception of risk», Science , vol. 236, pp. 280-285.

—. 1993: «Perceptions of environmental hazards: Psychological perspectives», dans G.E. Stelmach et P.A. Vroon (directeurs de publication): Behaviour and Environment (Amsterdam, North Holland).

Slovic, P., Fischhoff, B. et Lichtenstein, S., 1980: «Perceived risk», dans R.C. Schwing et W.A. Albers Jr. (directeurs de publication): Societal Risk Assessment: How Safe is Safe Enough? (New York, Plenum Press).

Slovic, P., Kunreuther, H. et White, G.F., 1974: «Decision processes, rationality, and adjustment to natural hazards», dans G.F. White (directeur de publication): Natural Hazards, Local, National and Global (New York, Oxford University Press).

Smith, M.J., Cohen, H.H., Cohen, A. et Cleveland, R.J., 1978: «Characteristics of successful safety programs», Journal of Safety Research , vol. 10, no 1, pp. 5-15.

Smith, R.B., 1993: «Construction industry profile: Getting to the bottom of high accident rates», Occupational Health and Safety , juin, pp. 35-39.

Smith, T.A., 1989: «Why you should put your safety program under statistical control», Professional Safety , vol. 34, no 4, pp. 31-36.

Starr, C., 1969: «Social benefit vs. technological risk», Science , vol. 165, pp. 1232-1238.

Sulzer-Azaroff, B., 1978: «Behavioral ecology and accident prevention», Journal of Organizational Behavior Management , vol. 2, pp. 11-44.

Sulzer-Azaroff, B. et Fellner, D., 1984: «Searching for performance targets in the behavioral analysis of occupational health and safety: An assessment strategy», ibid., vol. 6, no 2, pp. 53-65.

Sulzer-Azaroff, B., Harris, T.C. et McCann, K.B., 1994: «Beyond training: Organizational performance management techniques», Occupational Medicine: State of the Art Review , vol. 9, no 2, pp. 321-339.

Swain, A.D. et Guttmann, H.E., 1983: Handbook of Human Reliability Analysis with Emphasis on Nuclear Power Plant Applications , Sandia National Laboratories, NUREG/CR-1278 (Washington, DC, NUREG).

Taylor, D.H., 1981: «The hermeneutics of accidents and safety», Ergonomics , vol. 24, pp. 487-495.

Thompson, J.D. et Tuden, A., 1959: «Strategies, structures and processes of organizational decisions», dans J.D. Thompson, P.B. Hammond, R.W. Hawkes, B.H. Junker et A. Tuden (directeurs de publication): Comparative Studies in Administration (Pittsburgh, Pittsburgh University Press).

Trimpop, R., 1994: The Psychology of Risk Taking Behavior (Amsterdam, Elsevier).

Tuohy, C. et Simard, M., 1992: The Impact of Joint Health and Safety Committees in Ontario and Quebec , rapport non publié, Canadian Association of Administrators of Labour Laws, Ottawa.

Tversky, A. et Kahneman, D., 1981: «The framing of decisions and the psychology of choice», Science , vol. 211, pp. 453-458.

Vlek, C.A.J. et Cvetkovich, G., 1989: Social Decision Methodology for Technological Projects (Dordrecht, Pays-Bas, Kluwer).

Vlek, C.A.J. et Stallen, P.J., 1980: «Rational and personal aspects of risk», Acta Physiologica , vol. 45, pp. 273-300.

von Neumann, J. et Morgenstern, O., 1947: Theory of Games and Ergonomic Behaviour (Princeton, New Jersey, Princeton University Press).

von Winterfeldt, D. et Edwards, W., 1984: «Patterns of conflict about risky technologies», Risk Analysis , vol. 4, pp. 55-68.

von Winterfeldt, D., John, R.S. et Borcherding, K., 1981: «Cognitive components of risk ratings», ibid. , vol. 1, pp. 277–287.

Wagenaar, W., 1990: «Risk evaluation and causes of accidents», Ergonomics , vol. 33, pp. 10-11.

—. 1992: «Risk taking and accident causation», dans Risk-taking Behaviour, op. cit.

Wagenaar, W., Groeneweg, J., Hudson, P.T.W. et Reason, J.T., 1994: «Promoting safety in the oil industry», Ergonomics , vol. 37, no 12, pp. 1999-2013.

Walton, R.E., 1986: «From control to commitment in the workplace», Harvard Business Review , vol. 63, pp. 76-84.

Wilde, G.J.S., 1986: «Beyond the concept of risk homeostasis: Suggestions for research and application towards the prevention of accidents and lifestyle-related disease», Accident Analysis and Prevention , vol. 18, pp. 377-401.

—. 1993: «Effects of mass media communications on health and safety habits: An overview of issues and evidence», Addiction , vol. 88, pp. 983-996.

—. 1994: «Risk homeostasis theory and its promise for improved safety», dans R. Trimpop et G.J.S. Wilde (directeurs de publication): Challenges to Accident Prevention: The Issue of Risk Compensation Behaviour (Groningen, Pays-Bas, STYX Publications).

Yates, J.F. (directeur de publication), 1992a: Risk-taking Behaviour (Chichester, Wiley).

Yates, J.F. et Stone, E.R., 1992b: «The risk construct», dans Risk-taking Behaviour, ibid.

Zembroski, E.L., 1991: «Lessons learned from man-made catastrophes», dans Risk Management (New York, Hemisphere).

Zey, M., 1992: Decision Making: Alternatives to Rational Choice Models (Londres, Sage).

Zimolong, B., 1985: «Hazard perception and risk estimation in accident causation», dans R.B. Eberts et C.G. Eberts (directeurs de publication): Trends in Ergonomics/Human Factors. II (Amsterdam, Elsevier).

—. 1992: «Empirical evaluation of THERP, SLIM and ranking to estimate HEPs», Reliability Engineering and System Safety , vol. 35, pp. 1-11.

Zimolong, B. et Trimpop, R., 1994: «Managing human reliability in advanced manufacturing systems», dans G. Salvendy et W. Karwowski (directeurs de publication): Design of Work and Development of Personnel in Advanced Manufacturing Systems (New York, Wiley).

Zohar, D., 1980: «Safety climate in industrial organizations: Theoretical and applied implications», Journal of Applied Psychology , vol. 65, no 1, pp. 96-102.

Zuckerman, M., 1979: Sensation Seeking: Beyond the Optimal Level of Arousal (Hillsdale, Lawrence Erlbaum).

RÉFÉRENCES COMPLÉMENTAIRES

Bailey, C., 1988: Using Behavioral Techniques to Improve Safety Programme Effectiveness (Washington, DC, Association of American Railroads).

Center for Chemical Process Safety (CCPS), non daté: Guidelines for Safe Automation of Chemical Processes (New York, American Institution of Chemical Engineers).

Commission électrotechnique internationale, non daté: Draft Standard IEC 1508; Functional Safety: Safety-related Systems (Genève).

Deutsche Industrie Normen (DIN), 1990: Grundsatze für Rechner in System mit Sicherheitsaufgaben, DIN V VDE 0801 (Berlin, Beuth Verlag).

Grandjean, E., 1988: Fitting the Task to the Man (Londres, Taylor and Francis).

Health and Safety Executive (HSE), non daté: Out of Control: Control Systems — Why They Go Wrong, and How to Prevent Failure (Sudbury, Royaume-Uni, HSE Books).

—. non daté: Programmable Electronic Systems in Safety-related Applications: 1. An Introductory Guide (Sudbury, Royaume-Uni, HSE Books).

—. non daté: Programmable Electronic Systems in Safety-related Applications: 2. General Technical Guidelines (Sudbury, Royaume-Uni, HSE Books).

Heller, F.A., Drenth, P.J.D., Koopman, P.L. et Rus, V., 1988: Decisions in Organizations: A Three-country Comparative Study (Londres, Sage).

Instrument Society of America (ISA), non daté: Draft Standard: Application of Safety Instrumented Systems for the Process Industries (Caroline du Nord).

Johnson, B.B., 1989: Design and Analysis of Fault Tolerant Digital Systems (New York, Addison Wesley).

Jones, P.G., non daté: «Computers in chemical plant: A need for safety awareness», dans P.G. Jones (directeur de publication): Hazards XI (Rugby, Royaume-Uni, Davis Building).

Larprie, J.C., 1991: Dependability: Basic Concepts and Terminology (Berlin, Springer).

Levy, S. et Greene, S., 1988: «The effectiveness of safety education materials», dans D. Petersen (directeur de publication): Safety Management. A Human Approach (Goshen, New York, Aloray).

Organisation internationale de normalisation (ISO), 1997: ISO 9000-3: Normes pour le management de la qualité et l’assurance de la qualité. Partie 3: Lignes directrices pour l’application de l’ISO 9001:1994 au développement, à la mise à disposition, à l’installation et à la maintenance du logiciel (Genève).

Petersen, D., 1988: Safety Management. A Human Approach (Goshen, New York, Aloray).

—. 1989: Techniques of Safety Management (Goshen, New York, Aloray).

Rohrmann, B., 1992: «Risiko-Kommunikation, Aufgaben-Konzepte-Evaluation», dans B. Zimolong et R. Trimpop (directeurs de publication): Psychologie der Arbeitssicherheit (Heidelberg, Asanger).

—. 1996: «Perception and evaluation of risks: A cross cultural comparison», dans Arbeiten zur Risiko-Kommunikation (Jülich, Forschunggszentrum Jülich), vol. 50.

Slovic, P., Fischhoff, B. et Lichtenstein, S., 1984: «Behavioural decision theory perspectives on risk and safety», Acta Physiologica , vol. 56, pp. 183-203.