Crash du Concorde: la loi de Murphy...................Accident du Concorde F-BTSC
  Accueil | Synthèse & Analyse | Journal de Bord | Ce que dit le rapport d'Expertise | Transcription CVR | Programme & Développement | Particularités | Forum |


Le « modèle de Reason »



Il est relativement rare qu'un accident aérien soit du à une cause unique. La plupart des accidents sont la conséquence d'une succession de faits et/ou de comportements qui conduisent à l'accident. Si l'on retire un élément de la chaîne, on peut au pire ne pas changer grand-chose, au mieux éviter l'accident.

Le « modèle de Reason » proposé par le Professeur James Reason de la Manchester University, Royaume-Uni, aide à comprendre pourquoi les accidents surviennent et à mettre en relief la complexité des relations de cause à effet. Ce modèle va au-delà des circonstances immédiates de l'accident et examine minutieusement les conditions préalables à l'événement. Cet outil peut être utile pour définir qui doit prendre les mesures et lesquelles, afin d'éviter les accidents à l'avenir ou d'atténuer leurs effets.

Il est un des précurseurs, en provenance de la psychologie, à reconnaître le champ trop limité de sa discipline pour l’investigation des accidents. Il propose le saut paradigmatique de l’erreur humaine à celui de la défaillance organisationnelle. Il propose une typologie d’erreurs humaines qu’il introduit dans un contexte, le système technique et organisationnel.

Son effort de contextualisation se base sur une idée empruntée à la médecine, à la manière de l’épidémiologie. Il y a des facteurs pathogènes dans le système qui se combinent et créent un cheminement possible vers l’accident au travers les barrières du système (figure ci-dessous). Il faut donc partir à la recherche de ces agents pathogènes, et les éliminer.

Cette conception, très intéressante, considère le système socio-technique de manière plus globale que des démarches centrées sur les opérateurs, cependant la notion d’erreur est toujours au coeur de la création du modèle, qu’elle soit latente ou active, humaine ou organisationnelle. Or, une erreur n’est décelable qu’après une séquence accidentelle, dont le support est une représentation de causalité relativement mécaniste de l’accident dans son ensemble. Il n’y a pas de questionnement sur le pourquoi des actions, qui ne sont pas des erreurs a priori pour les acteurs du système, à quelque niveau que ce soit du système.




Le modèle créé par Reason est également appelé « swiss cheese model ». Les défenses, les barrières et les sécurités peuvent être comparées à des « tranches » de gruyère avec des « trous » qui symbolisent les failles dans chaque niveau de défense :

  • défenses technologiques,
  • sécurités liées aux acteurs eux-mêmes,
  • barrières correspondant aux procédures
  • contrôles administratifs
  • Etc...
Pour imager notre propos, prenons un modèle fictif: le premier niveau (défenses) représente les défenses qui devraient atténuer les conséquences d'un acte dangereux. Le deuxième niveau (actes dangereux) et le troisième (conditions préalables) comprennent des conditions telles que la fatigue, le stress, les méthodes d'exploitation, etc. Le quatrième niveau (direction) comprend des aspects comme la formation, l'entretien, etc. Le cinquième représente tous les organes directeurs de haut niveau tels que les responsables des réglementations, les constructeurs, les concepteurs, les syndicats, etc. Le Dr Reason suggère que ces responsables prennent fréquemment des décisions «faillibles» entraînant des défauts latents, sans effet jusqu'à ce que quelqu'un commette un acte dangereux et déclenche ainsi un processus d'accident potentiel. Si les défenses du système fonctionnent comme prévu, les conséquences de cet acte sont perçues et les effets sont limités. Dans le cas contraire, l'accident peut s'avérer tragique. Le modèle montre combien il est important de réduire ou d'éliminer les carences en matière de sécurité, ce qui peut être représenté par une réduction du nombre ou de la taille des trous, limitant la probabilité d'accident.

Pour qu’un accident ait lieu, il faut que des faiblesses (« trous ») dans les défenses et les barrières de sécurité soient en perspective à chaque niveau de sécurité. C’est ce qui explique que le plus souvent, plusieurs incidents en chaîne sont nécessaires pour provoquer un crash aérien. Pour éviter un accident, il suffit qu’une seule des « faiblesses » située sur l’un de ces niveaux de sécurité soit supprimée.

Le modèle de Reason est particulièrement utile pour illustrer comment un accident peut avoir plusieurs causes.











Pour James Reason, l’idée centrale est donc de focaliser sur les barrières et de surveiller proactivement leur état, afin d’assurer la traque des erreurs latentes dans le système.

L’idée est efficace : poser des indicateurs proactifs sur des barrières. Cette approche est intéressante pour des barrières techniques, cependant pour les barrières humaines, si sa typologie permet de produire des types d’actes risqués, il n’en demeure pas moins que les raisons de ces comportements (ce que J.Reason qualifie de violations en terme d’action intentionnelle par exemple et qui se traduisent en terme d’erreur dans une séquence accidentelle), ne sont pas expliquées. Il y a là un dépassement du champ de la psychologie vers celui de la sociologie des organisations par exemple ou de la psycho-sociologie ou du management, (l’art de mettre en place des dispositifs organisationnels). De plus, en ce qui concerne les erreurs organisationnelles, la question reste entière par rapport aux décisions prises à des niveaux plus hauts que ceux des opérateurs. Quel type d’erreur les managers fontils ? Cette question doit en effet être posée dans la mesure où, même si ces managers ne sont pas impliqués directement dans la séquence accidentelle, ils encadrent les opérateurs qui en sont à l’origine.

L’approche de James Reason est donc très utile a posteriori pour tenter de dépasser le cadre de l’erreur humaine, et permettre de représenter des trajectoires accidentelles qui trouvent leur origine dans des « facteurs organisationnels ».

Il s’agit d’agir sur les systèmes de défense et d’alerte et les conditions d’exercice professionnel : « Si un accident se produit, l’important n’est pas de savoir qui a fait une faute, mais d’identifier pourquoi et comment le système de sécurité a failli ».

Dans le secteur aéronautique, on constate que sur un million de décollages, 999 000 vols se déroulent sans aucun incident notable,
1 000 vols comportent au moins 1 incident qui peut concerner l’appareil lui-même (panne mécanique), une erreur de l’équipage, du guidage au sol, du service de maintenance…. Tous ces incidents ne conduisent pas à une catastrophe heureusement.

A suivre... (page en construction)














Copyright © En perspective - 2005 // Concept: Cool Hand