10
20 e Congrès de maîtrise des risques et de sûreté de fonctionnement - Saint-Malo 11-13 octobre 2016 EXPLORER « L’IMPREVISIBLE » : COMMENT ET JUSQU’OU ? EXPLORING THE “UNPREDICTABLE”: HOW AND HOW FAR? Dechy N. Mortureux Y. Planchette G. Blatter C. Raffoux J.-F. IRSN. IMdR IMdR SNCF IMdR Fontenay/R. Gentilly Gentilly Paris Gentilly [email protected] Résumé Plusieurs catastrophes ces dernières années (Fukushima, German Wings, Brétigny, Deepwater Horizon, Eyjafjöl, AZF, vache folle…) ont surpris les spécialistes laissant à penser à une nouvelle catégorie d’accidents « inimaginables », « impensables », « inconcevables », « imprévisibles », « inévitables ». Est-ce le cas ? Quelles ont été alors les limites des approches de gestion des risques ? Quelles nouvelles mesures peut-on par conséquent mettre en place ou que doit-on changer ? Leur caractérisation s’appuie sur une analyse empirique de certains cas et permet notamment de mettre en exergue certains aspects temporels qui participent à la cécité et à l’inaction. Si le défi opérationnel reste entier, des pistes de réflexion voire d’action en provenance de la recherche notamment et de certaines expériences remarquables sont disponibles et font apparaître des problématiques autour des données et de leur interprétation (ex. signaux faibles, lanceurs d’alertes), un besoin de remise en cause des cadres de pensée classique de gestion des risques (ex. approche cindynique, facteurs organisationnels et humains), la nécessité d’une plus grande gouvernance des risques avec l’ouverture de l’expertise et la reconnaissance de l’intérêt de croiser les points de vue avec les parties prenantes, notamment dissonantes, dans des espaces controversés. Summary Several catastrophes these last years (Fukushima, German Wings, Bretigny, Deepwater Horizon, Eyjafjöl, AZF, mad cow disease…) have surprised the specialists, that let think to a new category of accidents “unimaginable”, “unthinkable”, “inconceivable”, “unpredictable”, “inevitable”. Is it the case? What have been then the limits of risk management approaches? What new measures can we then implement or what shall we change? Their characterisation is supported by an empirical analysis of some cases and enable to highlight some temporal aspects which participates to blindness and inaction. If the operational challenge remains, some thinking or action paths coming from research and from remarkable experiences are available and show the issues of data and their interpretation (weak signals, whistleblowers), a need to challenge some classic thinking framework of risk management (cindynics, human and organisational factors approaches), the necessity of a greater risk governance with a larger opening of expertise and the acknowledgement of the interest to cross viewpoints with stakeholders, in particular dissonant, in controversial spaces. Introduction Plusieurs catastrophes technologiques, désastres « naturels » et controverses sanitaires ont défrayé la chronique ces dernières années : le crash d’un avion de German Wings suite à un suicide du pilote (2015), l’accident ferroviaire de Brétigny (2013), le tsunami entrainant la catastrophe nucléaire de Fukushima (2011), l’éruption du volcan Eyjafjöll (2010), l’explosion de la plateforme Deepwater Horizon suivie de la plus grande marée noire de l’histoire (2010), le décrochage puis le crash de l’AF447 Rio-Paris (2009), l’explosion de l’usine AZF (2001), les perturbateurs endocriniens avec le bisphénol A (2010), les crises de la vache folle (1996),… Il est à noter que cette liste pourrait être complétée. Elles ont en commun la particularité d’avoir surpris les professionnels de la gestion des risques par leurs scénarii parfois atypiques dans des systèmes où les risques étaient en apparence maîtrisés. De plus, il apparait que les fréquences constatées sont supérieures à celles prévues à la conception. Ceci a conduit certains experts et profanes à s’interroger sur leurs propensions à être imaginées, prévues et prévenues. Il est possible d’identifier quelques questionnements pouvant soutenir l’instruction de la problématique générale : Peut-on et comment prévoir « l’imprévisible », imaginer « l’inimaginable », penser « l’impensable », concevoir « l’inconcevable » ? Peut-on être exhaustif dès la conception ou s’agit-il d’un objectif inatteignable ? Quels sont les freins sociaux, organisationnels et humains, mais aussi scientifiques à leur identification et leur traitement ? Quels sont les biais des approches classiques en matière d’analyse et de gestion des risques ? Ne faut-il pas changer nos modes de pensée, sinon de paradigmes ? Sur quelles recherches et expériences peut-on s’appuyer ? Quels sont les défauts de connaissances sur les natures et les échelles de phénomènes (d’origine naturelle, technique, humaine, organisationnelle ou sociale) ? Quelles sont les limites des modèles ? Comment démasquer certains dangers ? Comment faire le tri dans des volumes d’information toujours croissants ? Comment hiérarchiser des risques dont on n’a qu’une expérience faible, voire inexistante ? Peut-on envisager des pistes opérationnelles pour traquer et discriminer les signaux faibles du bruit de fond ? Comment discriminer les « bons » lanceurs d’alertes et doit-on tous les écouter ? Que peut-on apprendre des parties prenantes qui ne partagent pas les mêmes valeurs ni les mêmes finalités ? Comment concilier les avis divergents ? Quels sont les risques du débat dans les organisations et en dehors ? Que nous apprennent les accidents, les crises et les expériences des controverses sur les risques ? Sont-ils et sont- elles inévitables ? Quels enseignements peut-on tirer des expériences managériales, des expérimentations organisationnelles et de la tendance à l’institutionnalisation (gouvernance des risques) ? Ces multiples problématiques ont été discutées lors de la conférence « Entretiens du risque » en novembre 2015 (ER2015). A partir des actes, des débats, et d’autres cheminements propres aux auteurs, il est proposé d’en réaliser une synthèse et une analyse critique. L’objectif est de déterminer si des éléments de réponse ont bien été obtenus sur certains questionnements et si d’autres problématiques restent relativement ouvertes. La structure de l’examen des problématiques est la suivante : Les limites et insuffisances des approches actuelles notamment à partir de l’analyse de cas de catastrophes, Les méthodes et les expériences de mise en œuvre des méthodes dans différents secteurs. Les aspects temporels sont mis en exergue dans ces deux parties. La discussion est effectuée sous l’angle cindynique. Communication 6C /2 page 1/10

Explorer « l'imprévisible » : comment et jusqu'où ?

  • Upload
    buianh

  • View
    217

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Explorer « l'imprévisible » : comment et jusqu'où ?

20e Congrès de maîtrise des risques et de sûreté de fonctionnement - Saint-Malo 11-13 octobre 2016

EXPLORER « L’IMPREVISIBLE » : COMMENT ET JUSQU’OU ?

EXPLORING THE “UNPREDICTABLE”: HOW AND HOW FAR?

Dechy N. Mortureux Y. Planchette G. Blatter C. Raffoux J.-F. IRSN. IMdR IMdR SNCF IMdR Fontenay/R. Gentilly Gentilly Paris Gentilly [email protected]

Résumé Plusieurs catastrophes ces dernières années (Fukushima, German Wings, Brétigny, Deepwater Horizon, Eyjafjöl, AZF, vache folle…) ont surpris les spécialistes laissant à penser à une nouvelle catégorie d’accidents « inimaginables », « impensables », « inconcevables », « imprévisibles », « inévitables ». Est-ce le cas ? Quelles ont été alors les limites des approches de gestion des risques ? Quelles nouvelles mesures peut-on par conséquent mettre en place ou que doit-on changer ? Leur caractérisation s’appuie sur une analyse empirique de certains cas et permet notamment de mettre en exergue certains aspects temporels qui participent à la cécité et à l’inaction. Si le défi opérationnel reste entier, des pistes de réflexion voire d’action en provenance de la recherche notamment et de certaines expériences remarquables sont disponibles et font apparaître des problématiques autour des données et de leur interprétation (ex. signaux faibles, lanceurs d’alertes), un besoin de remise en cause des cadres de pensée classique de gestion des risques (ex. approche cindynique, facteurs organisationnels et humains), la nécessité d’une plus grande gouvernance des risques avec l’ouverture de l’expertise et la reconnaissance de l’intérêt de croiser les points de vue avec les parties prenantes, notamment dissonantes, dans des espaces controversés.

Summary Several catastrophes these last years (Fukushima, German Wings, Bretigny, Deepwater Horizon, Eyjafjöl, AZF, mad cow disease…) have surprised the specialists, that let think to a new category of accidents “unimaginable”, “unthinkable”, “inconceivable”, “unpredictable”, “inevitable”. Is it the case? What have been then the limits of risk management approaches? What new measures can we then implement or what shall we change? Their characterisation is supported by an empirical analysis of some cases and enable to highlight some temporal aspects which participates to blindness and inaction. If the operational challenge remains, some thinking or action paths coming from research and from remarkable experiences are available and show the issues of data and their interpretation (weak signals, whistleblowers), a need to challenge some classic thinking framework of risk management (cindynics, human and organisational factors approaches), the necessity of a greater risk governance with a larger opening of expertise and the acknowledgement of the interest to cross viewpoints with stakeholders, in particular dissonant, in controversial spaces.

Introduction

Plusieurs catastrophes technologiques, désastres « naturels » et controverses sanitaires ont défrayé la chronique ces dernières années : le crash d’un avion de German Wings suite à un suicide du pilote (2015), l’accident ferroviaire de Brétigny (2013), le tsunami entrainant la catastrophe nucléaire de Fukushima (2011), l’éruption du volcan Eyjafjöll (2010), l’explosion de la plateforme Deepwater Horizon suivie de la plus grande marée noire de l’histoire (2010), le décrochage puis le crash de l’AF447 Rio-Paris (2009), l’explosion de l’usine AZF (2001), les perturbateurs endocriniens avec le bisphénol A (2010), les crises de la vache folle (1996),… Il est à noter que cette liste pourrait être complétée. Elles ont en commun la particularité d’avoir surpris les professionnels de la gestion des risques par leurs scénarii parfois atypiques dans des systèmes où les risques étaient en apparence maîtrisés. De plus, il apparait que les fréquences constatées sont supérieures à celles prévues à la conception. Ceci a conduit certains experts et profanes à s’interroger sur leurs propensions à être imaginées, prévues et prévenues. Il est possible d’identifier quelques questionnements pouvant soutenir l’instruction de la problématique générale :

• Peut-on et comment prévoir « l’imprévisible », imaginer « l’inimaginable », penser « l’impensable », concevoir « l’inconcevable » ? Peut-on être exhaustif dès la conception ou s’agit-il d’un objectif inatteignable ? Quels sont les freins sociaux, organisationnels et humains, mais aussi scientifiques à leur identification et leur traitement ?

• Quels sont les biais des approches classiques en matière d’analyse et de gestion des risques ? Ne faut-il pas changer nos modes de pensée, sinon de paradigmes ? Sur quelles recherches et expériences peut-on s’appuyer ?

• Quels sont les défauts de connaissances sur les natures et les échelles de phénomènes (d’origine naturelle, technique, humaine, organisationnelle ou sociale) ? Quelles sont les limites des modèles ?

• Comment démasquer certains dangers ? Comment faire le tri dans des volumes d’information toujours croissants ? Comment hiérarchiser des risques dont on n’a qu’une expérience faible, voire inexistante ? Peut-on envisager des pistes opérationnelles pour traquer et discriminer les signaux faibles du bruit de fond ?

• Comment discriminer les « bons » lanceurs d’alertes et doit-on tous les écouter ? Que peut-on apprendre des parties prenantes qui ne partagent pas les mêmes valeurs ni les mêmes finalités ? Comment concilier les avis divergents ? Quels sont les risques du débat dans les organisations et en dehors ?

• Que nous apprennent les accidents, les crises et les expériences des controverses sur les risques ? Sont-ils et sont-elles inévitables ? Quels enseignements peut-on tirer des expériences managériales, des expérimentations organisationnelles et de la tendance à l’institutionnalisation (gouvernance des risques) ?

Ces multiples problématiques ont été discutées lors de la conférence « Entretiens du risque » en novembre 2015 (ER2015). A partir des actes, des débats, et d’autres cheminements propres aux auteurs, il est proposé d’en réaliser une synthèse et une analyse critique. L’objectif est de déterminer si des éléments de réponse ont bien été obtenus sur certains questionnements et si d’autres problématiques restent relativement ouvertes. La structure de l’examen des problématiques est la suivante :

• Les limites et insuffisances des approches actuelles notamment à partir de l’analyse de cas de catastrophes, • Les méthodes et les expériences de mise en œuvre des méthodes dans différents secteurs.

Les aspects temporels sont mis en exergue dans ces deux parties. La discussion est effectuée sous l’angle cindynique.

Communication 6C /2 page 1/10

Page 2: Explorer « l'imprévisible » : comment et jusqu'où ?

20e Congrès de maîtrise des risques et de sûreté de fonctionnement - Saint-Malo 11-13 octobre 2016

Limites, insuffisances des approches actuelles et défauts d’anticipation Cette première partie a pour objectif de caractériser quelques défauts notoires d’anticipation à partir d’études de cas d’accidents industriels, de désastres « naturels » et de catastrophes sanitaires et d’identifier les enseignements qu’il est possible de tirer des limites et des insuffisances des approches actuelles en matière d’analyse et de gestion des risques. Les quelques cas ci-après permettent de cerner certaine des principales caractéristiques des différents défauts d’anticipation.

1 Quelques cas de défauts d’anticipation ayant conduit à des catastrophes 1.1. L’effondrement du pont de Tacoma et les défauts de partage de connaissance Le pont suspendu du détroit de Tacoma aux États-Unis, s'effondre le 7 novembre 1940, lors d'un des plus célèbres accidents de génie civil. Le pont avait été dimensionné pour résister au vent, mais en ne tenant compte que des effets statiques. En raison du couplage aéroélastique, un échange d’énergie mécanique se produit entre le vent et le pont qui oscille. La déformation en torsion du tablier engendre une variation de l’angle d’incidence du vent ce qui modifie l’écoulement du vent autour du tablier, qui en retour modifie le couple de torsion, et ainsi de suite. Ce mécanisme s'appelle un « flottement de décrochage ». De façon plus générale, il s'agit d'une instabilité aéroélastique de torsion dans laquelle le vent engendre un amortissement négatif. Ce mécanisme n'était connu en 1940 que pour les ailes d'avion et personne n'envisageait ce scénario pour la conception des ponts suspendus. Cette explication a été confirmée par plusieurs études en soufflerie depuis les années 1940 et ce phénomène aujourd’hui bien connu des concepteurs est systématiquement étudié. Il est à noter que cet événement a été précédé de signaux avant-coureurs, puisque ces phénomènes d’oscillation du tablier attiraient régulièrement des spectateurs (source : Wikipédia). 1.2. Le choc de Fukushima, et pourtant… Avant Fukushima, l’industrie nucléaire a connu deux surprises fondamentales. L’accident de fusion du cœur n’était pas imaginé ni prévu à la conception, et c’est bien l’accident de Three Mile Island (TMI) (1979) qui va conduire à une remise en cause fondamentale de la sûreté. L’accident grave est désormais possible, sa probabilité sera estimée, des mesures sont prises en prévention et dans la gestion des situations incidentelles et de crise. Tchernobyl (1986) a mis en évidence qu’une catastrophe de grande ampleur était possible avec d’importants impacts sanitaires, environnementaux et économiques, renforçant le besoin de moyens de mitigation d’un accident. Fukushima a mis en exergue une vulnérabilité aux aléas naturels extrêmes. Le vendredi 11 mars 2011, un séisme de magnitude 9 sur l’échelle de Richter, survient au large des côtes nord-est du Japon. C’est le plus fort séisme qu’ait connu le Japon. Il est suivi de plusieurs vagues de tsunami, dont les hauteurs de vague atteindront 15 m à Fukushima dépassant le mur de 5,7m. Cette hauteur de vague n’avait pas été enregistrée depuis plus d’un siècle. Ces deux agressions naturelles dépassent les hypothèses de conception de la centrale de Daiichi. Elles entraînent la perte de la source de refroidissement à l’eau de mer et des sources électriques, ce qui conduit à la fusion du cœur sur trois réacteurs (la tempête Martin de 1999 sur la centrale de Blaye avait déjà montré que les scénarios devaient considérer plusieurs réacteurs impactés). Ce scénario était considéré par l’exploitant (TEPCO) et les autorités de contrôle japonaises comme faisant partie des risques potentiels à maîtriser dès 2006 (rapport de la commission du parlement japonais, Diet, 2012, pp. 16-17, 26-28). Si le scénario avait bien été imaginé, les valeurs de référence du dimensionnement de la centrale au séisme et au tsunami lors de sa conception, ou lors des réévaluations des aléas dans les années qui ont précédé l’accident, ont été soit insuffisantes, soit n’ont pas donné lieu à temps à des mesures compensatoires suffisantes. Ainsi, l’exploitant et l’autorité de contrôle ont utilisé l’argument des faibles probabilités pour ne pas exiger rapidement la mise en place de mesures additionnelles. En ce sens, la commission parlementaire japonaise a considéré (p. 9) que l’accident survenu à la centrale de Fukushima-Daiichi « aurait pu et dû être anticipé et prévenu – et ces effets auraient pu être mieux maîtrisés par une réponse humaine plus efficace ». Les premières interprétations et débats d’experts dans les journaux ont pu laisser penser à une nouvelle catégorie d’accident, un accident impensable, inimaginable, inconcevable, imprévisible pour certains, inévitable pour d’autres (Perrow, 2011). En effet, Fukushima a été un choc pour l’ensemble de la communauté nucléaire, et plus largement dans le monde, en tant que surprise fondamentale. J. Repussard, directeur de l’IRSN en 2011, a utilisé l’expression « il faut imaginer l’inimaginable » (Le Monde, Le Figaro) et a précisé lors des ER2015 : « je n’ai pas dit imprévisible mais inimaginable, ce qui est une grosse différence. L’accident était prévisible, non pas dans le temps, mais dans sa survenance. Des bornes avaient été installées plusieurs siècles avant pour savoir les endroits où il ne fallait pas construire. Fukushima avait été construit au mauvais endroit. Sur les deux dernières tranches construites, il y avait eu une élévation de 5 mètres de la digue et les dégâts y ont été bien moins considérables. » Son message se complète d’une invitation à repousser les frontières classiques des analyses de risques : « On ne prend pas en compte toutes les dimensions de ce qui peut se passer de pire. […] Est-ce qu’il y a des questions qui ont été oubliées dans la défense en profondeur ? Il faut y penser et faire de la prévention. […] Or on ne s’entraine pas en faisant des exercices de crise dans le noir comme c’était le cas avec Fukushima. […] Les maires n’avaient pas imaginé ce risque car beaucoup sont « relativement » loin de la centrale (50km par exemple) Cela se heurte à de l’incrédulité. Si les décideurs ne l’imaginent pas, cela devient inimaginable. » M. Llory (2015) estime qu’il a été en état de sidération, et a été en difficulté pour penser l’accident dans ses premiers jours, au vu du peu d’information sur les causes autres que naturelles. Cependant en se tournant vers le passé et vers l’étude systématique des accidents majeurs industriels en particulier de ceux de l’industrie japonaise (notamment les pratiques peu orthodoxes de l’industrie automobile avec le registre officiel et le registre caché des incidents chez Mitsubishi, l’accident de criticité de Tokaï-Mura en 1999 qui révélait des insuffisances graves en matière de sûreté et une course à la rentabilité, les retards de déclarations d’incidents, de dissimulations et falsifications chez Tepco en 2002) lui avait permis de poser des hypothèses qui ont été confirmées après coup en partie dans les rapports officiels. Dans ces rapports notamment (Diet, 2012), il est conclu que l’accident est dû à l’homme et paradoxalement que ce n’est pas un accident « naturel ». De plus, c’est un accident « Made in Japan », un accident organisationnel, culturellement ancré dans les dysfonctionnements graves de l’industrie japonaise et des autorités de sûreté, avec un fort déni et un esprit de quasi infaillibilité et des dissimulations au profit d’un productivisme extrême pendant que les autorités de contrôle ont été particulièrement laxistes vis-à-vis des industriels, et Tepco notamment. 1.3. L’éruption du volcan Islandais : une pagaille aérienne prévisible L'éruption volcanique de l'Eyjafjöll en Islande débute le 20 mars et prend fin le 27 octobre 2010. Elle engendre la formation d'un important panache volcanique composé de vapeur d'eau, de gaz volcaniques et notamment de cendres qui seront poussées par les vents dominants vers l'Europe. Ces cendres volcaniques sont connues pour constituer un danger pour la navigation aérienne car elles peuvent notamment entraîner un arrêt des réacteurs des avions. Ce risque conduit certains pays à fermer partiellement ou totalement leur espace aérien dès l'arrivée du nuage et à de nombreuses annulations de vols jusqu'au 20 avril. Les premiers à le faire sont la Belgique, la Norvège, le Danemark, l'Irlande et le Royaume-Uni, affectant plus de 6 000 vols. Le lendemain, la majorité des pays allant de la France à la Russie sont concernés par ces mesures préventives. L'altitude de ce nuage de cendres est inférieure à quatre kilomètres ce qui permet aux avions volant à des altitudes supérieures de redécoller. Aussi, l'Union européenne décide de rouvrir progressivement l'espace aérien au-dessus du continent à partir du 20 avril (Wikipedia).

Communication 6C /2 page 2/10

Page 3: Explorer « l'imprévisible » : comment et jusqu'où ?

20e Congrès de maîtrise des risques et de sûreté de fonctionnement - Saint-Malo 11-13 octobre 2016

Le risque était donc connu et l’événement prévisible. En effet, certains incidents de vol ont eu lieu dans le passé. De plus, des dispositifs de sécurité étaient en place. La surveillance de ces nuages de cendres est réalisée par des VAAC (Volcanic Ash Advisory Center) et la diffusion de l’information aux compagnies aériennes est organisée par l’OACI (Organisation de l’aviation civile internationale). Malgré cette organisation en place, C. Frantzen s’étonne : « On ne sait plus que faire, ni qui doit faire quoi : Quelles caractéristiques du nuage sont utiles pour décider ? Qu’est-ce que les moteurs peuvent supporter ? ». Si le défaut d’identification du risque n’est pas en cause, où se situent les défaillances dans l’anticipation et la gestion des risques ? Certaines se situent dans l’organisation de l’aide à la décision avec l’avis des experts et la complexité organisationnelle. L’expertise existe : certaines compagnies, par exemple en Alaska, sont régulièrement confrontées à cette situation et gèrent ces situations à la satisfaction de la FAA (Federal Aviation Administration). Mais en Europe, C. Frantzen estime que les différentes parties prenantes jouent chacune ce qu’elles pensent être leur rôle et l’ensemble est incohérent : les compagnies se tournent vers les avionneurs qui se tournent vers les motoristes qui restent silencieux. L’OACI évacue la question en considérant qu’on ne traverse pas un nuage volcanique … la zone du panache devient « zone dangereuse, voire interdite », etc. … et le système aérien se bloque. L’indignation monte. Il n’y a aucun processus de levée des blocages prévu. Certains acteurs prennent l’initiative d’un vol « d’essai » sans passager. L’absence d’incident sur ce vol sert à décider la reprise des vols commerciaux. « Une pagaille à 1,27 milliard d’euros » (préjudice subi par les compagnies aériennes) ! En définitive, C. Frantzen estime qu’il n’y avait « rien d’imprévisible dans le scénario sauf l’impréparation, l’incohérence, et les défauts d’organisation ! ». 1.4. Le séisme en Haïti : une tragédie liée aux vulnérabilités persistantes Il s’agit d’un tremblement de terre d’une magnitude de 7,0 à 7,34 survenu le 12 janvier 2010, et dont l’épicentre était situé approximativement à 25 km de Port-au-Prince, la capitale d’Haïti. Le bilan est de plus 300 000 morts, 300 000 blessés et 1,2 million de sans-abris. Au bout de trois jours, l’état d’urgence a été déclaré sur l’ensemble du pays pour un mois. Le risque sismique était connu, avec des signes avant-coureurs d’une tragédie (une faille étudiée depuis 250 ans qui se déplace de 7 mm par an à proximité d’une zone urbaine de 3 à 5 millions d’habitants). Cependant, comment expliquer que les conséquences du séisme n’aient pu être mieux prévenues ? Selon le sismologue E. Calais (2015), la catastrophe s’explique par un mélange de facteurs scientifiques (bien que le rapport entre l’énergie accumulée et la magnitude du séisme soit connu, le pays manque de ressources scientifiques pour renseigner les décideurs politiques), technologiques (infrastructures de mauvaises qualité), économiques (contexte de très grande pauvreté) qui fera que le risque sismique aura une faible priorité au vu des multiples contraintes et risques présents au quotidien (alimentation, logement,…), culturels (bas niveau d’éducation, fuite des cerveaux), institutionnels (absence de communication structurée entre gouvernement, ONU, société civile,... ). En d’autres termes, la catastrophe était inscrite dans la vulnérabilité intrinsèque et historique d’Haïti. 1.5. Les perturbateurs endocriniens : quand appliquer le principe de précaution ? Au cours des dernières décennies plusieurs études scientifiques ont attiré l’attention sur la nocivité de certaines substances chimiques présentes dans l’environnement : les perturbateurs endocriniens. Ceux-ci peuvent avoir des effets négatifs sur la santé, notamment sur la croissance, la fertilité et le fonctionnement de divers organes. Ainsi dès le début des années 2000, des scientifiques alertent sur les dangers du bisphénol A, utilisé largement depuis près de 50 ans dans plusieurs produits de consommation, entre autres dans la fabrication des biberons… Mais la compréhension du rôle joué par ces substances fait l’objet de controverses et ce n’est qu’en 2009 que l’ANSES lance un travail d’envergure qui vise une trentaine de substances préoccupantes au regard de leur action comme perturbateurs endocriniens. Les effets négatifs de ces perturbateurs sont observés dans des études expérimentales chez l’animal et posent la question de l’extrapolation de leurs effets à l’homme qui ne passe pas par les voies classiques des études de toxicité (effets à très faibles doses, effets différents selon les périodes de la vie, multiplicités des voies possibles de contamination). Il a donc fallu développer de nouvelles méthodes d’évaluation des risques adaptées aux spécificités d’action de ces composés, dans le cadre d’un changement de paradigme de la toxicologie, où la relation dose-effet n’est plus pertinente. Ainsi le premier rapport de l’ANSES relatif au bisphénol A est publié en 2011 puis le rapport final en 2013. Ce produit avait certes été interdit dans la fabrication des biberons des enfants dès 2010, mais ce n’est qu’au 1er Janvier 2015 qu’il fut interdit pour tout contenant alimentaire. Depuis 2014 d’autres rapports ont été publiés relatifs à plusieurs substances présentes dans divers produits courants : peintures, colles, parfums d’ambiance,… et amènent à exercer une veille et une vigilance active. Il est à noter que le cloisonnement des services publics en charge des études sur la santé et l’environnement affaiblit les capacités de détection et de mise en lien des expositions et des effets. Prévisibilité des effets ? Anticipation des actions de réduction de l’exposition à un risque potentiel en accord avec le principe de précaution ? Autant de questions à poser aux décideurs des politiques publiques sachant que la certitude scientifique des effets sur l’homme peut prendre un certain temps… Mais A Cicolella (2015) se demande si nous devons attendre une certitude avant que ne soient mises en œuvre les mesures réglementaires concernant les utilisations de ces substances et celles pour réduire l’exposition des populations ?

2 Enseignements généraux sur les limites et les insuffisances des approches actuelles 2.1 Quelques éléments pour distinguer les phénomènes Plusieurs termes ont été évoqués au cours des interventions et des études de cas (cf. tableau n°1) et renvoient à la famille de l’anticipation et ces défauts. Ils ont constitué pour nombre d’acteurs de la maîtrise des risques des « surprises » fondamentales.

Tableau n°1 : Catégories de phénomènes liés à l’anticipation et ses défauts Evénement Prévu, anticipé, sans surprise Non anticipé, imprévu, surprenant Catégories de phénomène

Identifié car typique, imaginable, concevable

Prévisible, prédictible

Probable Evitable Inimaginable, inconcevable, impensables atypique

Imprévisible, imprédictible

Improbable, cygne noir

Inévitable

Rappelons (Lannoy, 2015) qu’anticiper, c’est faire une prévision en contexte incertain, ambigu, controversé, ou préciser le futur « probable » en utilisant les informations du passé et du présent et peut-être les tendances pour l’avenir. Les termes (inimaginables, inconcevables, impensables, atypique) renvoient aux capacités d’identification et de reconnaissance d’un scénario avec d’une part la difficulté à établir des liens de causalité entre des éléments fragmentaires et d’autre part les défauts de connaissance ne permettant pas une modélisation/représentation du phénomène. D’autres termes renvoient aux difficultés temporelles d’anticipation, que ce soit à terme (imprévisible), ou ponctuellement sur leur moment d’occurrence (imprédictible).

Communication 6C /2 page 3/10

Page 4: Explorer « l'imprévisible » : comment et jusqu'où ?

20e Congrès de maîtrise des risques et de sûreté de fonctionnement - Saint-Malo 11-13 octobre 2016

D’autres termes sont en lien avec leur fréquence d’apparition sur une période temporelle donnée (probable). Le caractère inévitable, s’il est inscrit dans la temporalité, renvoie plutôt aux capacités de prévention. Les enseignements généraux sont abordés à trois niveaux, tout en insistant sur les aspects temporels : défauts de modélisation de l’accident, dans la modélisation qualitative et quantitative des risques, dans la gestion et la gouvernance des risques. 2.2 Une déficience dans la modélisation de l’accident sur les plans temporels et organisationnels L’histoire des accidents, constituée de l’étude systématique et approfondie de nombreux accidents industriels, tous secteurs confondus, depuis les années 70 (plus de 150, avec une quarantaine de « cas d’école » selon M. Llory, 2015), des débats et controverses autour de la catégorisation des accidents et de leurs éventuels enseignements, a permis de fonder les bases d’une connaissance des accidents (Dechy et al, 2010). Il est possible d’en extraire des mécanismes généraux qui peuvent se résumer à deux leçons essentielles : les accidents et leurs causes sont inscrits dans les dimensions temporelles et organisationnelles et celles-ci sont sous-estimées. L’accident ne se réduit pas à « un exceptionnel enchaînement malheureux de circonstances ». Sur le plan temporel, l’accident « n’arrive pas de nulle part sans prévenir ; l’accident couve, il n’est pas spontané mais tient à une dégradation des conditions de la sécurité ; L’accident prévient, il est annoncé par des signaux faibles, souvent trop répétitifs, mais aussi des incidents précurseurs, des actions, des tentatives opportunes de lanceurs d’alerte ; Finalement tout se passe comme si l’accident attendait de survenir mais qu’il allait survenir» (Llory, 2015). Dans le cas de TMI, le rapport d’enquête Rogovin consacre une part importante aux rapports alertant de défauts possibles de gestion des événements en salle de commande (Llory, 1999). Avant le crash du DC10 de la Turkish airline à Ermenonville en 1974, de nombreux incidents sur des défauts de fermeture des portes de soute avaient été signalés : plusieurs lanceurs d’alerte ont tenté de le signaler, et un précurseur ou une « répétition générale » avait été observé lors de l’incident de Windsor en 1972 (Llory 1996, Dien, 2015). Les consultants de Telos avaient pourtant indiqué que l’usine de Texas City était en très mauvais état (CSB, 2007). Au regard de ces enseignements généraux des accidents, une réfutation du caractère « inimagnable » et « imprévisible » des accidents est possible, de même que celui de leur caractère « normal » et « inévitable » (Perrow, 1984), point de vue qu’il renouvelle en 2011 après Fukushima. Llory s’interroge : « Si on mettait de côté les accidents qui ont été annoncés par une dégradation visible des conditions de la sécurité, des incidents précurseurs, des actions ou des tentatives de lanceurs d’alerte, combien d’accidents « normaux » selon Perrow resterait-il ? ». Dien (2015) estime que cette théorie véhicule une vision fataliste, alors que la majorité des accidents n’appartiennent pas à la catégorie des risques résiduels. Certes à long terme l’accident arrive, mais cela suppose quand même de se questionner sur ce qu’il faut faire pour éviter qu’il soit aussi grave et tenter de le repousser le plus possible. Ils peuvent être annoncés, mais ils peuvent aussi devenir inévitables s’il y a un déni de la situation accidentogène et s’il y a des résistances en termes de gestion. Dan Goldin dans les années 1990 avait lancé une phrase choc : « faster, better, cheaper ». Une formidable formule de productivisme, et les nombreux échecs et leurs effets ne se sont pas fait attendre, avec Columbia qui signa la fin de ce programme. De plus, des similitudes entre scénarios d’accidents existent avec des échos entre les accidents, comme entre les pertes des navettes spatiales Challenger dans Columbia malgré des scénarios techniques différents. Ces répétitions ouvrent la voie à une capitalisation des connaissances. En conclusion, M. Llory plaide (Llory et Montmayeul, 2010) pour le développement d’une clinique des organisations respectant leur complexité en se gardant des méthodes toutes faites. Il faut reconstituer une réalité complexe, dans une démarche qui s’apparente à la clinique médicale avec les connaissances d’arrière-plan ou l’enquête policière. Le livre La Méthode de Sherlock holmes, de la critique à la clinique est un livre policier, clinicien, historien qui propose un destin honorable et qui permettrait un progrès supplémentaire pour la sécurité. Cette analyse organisationnelle des accidents et des risques donne toute sa place à l’histoire. La constitution historique permet d’établir du lien, du sens et de penser plus largement un accident, en le mettant en perspective avec de nombreux événements passés. Le rapport Rogovin sur TMI montre comment les experts analysent pas à pas, au sein de la vaste organisation du nucléaire américain, la place des rapports d’alerte sur une petite brèche dans le circuit primaire avec blocage de la soupape de sécurité. Suivre pas à pas le destin de ces rapports, les discussions, et comprendre comment les rapports se perdent est une véritable leçon de sécurité et méthodologique. 2.3 Des limites dans la modélisation qualitative et quantitative des risques, et la dimension temporelle Certains accidents ont indiqué que leur défaut d’anticipation provenait en partie des défauts de modélisation des risques. Certains accidents comme celui du pont de Tacoma en 1940 n’ont pu être anticipés à temps du fait de défauts de connaissances notamment dans la modélisation physique des mécanismes d’apparition de phénomènes et dans la quantification de ceux-ci. Plusieurs accidents auront un rôle de révélateur sur les phénomènes en jeu, sur le caractère explosif du nitrate d’ammonium (Médard, 1979), sur les niveaux de pression atteints lors de déflagration en champs libre (UVCE) avec l’accident de Flixborough en 1974, ou de déflagrations initiées par une explosion primaire dans un bâtiment à Buncefield en 2005. En première lecture, il pourrait être conclu que ces accidents étaient impensables, inimaginables, inconcevables du fait des défauts de connaissances de l’époque. Une étude (Paltrinieri et al, 2012), a montré que ces scénarios « atypiques » étaient générés à la fois par des défauts de connaissance, d’analyse de risque et de retour d’expérience (notamment AZF et Buncefield). D’autres réflexions permettent de recenser de nombreuses déficiences de la modélisation des risques (Dien et Dechy, 2016), notamment lorsqu’il s’agit d’investiguer le risque résiduel et les défauts d’estimation de celui-ci qui le rendent problématique (Couturier et al, 2016). La démarche de quantification des risques est une étape importante et complète de manière utile la démarche déterministe en fournissant d’autres critères de décision. Ces démarches ont donné des résultats intéressants qui ont permis de rationaliser certaines prises de décision sur des mesures de maîtrise des risques mais présentent des limites. Une sous-estimation manifeste des probabilités d’occurrence des accidents majeurs apparait. A. Lannoy (2015, 2016), présente les chiffres recensés pour les secteurs du spatial, nucléaire, plateforme en mer et stockage de GNL, en distinguant les objectifs probabilistes alloués, des calculs tirés des évaluations en phase de conception, des fréquences constatées de survenue des accidents :

• Fréquence observée = 2 à 10 fois la fréquence allouée à la conception de l’installation, • Fréquence observée = 15 à 60 fois la fréquence prévue par les calculs tirés des évaluations, • L’observation d’un événement imprévu, rare, dépend de l’échelle de temps considérée. • Lorsque le REX est insuffisant, un seul accident suffit pour multiplier la fréquence par un facteur de l’ordre de 10.

Certaines explications des écarts se distribuent dans les défauts de modélisation du système, de ses causes et de ses conséquences. Plusieurs intervenants et auteurs s’accordent sur ce point. Un des aspects concerne l’insuffisance du REX (Lannoy, 2016) qui génère de l’incertitude sur les données. Les échantillons sont de taille insuffisante, il y a des données incertaines, des listes incomplètes d’événements initiateurs, des données de fiabilité (incomplètes, censurées à droite) qui sont sensibles à l’efficacité de la maintenance, un manque de données sur les FOH, des défaillances de cause commune, un profil de fonctionnement (du passé, défini à la conception, peu représentatif), des données invalides et parfois qui restent ambigües. Les modèles probabilistes embarquent de nombreuses incertitudes (Lannoy, 2016), car ils reposent certes sur des représentations simplifiées construites à l’aide d’outils classiques (analyse des dangers, arbre d’événements, noeud papillon,

Communication 6C /2 page 4/10

Page 5: Explorer « l'imprévisible » : comment et jusqu'où ?

20e Congrès de maîtrise des risques et de sûreté de fonctionnement - Saint-Malo 11-13 octobre 2016

réseau bayésien, …), et à partir d’une connaissance physique limitée. Cependant, la complexification peut obscurcir, et les modèles doivent être utilisés en adéquation avec la situation ce qui n’est pas toujours le cas. Surtout, le futur est envisagé à l’image du passé, l’évolution temporelle du système et de son contexte, le vieillissement sont peu pris en compte, avec des modèles qui sont statiques. Les événements rares qui ne se sont pas produits échappent à la modélisation. S’ils se sont déjà produits, leurs effets sont surestimés, faussant ainsi les probabilités des autres situations. A. Lannoy reconnait que ces approches fondées sur des modèles et des données nécessairement imparfaits exigent de la prudence et de l’expertise pour tirer des conclusions pertinentes, il réaffirme qu’elles sont essentielles et efficaces. Aussi est-ce dans le développement de ces méthodes et dans la rigueur de leur utilisation en relatif, incluant l’analyse de sensibilité, qu’il faut chercher le remède aux insuffisances des approches actuelles qui nous font prendre des événements mal anticipés pour « imprévisibles ». Il recommande de distinguer le domaine du « médianistan » de celui de l’ « extrémistan » (selon les termes de Taleb, 2007). Plus les chroniques d’observation sont longues et nombreuses (loi des grands nombres), plus les extrapolations et les estimations de fréquences d’occurrence sont précises. Le médianistan est la zone centrale de distribution statistique où les méthodes fréquentielles et bayésiennes classiques sont pertinentes car les valeurs sont proches de la médiane et un nombre limité d’observations suffit pour estimer le risque. L’extrémistan est la zone d’événements à probabilité très faibles mais conséquences très graves, dits « cygnes noirs » (avec les queues de distribution), où il faut passer par une compréhension physique des phénomènes pour construire des scenarii et évaluer leurs conséquences. De même, l’estimation probabiliste d’événement n’ayant pas été précédés par des accidents (« 0 défaillance ») n’est pas totalement satisfaisante (Lannoy, 2016) bien que l’expertise permette de combler les déficits de données. 2.4 Les défauts dans la gestion et la gouvernance des risques Certains accidents causés par des défauts d’anticipation manifestes impliquent souvent les processus de décision qui sont une étape clé dans la gestion des risques. Si les experts doivent changer, compléter et varier leurs grilles de lecture sur le phénomène accidentel et fournir des modélisations des risques plus appropriées pour une meilleure aide à la décision, les décideurs sont souvent incriminés au vu des responsabilités qu’ils exercent. Les cas de Fukushima, du volcan Islandais et du séisme en Haïti mettent en exergue une forme d’inaction soutenue par l’argument des faibles probabilités. D’autres accidents précédés de signaux forts comme à Texas City montrent que la réaction du management est trop tardive et trop faible. Au même titre qu’il ne faut pas réduire la complexité d’un accident à l’erreur du lampiste, il ne faut pas réduire les défauts de gestion des risques aux seules défaillances du décideur, bien que celui-ci ait une responsabilité clé dans la maîtrise des risques. En effet, c’est à lui ou aux cadres et manageurs, que reviennent les arbitrages sur les opportunités et les risques. Il convient de mettre en œuvre une analyse clinique et organisationnelle du contexte dans lesquels ils prennent leurs décisions et d’opérer en prévention sur les conditions de gouvernance de l’expertise et de la décision (Merad, 2010). L’un des critères de décision est l’acceptabilité du risque. Après Fukushima, il est possible de remarquer la divergence de choix entre la France et l’Allemagne, même si ce choix ne se réduit pas au critère de l’aversion. J. Repussard (2015) souligne que dans un premier temps, ce n’est pas la réglementation qui change, ou une action de l’administration, c’est une pression de la société civile dont la perception et l’acceptation du risque ont changé. En ce sens, la société civile rééquilibre la propension aux risques des exploitants. De plus, la réglementation est parfois mal conçue, ne reflète que le passé et ne prend pas en compte certains nouveaux scénarios. L’approche française diffère de l’approche américaine centrée sur la conformité règlementaire, et repose sur des ré-examens tous les 10 ans du niveau de sûreté et des améliorations à apporter au vu des nouvelles connaissances acquises. En ce sens, il s’agit d’un des leviers pour traiter le risque résiduel (Couturier, 2016). L’un des outils classique d’aide à la gestion du risque est la courbe de Farmer avec le diagramme fréquence/gravité. Au vu des limites évoquées précédemment, cet outil mathématique simple, présente des limites, notamment lorsqu’il est utilisé pour les événements extrêmes où il devient inapplicable. Malgré les efforts des experts pour évaluer les risques et des décideurs pour rationaliser leur processus de décision, une experte japonaise (M. Nishizawa, 2016) rappelait lors d’une conférence AIEA, 30 ans après Tchernobyl : « Ceux qui fixent in fine le niveau de risque des centrales ne sont pas les ingénieurs mais le public ! ». Un enjeu important réside dans la capacité des ingénieurs à convaincre les décideurs, or parfois leurs résultats et discours sont peu audibles et mal compris. J. Repussard a pris l’exemple, du réacteur Osiris du CEA. Au moment de sa construction, ce n’était que des champs alors qu’il s’y construit le Grand Paris. La fermeture d’Osiris, conduit à l’arrêt de la production de radionucléides médicaux, non seulement en France mais aussi en Europe. « Il y a eu un arbitrage. D’un côté un risque très faible, notamment de rejets d’iode, et de l’autre côté, une probabilité plus forte, d’impasses médicales potentielles, de renoncement à des examens médicaux. Le choix qui a été fait, c’est de fermer le réacteur. Pourquoi ? Parce qu’il y a une aversion plus forte au nucléaire. La décision a été peut-être mal discutée avec les institutions, hospitalières notamment, et la décision prise dans l’ambiance feutrée des cabinets ministériels ». Par conséquent, pour que l’expertise soit un vrai outil d’aide à la prise de décision, il faut engager la discussion notamment sur des sujets difficiles (ex. sur la maîtrise de l’urbanisation autour des centrales nucléaire, sur l’interdiction de consommation d’eau courante légèrement contaminée en cas d’accident nucléaire). L’autre réalité dont il faut tenir compte, est la montée en puissance de la contre-expertise, notamment à Fukushima en raison de la défiance envers les autorités, avec l’auto-organisation des riverains dans la mesure de la radioactivité et dans le choix des mesures individuelles de réduction du risque, avec un « citoyen qui se gouverne lui-même ». Pour le cas des perturbateurs endocriniens, notamment du bisphénol A, la société civile a joué un rôle important dans l’expertise et l’aide à la décision en contrecarrant la cécité et l’inaction. Cependant, l’application du principe de précaution se heurte à des difficultés en lien avec le poids et la crédibilité scientifique des preuves, mais aussi au fait que la charge de la preuve est attribuée à ceux qui en dénoncent les effets plutôt qu’à ceux qui les génèrent potentiellement. Ce phénomène d’inversion de la charge de la preuve a également été constaté dans les accidents des navettes spatiales Challenger et Columbia, où il a été demandé à l’un des ingénieurs de « quantifier ses doutes » (Dien, 2015). Enfin, le séisme en Haïti illustre tragiquement les effets des vulnérabilités socio-économiques historiques, conduisant à une hiérarchisation des risques de survie au quotidien sur les risques moins fréquents, même s’ils sont probables à terme. Les agendas politiques et décisions budgétaires sont soumis à l’impopularité d’engager des dépenses importantes à court terme pour des enjeux aussi peu urgents. Ce séisme rappelle l’incomplétude des approches classiques d’évaluation du risque centrées sur la source de danger. Les couples fréquence/gravité ont été progressivement remplacés après AZF par une approche en provenance des risques naturels, prenant mieux en compte la vulnérabilité aux aléas des cibles potentielles. Il est possible de distinguer une forme de vulnérabilité intrinsèque du système (ex. défaut de coordination, fragmentation,…), indépendante du type d’aléa et qui n’attend qu’un événement déclencheur pour cristalliser, d’une vulnérabilité extrinsèque du système dépendante de l’aléa (la vulnérabilité d’une ville au séisme ou à l’inondation est ainsi différente). Perrow insistait (2007) sur le fait que c’était une stratégie prioritaire au vu de la complexification des systèmes et du caractère inévitable des accidents. Comme le souligne E. Calais (2015), le protocole de Hyogo, prévoit la nécessité de mettre en œuvre des programmes visant sur le long terme la réduction des vulnérabilités.

Communication 6C /2 page 5/10

Page 6: Explorer « l'imprévisible » : comment et jusqu'où ?

20e Congrès de maîtrise des risques et de sûreté de fonctionnement - Saint-Malo 11-13 octobre 2016

Méthodes et expériences pour « explorer l’imprévisible » Après avoir exploré les limites des approches actuelles, il convient de rechercher des pistes de solution. Il peut s’agir de méthodes en développement, d’expériences de démarches capables de répondre aux défis recensés en première partie. 3. La voie des données : organiser la traque, outiller le prétraitement (Big Data, TAL) Les systèmes sociotechniques émettent des informations relatives à leur exploitation notamment des événements. Certains signaux sont considérés soit comme des événements précurseurs, soit comme des signaux dénommés faibles parce que non identifiés ou difficilement interprétables. Un premier défi est d’organiser la traque des signaux ce qui nécessite un dispositif particulier de collecte de données (Lesca et Lesca, 2011). Dans le domaine sanitaire, alimentaire, environnemental et professionnel, l’ANSES (Lasfargues, 2015) distingue ainsi la veille de la prospective. La veille (scientifique, technologique, sociétale, média, sanitaire) est un dispositif ayant vocation à déclencher des alertes à partir d’une extraction d’une masse de signaux, de ceux qu’il pourrait être pertinent d’analyser. C’est un processus continu qui produit des « éléments de veille » ponctuels. La prospective est une démarche d’anticipation qui vise à décrire des futurs possibles qui fournissent un cadre structurant pour des réflexions stratégiques. C’est un processus ponctuel qui produit des scénarios (continus, systémiques). En explorant le domaine de la veille sanitaire, l’Institut national de veille sanitaire (InVS) la définit comme « la collecte et l’analyse en continu par les structures de santé publique des signaux pouvant représenter un risque pour la santé publique dans une perspective d’anticipation, d’alerte et d’action précoce ». Il faut pouvoir capter correctement les signaux (phénomène de santé, exposition à un danger), savoir détecter avec professionnalisme (jugement d’expert après investigations) ceux qui seront porteurs d’épidémies afin de déclencher des alertes, ni trop tôt, ni trop tardivement, à bon escient (c’est-à-dire, ne pas rater d’alertes graves, éviter de trop alerter au risque d’une censure voire d’un rejet des destinataires). En somme, il faut à la fois être réactif, proactif et prendre du recul (Désenclos, 2015) ! L’InVS associe la surveillance spécifique et non spécifique (approche quantitative), le signalement d’événements (approche qualitative), la veille internationale, médiatique, réseaux sociaux… A l’ANSES, les stratégies sont similaires (courriels, site internet, appels téléphoniques, registre des alertes, structuration des activités,…). La traque des sujets émergents passe par un suivi précis de la littérature scientifique. Un point important pour l’ANSES, est la capacité d’auto-saisine à partir d’éléments nouveaux qu’elle peut commencer à structurer (ex. nanomatériaux, perturbateurs endocriniens…). En cas d’alerte, des investigations complémentaires sont menées afin d’analyser les options de gestion, puis un suivi de l’impact de l’intervention est effectué. Le filtrage des informations nécessite une organisation bien rôdée afin de ne pas être noyé sous les signaux d’autant que les capacités de traitement déclinent du fait des contraintes budgétaires de l’État. Il faut donc rationaliser sans risquer d’être pris en défaut ce qui nécessite de disposer de canaux ouverts à la remontée d’information (Désenclos, 2015, Jouniaux et al, 2014) ! Des seuils et des indicateurs sont prédéfinis dans les deux institutions. La problématique des signaux faibles en lien avec le biais rétrospectif est posée «Ce qui paraît anecdotique et inhabituel ou mal expliqué aujourd’hui peut être révélateur de ruptures dont on ne pourra comprendre la rationalité que secondairement » (Désenclos, 2015). Une particularité de ces informations est que leur propriété de signal (faible) est une caractéristique extrinsèque, qui dépend de la mise en lien avec d’autres informations (Jouniaux et al, 2014), dont l’image est celui du puzzle où la forme globale apparait après coup (Lesca et Lesca, 2011), et notamment le lien avec le risque encouru. Afin de créer des liens, dans des volumes de données importantes, qu’il est difficile d’explorer par un humain, des outils de fouille des données, du big data (Jouniaux et al, 2014) et du traitement automatique des langues (Raynal et Blatter, 2014) sont disponibles et déjà utilisés à l’ANSES, l’InVS et dans l’industrie. Des efforts de défragmentation de différentes bases de données sont nécessaires en amont. Ces outils fournissent un pré-traitement, c’est-à-dire qu’il permet de poser des hypothèses en raison de liens potentiels. Elles nécessitent un jugement d’expert afin de confirmer la pertinence des liens, et ce, avant de mettre à jour le modèle de gestion des risques et les mesures retenues. Au-delà de l’équilibre entre réactivité et proactivité, G. Lasfargues considère qu’il convient de développer des capacités organisationnelles à allier des dispositifs à temps court de surveillance et d’alerte comme la pharmacovigilance, la nutrivigilance, ou avec groupes d’expertise collective en urgence, avec des démarches temps longs d’élaboration prospective permettant de comprendre les tendances (ex. scénario de développement des technologies vertes). J.-C. Desenclos confirme le besoin d’anticiper les risques et menaces à moyen et long terme, et que la veille prospective permet de se préparer en sortant du mode réactif, dans une perspective d’anticipation stratégique mais il estime que le système privilégie les menaces sanitaires à court terme en mode réactif, avec un signal, une alerte qui chasse l’autre… Ce dernier note qu’il existe d’autres problématiques temporelles, comme le rythme d’interprétation des tendances des risques chroniques. Par ailleurs, la modélisation est utilisée à l’InVS pour anticiper les épidémies, voire les prédire à partir de représentations théoriques du processus épidémiologique réduit à ses éléments essentiels. Ceci permet d’évaluer a priori l’impact du développement potentiel d’une épidémie en fonction d’hypothèses et de scénarios, et l’effet de différentes mesures de maîtrise et de leur combinaison, tout en y intégrant l’incertitude. La modélisation est efficace pour de nombreuses épidémies humaines et animales mais peut aussi être pris en défaut quand elle est utilisée comme outil de prévision d’infections avant le pic de l’épidémie de l’Ebola en Afrique de l’Ouest (les estimations étaient excessives). 4. La voix des parties prenantes pour reconnaître les risques impensés dans des univers controversés Après l’organisation de la collecte des données d’exploitation et de REX, leur filtrage et leur prétraitement, vient l’interprétation individuelle et collective. Celle-ci peut être immédiate au niveau individuel sur le plan cognitif, avec une détection qui opère en lien avec des cadres de pensée et la mémoire ou plus collective après débat. Si l’outillage est une voie, les interprétations émises par les acteurs sont déjà des sources d’enrichissement potentiel des données brutes. Elles comportent de plus un tri et une hiérarchisation. Des avis divergents, des alertes (notes, rapports, mails) sont émis par des acteurs internes et externes aux systèmes, communément appelés « lanceurs d’alertes » (Chateauraynaud et Torny, 1999). Dien (2014) rappelle que les organisations ne sont pas un tout monolithique, que des visions différentes de la sécurité coexistent et que l’écoute des « voix alternatives » constitue une stratégie intéressante de traitement des signaux faibles ou des événements impensés. Cependant, la bureaucratisation de la diffusion des informations ne remplace pas la fluidité de la circulation des informations qui dépendent du climat de travail et de la culture organisationnelle. Un des arguments qui renforce l’intérêt de l’écoute des points de vue différents, est celui des limites intrinsèques des connaissances, notamment sur le plan temporel. Dien (2015) estime que la gestion des risques s’appuie trop sur des croyances, dont certaines sont des affirmations, des connaissances qui seront remises en cause demain car le savoir est incomplet et évolutif. A titre d’exemple, Cicolella indique (2015) que le cas des perturbateurs endocriniens se double d’un changement de paradigme dans l’évaluation des risques environnementaux et sanitaires où la relation dose-effet n’est plus suffisante pour anticiper les risques. L’acceptation de l’écoute de voix alternatives ne serait-elle pas alors une opportunité pour mieux explorer nos connaissances et méconnaissances, éviter l’auto-satisfecit, et dépasser l'incapacité à identifier ou la « volonté » de ne pas détecter, grâce à un débat ouvert sur d’autres domaines du possible ?

Communication 6C /2 page 6/10

Page 7: Explorer « l'imprévisible » : comment et jusqu'où ?

20e Congrès de maîtrise des risques et de sûreté de fonctionnement - Saint-Malo 11-13 octobre 2016

Plus largement, dans un monde complexe et en mouvement, l’avenir et la survie des entreprises sont également liés à la propension de leurs divers services à se concerter pour explorer l’imprévisible qui peut impacter toutes les activités de l’entreprise. Ceci implique (B. Jarry-Lacombe, 2015) la mobilisation de tous les acteurs internes de l’entreprise dans une concertation et une co-élaboration de décisions ; la valorisation du travail collectif et du dialogue social qui en résulte permet de libérer la parole et de faire remonter des signaux anormaux prémonitoires. Cette mobilisation doit également inclure les parties prenantes externes dont les propres investigations sont importantes pour tenter de cerner l’imprévisible et élaborer les critères de décisions stratégiques. Cela suppose un management intégrateur de qualité qui sache développer sa capacité d’écoute et de remise en cause, en référence à des valeurs et une déontologie communément admise. L’excès de fractionnement est en effet préjudiciable à la gestion des risques comme l’ont rappelé l’éruption du Volcan Islandais, l’accident de Brétigny, la perte de la navette spatiale Columbia et cette problématique avait fait l’objet de la précédente conférence des ER de 2013. Certaines problématiques ne sont pas confinées à l’intérieur des organisations mais font débat dans le domaine public. L’organisation de l’expertise et de la prise de décision doit se penser dans un périmètre élargi, celui de la gouvernance des risques. Ainsi le débat avec des points de vue divergents (philosophes, associations, particuliers, institutions, lanceurs d’alertes,…) s’auto-organise par média interposé lorsque le sujet fait controverse. De nombreuses controverses animent les problématiques environnementales et sanitaires, et font l’objet d’études institutionnelles (cf. Cicolella, 2015 ; Desenclos, 2015 ; Lasfargues, 2015), mais aussi de recherches en sciences humaines et sociales sur des thématiques liées au climat, au nucléaire, à la bataille des scénarios énergétiques, ou à l’avenir de l’humanité (ex. Chateauraynaud, 2015). De nombreuses incertitudes sont présentes dans ces débats et peuvent favoriser les écarts de points de vue et les jeux d’acteurs. Les institutions d’expertise (ANSES, IRSN) rappellent la nécessité de poursuivre les recherches sur les méthodes et les connaissances, afin de réduire ou de mieux intégrer les incertitudes. La complexité est telle qu’il n’est pas possible de développer des évaluations quantitatives des risques (Lasfargues, 2015). Cependant, en attendant les résultats de recherche et les évolutions, l’indépendance de l’expertise scientifique reste essentielle, et doit rester exempte de conflits d’intérêts. Ces institutions publiques font le pari de l’ouverture de l’expertise, pluraliste, ouverte aux débats contradictoires, aux divergences pour aider à la remontée des signaux et au traitement des incertitudes (Lasfargues, 2015, Repussard, 2015). Cependant, la mise en œuvre de certaines de ces dispositions sur un territoire doit s’inscrire dans la durée. Des associations, comme AMARIS (Association nationale des collectivités pour la maîtrise des risques technologiques majeurs), ont pour objectif d’organiser le dialogue avec les industriels (pétrochimie), les services de l’État et la population. La ville de Feyzin a été marquée par une catastrophe en 1966 suite à une fuite de GPL et il convient dès lors de ne pas sous-estimer les facteurs émotionnels liés à la perception des risques de la population qui peuvent prendre une tournure fantasmatique : ainsi, dès que « ça torche », la municipalité est assaillie d’appels, alors qu’il s’agit généralement d’un produit non conforme que la torchère détruit (Y. Blein, Député-Maire de Feyzin). Co-construire une culture commune est une nécessité pour augmenter le niveau de compétence afin de se familiariser avec les concepts peu usités par la population. Mais, gagner la confiance des riverains impose d’être patient et de prendre du temps. A Feyzin, un outil de concertation et de dialogue a été mis en place avec l’ICSI, Total et la commune : la conférence de riverains. Il s’agit d’un cercle de résolution de problèmes constitué de deux collèges : le premier regroupant 40 riverains représentatifs de la population, le deuxième comprenant notamment le directeur de la raffinerie. Le maire est présent à toutes les séances. Elles sont dotées de moyens budgétaires permettant de faire appel à une tierce expertise. Les résultats obtenus au bout de six ans : une reconnaissance réciproque entre industriels et population, une déconstruction des préjugés et un apprentissage partagé. A noter que pour ce qui est de scénarios à risque non identifiés parmi les centaines recensés dans les études de dangers de la raffinerie, ce dispositif n’a pas été source de contre-propositions ou à la marge. L’exploration de l’imprévisible en matière de vulnérabilité de notre société suppose une prédisposition et une potentialité des diverses parties prenantes à discerner les éléments pathogènes et leur propension à générer des dommages. C’est bien la raison d’être et d’agir des lanceurs d’alerte, face en particulier à l’épidémie de maladies chroniques dont certaines montrent des évolutions inquiétantes et dont la pollution chimique est une composante importante. Devant l’urgence à agir, le mouvement citoyen, association « Réseau - Environnement – Santé » préconise qu’à partir de travaux de laboratoire et de la collecte de données mettant en évidence des risques pour la santé liés à des substances chimiques, des recherches avancées soient entreprises et des décisions réglementaires proportionnées aux risques encourus puissent être prises avant que la certitude des effets sur l’humain soit établie sur la base d’études épidémiologiques larges et longues (Cicolella, 2015). En particulier, comme cela a été présenté pour le cas des perturbateurs endocriniens, faire appliquer le principe de protection par les autorités reste difficile lorsque les preuves sont incomplètes. A qui doit bénéficier le doute ? Sur qui faire porter la charge de la preuve ? Ce point a été abordé précédemment et les accidents de la NASA rappellent, qu’en principe, il convient de prouver que c’est sûr plutôt que l’inverse. Le retour d’expérience international sur l’application du principe de précaution dans le domaine des risques sanitaires et environnementaux, indique que des signaux précoces étaient disponibles mais que des leçons ou décisions tardives sont fréquemment observées et ont entraîné de coûteuses inactions (European Environment Agency, 2013). L’inverse, à savoir, des précautions excessives générant des coûts non nécessaires, n’a été observé que dans 4 cas sur 88. Sous l’angle d’un processus qui se déroule dans le temps, les trajectoires des controverses ne sont pas linéaires, il peut y avoir des bifurcations, des rebondissements, des événements irréversibles, des tournants. A partir de nombreuses études de cas, un schéma récurrent peut être observé (Chateauraynaud, 2011) sur la manière dont les acteurs du système se saisissent dans la durée des dossiers, des arguments, comment ceux-ci passent d’une phase (1) d’émergence, à une phase (2) de controverse, puis de polémiques (3), de mobilisations politiques (4), de régulation (5) avant de connaître un intérêt décroissant et éventuellement de rebondir. Il évoque en ce sens une notion de « balistique sociologique ». Ces débats et controverses sont marqués par des prises de position sur des scénarios possibles qu’il est possible d’étudier sous l’angle d’une préoccupation visionnaire des futurs. Pour Chateauraynaud (2015) « toute controverse produit une confrontation des visions du futur, engendrant ainsi de nouvelles versions des futurs possibles ou probables, et agit en retour sur les instruments et les formes de prévision ou de prospective ». Ces controverses sur les histoires du futur sont l’occasion d’une confrontation des arguments et des éléments de narration qui s’appuient sur des conséquences envisageables dans certains cas (cas 1) ou qui sont découvertes au fur et à mesure (cas 2). La nature des prises sur le futur changent radicalement selon la manière dont les acteurs parviennent, ou non, à harmoniser les échelles de temps et les modes de construction des futurs, une grande partie des disputes portant à la fois sur la durée en cause et sur le degré de détermination ou d’indétermination de ce qui peut advenir – la question des scénarisations et des possibilités qu’elles déploient occupant de ce point de vue une position médiane (tableau n°2). Fanchini (2016) insiste en complément sur la dimension morale du rapport au temps, mais aussi sur l’intérêt de considérer la dimension temporelle et l’alternative inverse (ouverture décisionnelle).

Communication 6C /2 page 7/10

Page 8: Explorer « l'imprévisible » : comment et jusqu'où ?

20e Congrès de maîtrise des risques et de sûreté de fonctionnement - Saint-Malo 11-13 octobre 2016

Tableau n°2 : « matrice des futurs » (Chateauraynaud, 2015)

5. Réviser les cadres de pensée L’exploration des impensés dans nos démarches d’analyses des risques conduit fort logiquement à s’interroger sur nos cadres de pensée, notamment s’ils n’adressent pas les phénomènes sous-jacents. L’inimaginable peut s’imaginer à partir de dangers qui ne sont pas connus et catalogués par les analystes d’aujourd’hui. En particulier la vision techno-centrée des ingénieurs et techniciens conduit à des limites dans le recensement et le traitement des sources de risque du système. Si de nombreux scientifiques ont réclamé des changements de paradigme, ces derniers ont essentiellement impacté les sphères de la recherche, qui est progressivement passée d’explications techniques, aux explications humaines, sociotechniques puis inter-organisationnelles quant aux causes profondes des accidents (Wilpert et Fahlbruch, 1998). Les démarches facteurs organisationnels et humains et systémiques développées essentiellement depuis 30 à 50 ans selon les secteurs industriels s’inscrivent dans ce cadre. De plus, les démarches mises en œuvre sont excessivement analytiques et ne mobilisent pas assez des approches complexes (Morin, 1977, Le Moigne, 1990). Au niveau de l’ANSES, la capacité à faire évoluer les méthodes, les connaissances par les recherches reste essentielle notamment en sciences humaines et sociales afin de décloisonner les champs d’expertise et de comprendre les pratiques des acteurs et leurs évolutions (Lasfargues, 2015). Une étude récente menée dans le secteur des stations de ski (Baillif, 2015) confirme la prégnance de la focale sur les risques matériels et humains (risque de victimes sur les pistes et remonte-pentes) et de la réglementation. En ce sens, il y a un défaut de perception de risques moins tangibles. Ces préoccupations finissent donc par occulter d’autres types de risques comme ceux qui, par exemple, proviennent de l’environnement sociétal ou de divergences entre des parties prenantes internes et/ou externes. D’où la nécessité d’adjoindre à cette préoccupation centrale la compréhension de la situation étudiée et l’étude du comportement de toutes les parties prenantes. En mobilisant la grille de lecture cindynique (Kervern, 1995), il sera proposé au commanditaire de mener l’analyse des risques non pas aux niveaux opérationnel, technique, ni tactique ou managérial (sur la prévention des risques de victimes sur les pistes de ski) mais au niveau stratégique, au regard des risques pesant sur le marché des sports d’hiver et les niveaux de dépenses à engager par la station de ski. Cette grille de lecture sera également mobilisée pour l’étude du risque dans un Service Départemental d’Incendie et de Secours (SDIS) (Bertrand, Mercier, 2015). Ces auteurs confortent l’idée que la gestion de ce type de service s’organise autour des risques techniques encourus lors des interventions des pompiers. Ces derniers sont ainsi imprégnés de la fierté de leur métier confronté à des dangers physiques importants et de l’esprit de corps. Et pourtant, au fil des ans, des « transformations silencieuses » se sont opérées par les évolutions de la société, la recherche de rationalisation, l’affaiblissement du sentiment d’appartenance, le manque d’adhésion aux nouvelles valeurs créées par le phénomène de départementalisation,… Ces facteurs ont engendré un malaise social, des mouvements de grèves, voire des conflits individualisés. L’analyse de la situation a mis en exergue de très nombreuses dissonances entre toutes les parties prenantes (du niveau départemental au pompier opérationnel). Un ensemble de propositions a été défini pour renforcer le sentiment d’appartenance, déconcentrer le dialogue social, structurer la préparation à faire face à une crise sociale, et faire évoluer les actes managériaux. 6. Se préparer à agir autrement pour ne pas se laisser surprendre Corroborant les pistes évoqués dans ces deux cas, au niveau d’une agence comme l’ANSES, une cartographie sur les risques pesant sur l’activité d’expertise a été menée dans l’optique de ne pas se laisser surprendre par l’imprévisible. Elle a mis à jour différents risques : erreur dans l’expertise scientifique, erreur dans la production de données, non maintien du niveau d’excellence scientifique souhaité, gestion défaillante d’une crise sanitaire, non-respect des normes, difficultés à gérer les impacts des contraintes grandissantes (budgétaires, opérationnelles, etc.), remise en cause de la déontologie de l’Agence, perte d’informations confidentielles, difficultés à attirer et/ou à retenir les compétences et les personnes clés (Lasfargues, 2015). Celle-ci aboutira à une classification sur les niveaux d’action à entreprendre (audit, surveillance, optimisation, action). En particulier, pour contrer un défaut d’identification, d’analyse et d’exploitation des signaux et des risques émergents, le plan d’actions se décline sur la mise en place d’un registre des alertes, le renforcement des missions de veille des collectifs d’experts, la définition plus précise des rôles respectifs d’évaluation et de gestion de risque, un effort de sensibilisation et de formation de l’ensemble des personnels sur leurs responsabilités en termes de veille et d’alerte. Une réflexion sur les risques résiduels a été menée dans le nucléaire après Fukushima (Couturier et al, 2016). Une des pistes à explorer au-delà des conditions organisationnelles, se situe au niveau des individus et collectifs de travail. Elle concerne le traitement des biais de représentation des décideurs mais aussi des opérationnels et évaluateurs des risques. Des recherches sont menées depuis quelques décennies sur ces processus cognitifs et psychologiques et certaines connaissances sont mobilisées lors de diagnostic, d’évaluation multicritères des risques, et transférées lors de formations (Kouabenan et al, 2006, Merad et al, 2016). Certaines recherches du monde militaire peuvent être transférées (Fornette et Darses, 2015). L’IRBA (Institut de recherche biomédicale des armées) mène des études pour comprendre les processus psychosociologiques des militaires en opération, notamment quand ils sont amenés à gérer l’imprévisible au cours d’événements parfois extrêmes. Les aspects FOH découlant des situations de crise sont étudiés en s’appuyant sur des approches à la fois centrées sur l’organisation (rupture brutale des opérations en cours, contexte dégradé aux conséquences menaçantes,...) et sur les individus (résolution de problème pour lesquels ils ne sont pas entraînés, incertitude sur le diagnostic, le pronostic et l’adéquation des actions,...). Pour permettre aux opérateurs de comprendre ces situations fortement génératrices de stress et les affronter, l’IRBA s’intéresse à trois sphères : cognitive (être préparé à résoudre des problèmes mal définis), interpersonnelle (construire la performance collective) et émotionnelle (gérer la motivation et les émotions). Trois techniques opérationnelles sont issues de ces approches. Le CRM est une formation qui permet d’accroître chez l’opérateur sa compréhension des mécanismes de la prise de la décision, du leadership, de la coopération et de la conscience des risques. La méta-procédure fournit une protection contre les menaces,

Communication 6C /2 page 8/10

Page 9: Explorer « l'imprévisible » : comment et jusqu'où ?

20e Congrès de maîtrise des risques et de sûreté de fonctionnement - Saint-Malo 11-13 octobre 2016

des gestes d’urgence et des actions spécifiques à différents niveaux face à une situation imprévisible, causant un grand nombre de blessés sur les lieux de l’engagement. Les TOP, techniques d’optimisation du potentiel aident à maîtriser l’activité psychologique par la concentration, la respiration et la visualisation. En complément, l’IRBA a cherché à identifier les compétences des pilotes de Mirage 2000 à résoudre des problèmes de plus en plus inextricables (à partir de simulation de scénarios de panne). Leur performance est liée à la capacité d’attention en pleine conscience (capacité à ne pas juger en fonction de leurs sensations négatives ou positives) et à leur ouverture sur l’expérimentation (c’est-à-dire leur curiosité) alors que le nombre d’années d’expérience professionnelle s’est avéré n’être d’aucun secours. A l’inverse des dirigeants, l’un des impensés des ingénieurs et des techniciens est la dimension juridique qui obéit à des règles différentes. L’imprévisible se manifeste souvent par l’occurrence de l’accident. S’il est imprévisible, involontaire et non intentionnel, Maître Astrid Mignon-Colombet (2015) estime que l’accident devrait rester en dehors du champ de la pénalisation qui ne devrait concerner que des risques certains ou à forte probabilité de réalisation. Or, en France du moins, ce n’est pas le cas ; toute catastrophe ayant fait des victimes fait systématiquement l’objet d’une enquête pénale avant même de savoir si une infraction peut avoir joué un rôle causal ; par ailleurs, plus l’accident est rare et grave, moins il est accepté par la société qui veut à la fois comprendre et trouver des coupables. Le système peut reconnaître que des prévenus ont respecté les règles et peut leur reprocher de ne pas avoir anticipé les risques sur la base de la non prise en compte du retour d’expérience d’accidents anciens et survenus dans un contexte très différent. Des remèdes existent, en s’appuyant sur des pratiques développées hors de la sphère judiciaire, en développant et diffusant une culture de sécurité qui accorde une large place à la confiance (exemple du management de la sécurité par délégation) et qui retienne en premier lieu la responsabilité de la personne morale avant celle des personnes physiques qui auraient respecté les règles. Il semble que l’évolution de la législation aille dans ce sens, alors que les pratiques historiques des magistrats n’étaient pas de rechercher la faute dans le fonctionnement du système mais dans le comportement individuel de ses agents.

Discussion La mise en discussion des résultats de l’examen des cas de catastrophes et controverses, des pistes de solution en provenance de la recherche, des expériences de mise en œuvre et des avis d’experts s’effectue à deux niveaux. Le premier s’est attelé à en synthétiser les enseignements sur le plan temporel tout au long des deux parties. Le second consiste en une relecture cindynique des éléments d’analyse présentés afin de mettre en exergue quelques points clés. En vue de réduire l’imprévisibilité des situations de vulnérabilité, l’approche cindynique conduirait à focaliser en priorité sur l’élargissement du regard, la prise en compte des jeux d’acteurs, et la considération de la dimension temporelle d’évolution de ces situations.

Les situations exposées des cas d’accidents industriels, de catastrophes « naturelles », de controverses sanitaires montrent l’importance des interactions entre les différents niveaux du système sociotechnique, du terrain, aux experts et cadres, managers et autorités de contrôle mais aussi avec les syndicats, les associations et le public. Ces systèmes sont complexes et évolutifs, et un individu, voire un groupe homogène, ne peut prétendre disposer d’une vision globale, riche, précise des risques actuels et à venir. Auquel cas, l’humilité des analystes commanderait de souhaiter la mise en œuvre de dispositions permettant d’élargir et compléter les regards, de les croiser avec des veilleurs, des avis indépendants et différents d’acteurs n’ayant pas les mêmes points de vue sur l’état du système, ni les mêmes intérêts et valeurs. Un certain nombre d’actions corroborent cette tendance avec l’écoute des lanceurs d’alerte et des syndicats, la gouvernance des risques intégrant les parties prenantes, l’ouverture et le décloisonnement de l’expertise. Le coût de ces efforts peut apparaître important au vu d’impacts difficilement quantifiables, mais le sens de l’histoire semble confirmer l’intérêt à porter à ces dispositifs s’appuyant sur l’ouverture. L’imprévisible peut être imaginé à partir de nouveaux types de dangers que ceux connus actuellement. Aujourd’hui ces dangers ne sont pas catalogués car ils restent encore imperceptibles à nos sens (ou intangibles). Leurs conséquences peuvent s’exprimer en divers types de dysfonctionnements, soit d’ordre technique (par exemple le vieillissement), soit d’ordre structurel et organisationnel, comme par exemple les ambiguïtés, les confusions, l’insuffisance de connaissances, les divergences de points de vue entre les membres d’un collectif de travail,… Certains biais peuvent certainement être identifiés si nous acceptons de modifier nos approches (Planchette, 2016) qui reposent encore trop sur trois axiomes : une approche analytique qui divise « chacune des difficultés examinées en autant de parties qu’il serait requis pour mieux les résoudre », une approche sensorielle se limitant aux seules sources de risque que nos sens sont capables de percevoir et une approche quantitative qui exclut les interactions entre toutes les parties prenantes composant un organisme, leurs cultures, identités, valeurs, croyances,…. Si le croisement des regards est intéressant sur le principe, en pratique lors de l’analyse de situations à risques potentiels, il convient de bien cerner la position de l’acteur, le contexte et le cadre de ses messages, notamment dans les jeux d’acteurs lors des interactions. Lors d’une analyse de situations dangereuses d’un système, l’approche cindynique focalise sur 5 dimensions (Kervern, 1995) : les données pour l’axe statistique, les finalités pour l’axe téléologique, les règles pour l’axe déontologique, les valeurs pour l’axe axiologique et les modèles pour l’axe épistémique. Cette approche multidimensionnelle est nécessaire dans une vision prospective en vue d’améliorer la prévisibilité des situations :

• au niveau des finalités : considérer l’évolution des buts et des objectifs de chaque partie prenante et de leur environnement dans un monde en mouvement peut permettre de discerner comment ceux-ci peuvent devenir complémentaires voire antagonistes ;

• au niveau des valeurs : considérer comment les parties prenantes prennent en considération des éléments tels que : l’autocritique, l’honnêteté, la curiosité, la patience, la tolérance de l’incertitude, la déconstruction des préjugés,…

• au niveau des règles : distinguer dans leur application ce qui est obligation de ce qui est volontaire, faire émerger des capacités d’auto-saisine et des principes à appliquer selon les contextes plus que des procédures universelles ;

• au niveau des données : inciter chaque acteur à ne pas se focaliser sur des répertoires de dysfonctionnements connus mais à prendre en compte des scénarios à faible probabilité et à faibles effets ; mettre en œuvre un radar d’indicateurs avec des méthodes d’exploitation des bases de données qui permettent sur le moyen et long terme d’identifier des indicateurs qui s’avèrent pertinents ;

• au niveau des modèles : se détacher des modèles centrés et limités pour développer des modèles décloisonnant les champs disciplinaires, intégrant les comportements individuels, collectifs et les dynamiques organisationnelles et systémiques ; développer des moyens de simulation et de scénarisation ; procéder à de nouvelles revues bibliographiques larges et savoir sortir du cadre des modèles probabilistes.

Communication 6C /2 page 9/10

Page 10: Explorer « l'imprévisible » : comment et jusqu'où ?

20e Congrès de maîtrise des risques et de sûreté de fonctionnement - Saint-Malo 11-13 octobre 2016

Le concept de situation dangereuse conduit l’approche cindynique à mettre l’accent sur l’étude des évolutions des situations avant de fixer son attention sur l’événement aléatoire qui va rendre actives les zones dangereuses plutôt que focaliser sur la survenue d’événements aléatoires (probabilité, gravité). En d’autres termes, l’approche par le risque, si elle est nécessaire, est loin d’être suffisante si le terrain sur lequel va frapper l’aléa est déjà vulnérabilisé par les interactions internes. La vulnérabilité est donc un état antérieur à la catastrophe qui se révèle lors de la survenance d’un aléa. Elle constitue une propriété de l’enjeu et existe préalablement et indépendamment de l’aléa, une part de la vulnérabilité étant spécifique au type d’aléa. La vulnérabilité est conditionnée par un certain nombre de facteurs structurels qu’il est nécessaire de déterminer dans le cadre de la démarche d’analyse de risque. Ceci veut dire que la situation devient d’abord vulnérable en ce sens qu’elle va subir des transformations (parfois suffisamment lentes pour qu’elles passent inaperçues) qui sont à l’origine de ces nouveaux types de dangers cités auparavant. Il devient donc plus important d’étudier en premier lieu tous les impacts de ces transformations qui rendent la situation vulnérable dans le but de les réduire afin d’accroître la résilience de la situation. L’imprévisibilité de la vulnérabilité des situations peut résulter de défauts d’anticipation. Auquel cas, dans un monde en mouvement et même en accélération, une remise en cause permanente des limites temporelles dans l’analyse des situations est nécessaire ; ne pas limiter a priori cet horizon temporel ; favoriser l’exploration de scénarios auquel cet élargissement peut conduire avant d’entreprendre avec discernement leur classification en terme de vraisemblance et de vulnérabilité ; remettre en cause cette classification au fur et à mesures de l’inclusion de nouvelles données.

Conclusion

Explorer l’imprévisible : comment et jusqu’où ? Cette question générale a soulevé de multiples problématiques, avec pour certaines des réponses, pour d’autres des pistes de solution à expérimenter et enfin très certainement de nouvelles question et de nouveaux défis à aborder. Tout d’abord, il ressort que peu d’accidents ou de catastrophes appartiennent strictement aux catégories précédemment évoquées. Si la perception globale du public ou de la majorité des professionnels est de l’ordre de la « mauvaise surprise », la plupart de ces scénarii ont pu être imaginés a priori et pensés a minima par une partie d’entre eux. Ceci n’exclut pas qu’il y ait une minorité de cas qui renvoient principalement à des défauts de connaissance. En d’autres termes, à la question « imprévisible pour qui ? », une réponse a été apportée, pour les décideurs et les témoins du système autres que des analystes et lanceurs d’alertes. De plus, on constate comme C. Frantzen que « l’imprévisible a souvent bon dos ; il y a bien des situations que l’on a qualifiées d’imprévisibles et qui en fait ne l’étaient pas vraiment… Il y a tout donc tout d’abord ces faux imprévisibles : l’accident qui couve et que l’on n’a pas détecté et pour lequel on aurait pu mieux utiliser les méthodes classiques, REX, méthodes probabilistes en s’attachant comme cela a été souligné aux queues de distribution ». Ce constat laisse entrevoir une fenêtre d’opportunité pour récupérer une situation de dégradation. Si le temps est un ennemi (vieillissement, dérives), il peut être un allié fournissant des ressources de diagnostic. Cependant, des défaillances dans l’amplification des signaux avant-coureurs existent et conduisent à ne pas changer à temps les référentiels de gestion des risques et les dispositions de maîtrise des risques. Plusieurs intervenants ont évoqué des situations d’aveuglement collectif, de modèles et cadres de pensée qui bloquent le regard ou la réflexion sur les situations, du déni du risque, de l’inaction notamment face à des événements extrêmes mais qui ne sont pas la préoccupation quotidienne, du manque d’attention pour les avis des parties prenantes, les avis divergents et les messages des lanceurs d’alerte. En d’autres termes, il reste difficile d’organiser des réponses fortes ou rapides à des signaux faibles, voire à des signaux plus forts mais qu’on ne veut entendre ou sur lesquels on ne veut ou peut agir, ce qui n’est pas une surprise mais reste un défi permanent dans les industries à hauts risques ! Il nous semble que les professionnels de l’évaluation et de la gestion des risques ne sont plus démunis, ni seuls. Leurs approches globales doivent leur permettre de faire davantage confiance à leur imagination qu’à leurs outils, de faire preuve d’une plus grande ouverture d’esprit aux réserves et aux critiques, ainsi que d’une plus grande lecture historique des événements et de la dynamique des systèmes sociotechniques. Ces pistes d’action sont déclinées à quatre niveaux :

- les démarches classiques d’analyse et d’évaluation des risques ne sont pas adaptées pour aborder certaines problématiques de risques intangibles, des très faibles probabilités (cygnes noirs), ou liées aux facteurs organisationnels et humains (FOH). Des grilles de lecture différentes (ex. modèle d’accident, FOH, cindyniques,…) et des démarches plus cliniques (enquêtes de terrain, entretiens, observations du travail, recherches de points de vue différents) peuvent permettre de compléter l’identification des dangers et la hiérarchisation des risques ;

- une meilleure exploitation du retour d’expérience (REX) par des analyses plus approfondies (FOH) des incidents et traitant mieux les parts liées à l’informel, une meilleure exploitation des données formalisées dans les bases de données (devenues pléthoriques) avec l’aide d’outils (Big Data, TAL) peuvent permettre le recoupement d’information, le tri, l’identification de liens de corrélation qui ne sont que des hypothèses dont il faudra faire expertiser la causalité. En synthèse, un meilleur couplage entre REX et analyse de risque est nécessaire ;

- enfin, il convient de mieux écouter (ce qui n’implique pas forcément approuver) les avis divergents en interne, les lanceurs d’alertes, les représentants syndicaux et en externe les associations non-gouvernementales et le public. Ceci requiert de créer un climat de confiance avec les parties prenantes ce qui prends du temps. En d’autres termes, afin de mieux reconnaitre certains signaux, il convient d’adopter une posture stratégique qui est de faire le pari et d’assumer cette prise de risque du débat contradictoire et des vertus de la dispute. L’anticipation sociale des risques vient ainsi enrichir la gestion des risques si cette dernière se veut plus proactive. Plusieurs organisations et secteurs sont en pointe sur ces défis, dont l’ANSES, l’InVS et les militaires qui font face à de multiples menaces évolutives.

- Il convient de travailler sur les biais psychologiques des décideurs afin d’éviter des postures défensives de déni, ou d’inaction et plus largement de s’entraîner à résoudre des problèmes mal définis, générateurs de stress, qui requiert des postures d’ouvertures aux alternatives, d’exploration en faisant du temps un allié… Certaines compétences non-techniques diffèrent de l’expérience qui n’est pas toujours la panacée.

7 Remerciements Aux autres membres du comité de programme des ER2015 : J.-P. Langlois, A. Lannoy, C. Frantzen, L. Baillif, O. Poulain, D. Marty, J.-P. Petit. 8 R é fé r e nc e s Plusieurs interventions dans les Actes de la conférence « Les Entretiens du Risque », 3-4 Novembre 2015, sur www.imdr.fr Plusieurs chapitres d’auteurs différents dans Merad M., Dechy N., Dechouck L., Lassagne M. (2016), Risques majeurs, incertitudes et décision : approches pluridisciplinaire et multisectorielle, Editions ESKA, ISBN 978-2-8224-0430-3.

Communication 6C /2 page 10/10