Une société malade de sa peur du risque ?

Notre perception des risques sanitaires ou de ceux engendrés par la technoscience est faussée par de multiples biais, explique un rapport de l’Académie des technologies.

Des barrières de deux mètres de haut isolant les zones en travaux des piétons. Des ouvriers aux allures de « liquidateurs » post-Tchernobyl (masques, gants, combinaisons). Un système d’arrosage pour éviter que les poussières ne s’envolent et se disséminent par les rues…

L’arrêt brutal du chantier de prolongement du tramway T3, entre la porte de la Chapelle et celle d’Asnières, au nord de Paris, est la dernière illustration en date de la fébrilité s’emparant des pouvoirs publics et de la société chaque fois qu’un nouveau « risque » putatif est découvert. En l’occurrence, la présence d’actinoline, une forme d’amiante naturel, dans certains granulats servant à la fabrication du bitume. En attendant que l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) ait réuni son panel d’experts pour dire si cette fibre est cancérigène (comme l’amiante industriel) ou pas, ce chantier et de nombreux autres sur le territoire ont été stoppés net. En application du désormais fameux « principe de précaution », gravé dans le marbre constitutionnel.

Cet exemple est loin d’être isolé. Les récentes controverses sur les vaccins ont marqué les esprits : tantôt ressurgit l’hypothèse d’un lien entre tel vaccin et telle maladie (vaccin contre l’hépatite B et sclérose en plaques, vaccin contre la rougeole et autisme), tantôt l’on s’inquiète sur la présence d’adjuvants suspects (comme l’aluminium), tantôt l’on s’interroge sur l’opportunité de vacciner une personne immunodéprimée ou porteuse d’une maladie auto-immune. Fait remarquable au pays de Louis Pasteur, la défiance à l’égard des vaccins, nourrie et relayée par des activistes antivaccinalistes faisant grand usage du Web (en inondant de vidéos des sites comme YouTube ou en « prêchant » les internautes venus sur les forums de discussion comme Doctissimo), ne cesse de croître. D’après une étude réalisée en 2013, près de 40 % (38,2 %) des Français étaient défavorables à la vaccination en 2010, contre 8,5 % dix ans auparavant.

Rapport ambivalent à la science

Ces chiffres sont cités dans le petit rapport sur la perception des risques que le physicien Etienne Klein et le sociologue Gérald Bronner viennent de réaliser pour l’Académie des technologies. Pour synthétique qu’il soit, ce document d’une quarantaine de pages met remarquablement bien en lumière notre rapport de plus en plus ambivalent à la science et à la technologie et, plus encore, notre « risquophobie » aiguë.

Spécialiste des croyances, Gérald Bronner est un bon connaisseur de la façon dont des peurs parfois irrationnelles peuvent s’emparer brutalement d’une collectivité. « La perception des risques, explique-t-il, résulte toujours d’une hybridation entre des invariants mentaux et des variables socioculturelles. » Les variables socioculturelles font que l’on n’appréhende pas un même risque de la même façon dans tous les pays, à toutes les époques : tantôt ce seront les OGM qui occuperont le devant de la scène (comme dans la France de José Bové, au plus fort des campagnes des faucheurs volontaires), tantôt le nucléaire (après Fukushima).

Plus intéressants sont les invariants mentaux, ces biais cognitifs qui nous empêchent bien souvent de nous faire une idée juste du risque réellement encouru. Notre cerveau est ainsi fait qu’il a naturellement tendance à surestimer (d’un facteur 10 à 15) les risques présentant à la fois une très faible probabilité d’occurrence et des conséquences catastrophiques s’il se réalise. Ce fait a été établi par le pionnier de la neuroéconomie et professeur à la MIT Sloan School of Management, Drazen Prelec. Or beaucoup de risques technico-scientifiques entrent dans cette catégorie. « Lorsque le grand accélérateur de particules du CERN s’est lancé dans sa quête du boson de Higgs, raconte Gérald Bronner, deux plaintes ont été déposées devant les tribunaux au motif que cette débauche d’énergie risquait de provoquer un mini-trou noir : un événement aux conséquences apocalyptiques, mais à la probabilité infinitésimale. »

Un autre biais bien connu des spécialistes de la psychologie cognitive concerne les risques à effet de seuil – là encore, la technoscience en offre de nombreux exemples. « Le cerveau humain a beaucoup de difficultés à penser correctement ce type de risques. Il perçoit de la continuité là où il y a en réalité des discontinuités », poursuit le sociologue, qui cite l’exemple des antennes-relais. Alors que les études ont montré que celles-ci étaient sans danger pour les riverains (l’intensité du champ électromagnétique se diluant très vite avec la distance), cela ne dissipe pas l’inquiétude des personnes concernées. « Le raisonnement que l’on se fait tous intuitivement, et qui est faux dans le cas d’espèce, est le suivant : même à bonne distance, l’effet ne s’annule pas tout à fait ; à la longue, les petits ruisseaux faisant les grandes rivières, il finit par ne plus être négligeable du tout. »

Même lorsque nous tentons une approche rationnelle, fondée sur l’évaluation la plus objective possible du rapport bénéfice-risque, nous ne sommes pas à l’abri de ces distorsions faussant notre jugement comme des illusions d’optique. Les travaux du prix Nobel Daniel Kahneman, père fondateur de ce domaine d’études et auteur du best-seller « Système 1, Système 2. Les deux vitesses de la pensée », ont montré qu’il fallait en moyenne 2,50 euros de bénéfice pour compenser psychologiquement le risque de perdre 1 euro.

Les conséquences de l’inaction

Par définition, ces invariants mentaux ont toujours existé, pourrait-on objecter. Mais, soulignent les coauteurs du rapport, deux phénomènes relativement récents sont venus en amplifier les effets. Le premier est ce qu’ils appellent la « dérégulation du marché de l’information » (blogs, réseaux sociaux…) qui permet une diffusion massive des peurs irrationnelles. « Ce qui restait naguère cantonné à la sphère de l’intime s’expose désormais sur l’espace public », constate Gérald Bronner. Le second est la course à la concurrence de plus en plus effrénée que subissent les chercheurs – le fameux « publish or perish » (publier ou périr). « Cela a un effet mécanique à la baisse sur la qualité moyenne des publications », note le sociologue. Résultat : sur tous les sujets, la littérature scientifique est telle que l’on est pratiquement assuré de trouver au moins une étude – pas forcément reproductible, ni surtout représentative – qui sera susceptible de venir à l’appui des thèses des contempteurs de la technoscience.

Qu’il s’agisse des nanotechnologies, des manipulations génétiques sur l’homme, du nucléaire ou de la géo-ingénierie, toutes les craintes ne sont pas, loin s’en faut, infondées. Le problème est que l’attitude consistant à rejeter toute prise de risque – la stratégie « ceinture et bretelles » – n’est elle-même pas sans risque. « Tout se conjugue pour que nous soyons obnubilés par les conséquences de notre action, mais sans jamais envisager les conséquences de notre inaction », résume Gérald Bronner. Or, estime-t-il, « on prend d’énormes risques à ne pas en prendre ».

Yann Verdo
Le principe de précaution

Il trouve ses prémices dans l’Allemagne des années 1970 avec le philosophe Hans Jonas (« Le Principe de responsabilité », 1979).

Il est formulé pour la première fois en 1992 dans la Déclaration de Rio (Principe 15) et introduit la même année dans le traité de Maastricht.

L’article 5 de la Charte de l’environnement, l’un des quatre textes de la Constitution depuis 2005, le définit ainsi : « Lorsque la réalisation d’un dommage, bien qu’incertaine en l’état des connaissances scientifiques, pourrait affecter de manière grave et irréversible l’environnement, les autorités publiques veillent (…) à la mise en oeuvre de procédures d’évaluation des risques et à l’adoption de mesures provisoires et proportionnées afin de parer à la réalisation du dommage. »

Les Echos 20/06/16