Décider dans l’incertitude : les États-Unis s’engagent enfin face au changement climatique
Le point commun des nombreuses définitions du » principe de précaution » est l’opportunité d’agir dans des conditions d’incertitude. Les États-Unis, où des chercheurs ont pour la première fois mesuré l’augmentation de la concentration des gaz à effet de serre dans l’atmosphère et attribué cette évolution aux activités humaines, sont le dernier pays industrialisé à s’engager dans la lutte contre le changement climatique.
Le chimiste suédois Svante Arrhenius, dans ses travaux entre 1896 et 1907, parvient à la première estimation quantitative de l’effet des gaz identifiés par Tyndall sur la température de la terre (voir encadré).
Repères
La première mention dans la littérature scientifique de l’effet de serre remonte à 1827. Dans un article traitant des équilibres énergétiques de la planète, le mathématicien et physicien Joseph Fourier examina pour la première fois comment l’effet de serre régule la température de la terre. Entre 1859 et 1871, le physicien irlandais John Tyndall réalisa une série d’expériences visant à montrer que trois gaz dans l’atmosphère sont très largement responsables de l’effet de serre : la vapeur d’eau, le dioxyde de carbone et le méthane.
Cent ans de recherche sur le changement climatique
Ces travaux l’ont amené à prévoir qu’un doublement de la concentration de gaz à effet de serre (de 300 ppm, la concentration au début du XXe siècle) aurait pour conséquence une augmentation de la température moyenne sur terre entre 2 et 6º C, une prévision cohérente avec les résultats des modèles les plus sophistiqués utilisés actuellement.
Puis, pendant plus de quarante ans, les scientifiques ont été muets sur l’effet de serre et ses conséquences possibles sur le climat. Ce long silence a été rompu dans les années cinquante par Roger Revelle, directeur de l’Institut Scripps d’océanographie à La Jolla en Californie, (qui, plus tard, devenu professeur à Harvard, influença fortement l’un de ses élèves, Al Gore), qui affirma que le CO2, lié aux activités humaines, s’accumulait dans l’atmosphère à un rythme élevé et menaçait la stabilité du climat. Avec le géochimiste Charles Keeling, ils établirent, à partir d’observations régulières au mont Loa, à Hawaï, que l’effet de serre est en augmentation constante et que cette augmentation est essentiellement d’origine anthropique. En 1957, Keeling mesura une concentration de CO2 de 314 ppm ; sa dernière mesure en 2005, juste avant sa mort, était de 380 ppm. Non seulement l’augmentation ne fléchissait pas, mais son rythme s’accélérait.
Des modèles informatisés
Les données collectées par Keeling incitèrent James Hansen, à l’Institut Goddard de la NASA à New York, à construire l’un des deux premiers modèles informatisés du climat visant à évaluer les conséquences de l’effet de serre sur le climat. Les résultats du modèle de climat développé par Hansen eurent un tel effet sur le président Carter qu’il demanda à la National Academy of Science d’évaluer la méthodologie et les résultats de Hansen, ainsi que ses recommandations pour agir. La réponse de la National Academy of Science fut rapide et sans ambiguïté : » If carbon dioxide continues to increase, the study group finds no reason to doubt that climate changes will result, and no reason to believe that these changes will be negligible. The climate system has a built-in time delay. For this reason, what might seem like the most conservative approach-waiting for evidence of warming in order to assess the model’s accuracy-actually amounts to the riskiest possible strategy. We may not be given a warning until the CO2 loading is such that an appreciable climate change is inevitable. »
Malheureusement, cette conclusion fut enterrée avec la carrière politique de Carter en 1980. Depuis 1988, le processus, continu, d’investigation du GIEC (voir encadré) contribue à la connaissance scientifique de l’évolution du climat d’une manière rigoureuse, systématiquement organisée et contrôlée, tant du point de vue théorique qu’empirique, ce qui leur a valu l’attribution en décembre 2007 du prix Nobel de la paix. Il est donc d’autant plus remarquable que le gouvernement des États-Unis ait rejeté les travaux du GIEC comme non fondés scientifiquement.
Ce rejet peut s’expliquer en partie par le fait que les éléments réunis par le GIEC ne possèdent pas les attributs de la science canonique (déterministe ou probabiliste).
Incertitude scientifique et prise de décision
Dans son traité sur la probabilité, publié en 1921, John Maynard Keynes fait une distinction claire entre deux types d’incertitudes : la première peut être caractérisée par des probabilités, tandis que c’est impossible pour la seconde. La science du changement climatique relève encore en partie d’une incertitude du second type.
L’information objective dont le décideur dispose ne peut se résumer par une loi de probabilités
Dans son dernier rapport, publié en 2007, le GIEC a distingué six scénarios d’émissions de gaz à effet de serre. Leur méthodologie a conduit à des conclusions telles que : » Entre 1990 et 2100, la température moyenne globale sur terre augmentera de 1,1º C à 6,4º C. » Cet intervalle est la conséquence de la diversité des scénarios et modèles sous-jacents. Aucune distribution de probabilités ne peut être associée à cet intervalle [1,1, 6,4]. L’information objective (ou » scientifique ») dont le décideur dispose ne peut se résumer, ou même se représenter de manière rapprochée, par une loi de probabilités.
L’introduction du quatrième rapport du GIEC met cette situation bien en lumière dans sa classification des conclusions scientifiques qu’il propose. Trois approches différentes, faisant chacune appel à une terminologie particulière, sont adoptées pour décrire les incertitudes. Leur choix dépend tout à la fois de la nature de l’information disponible et de l’avis autorisé des auteurs quant à l’exactitude et au degré d’exhaustivité des connaissances scientifiques actuelles.
Trois approches des incertitudes
Un groupe international d’experts
L’autorité en matière de science du changement climatique est le Groupe intergouvernemental d’experts sur l’évolution du climat (GIEC, en anglais IPCC). Le GIEC est un groupe international d’experts scientifiques, travaillant sous l’égide de l’ONU et de l’Organisation météorologique mondiale. Ces scientifiques sont choisis par leurs pairs, pays par pays. Leur travail est organisé en sous-groupes par domaine d’investigation ; ces sous-groupes confrontent leurs résultats puis les rassemblent dans des rapports publiés périodiquement (1990, 1995, 2001, 2007). Pour ce faire, ils collectent dans le monde entier les données pertinentes disponibles, suscitent la production de données nouvelles, sur cette base, mobilisent leurs compétences respectives (en physique, chimie, biologie, écologie, économie, etc.) pour évaluer les composantes et les conséquences du changement climatique.
Lorsque l’évaluation de l’incertitude est qualitative, elle consiste à donner une idée approximative de la quantité et de la qualité des éléments probants (c’est-à-dire des informations théoriques ou tirées d’observations ou de modèles indiquant si une opinion ou proposition est vraie ou valable) ainsi que du degré de concordance (c’est-à-dire du niveau de convergence des documents sur une conclusion donnée). Lorsque l’évaluation de l’incertitude est plutôt quantitative et fondée sur un avis autorisé quant à l’exactitude des données, des analyses ou des modèles utilisés, des degrés de confiance sont employés pour exprimer la probabilité qu’une conclusion est correcte (de » très faible » à » très élevé »).
Lorsque l’évaluation de l’incertitude concerne des résultats précis et qu’elle est fondée sur un avis autorisé et une analyse statistique d’une série d’éléments probants (par exemple des observations ou des résultats de modèles), les fourchettes de probabilité utilisées pour exprimer la probabilité d’occurrence vont de » exceptionnellement improbable » à » pratiquement certain « .
Le protocole de Kyoto n’impose pas d’objectifs contraignants aux pays en voie de développement
Si un décideur rejette a priori comme » de la science douteuse » tout fait non ambigu (l’ambiguïté désigne le second type d’incertitude défini plus haut), cela signifie qu’il s’en tient à la maximisation de son espérance d’utilité relative à un profil de risque sur la base de faits qui sont scientifiquement non ambigus, ce qui reflète le fait que son aversion à l’ambiguïté est supérieure à son aversion au risque. En cela, il néglige un large pan d’informations scientifiques, qui, bien qu’incertaines, peuvent être crédibles et décisives.
Ainsi, une façon de caractériser le principe de précaution consiste à reconnaître que l’optimisation sur la base d’actes qui ne sont pas scientifiquement ambigus n’est pas optimale. En d’autres termes, la précaution nécessite que le décideur optimise sur un éventail plus large que celui des actes scientifiquement non ambigus.
L’Amérique doit faire le bon choix
Préférer le risque à l’ambiguïté
Ce type de comportement a été observé pour d’autres problèmes d’environnement et de santé publique, tels que les risques sanitaires liés à l’amiante (pour lequel des corrélations fortes entre l’occupation de postes de travail exposés aux poussières d’amiante et les atteintes aux bronches et aux poumons ont été établies dès 1898), l’utilisation d’hormones de croissance dans l’élevage, les liens entre encéphalopathie spongiforme bovine et maladie de Creutzfeldt-Jakob, chlorofluorocarbones et couche d’ozone, maladies induites par les PCB, épuisement des ressources halieutiques dans certains secteurs des océans, etc.
Dans tous ces exemples, il existait un modèle théorique sans aucun doute incomplet mais rendant compte des éléments fondamentaux de la réalité et par ailleurs en accord avec des données empiriques non anecdotiques justifiant de déclencher la mise en oeuvre du principe de précaution.
On observe le retard, souvent d’ampleur et des conséquences considérables entre le moment où ce seuil est franchi et le moment où une action appropriée est engagée.
En décembre 1997, le protocole de Kyoto est adopté par les parties à la Convention cadre sur le changement climatique. L’approbation donnée à l’époque par l’administration Clinton était déjà vide de sens. En effet, six mois auparavant, le Sénat américain avait passé une résolution par une majorité écrasante (95÷0), pour que le Protocole ne soit pas ratifié tant que des objectifs contraignants de réduction d’émissions ne seraient imposés qu’aux pays industrialisés. Le Protocole n’impose en effet pas d’objectifs contraignants aux pays en voie de développement, du fait qu’ils n’ont été que peu responsables de l’accumulation de CO2 dans l’atmosphère, et qu’ils ne devraient pas être privés des moyens de leur propre développement. L’administration Bush renforça l’opposition américaine aux objectifs contraignants de réduction d’émissions. Il est ainsi important de souligner que l’attitude du Sénat et de l’administration Bush ne peut s’expliquer uniquement par leur conception de la science du changement climatique, mais également par des considérations politiques.
Depuis quatre ou cinq ans, dans de nombreux États, villes, entreprises, etc., l’état d’esprit a considérablement changé. Même certaines personnalités influentes de la droite chrétienne, comme Richard Cisik, sont désormais mobilisées au nom de l’égard dû aux créatures de Dieu : » Indépendamment du choix d’autres nations à contribuer à la solution, l’Amérique doit faire le bon choix. »
En avril dernier à Paris, George Bush a finalement reconnu la nécessité d’une législation fédérale obligatoire pour lutter contre le réchauffement climatique et a présenté un plan destiné à arrêter la croissance des émissions américaines d’ici 2025, un progrès par rapport à l’objectif précédent qui consistait à ralentir la croissance des émissions à partir de 2012. La réaction générale a consisté à dire que l’expression » trop peu, trop tard » était un euphémisme pour qualifier le nouveau plan.
Le gouvernement des États-Unis va enfin s’engager dans la lutte contre le changement climatique, mais trente ans ont été perdus depuis l’appel de la National Academy of Science, en 1979, à l’application du principe de précaution. Les efforts à réaliser seront d’autant plus gigantesques en termes de changement de comportement individuel et collectif, de courage politique, d’initiatives économiques et financières. Espérons que l’évolution des mentalités et des comportements donnera tort à ce qu’écrivait Jean-Pierre Dupuy en 2002 : » To turn around what we identify with progress, would have such phenomenal consequences that we refuse to believe what we indeed know as being true. »
Vers une loi contraignante
Le président Bush quittera le pouvoir en janvier prochain et les candidats à l’élection présidentielle sont en faveur de restrictions plus sévères sur les émissions que celles proposées par Bush (même si certaines mauvaises habitudes électorales, comme la proposition du candidat McCain de supprimer la taxe sur l’essence cet été, ont la vie dure). Une loi imposant des objectifs contraignants de réduction d’émissions de gaz à effet de serre, semblable au projet déposé par les sénateurs Lieberman et Warner, n’entrera vraisemblablement pas en vigueur avant 2014, mais il y a désormais suffisamment d’agents aux États-Unis travaillant en vue des changements nécessaires, et leur influence croît.