Par Judith Curry
Traduction : Scaletrans
© Copyright 2017 The Global Warming Policy Foundation
A propos de l’auteur
Le professeur Judith A. Curry est l’auteur de plus de 180 articles scientifiques sur la météo et le climat et a reçu le Henry G. Houghton Research Award par l’American Meteorological Society en 1992.
Elle a récemment pris sa retraite du Georgia Institute of Technology où elle était professeur et titulaire de la chaire de l’École des Sciences de la Terre et de l’Atmosphère. Elle préside actuellement le Climate Forecast Applications Network.
Sommaire
Il existe un grand débat à propos de la fidélité et de l’utilité des modèles globaux du climat [GCM]. Ce débat a lieu dans la communauté des scientifiques du climat, car des scientifiques sont en désaccord avec l’importance à donner aux modèles climatiques par rapport aux analyses des observations. Les résultats des modèles climatiques sont aussi utilisés par les économistes, les agences de réglementation et les décideurs politiques. Par conséquent, les GCM ont été examinés à la loupe par une large communauté de scientifiques, ingénieurs, experts en logiciels, et philosophes des sciences. Ce rapport tente de décrire le débat autour des modèles climatiques pour un public éduqué mais non technique.
Résumé des points clés:
- Les GCM n’ont pas fait l’objet de procédures de vérification et de validation rigoureuses qui sont la norme pour la science de l’ingénierie et de la régulation.
- Il y a des inquiétudes justifiées à propos d’un manque fondamental de prévisibilité dans le complexe système climatique non linéaire.
- Il existe nombre d’arguments amenant à la conclusion que les modèles climatiques ne permettent pas d’identifier avec un haut niveau de confiance l’importance relative des causes humaines et naturelles au réchauffement du 20e siècle.
- Il est de plus en plus évident que les modèles climatiques prédisent un réchauffement trop important provenant d’une augmentation du dioxyde de carbone atmosphérique.
Les résultats des simulations des modèles climatiques pour le 21e siècle rapportées par le GIEC n’incluent pas des éléments clés de la variabilité climatique, et sont par conséquent incapables de fournir des projections utiles sur l’évolution du climat au 21e siècle
Les modèles climatiques sont utiles pour conduire des recherches scientifiques sur la compréhension du système climatique. Cependant, les points ci-dessus appuient la conclusion selon laquelle les modèles climatiques GCM actuels ne permettent pas d’attribuer les causes du réchauffement du 20e siècle ou de prédire un changement climatique global ou régional sur des périodes allant de la décennie au siècle, avec un niveau de confiance élevé. Par extension, les GCM ne peuvent permettre de justifier des politiques de changement fondamental des systèmes sociaux, économiques et énergétiques. C’est cette application des modèles climatiques qui rend le débat si virulent.
1-Qu’est-ce qu’un Modèle Climatique Global (GCM) ?
Les modèles climatiques globaux (GCM) essayent de simuler une approche grossière du système climatique terrestre à l’aide d’ordinateurs. Les GCM contiennent des modules modélisant l’atmosphère, l’océan, les surfaces du sol, la glace de mer et les glaciers. Le module atmosphérique simule l’évolution des vents, de la température, de l’humidité et de la pression atmosphérique à l’aide d’équations mathématiques complexes qui ne peuvent être résolues que par ordinateur. Les GCM incluent également des équations mathématiques décrivant la circulation océanique, comment elle transporte la chaleur, et comment l’océan échange de la chaleur et de l’humidité avec l’atmosphère. Les modèles climatiques incluent un modèle qui décrit comment la végétation, le sol et la neige ou le couvert glaciaire échangent de l’énergie et de l’humidité avec l’atmosphère. Les GCM incluent également des modèles de glace de mer et de glaciers. Bien que certaines équations des modèles climatiques soient basés sur des lois physiques comme les lois de mouvement de Newton et la première Loi de Thermodynamique, il y a dans le modèle des processus clés qui sont approximatifs et non basés sur des lois physiques. Pour résoudre ces équations sur un ordinateur, les GCM divisent l’atmosphère, les océans et les terres par un système de maillage à trois dimensions (voir Figure 1). Les équations sont alors calculées pour chaque cellule du maillage, de façon répétée pour les étapes d’avancement durant la période de simulation.
Le nombre de cellules du système de maillage détermine la “résolution” (ou granularité) du modèle, où chaque cellule a une température uniforme, etc. Les résolutions courantes des GCM sont d’environ 100-200 km horizontalement et de 1 km verticalement, et habituellement une résolution temporelle d’environ 30 minutes. Alors que les GCM représentent des processus quelque peu plus réalistes avec une plus haute résolution, le temps de calcul nécessaire augmente considérablement – un doublement de la résolution nécessite 10 fois plus de puissance de calcul, ce qui est à l’heure actuelle infaisable dans nombre de centres de modélisation climatique. Le niveau de résolution du modèle est fonction des ressources disponibles du calculateur, avec des compromis entre la résolution du modèle, sa complexité et la longueur et le nombre de simulations prévus.
En raison des résolutions spatiales et temporelles relativement grossières des modèles, il y a de nombreux processus importants qui se produisent à des échelles plus petites que la résolution du modèle (tels que nuages, pluies ; voir cartouche de la Figure 1). Ces processus trop petits sont représentés à l’aide de ‘paramétrisations’. Ces paramétrisations de processus plus petits que le maillage sont de simples formules basées sur des observations ou des dérivés de modèles de processus plus détaillés. Ces paramétrisations sont ‘calibrées’ ou ‘ajustées’ pour mieux correspondre aux observations historiques.
Les vraies équations utilisées dans les codes informatiques des GCM sont seulement des approximations des processus physiques se produisant dans le système climatique. Alors que certaines de ces approximations sont très précises, d’autres sont inévitablement sommaires. Ceci parce que les processus réels qu’il représentent sont soit mal compris, soit trop complexes à inclure dans le modèle étant donné les limitations du système informatique. Parmi les processus les plus importants du changement climatique, les paramétrisations associées aux nuages et précipitations restent les plus problématiques et sont la plus grande source de désaccords entre les différents GCM.
On utilise les modèles climatiques GCM pour les raisons suivantes :
- Comprendre comment fonctionne le système climatique : des expériences de sensibilité sont utilisées pour annuler, contraindre ou rehausser certains processus physiques ou forçages externes (p. ex. CO2, volcans, ensoleillement) pour voir comment le système répond.
- Reproduire des états climatiques du passé : comprendre les causes de la variabilité du changement climatique du passé (p. ex. quelle part du changement peut être attribuée à des causes humaines telles que le CO2, par rapport aux causes naturelles comme les variations solaires, les éruptions volcaniques, et les circulations lentes des océans).
- Changement climatique global : simulation d’états climatiques futurs, du décennal au séculaire, c.-à-d. des simulations d’états climatiques futurs selon différents scénarios d’émissions.
- Affectation des météos extrêmes : prédiction et attribution des statistiques des événements climatiques extrêmes (p. ex. vagues de chaleur, sécheresses, ouragans).
- Changement climatique régional : projections des changements climatiques régionaux pour justifier des décisions d’adaptation au changement climatique.
- Conseils pour les politiques de réduction d’émissions.
- Coût social du carbone : les résultats des GCM fournissent les données brutes utilisées pour le calcul du coût social du carbone.
Les objectifs particuliers d’un GCM varieront selon l’objet de la simulation. Généralement, en simulant le climat passé à l’aide d’un GCM, l’objectif est de simuler correctement la variation spatiale des conditions climatiques dans un sens moyen. Pour prédire le climat futur, le but n’est pas de simuler les conditions du système climatique d’un jour quelconque, mais de simuler les conditions sur une plus longue période – généralement des décennies ou plus, de telle manière que les statistiques du climat simulé correspondent réellement au futur climat.
Il existe plus de 20 groupes de modélisation internationaux qui contribuent aux simulations de modèles pour les Rapports d’Évaluation du GIEC. De plus, beaucoup de groupes de modélisation individuels contribuent à des simulations à partir de différents modèles. Pourquoi y a-t-il tant de modèles climatiques différents ? Est-il possible de trouver le ‘meilleur modèle de climat ?
Il y a littéralement des milliers de choix différents effectués lors de la construction d’un modèle de climat (p. ex. résolution, complexité des sous-modèles, paramétrisations). Chaque ensemble différent de choix produit un modèle spécifique ayant différentes sensibilités. De plus, les différents groupes de modélisation ont des centres d’intérêt différents, p. ex. de longues simulations de paléoclimats, des détails de circulations océaniques, des nuances d’interactions entre les particules d’aérosols et les nuages, le cycle du carbone. Ces différents intérêts concentrent les capacités de calcul limitées de leurs ordinateurs sur un aspect particulier au détriment des autres.
Est-il possible de choisir le ‘meilleur’ modèle ? Hé bien, plusieurs modèles révèlent de médiocres performances générales par comparaison avec les observations. Cependant, le meilleur modèle dépend de la façon dont vous définissez le ‘meilleur’, et aucun modèle n’est le meilleur dans tous ses aspects.
2-La fiabilité des modèles du climat
En raison de la complexité des GCM, la notion de modèle correct ou incorrect n’est pas bien définie. La question pertinente est de savoir dans quelle mesure le modèle reproduit la réalité, et s’il est bien adapté au but recherché.
Le statisticien George Box fit cette déclaration fameuse : “Tous les modèles sont faux mais certains sont utiles”. Tous les modèles sont imparfaits ; nous n’avons pas besoin d’un modèle parfait, juste d’un qui réponde au besoin. Les avions sont conçus à l’aide de modèles incapables de simuler un écoulement turbulent.
Pour gérer les risques, on a utilisé pendant des décennies des modèles financiers basés sur des hypothèses grossières sur le comportement humain. Pour la prise de décision, on utilise plus ou moins les modèles en fonction de divers facteurs, l’un d’entre eux étant leur crédibilité.
Le développement de la modélisation du climat a suivi un chemin principalement conduit par la curiosité scientifique et les limites de puissance de calcul. Les GCM ont été conçus à l’origine pour comprendre comment fonctionne le système climatique. Les chercheurs utilisent les GCM pour représenter des aspects du climat qui sont extrêmement difficiles à observer, pour expérimenter une nouvelle façon d’effectuer des calculs jusque-là impossibles, pour comprendre un système complexe d’équations impénétrable autrement, et explorer le système climatique pour identifier des conséquences inattendues. Tels quels, les GCM sont un élément important de la recherche climatique.
Pourquoi les scientifiques font confiance aux modèles du climat ?
Les scientifiques qui développent des modèles climatiques et les utilisent sont convaincus (au moins jusqu’à un certain point) de l’utilité des modèles du climat pour leurs recherches. Ils sont convaincus à cause de la relation du modèle avec la compréhension du processus physique impliqué, de la cohérence des réponses simulées parmi les différents modèles et leurs différentes versions et de l’aptitude du modèle et de ses composants à simuler des observations historiques. La confiance dans les prévisions d’un modèle dépend crucialement de l’évaluation des prévisions par rapport aux observations dans la réalité, les deux utilisant des données historiques (a postériori) et prévisions actuelles. L’évaluation des prévisions est faisable pour le court terme (p. ex. prévisions météo). La saisie des phénomènes a postériori et des prévisions précédentes est une condition nécessaire mais pas suffisante pour l’obtention des phénomènes dans le futur.
Pourquoi certains scientifiques se préoccupent de la fiabilité des modèles du climat ?
Les incertitudes des GCM proviennent de l’incertitude dans la structure du modèle, de ses paramètres et paramétrisations et des conditions initiales. La calibration – ajustements ad hoc ou réglages – est nécessaire pour pallier des paramètres inconnus ou inapplicables du fait de la résolution du modèle, ainsi que dans la connexion de sous-modèles. Les ajustements ad hoc continuels d’un modèle peuvent masquer des déficiences sous-jacentes de la structure du modèle. Les soucis concernant l’évaluation des modèles climatiques se sont accrus dans le contexte des pratiques de calibrations/ajustements. Un remarquable article vient d’être publié dans Science : “Des scientifiques du climat ouvrent leurs boîtes noires aux regards”
“D’ailleurs, que les scientifiques du climat l’admettent ou non, pratiquement chaque modèle a été calibré précisément d’après les données climatiques du 20e siècle – autrement il aurait fini à la corbeille. Il est juste de dire que tous les modèles l’ont été”, dit Isaac Held, un scientifique du Geophysical Fluid Dynamics Laboratory, autre centre de modélisation important, de Princeton, New Jersey
Nous en sommes maintenant au point où reproduire les températures historiques du 20e siècle ne constitue plus un bon étalon pour déterminer si des modèles sont bons ou mauvais. Cela implique que ces modèles qui correspondent aux données du 20e siècle après calibrations/ajustements avec ces mêmes données du 20e siècle peuvent difficilement servir à déterminer les causes de la variabilité du climat du 20e siècle.
L’accord entre les simulations des modèles et les données n’implique pas que le modèle donne la réponse correcte pour les bonnes raisons. Par exemple, tous les modèles climatiques couplés utilisés dans le Quatrième Rapport d’Évaluation reproduisent les séries temporelles des anomalies de températures moyennes globales de surface pour le 20e siècle ; cependant ils produisent des simulations nettement différentes pour le climat du 21e siècle. De plus, ajuster les modèles climatiques selon les observations de la période 1975-2000 correspond aux phases chaudes de la variabilité naturelle interne, ce qui donne une sensibilité trop élevée au CO2. Donc, réussir à reproduire les états passés ne donne qu’une confiance limitée dans la simulation des états du futur.
Résumé
Les modèles climatiques GCM sont des outils importants pour la compréhension du système climatique. Cependant, il existe de fortes préoccupations quant à leur fiabilité :
- Les prévisions des GCM sur l’impact sur le climat de plus de CO2 ne peut être évalué avec rigueur à l’échelle d’un siècle.
- L’examen des incertitudes des GCM est insuffisant.
- Il y a un nombre extrêmement important de choix non contraints en termes de sélection des paramètres et paramétrisations des modèles.
- Il y a un manque de contrôle et de validation de modèle formel qui est la norme en ingénierie et science de régulation.
- Les modèles de climat sont évalués avec les mêmes observations utilisées pour leur ajustement.
- Il y a des préoccupations sur un manque fondamental de prévisibilité dans un système complexe non linéaire.
3-Les carences des modèles de climat
Compte tenu de leur maturation, les modèles climatiques GCM sont de plus en plus utilisés pour informer les décideurs politiques. Les simulations des modèles climatiques forment la base des politiques climatiques et énergétiques internationales, donc il importe d’évaluer l’adéquation des modèles climatiques à cet effet.
En particulier, l’aptitude des GCM doit être évaluée pour :
- La compréhension des causes du changement climatique du 20e siècle.
- La simulation des états climatiques au 21e siècle selon différents scénarios d’émissions.
Ce chapitre se concentre sur deux sujets généraux pour lesquels les modèles climatiques GCM sont inadéquats :
- La détermination de la sensibilité du système climatique à l’augmentation du CO2
- La nature chaotique du système climatique et sa variabilité interne
Sensibilité du climat au CO2
Le réchauffement d’origine anthropique dépend non seulement de la quantité de CO2 ajoutée à l’atmosphère, mais aussi de la ‘sensibilité’ du climat à l’accroissement du CO2. La sensibilité climatique se définit comme étant le réchauffement de surface global se produisant pour un doublement de la concentration du dioxyde de carbone dans l’atmosphère. Si la sensibilité est élevée, nous pouvons alors nous attendre à un réchauffement substantiel durant le siècle si les émissions continuent à augmenter. Si la sensibilité est basse, alors le futur réchauffement sera substantiellement plus bas.
La sensibilité climatique à l’équilibre (ECS) se définit comme le changement de la température moyenne globale causée par un doublement de la concentration atmosphérique de CO2, après que le système climatique ait eu plusieurs siècles pour répondre. Il n’est pas possible de mesurer l’ECS directement ; elle doit être estimée à partir de simulations de modèles climatiques et à partir des données historiques à l’aide d’un simple modèle d’équilibre énergétique.
Les conclusions de l’AR4 (2007) du GIEC sur la sensibilité climatique sont :
“La sensibilité climatique à l’équilibre… se trouve probablement dans la fourchette de 2 °C à 4,5 °C avec la meilleure estimation autour de 3 °C et très peu vraisemblablement inférieure à 1,5 °C. Des valeurs supérieures à 4,5 °C ne peuvent être exclues”.
Les conclusions de l’AR5 (2013) du GIEC sur la sensibilité climatique sont :
“La sensibilité climatique à l’équilibre est probablement dans la fourchette de 1.5 °C à 4.5 °C (haut degré de confiance), très peu vraisemblablement inférieure à 1 °C (haut degré de confiance), et très peu vraisemblablement supérieur à 6 °C (confiance moyenne)”.
Cette gamme de probabilité des valeurs d’ECS varie d’un facteur 3. Que le réchauffement global causé par l’homme soit dangereux ou non ne dépend pas significativement de savoir si l’ECS est plus proche de 1.5 °C ou 4.5 °C. Les recherches des trois dernières décennies n’ont pas réduit cet écart – en 1979 l’étude de la National Academy of Sciences (le fameux Rapport Charney) citait une fourchette probable de la valeur d’ECS entre 1.5 et 4.5 °C.
En fait, il semble que cette incertitude sur les valeurs d’ECS s’est accrue depuis l’AR4 de 2007. Le plancher de l’enveloppe de probabilité a été abaissé de 2 à 1.5 °C dans l’AR5 2013 du GIEC, alors que l’AR4 2007 disait qu’il était très improbable que l’ECS soit inférieur à 1.5 °C. Il est également significatif que l’AR5 ne fasse pas état d’une meilleure estimation, alors que l’AR4 cite une meilleure estimation à 3 °C. La raison avancée de ne pas citer une meilleure estimation dans l’AR5 est la divergence substantielle entre les estimations d’ECS basées sur l’observation (plus basses), par rapport aux estimations des modèles climatiques (plus hautes).
La Table 1 compare les valeurs d’ECS déterminées par l’AR4 (2007), l’AR5 (2013), les modèles climatiques CMIP5 cités dans l’AR5 (2013), les analyses d’observations de Lewis et Curry (2014), et la mise à jour par Lewis (2016) avec un forçage plus bas pour les aérosols.
Table 1 : Valeur de la sensibilité climatique à l’équilibre (ECS) (° C)
Lewis et Curry (2014) ont trouvé des valeurs d’ECS qui sont approximativement la moitié de celles qui ont été déterminées à partir des modèles de climat CMIP5. A l’aide d’une approche de balance énergétique basée sur des observations, Lewis et Curry ont utilisé pour leurs calculs les mêmes données (y compris les incertitudes) pour les changements des gaz à effet de serre et autres moteurs du changement climatique donnés dans l’AR5. Des articles récents trouvent également des valeurs d’ECS aussi basses.
Les dernières recherches suggèrent des valeurs d’ECS encore plus basses. L’incertitude la plus importante dans l’estimation de l’ECS provient des effets des petites particules d’aérosol (pollution ou naturelles), qui ont un effet refroidissant sur le climat (contre-réaction partielle à l’effet de serre). Un article récent de Stevens, auteur principal au GIEC donne un impact des aérosols sur le climat nettement plus faible que celui qui est adopté dans l’AR5. Nicolas Lewis a refait tourner les calculs de Lewis et Curry (2014) avec l’estimation d’impact des aérosols de l’article de Stevens. Très significativement, le plafond supérieur (95th percentile) est abaissé à 2.38 °C (Table 1).
Beaucoup de simulation de modèles climatiques utilisés pour l’AR5 (CMIP5) se basent sur des valeurs de forçage par aérosol qui semblent bien trop élevées. Les simulations de modèles climatiques qui sont réévaluées et recalibrées à partir de plus petites valeurs de forçage d’aérosol peuvent être utilisées pour clarifier le plafond d’ECS. Lors d’une présentation au Workshop, l’auteur principal du GIEC Bjorn Stevens plaidait en faveur d’un plafond d’ECS de 3.5° C basé sur l’analyse de modèles du climat. Les recherches continuent pour évaluer les méthodes d’estimation de la sensibilité climatique. Cependant, la réduction des estimations du refroidissement par aérosol conduit immanquablement à des réductions du plafond estimé de la sensibilité climatique.
Dans les GCM, la sensibilité climatique à l’équilibre est une ‘propriété émergente’ qui n’est pas directement calibrée ou ajustée. Bien qu’il y ait eu avec le temps quelque resserrement de l’enveloppe des sensibilités climatiques modélisées par altération des paramétrisations. Les versions d’un modèle peuvent être rejetées ou non, en fonction des partis pris, attentes et biais du modélisateur à propos du résultat du calcul de la sensibilité climatique à l’équilibre.
Quelle est la source des divergences de l’ECS parmi différents modèles de climat, et entre les modèles et les observations ? Dans un article intitulé “Qu’est-ce qui manque aux modèles ?” Stevens et Bony affirment :
“Il est maintenant parfaitement évident qu’une représentation inadéquate des nuages et de la convection humide, ou plus généralement du couplage entre l’eau atmosphérique et la circulation, est la principale limitation des représentations actuelles du système climatique ”.
Quelle sont les implications de ces divergences dans les valeurs de la sensibilité climatique à l’équilibre (ECS) ? Si l’ECS est inférieure à 2 °C, au lieu de plus de 4 °C, alors les conclusions sur les causes du réchauffement du 20e siècle et sur l’importance du réchauffement au 21e siècle sont substantiellement différentes.
De plus, les divergences entre les observations et les estimations basées sur les modèles de la sensibilité climatique sont importantes, et d’une importance significative pour les décideurs politiques. La sensibilité climatique à l’équilibre, et le niveau d’incertitude sur sa valeur, est un élément clé des modèles économiques qui conduisent des analyses coûts/bénéfices et estiment le coût social du carbone.
Chaos et variabilité climatique naturelle interne
Les variations du climat peuvent être causées par un forçage externe, comme les variations solaires, les éruptions volcaniques ou des changements dans la composition de l’atmosphère comme une augmentation du CO2. Le climat peut aussi changer en raison de processus internes dans le système climatique (variabilité interne). L’exemple le plus connu de variabilité interne du climat sont les El Niño/ La Niña. Des modes de variabilité décennaux séculaires ou millénaires proviennent des circulations lentes dans les océans. Tel quel, l’océan sert de ‘volant’ du système climatique, stockant et relâchant de la chaleur sur de longues périodes et agissant comme stabilisateur du climat. Il résulte des décalages temporels et du stockage de chaleur dans l’océan que le système climatique n’est jamais en équilibre.
En ce qui concerne la variabilité interne multi décennale, le rapport du GIEC considère ce problème essentiellement dans le contexte de la détection d’un signal de réchauffement causé par l’homme supérieur au ‘bruit de fond’ de la variabilité naturelle. Cependant, d’autres interprétations du système climatique affirment que la variabilité interne naturelle constitue le signal climatique fondamental.
Beaucoup de processus dans l’atmosphère et les océans sont non linéaires, ce qui signifie qu’il n’y a pas de relation proportionnelle entre cause et effet. La dynamique non linéaire de l’atmosphère et des océans est décrite par les équations Navier-Stokes (basées sur les lois du mouvement de Newton), qui forment la base des prévisions des vents et de la circulation dans l’atmosphère et les océans. La solution des équations Navier-Stokes est un des problèmes les plus épineux de toutes les mathématiques : le Clay Mathematics Institute l’a énoncé comme l’un des 7 problèmes majeurs des mathématiques et offre un prix de $1M pour sa solution.
Le défi le plus fondamental avec les modèles climatiques se trouve probablement dans le couplage de deux fluides chaotiques – l’océan et l’atmosphère. La caractéristique de la météo est d’être en état de chaos déterministe, en raison de la sensibilité des modèles de prévision aux petites perturbations dans les conditions initiales de l’atmosphère. La source du chaos se trouve dans les non linéarités des équations Navier-Stokes. Une conséquence de la sensibilité aux conditions initiales est que passé un certain temps, le système n’est plus prévisible, pour la météo, ce temps de prévisibilité se mesure en semaines.
Les simulations de modèles climatiques sont aussi sensibles aux conditions initiales (même dans un sens moyen). Le couplage d’un modèle atmosphérique non linéaire et chaotique avec un modèle océanique non linéaire et chaotique donne lieu à quelque chose de bien plus complexe que le chaos déterministe du modèle océanique, particulièrement sans les conditions de forçage transitoire (comme dans le cas d’une augmentation de la concentration de CO2). Des modes de variabilité interne atmosphère/océan couplés surviennent à des échelles hebdomadaires, annuelles, décennales, séculaires et millénaires. Ces modes couplés donnent lieu à de l’instabilité et du chaos. Caractériser un tel phénomène provenant du forçage transitoire du système couplé atmosphère/océan défie le classement selon les théories actuelles des systèmes dynamiques non linéaires, particulièrement dans des situations avec des changements transitoires des valeurs paramétriques. Stainforth et al. qualifient cette situation de “pandémonium”.
Objectif : attribution du réchauffement du 20e siècle
Qu’en est-il de la pertinence des modèles climatiques pour déterminer les causes du réchauffement climatique du 20e siècle ?
La combinaison de l’incertitude dans la réponse climatique transitoire (sensibilité) et des incertitudes sur l’importance et la période des modes majeurs de la variabilité naturelle interne empêche de séparer sans ambiguïté les variations climatiques dues au forçage externe de la variabilité climatique naturelle interne. Si la sensibilité climatique est dans la fourchette basse des estimations et la variabilité naturelle interne dans la fourchette haute de la distribution des modèles climatiques, on tire des conclusions différentes sur l’importance relative des causes anthropiques du réchauffement climatique du 20e siècle.
Les anomalies des températures globales de surface depuis 1850 figurent ci-après.
Les simulations des modèles climatiques pour la même période sont données dans la Figure 3. Les températures globales de surface modélisées ressemblent étroitement aux températures observées pour la période 1970-2000. Cependant, les modèles climatiques ne reproduisent pas l’important réchauffement de 1910-1940, le refroidissement de 1940 à la fin des années 70 et le profil plat de température depuis le début du 21e siècle.
La conclusion finale de l’AR5 de 2013 est qu’il est extrêmement probable que plus de la moitié du réchauffement depuis 1950 ait été causé par l’homme, et les simulations de modèles climatiques indiquent que tout ce réchauffement a été causé par l’homme.
Si le réchauffement depuis 1950 a été causé par l’homme, alors qu’est-ce qui a causé le réchauffement de la période 1910-1945 ? La période 1910-1945 représente environ 40 % du réchauffement depuis 1900, mais ne correspond qu’à seulement 10 % de l’augmentation du dioxyde de carbone depuis 1900 [ jusqu’à aujourd’hui] – il est clair que les émissions anthropiques de gaz à effet de serre ont très peu joué dans ce premier réchauffement. Le léger refroidissement de 1945 à 1975 – appelé le ‘grand hiatus’ – n’a pas non plus été expliqué de façon satisfaisante.
Outre ces variations inexpliquées des températures du 20e siècle, il est prouvé que le climat global s’est réchauffé partout durant les 200 dernières années, ou même plus. Alors que les données deviennent de plus en plus éparses au 19e siècle, le Berkeley Earth Surface Temperature Project a collationné les données de température de terre disponibles jusqu’en 1750 :
L’analyse du Berkely Earth montre une tendance au réchauffement depuis 1800, avec une variabilité considérable au tournant du 19e siècle. Une partie de cette variabilité au tournant du 19e siècle peut être attribuée à d’importantes éruptions volcaniques ; c’était aussi l’époque du minimum de Dalton de l’activité solaire (1791-1825). Les reconstructions paléoclimatiques du climat de l’Hémisphère Nord – par exemple à partir de cernes d’arbres et de forages – indiquent qu’un réchauffement général pourrait s’être produit au cours des 300-400 dernières années. La contribution humaine à cet ancien réchauffement global est pratiquement inexistante.
Quelle pourrait être la cause d’une période de 200-400 ans de réchauffement séculaire ? Les endroits évidents à regarder sont le soleil et les océans. Les formes de circulations océaniques influencent aussi le climat sur des échelles de temps allant du siècle au millénaire. Les connexions Soleil-climat sont l’objet d’un intérêt renouvelé, comme montré par le National Academies Workshop Report “Les effets de la variabilité solaire sur le climat terrestre”. La compréhension et l’explication de la variabilité climatique des 400 ans précédant 1950 ont fait l’objet d’une attention insuffisante. Sans cette compréhension, notre confiance dans les explications du GIEC pour le réchauffement depuis 1950 est limitée.
Résumé
Le changement climatique anthropique (d’origine humaine) est une théorie dont le mécanisme de base est bien compris, mais dont l’importance potentielle est hautement incertaine. Qu’est ce que l’analyse précédente du GIEC implique en attribuant de façon ‘extrêmement probable’ à des causes anthropiques le réchauffement depuis 1950 ? Les modèles climatiques infèrent que tout le réchauffement depuis 1950 peut être attribué à l’homme. Cependant, il y a eu des variations de grande amplitude du climat global/hémisphérique sur des périodes de 30 ans, qui sont de même durée que le réchauffement de la fin du 20e siècle. Le GIEC n’a pas d’explications convaincantes pour les 30 années précédentes du 20e siècle, notamment pour le réchauffement de 1910-1945 et pour le grand hiatus de 1945-1975. De plus, il y a une tendance séculaire au réchauffement depuis 1800 (et possiblement d’une durée atteignant 400 ans) qui ne peut s’expliquer par le CO2, et ne l’est que partiellement par des éruptions volcaniques.
Preuves que les modèles climatiques ne permettent pas d’identifier avec une certitude élevée l’importance relative des causes naturelles et anthropiques du réchauffement du 20e siècle.
- Incertitudes substantielles sur la sensibilité climatique à l’équilibre.
- Incapacité des GCM à simuler l’importance et la périodicité de la variabilité naturelle interne sur des échelles de temps décennales à séculaires.
- Utilisation des observations du 20e siècle pour la calibration et l’ajustement des GCM.
- Échec des modèles climatiques à fournir une explication cohérente du réchauffement du début et du refroidissement du milieu du 20e siècle.
Les GCM sont-ils des outils fiables pour la prévision du changement climatique ?
Le GIEC a fait des prévisions terribles selon lesquelles nous pouvons nous attendre à un réchauffement de 4 °C ou plus d’ici la fin du 21e siècle si l’on ne réduit pas les émissions de carbone.
4-Projections de réchauffement pour le début du 21e siècle
Pour évaluer la crédibilité des terribles prévisions de réchauffement, nous devons d’abord évaluer comment les GCM ont réussi à simuler la variabilité climatique du début du 21e siècle. Le chapitre 11 de l’AR5 se concentrait sur le changement climatique à court terme, jusqu’en 2035. La Figure 7 compare les prévisions des modèles avec les observations récentes des anomalies de température.
Les températures observées pour la dernière décennie se trouvent à la limite inférieure de l’enveloppe 5-95 % des simulations CMIP5. Dans l’ensemble, la tendance dans les simulations est nettement plus forte que la tendance observée ces 15 dernières années. En ce qui concerne les projections pour la période 2015-2035, la fourchette de tendance des simulations CMIP5 est de 0,11 à 041 °C par décennie. Le GIEC cite alors un ‘jugement d’expert’ pour justifier l’abaissement des projections (indiqué par les hachures en rouge de la Figure 5) :
“Cependant il résulte du hiatus que les taux implicites de réchauffement pour la période 1986-2005 à 2016-2035 sont plus bas : 0,10 °C-0,23 °C par décennie, suggérant que l’évaluation AR4 était proche du sommet de l’enveloppe des prévisions en cours pour cet intervalle spécifique de temps”.
Cet abaissement des projections par rapport aux simulations CMIP5 brutes a été fait sur la foi d’un jugement d’expert selon lequel certains modèles sont trop sensibles au forçage anthropique (CO2 et aérosols).
Ed Hawkins, auteur du GIEC, qui avait créé à l’origine la figure ci-dessus, l’a mise à jour avec les observations de température de surface jusqu’en 2015 :
Le pic des températures globales provenant du El Niño 2015 aide à améliorer l’accord entre les modèles et les observations, mais pas de beaucoup. Le pic de température de 2015 n’atteint même pas le milieu de l’enveloppe des projections des modèles, alors que le pic de température du El Niño 1998 se trouvait au sommet de l’enveloppe des prévisions de température. Jusqu’à présent au 21e siècle, les modèles GCM chauffent en moyenne deux fois plus vite que l’augmentation de température observée. La raison de la divergence entre les observations et les simulations de modèles au début du 21e siècle semble être causée par une combinaison de simulation inadéquates de la variabilité naturelle interne et d’une trop grande sensibilité des modèles à l’accroissement du CO2 (ECS).
Projections pour la fin du 21e siècle
Les projections des modèles du changement de la température globale à la fin du 21e siècle conduisent les négociations internationales sur les réductions des émissions de CO2, sous les auspices de la Convention Cadre sur le Changement Climatique (UNFCCC). La Figure 7 montre les projections des modèles climatiques sur le réchauffement du 21e siècle. Le RCP8.5 reflète un scénario extrême d’augmentation des émissions de gaz à effet de serre, alors que le RCP2.6 est un scénario où les émissions culminent en 2015 et décroissent rapidement après.
Selon le scénario RCP8.5, les modèles climatiques CMIP5 prévoient un réchauffement continu durant le 21e siècle dont on attend qu’il dépasse le seuil ‘dangereux’ de 2° C de réchauffement dès 2040. Il est important de noter que les simulations CMIP5 ne tiennent compte que des scénarios futurs d’émissions de gaz à effet de serre – elles n’incluent pas des scénarios futurs d’éruptions volcaniques, de variabilité solaire ou d’oscillations océaniques de longue période. Des scientifiques russes affirment que nous devons nous attendre à un Grand Minimum Solaire (contribuant au refroidissement) culminant au milieu du 21e siècle.
Alors que les prévisions de température à court terme ont été abaissées par rapport aux simulations CMIP5 (Figure 5), le SPM [Résumé Pour Décideurs] de l’AR5 déclare à propos du réchauffement à long terme :
“Les fourchettes pour 2046-2065 ne tiennent pas compte de l’influence possible de facteurs qui ont conduit à l’évaluation à court terme (2016-2035) du changement de température moyenne globale de surface qui est plus basse que l’enveloppe 5-95 % du modèle, car l’influence de ces facteurs sur les prévisions à long terme n’ont pas été quantifiées en raison d’une compréhension scientifique insuffisante”.
Il y a une troublante incohérence dans le rapport AR5 WG1 : l’AR5 tient compte d’une importante incertitude dans la sensibilité climatique et a nettement abaissé les prévisions pour 2016-2035 par rapport aux projections des modèles, au contraire, les projections jusqu’en 2100 utilisent les modèles climatiques qui sont clairement “trop chauds”. Encore plus troublant, le rapport WG3 – Atténuation du Changement Climatique – a mené toute son analyse sur la base d’une ‘meilleure estimation’ de la sensibilité climatique à l’équilibre à 3.0 °C.
L’AR5 a renoncé à choisir une ‘meilleure estimation’ de la sensibilité climatique à l’équilibre en raison de divergences entre les estimations des modèles climatiques et les estimations observées (lesquelles sont moitié moindres que les estimations des modèles climatiques). Le réchauffement de l’atmosphère est moitié moindre que celui estimé par les modèles, d’où le fait que les modèles CMIP5 produisent un réchauffement qui est nominalement deux fois plus important que les valeurs de sensibilité les plus basses auraient donné. Il n’est tenu aucun compte, dans ces projections du changement climatique au 21e siècle, de l’importante incertitude dans la sensibilité climatique qui est pourtant reconnue par le GIEC.
Les projections du GIEC pour le changement climatique du 21e siècle assument explicitement que le CO2 est le bouton de contrôle du climat global. Les projections des modèles climatiques pour le 21e siècle ne sont pas convaincantes parce que :
- Elles ont échoué à prédire le ralentissement du réchauffement du début du 21e siècle.
- Elles sont incapables de simuler le mode et la périodicité des oscillations océaniques multi décennales.
- Elles ne tiennent pas compte des oscillations solaires futures et des effets indirects du soleil sur le climat.
- Elles négligent la possibilité d’éruptions volcaniques plus actives que le relativement calme 20e siècle.
- Elles surestiment apparemment la sensibilité à l’augmentation des gaz à effet de serre.
Résumé
Il est de plus en plus évident que les modèles climatiques sont “trop chauds” et que la sensibilité du climat au CO2 est vers le bas de l’enveloppe présentée par le GIEC. Cependant, ces valeurs plus basses de la sensibilité du climat ne sont pas prises en compte pour les projections de température des modèles climatiques du GIEC à la fin du 21e siècle ou dans les estimations de l’impact de la réduction des émissions de CO2 sur les températures. Les projections des modèles climatiques du GIEC se concentrent sur la réponse du climat à différents scénarios d’émissions. Les projections des modèles climatiques au 21e siècle ne comprennent pas :
- Une gamme de scénarios d’éruptions volcaniques (les modèles considèrent que l’activité volcanique sera comparable au 20e siècle, au cours duquel l’activité volcanique a été bien plus faible qu’au 19e siècle).
- Une possibilité de scénario de refroidissement solaire, analogue au minimum solaire prédit par les scientifiques russes.
- La possibilité que la sensibilité du climat soit deux fois inférieure à ce qui est simulé par la plupart des modèles climatiques.
- Des simulations réalistes de la période et de l’amplitude de la variabilité naturelle interne selon des échelles décennales à séculaire.
La communauté de la modélisation du climat s’est focalisée sur la réponse du climat à l’accroissement des émissions anthropiques, et la communauté des politiques admet (explicitement ou implicitement) les résultats des simulations GCM pour le 21e siècle comme des prévisions exactes. Pourtant, nous n’avons pas une bonne compréhension des impacts climatiques relatifs ci-dessus ou de leurs impacts potentiels sur l’évolution du climat du 21e siècle.
109 réponses à “Les modèles climatiques pour le profane”
scaletrans (#100),
Peut-être, scaletrans, mais vous pouvez vérifier que je ne deviens franchement « désagréable » avec un tel ou un tel que lorsqu’il vient me chercher d’une façon clairement injustifiée ou fait preuve d’une mauvaise foi flagrante.
L’AFIS persiste et signe. Pour moi, c’est incompréhensible. Il faudrait quelques bonnes volontés pour apporter la contradiction. Je ne suis pas sûr d’être libre.
volauvent (#102),
Bréon, le conférencier semble être sur la même ligne que Jancovici.
Le « remède » serait le nucléaire, c’est au moins techniquement moins farfelu que « le tout renouvelable » prôné en général et repris par plusieurs candidats à la présidence de la république…
Après en effet quand le diagnostic de la « maladie » est aussi incertain et que Bréon ne semble pas trop le mesurer …
Jancovici n’est qu ‘un Imposteur avec un grand I …
Il joue de son aisance rhétorique et d’effet de manche pour impressionner son public de fans mais il tord les faits et peut etre pris tres souvent en flagrant délit d’erreur .
Quand je pense que ce type explique , doctement, que la Guerre de Syrie a pour origine le réchauffement climatique …. c’est une honte ….
BenHague (#104),
Je ne pense pas que le mot « imposteur » soit approprié. Selon moi, Jancovoci ne se fait pas passer pour ce qu’il n’est pas et ne cherche pas délibérément à tromper…
Il a clairement un agenda (nécessité impérieuse et possibilité de « décarboner » l’économie par un recours massif au nucléaire) que je ne partage pas du tout mais c’est sans doute des vraies convictions. Après, tous les faits ont tendance à être interprétés à travers cette lorgnette et avec ce biais de confirmation, mais c’est une déficience de l’esprit humain qui est universelle.
Et cela n’empêche pas Jancovici de faire une excellente analyse de la physique du problème d’alimentation d’une civilisation en énergie.
Le probléme avec Jancovici est qu’il va bien au dela de son domaine de compétence.
C’est un brillant orateur , avec beaucoup de répartie et une vraie connaissance des enjeux energétiques ( ordre de grandeur,technologie ,.. ) . Mais , souvent , sa logique inductive est biaisée et ses exemples « vulgarisateurs » peuvent etre ambigus et servent plus á tromper l’auditeur qu’á l’instruire.
Il s’aventure désormais dans le champs de la géopolitique avec l’assurance d’un expert qu’il n’est pas . Il fait du réchauffement climatique (anthropique) l’alpha et l’omega de tout ce qui se passe dans le Monde ( exemple : La Guerre de Syrie …) et propage ainsi une forme de pensée magique qui m’est insupportable.
Comme bien d’autres avant lui et bien d’autres après lui probablement, Jancovici pense que le « monde est en danger de mort », qu’il détient LA solution pour le sauver et que TOUT doit être fait pour la mettre en oeuvre.
Prétention et vanité du petit homo sapiens.
Allez, un peu de Janco bashing
En l’occurence , la critique ici , virulente, s’attaque á des points de convergences forts que j’ai avec Jancovici ( nucleaire , risque lié au nucleaire ,etc ..) et me semble en de nombreux points infondée et portée par une idéologie écologiste quasi fanatique …
BenHague (#108),
Comme toute idéologie poussée à l’extrême !
L’auteur du Janco bashing est chroniqueur sur Radio Zinzine, une radio libre. Quand on voit les liens, à droite de la page, vers d’autres sites, on a vite compris son (leur) l’orientation.
Exemple sous :
Contre le monde-machine
– Association contre le nucléaire et son monde citée en premier.