Les modèles climatiques pour le profane

Par Judith Curry

Traduction : Scaletrans

Source

© Copyright 2017 The Global Warming Policy Foundation

A propos de l’auteur

Le professeur Judith A. Curry est l’auteur de plus de 180 articles scientifiques sur la météo et le climat et a reçu le Henry G. Houghton Research Award par l’American Meteorological Society en 1992.

Elle a récemment pris sa retraite du Georgia Institute of Technology où elle était professeur et titulaire de la chaire de l’École des Sciences de la Terre et de l’Atmosphère. Elle préside actuellement le Climate Forecast Applications Network.

Sommaire

Il existe un grand débat à propos de la fidélité et de l’utilité des modèles globaux du climat [GCM]. Ce débat a lieu dans la communauté des scientifiques du climat, car des scientifiques sont en désaccord avec l’importance à donner aux modèles climatiques par rapport aux analyses des observations. Les résultats des modèles climatiques sont aussi utilisés par les économistes, les agences de réglementation et les décideurs politiques. Par conséquent, les GCM ont été examinés à la loupe par une large communauté de scientifiques, ingénieurs, experts en logiciels, et philosophes des sciences. Ce rapport tente de décrire le débat autour des modèles climatiques pour un public éduqué mais non technique.

Résumé des points clés:

  • Les GCM n’ont pas fait l’objet de procédures de vérification et de validation rigoureuses qui sont la norme pour la science de l’ingénierie et de la régulation.
  • Il y a des inquiétudes justifiées à propos d’un manque fondamental de prévisibilité dans le complexe système climatique non linéaire.
  • Il existe nombre d’arguments amenant à la conclusion que les modèles climatiques ne permettent pas d’identifier avec un haut niveau de confiance l’importance relative des causes humaines et naturelles au réchauffement du 20e siècle.
  • Il est de plus en plus évident que les modèles climatiques prédisent un réchauffement trop important provenant d’une augmentation du dioxyde de carbone atmosphérique.

Les résultats des simulations des modèles climatiques pour le 21e siècle rapportées par le GIEC n’incluent pas des éléments clés de la variabilité climatique, et sont par conséquent incapables de fournir des projections utiles sur l’évolution du climat au 21e siècle

Les modèles climatiques sont utiles pour conduire des recherches scientifiques sur la compréhension du système climatique. Cependant, les points ci-dessus appuient la conclusion selon laquelle les modèles climatiques GCM actuels ne permettent pas d’attribuer les causes du réchauffement du 20e siècle ou de prédire un changement climatique global ou régional sur des périodes allant de la décennie au siècle, avec un niveau de confiance élevé. Par extension, les GCM ne peuvent permettre de justifier des politiques de changement fondamental des systèmes sociaux, économiques et énergétiques. C’est cette application des modèles climatiques qui rend le débat si virulent.

1-Qu’est-ce qu’un Modèle Climatique Global (GCM) ?

Les modèles climatiques globaux (GCM) essayent de simuler une approche grossière du système climatique terrestre à l’aide d’ordinateurs. Les GCM contiennent des modules modélisant l’atmosphère, l’océan, les surfaces du sol, la glace de mer et les glaciers. Le module atmosphérique simule l’évolution des vents, de la température, de l’humidité et de la pression atmosphérique à l’aide d’équations mathématiques complexes qui ne peuvent être résolues que par ordinateur. Les GCM incluent également des équations mathématiques décrivant la circulation océanique, comment elle transporte la chaleur, et comment l’océan échange de la chaleur et de l’humidité avec l’atmosphère. Les modèles climatiques incluent un modèle qui décrit comment la végétation, le sol et la neige ou le couvert glaciaire échangent de l’énergie et de l’humidité avec l’atmosphère. Les GCM incluent également des modèles de glace de mer et de glaciers. Bien que certaines équations des modèles climatiques soient basés sur des lois physiques comme les lois de mouvement de Newton et la première Loi de Thermodynamique, il y a dans le modèle des processus clés qui sont approximatifs et non basés sur des lois physiques. Pour résoudre ces équations sur un ordinateur, les GCM divisent l’atmosphère, les océans et les terres par un système de maillage à trois dimensions (voir Figure 1). Les équations sont alors calculées pour chaque cellule du maillage, de façon répétée pour les étapes d’avancement durant la période de simulation.

Le nombre de cellules du système de maillage détermine la “résolution” (ou granularité) du modèle, où chaque cellule a une température uniforme, etc. Les résolutions courantes des GCM sont d’environ 100-200 km horizontalement et de 1 km verticalement, et habituellement une résolution temporelle d’environ 30 minutes. Alors que les GCM représentent des processus quelque peu plus réalistes avec une plus haute résolution, le temps de calcul nécessaire augmente considérablement – un doublement de la résolution nécessite 10 fois plus de puissance de calcul, ce qui est à l’heure actuelle infaisable dans nombre de centres de modélisation climatique. Le niveau de résolution du modèle est fonction des ressources disponibles du calculateur, avec des compromis entre la résolution du modèle, sa complexité et la longueur et le nombre de simulations prévus.

En raison des résolutions spatiales et temporelles relativement grossières des modèles, il y a de nombreux processus importants qui se produisent à des échelles plus petites que la résolution du modèle (tels que nuages, pluies ; voir cartouche de la Figure 1). Ces processus trop petits sont représentés à l’aide de ‘paramétrisations’. Ces paramétrisations de processus plus petits que le maillage sont de simples formules basées sur des observations ou des dérivés de modèles de processus plus détaillés. Ces paramétrisations sont ‘calibrées’ ou ‘ajustées’ pour mieux correspondre aux observations historiques.

Les vraies équations utilisées dans les codes informatiques des GCM sont seulement des approximations des processus physiques se produisant dans le système climatique. Alors que certaines de ces approximations sont très précises, d’autres sont inévitablement sommaires. Ceci parce que les processus réels qu’il représentent sont soit mal compris, soit trop complexes à inclure dans le modèle étant donné les limitations du système informatique. Parmi les processus les plus importants du changement climatique, les paramétrisations associées aux nuages et précipitations restent les plus problématiques et sont la plus grande source de désaccords entre les différents GCM.

Figure 1 : Modèle de circulation générale GEOS-5 (Goddard Earth Observing System Model) développé par la NASA  (source Wikipedia)

On utilise les modèles climatiques GCM pour les raisons suivantes :

  • Comprendre comment fonctionne le système climatique : des expériences de sensibilité sont utilisées pour annuler, contraindre ou rehausser certains processus physiques ou forçages externes (p. ex. CO2, volcans, ensoleillement) pour voir comment le système répond.
  • Reproduire des états climatiques du passé : comprendre les causes de la variabilité du changement climatique du passé (p. ex. quelle part du changement peut être attribuée à des causes humaines telles que le CO2, par rapport aux causes naturelles comme les variations solaires, les éruptions volcaniques, et les circulations lentes des océans).
  • Changement climatique global : simulation d’états climatiques futurs, du décennal au séculaire, c.-à-d. des simulations d’états climatiques futurs selon différents scénarios d’émissions.
  • Affectation des météos extrêmes : prédiction et attribution des statistiques des événements climatiques extrêmes (p. ex. vagues de chaleur, sécheresses, ouragans).
  • Changement climatique régional : projections des changements climatiques régionaux pour justifier des décisions d’adaptation au changement climatique.
  • Conseils pour les politiques de réduction d’émissions.
  • Coût social du carbone : les résultats des GCM fournissent les données brutes utilisées pour le calcul du coût social du carbone.

Les objectifs particuliers d’un GCM varieront selon l’objet de la simulation. Généralement, en simulant le climat passé à l’aide d’un GCM, l’objectif est de simuler correctement la variation spatiale des conditions climatiques dans un sens moyen. Pour prédire le climat futur, le but n’est pas de simuler les conditions du système climatique d’un jour quelconque, mais de simuler les conditions sur une plus longue période – généralement des décennies ou plus, de telle manière que les statistiques du climat simulé correspondent réellement au futur climat.

Il existe plus de 20 groupes de modélisation internationaux qui contribuent aux simulations de modèles pour les Rapports d’Évaluation du GIEC. De plus, beaucoup de groupes de modélisation individuels contribuent à des simulations à partir de différents modèles. Pourquoi y a-t-il tant de modèles climatiques différents ? Est-il possible de trouver le ‘meilleur modèle de climat ?

Il y a littéralement des milliers de choix différents effectués lors de la construction d’un modèle de climat (p. ex. résolution, complexité des sous-modèles, paramétrisations). Chaque ensemble différent de choix produit un modèle spécifique ayant différentes sensibilités. De plus, les différents groupes de modélisation ont des centres d’intérêt différents, p. ex. de longues simulations de paléoclimats, des détails de circulations océaniques, des nuances d’interactions entre les particules d’aérosols et les nuages, le cycle du carbone. Ces différents intérêts concentrent les capacités de calcul limitées de leurs ordinateurs sur un aspect particulier au détriment des autres.

Est-il possible de choisir le ‘meilleur’ modèle ? Hé bien, plusieurs modèles révèlent de médiocres performances générales par comparaison avec les observations. Cependant, le meilleur modèle dépend de la façon dont vous définissez le ‘meilleur’, et aucun modèle n’est le meilleur dans tous ses aspects.

2-La fiabilité des modèles du climat

 En raison de la complexité des GCM, la notion de modèle correct ou incorrect n’est pas bien définie. La question pertinente est de savoir dans quelle mesure le modèle reproduit la réalité, et s’il est bien adapté au but recherché.

Le statisticien George Box fit cette déclaration fameuse : “Tous les modèles sont faux mais certains sont utiles”. Tous les modèles sont imparfaits ; nous n’avons pas besoin d’un modèle parfait, juste d’un qui réponde au besoin. Les avions sont conçus à l’aide de modèles incapables de simuler un écoulement turbulent.

Pour gérer les risques, on a utilisé pendant des décennies des modèles financiers basés sur des hypothèses grossières sur le comportement humain. Pour la prise de décision, on utilise plus ou moins les modèles en fonction de divers facteurs, l’un d’entre eux étant leur crédibilité.

Le développement de la modélisation du climat a suivi un chemin principalement conduit par la curiosité scientifique et les limites de puissance de calcul. Les GCM ont été conçus à l’origine pour comprendre comment fonctionne le système climatique. Les chercheurs utilisent les GCM pour représenter des aspects du climat qui sont extrêmement difficiles à observer, pour expérimenter une nouvelle façon d’effectuer des calculs jusque-là impossibles, pour comprendre un système complexe d’équations impénétrable autrement, et explorer le système climatique pour identifier des conséquences inattendues. Tels quels, les GCM sont un élément important de la recherche climatique.

Pourquoi les scientifiques font confiance aux modèles du climat ?

Les scientifiques qui développent des modèles climatiques et les utilisent sont convaincus (au moins jusqu’à un certain point) de l’utilité des modèles du climat pour leurs recherches. Ils sont convaincus à cause de la relation du modèle avec la compréhension du processus physique impliqué, de la cohérence des réponses simulées parmi les différents modèles et leurs différentes versions et de l’aptitude du modèle et de ses composants à simuler des observations historiques. La confiance dans les prévisions d’un modèle dépend crucialement de l’évaluation des prévisions par rapport aux observations dans la réalité, les deux utilisant des données historiques (a postériori) et prévisions actuelles. L’évaluation des prévisions est faisable pour le court terme (p. ex. prévisions météo). La saisie des phénomènes a postériori et des prévisions précédentes est une condition nécessaire mais pas suffisante pour l’obtention des phénomènes dans le futur.

Pourquoi certains scientifiques se préoccupent de la fiabilité des modèles du climat ?

Les incertitudes des GCM proviennent de l’incertitude dans la structure du modèle, de ses paramètres et paramétrisations et des conditions initiales. La calibration – ajustements ad hoc ou réglages – est nécessaire pour pallier des paramètres inconnus ou inapplicables du fait de la résolution du modèle, ainsi que dans la connexion de sous-modèles. Les ajustements ad hoc continuels d’un modèle peuvent masquer des déficiences sous-jacentes de la structure du modèle. Les soucis concernant l’évaluation des modèles climatiques se sont accrus dans le contexte des pratiques de calibrations/ajustements. Un remarquable article vient d’être publié dans Science : “Des scientifiques du climat ouvrent leurs boîtes noires aux regards”

“D’ailleurs, que les scientifiques du climat l’admettent ou non, pratiquement chaque modèle a été calibré précisément d’après les données climatiques du 20e siècle – autrement il aurait fini à la corbeille. Il est juste de dire que tous les modèles l’ont été”, dit Isaac Held, un scientifique du Geophysical Fluid Dynamics Laboratory, autre centre de modélisation important, de Princeton, New Jersey

Nous en sommes maintenant au point où reproduire les températures historiques du 20e  siècle ne constitue plus un bon étalon pour déterminer si des modèles sont bons ou mauvais. Cela implique que ces modèles qui correspondent aux données du 20e siècle après calibrations/ajustements avec ces mêmes données du 20e siècle peuvent difficilement servir à déterminer les causes de la variabilité du climat du 20e siècle.

L’accord entre les simulations des modèles et les données n’implique pas que le modèle donne la réponse correcte pour les bonnes raisons. Par exemple, tous les modèles climatiques couplés utilisés dans le Quatrième Rapport d’Évaluation reproduisent les séries temporelles des anomalies de températures moyennes globales de surface pour le 20e siècle ; cependant ils produisent des simulations nettement différentes pour le climat du 21e siècle. De plus, ajuster les modèles climatiques selon les observations de la période 1975-2000 correspond aux phases chaudes de la variabilité naturelle interne, ce qui donne une sensibilité trop élevée au CO2. Donc, réussir à reproduire les états passés ne donne qu’une confiance limitée dans la simulation des états du futur.

Résumé

Les modèles climatiques GCM sont des outils importants pour la compréhension du système climatique. Cependant, il existe de fortes préoccupations quant à leur fiabilité :

  • Les prévisions des GCM sur l’impact sur le climat de plus de CO2 ne peut être évalué avec rigueur à l’échelle d’un siècle.
  • L’examen des incertitudes des GCM est insuffisant.
  • Il y a un nombre extrêmement important de choix non contraints en termes de sélection des paramètres et paramétrisations des modèles.
  • Il y a un manque de contrôle et de validation de modèle formel qui est la norme en ingénierie et science de régulation.
  • Les modèles de climat sont évalués avec les mêmes observations utilisées pour leur ajustement.
  • Il y a des préoccupations sur un manque fondamental de prévisibilité dans un système complexe non linéaire.

3-Les carences des modèles de climat

 Compte tenu de leur maturation, les modèles climatiques GCM sont de plus en plus utilisés pour informer les décideurs politiques. Les simulations des modèles climatiques forment la base des politiques climatiques et énergétiques internationales, donc il importe d’évaluer l’adéquation des modèles climatiques à cet effet.

En particulier, l’aptitude des GCM doit être évaluée pour :

  1. La compréhension des causes du changement climatique du 20e siècle.
  2. La simulation des états climatiques au 21e siècle selon différents scénarios d’émissions.

Ce chapitre se concentre sur deux sujets généraux pour lesquels les modèles climatiques GCM sont inadéquats :

  • La détermination de la sensibilité du système climatique à l’augmentation du CO2
  • La nature chaotique du système climatique et sa variabilité interne

Sensibilité du climat au CO2

Le réchauffement d’origine anthropique dépend non seulement de la quantité de CO2 ajoutée à l’atmosphère, mais aussi de la ‘sensibilité’ du climat à l’accroissement du CO2. La sensibilité climatique se définit comme étant le réchauffement de surface global se produisant pour un doublement de la concentration du dioxyde de carbone dans l’atmosphère. Si la sensibilité est élevée, nous pouvons alors nous attendre à un réchauffement substantiel durant le siècle si les émissions continuent à augmenter. Si la sensibilité est basse, alors le futur réchauffement sera substantiellement plus bas.

La sensibilité climatique à l’équilibre (ECS) se définit comme le changement de la température moyenne globale causée par un doublement de la concentration atmosphérique de CO2, après que le système climatique ait eu plusieurs siècles pour répondre. Il n’est pas possible de mesurer l’ECS directement ; elle doit être estimée à partir de simulations de modèles climatiques et à partir des données historiques à l’aide d’un simple modèle d’équilibre énergétique.

Les conclusions de l’AR4 (2007) du GIEC sur la sensibilité climatique sont :

“La sensibilité climatique à l’équilibre… se trouve probablement dans la fourchette de 2 °C à 4,5 °C avec la meilleure estimation autour de 3 °C et très peu vraisemblablement inférieure à 1,5 °C. Des valeurs supérieures à 4,5 °C ne peuvent être exclues”.

 

Les conclusions de l’AR5 (2013) du GIEC sur la sensibilité climatique sont :

“La sensibilité climatique à l’équilibre est probablement dans la fourchette de 1.5 °C à 4.5 °C (haut degré de confiance), très peu vraisemblablement inférieure à 1 °C (haut degré de confiance), et très peu vraisemblablement supérieur à 6 °C (confiance moyenne)”.

Cette gamme de probabilité des valeurs d’ECS varie d’un facteur 3. Que le réchauffement global causé par l’homme soit dangereux ou non ne dépend pas significativement de savoir si l’ECS est plus proche de 1.5 °C  ou 4.5 °C. Les recherches des trois dernières décennies n’ont pas réduit cet écart – en 1979 l’étude de la National Academy of Sciences (le fameux Rapport Charney) citait une fourchette probable de la valeur d’ECS entre 1.5 et 4.5 °C.

En fait, il semble que cette incertitude sur les valeurs d’ECS s’est accrue depuis l’AR4 de 2007. Le plancher de l’enveloppe de probabilité a été abaissé de 2 à 1.5 °C dans l’AR5 2013 du GIEC, alors que l’AR4 2007 disait qu’il était très improbable que l’ECS soit inférieur à 1.5 °C. Il est également significatif que l’AR5 ne fasse pas état d’une meilleure estimation, alors que l’AR4 cite une meilleure estimation à 3 °C. La raison avancée de ne pas citer une meilleure estimation dans l’AR5 est la divergence substantielle entre les estimations d’ECS basées sur l’observation (plus basses), par rapport aux estimations des modèles climatiques (plus hautes).

La Table 1 compare les valeurs d’ECS déterminées par l’AR4 (2007), l’AR5 (2013), les modèles climatiques CMIP5 cités dans l’AR5 (2013), les analyses d’observations de Lewis et Curry (2014), et la mise à jour par Lewis (2016) avec un forçage plus bas pour les aérosols.

Table 1 : Valeur de la sensibilité climatique à l’équilibre (ECS) (° C)

Curry table 1

Lewis et Curry (2014) ont trouvé des valeurs d’ECS qui sont approximativement la moitié de celles qui ont été déterminées à partir des modèles de climat CMIP5. A l’aide d’une approche de balance énergétique basée sur des observations, Lewis et Curry ont utilisé pour leurs calculs les mêmes données (y compris les incertitudes) pour les changements des gaz à effet de serre et autres moteurs du changement climatique donnés dans l’AR5. Des articles récents trouvent également des valeurs d’ECS aussi basses.

Les dernières recherches suggèrent des valeurs d’ECS encore plus basses. L’incertitude la plus importante dans l’estimation de l’ECS provient des effets des petites particules d’aérosol (pollution ou naturelles), qui ont un effet refroidissant sur le climat (contre-réaction partielle à l’effet de serre). Un article récent de Stevens, auteur principal au GIEC donne un impact des aérosols sur le climat nettement plus faible que celui qui est adopté dans l’AR5. Nicolas Lewis a refait tourner les calculs de Lewis et Curry (2014) avec l’estimation d’impact des aérosols de l’article de Stevens. Très significativement, le plafond supérieur (95th percentile) est abaissé à 2.38 °C (Table 1).

Beaucoup de simulation de modèles climatiques utilisés pour l’AR5 (CMIP5) se basent sur des valeurs de forçage par aérosol qui semblent bien trop élevées. Les simulations de modèles climatiques qui sont réévaluées et recalibrées à partir de plus petites valeurs de forçage d’aérosol peuvent être utilisées pour clarifier le plafond d’ECS. Lors d’une présentation au Workshop, l’auteur principal du GIEC Bjorn Stevens plaidait en faveur d’un plafond d’ECS de 3.5° C basé sur l’analyse de modèles du climat. Les recherches continuent pour évaluer les méthodes d’estimation de la sensibilité climatique. Cependant, la réduction des estimations du refroidissement par aérosol conduit immanquablement à des réductions du plafond estimé de la sensibilité climatique.

Dans les GCM, la sensibilité climatique à l’équilibre est une ‘propriété émergente’ qui n’est pas directement calibrée ou ajustée. Bien qu’il y ait eu avec le temps quelque resserrement de l’enveloppe des sensibilités climatiques modélisées par altération des paramétrisations. Les versions d’un modèle peuvent être rejetées ou non, en fonction des partis pris, attentes et biais du modélisateur à propos du résultat du calcul de la sensibilité climatique à l’équilibre.

Quelle est la source des divergences de l’ECS parmi différents modèles de climat, et entre les modèles et les observations ? Dans un article intitulé “Qu’est-ce qui manque aux modèles ?” Stevens et Bony affirment :

Il est maintenant parfaitement évident qu’une représentation inadéquate des nuages et de la convection humide, ou plus généralement du couplage entre l’eau atmosphérique et la circulation, est la principale limitation des représentations actuelles du système climatique ”.

Quelle sont les implications de ces divergences dans les valeurs de la sensibilité climatique à l’équilibre (ECS) ? Si l’ECS est inférieure à 2 °C, au lieu de plus de 4 °C, alors les conclusions sur les causes du réchauffement du 20e siècle et sur l’importance du réchauffement au 21e siècle sont substantiellement différentes.

De plus, les divergences entre les observations et les estimations basées sur les modèles de la sensibilité climatique sont importantes, et d’une importance significative pour les décideurs politiques. La sensibilité climatique à l’équilibre, et le niveau d’incertitude sur sa valeur, est un élément clé des modèles économiques qui conduisent des analyses coûts/bénéfices et estiment le coût social du carbone.

Chaos et variabilité climatique naturelle interne

Les variations du climat peuvent être causées par un forçage externe, comme les variations solaires, les éruptions volcaniques ou des changements dans la composition de l’atmosphère comme une augmentation du CO2. Le climat peut aussi changer en raison de processus internes dans le système climatique (variabilité interne). L’exemple le plus connu de variabilité interne du climat sont les El Niño/ La Niña. Des modes de variabilité décennaux séculaires ou millénaires proviennent des circulations lentes dans les océans. Tel quel, l’océan sert de ‘volant’ du système climatique, stockant et relâchant de la chaleur sur de longues périodes et agissant comme stabilisateur du climat. Il résulte des décalages temporels et du stockage de chaleur dans l’océan que le système climatique n’est jamais en équilibre.

En ce qui concerne la variabilité interne multi décennale, le rapport du GIEC considère ce problème essentiellement dans le contexte de la détection d’un signal de réchauffement causé par l’homme supérieur au ‘bruit de fond’ de la variabilité naturelle. Cependant, d’autres interprétations du système climatique affirment que la variabilité interne naturelle constitue le signal climatique fondamental.

Beaucoup de processus dans l’atmosphère et les océans sont non linéaires, ce qui signifie qu’il n’y a pas de relation proportionnelle entre cause et effet. La dynamique non linéaire de l’atmosphère et des océans est décrite par les équations Navier-Stokes (basées sur les lois du mouvement de Newton), qui forment la base des prévisions des vents et de la circulation dans l’atmosphère et les océans. La solution des équations Navier-Stokes est un des problèmes les plus épineux de toutes les mathématiques : le Clay Mathematics Institute l’a énoncé  comme l’un des 7 problèmes majeurs des mathématiques et offre un prix de $1M pour sa solution.

Le défi le plus fondamental avec les modèles climatiques se trouve probablement dans le couplage de deux fluides chaotiques – l’océan et l’atmosphère. La caractéristique de la météo est d’être en état de chaos déterministe, en raison de la sensibilité des modèles de prévision aux petites perturbations dans les conditions initiales de l’atmosphère. La source du chaos se trouve dans les non linéarités des équations Navier-Stokes. Une conséquence de la sensibilité aux conditions initiales est que passé un certain temps, le système n’est plus prévisible, pour la météo, ce temps de prévisibilité se mesure en semaines.

Les simulations de modèles climatiques sont aussi sensibles aux conditions initiales (même dans un sens moyen). Le couplage d’un modèle atmosphérique non linéaire et chaotique avec un modèle océanique non linéaire et chaotique donne lieu à quelque chose de bien plus complexe que le chaos déterministe du modèle océanique, particulièrement sans les conditions de forçage transitoire (comme dans le cas d’une augmentation de la concentration de CO2). Des modes de variabilité interne atmosphère/océan couplés surviennent à des échelles hebdomadaires, annuelles, décennales, séculaires et millénaires. Ces modes couplés donnent lieu à de l’instabilité et du chaos. Caractériser un tel phénomène provenant du forçage transitoire du système couplé atmosphère/océan défie le classement selon les théories actuelles des systèmes dynamiques non linéaires, particulièrement dans des situations avec des changements transitoires des valeurs paramétriques. Stainforth et al. qualifient cette situation de “pandémonium”.

Objectif : attribution du réchauffement du 20e siècle

 Qu’en est-il de la pertinence des modèles climatiques pour déterminer les causes du réchauffement climatique du 20e siècle ?

La combinaison de l’incertitude dans la réponse climatique transitoire (sensibilité) et des incertitudes sur l’importance et la période des modes majeurs de la variabilité naturelle interne empêche de séparer sans ambiguïté les variations climatiques dues au forçage externe de la variabilité climatique naturelle interne. Si la sensibilité climatique est dans la fourchette basse des estimations et la variabilité naturelle interne dans la fourchette haute de la distribution des modèles climatiques, on tire des conclusions différentes sur l’importance relative des causes anthropiques du réchauffement climatique du 20e siècle.

Les anomalies des températures globales de surface depuis 1850 figurent ci-après.

Curry - 2017-2

Figure 2 : anomalies des températures globales de surface d’après les données UK HadCRUT4

Les simulations des modèles climatiques pour la même période sont données dans la Figure 3. Les températures globales de surface modélisées ressemblent étroitement aux températures observées pour la période 1970-2000. Cependant, les modèles climatiques ne reproduisent pas l’important réchauffement de 1910-1940, le refroidissement de 1940 à la fin des années 70 et le profil plat de température depuis le début du 21e siècle.

Curry - 2017-3

Figure 3. Comparaison de simulations CMIP3 et CMIP5 des anomalies de température de surface avec les observations. Figure 10.1 de l’AR5 du GIEC.

La conclusion finale de l’AR5 de 2013 est qu’il est extrêmement probable que plus de la moitié du réchauffement depuis 1950 ait été causé par l’homme, et les simulations de modèles climatiques indiquent que tout ce réchauffement a été causé par l’homme.

Si le réchauffement depuis 1950 a été causé par l’homme, alors qu’est-ce qui a causé le réchauffement de la période 1910-1945 ? La période 1910-1945 représente environ 40 % du réchauffement depuis 1900, mais ne correspond qu’à seulement 10 % de l’augmentation du dioxyde de carbone depuis 1900 [ jusqu’à aujourd’hui] – il est clair que les émissions anthropiques de gaz à effet de serre ont très peu joué dans ce premier réchauffement. Le léger refroidissement de 1945 à 1975 – appelé le ‘grand hiatus’ – n’a pas non plus été expliqué de façon satisfaisante.

Outre ces variations inexpliquées des températures du 20e siècle, il est prouvé que le climat global s’est réchauffé partout durant les 200 dernières années, ou même plus. Alors que les données deviennent de plus en plus éparses au 19e siècle, le Berkeley Earth Surface Temperature Project a collationné les données de température de terre disponibles jusqu’en 1750 :

Curry - 2017-4

Figure 4 : Anomalies de températures de surface terrestre depuis 1750, filtre de lissage décennal.

L’analyse du Berkely Earth montre une tendance au réchauffement depuis 1800, avec une variabilité considérable au tournant du 19e siècle. Une partie de cette variabilité au tournant du 19e siècle peut être attribuée à d’importantes éruptions volcaniques ; c’était aussi l’époque du minimum de Dalton de l’activité solaire (1791-1825). Les reconstructions paléoclimatiques du climat de l’Hémisphère Nord – par exemple à partir de cernes d’arbres et de forages – indiquent qu’un réchauffement général pourrait s’être produit au cours des 300-400 dernières années. La contribution humaine à cet ancien réchauffement global est pratiquement inexistante.

Quelle pourrait être la cause d’une période de 200-400 ans de réchauffement séculaire ? Les endroits évidents à regarder sont le soleil et les océans. Les formes de circulations océaniques influencent aussi le climat sur des échelles de temps allant du siècle au millénaire. Les connexions Soleil-climat sont l’objet d’un intérêt renouvelé, comme montré par le National Academies Workshop Report “Les effets de la variabilité solaire sur le climat terrestre”. La compréhension et l’explication de la variabilité climatique des 400 ans précédant 1950 ont fait l’objet d’une attention insuffisante. Sans cette compréhension, notre confiance dans les explications du GIEC pour le réchauffement depuis 1950 est limitée.

Résumé

Le changement climatique anthropique (d’origine humaine) est une théorie dont le mécanisme de base est bien compris, mais dont l’importance potentielle est hautement incertaine. Qu’est ce que l’analyse précédente du GIEC implique en attribuant de façon ‘extrêmement probable’ à des causes anthropiques le réchauffement depuis 1950 ? Les modèles climatiques infèrent que tout le réchauffement depuis 1950 peut être attribué à l’homme. Cependant, il y a eu des variations de grande amplitude du climat global/hémisphérique sur des périodes de 30 ans, qui sont de même durée que le réchauffement de la fin du 20e siècle. Le GIEC n’a pas d’explications convaincantes pour les 30 années précédentes du 20e siècle, notamment pour le réchauffement de 1910-1945 et pour le grand hiatus de 1945-1975. De plus, il y a une tendance séculaire au réchauffement depuis 1800 (et possiblement d’une durée atteignant 400 ans) qui ne peut s’expliquer par le CO2, et ne l’est que partiellement par des éruptions volcaniques.

Preuves que les modèles climatiques ne permettent pas d’identifier avec une certitude élevée l’importance relative des causes naturelles et anthropiques du réchauffement du 20e siècle.

  • Incertitudes substantielles sur la sensibilité climatique à l’équilibre.
  • Incapacité des GCM à simuler l’importance et la périodicité de la variabilité naturelle interne sur des échelles de temps décennales à séculaires.
  • Utilisation des observations du 20e siècle pour la calibration et l’ajustement des GCM.
  • Échec des modèles climatiques à fournir une explication cohérente du réchauffement du début et du refroidissement du milieu du 20e siècle.

 Les GCM sont-ils des outils fiables pour la prévision du changement climatique ?

Le GIEC a fait des prévisions terribles selon lesquelles nous pouvons nous attendre à un réchauffement de 4 °C ou plus d’ici la fin du 21e siècle si l’on ne réduit pas les émissions de carbone.

4-Projections de réchauffement pour le début du 21e siècle

Pour évaluer la crédibilité des terribles prévisions de réchauffement, nous devons d’abord évaluer comment les GCM ont réussi à simuler la variabilité climatique du début du 21e siècle. Le chapitre 11 de l’AR5 se concentrait sur le changement climatique à court terme, jusqu’en 2035. La Figure 7 compare les prévisions des modèles avec les observations récentes des anomalies de température.

Curry - 2017-5

Figure 5. Comparaison des simulations de modèle climatique CMIP5 des anomalies de la température de surface globale avec les observations jusqu’en 2014 (HadCRUT4 ; Figure 11.25 de l’AR5

Les températures observées pour la dernière décennie se trouvent à la limite inférieure de l’enveloppe 5-95 % des simulations CMIP5. Dans l’ensemble, la tendance dans les simulations est nettement plus forte que la tendance observée ces 15 dernières années. En ce qui concerne les projections pour la période 2015-2035, la fourchette de tendance des simulations CMIP5 est de 0,11 à 041 °C par décennie. Le GIEC cite alors un ‘jugement d’expert’ pour justifier l’abaissement des projections (indiqué par les hachures en rouge de la Figure 5) :

“Cependant il résulte du hiatus que les taux implicites de réchauffement pour la période 1986-2005 à 2016-2035 sont plus bas : 0,10 °C-0,23 °C par décennie, suggérant que l’évaluation AR4 était proche du sommet de l’enveloppe des prévisions en cours pour cet intervalle spécifique de temps”.

 Cet abaissement des projections par rapport aux simulations CMIP5 brutes a été fait sur la foi d’un jugement d’expert selon lequel certains modèles sont trop sensibles au forçage anthropique (CO2 et aérosols).

Ed Hawkins, auteur du GIEC, qui avait créé à l’origine la figure ci-dessus, l’a mise à jour avec les observations de température de surface jusqu’en 2015 :

Curry - 2017-6

Figure 6. Comparaison des simulations de modèle de climat CMIP5 des anomalies de la température de surface globale avec les observations jusqu’en 2014 (HadCRUT4). Mise à jour de la Figure 11.25 de l’AR5 pour inclure les observations de 2015.

Le pic des températures globales provenant du El Niño 2015 aide à améliorer l’accord entre les modèles et les observations, mais pas de beaucoup. Le pic de température de 2015 n’atteint même pas le milieu de l’enveloppe des projections des modèles, alors que le pic de température du El Niño 1998 se trouvait au sommet de l’enveloppe des prévisions de température. Jusqu’à présent au 21e siècle, les modèles GCM chauffent en moyenne deux fois plus vite que l’augmentation de température observée. La raison de la divergence entre les observations et les simulations de modèles au début du 21e siècle semble être causée par une combinaison de simulation inadéquates de la variabilité naturelle interne et d’une trop grande sensibilité des modèles à l’accroissement du CO2 (ECS).

Projections pour la fin du 21e siècle

Les projections des modèles du changement de la température globale à la fin du 21e siècle conduisent les négociations internationales sur les réductions des émissions de CO2, sous les auspices de la Convention Cadre sur le Changement Climatique (UNFCCC). La Figure 7 montre les projections des modèles climatiques sur le réchauffement du 21e siècle. Le RCP8.5 reflète un scénario extrême d’augmentation des émissions de gaz à effet de serre, alors que le RCP2.6 est un scénario où les émissions culminent en 2015 et décroissent rapidement après.

Curry - 2017-7

Figure 7 : Figure SPM.7 de l’AR5 WG1. Séries temporelles de 1950 à 2100 multi modèle CMIP5 simulées pour le changement de température de surface annuelle globale par rapport à 1986-2005. Les séries temporelles de projections et une mesure d’incertitude (grisé) sont montrées pour les scénarios RCP2.6 (bleu) et RCP8.5 (rouge). Le noir (gris ombré) est l’évolution historique modélisée à l’aide de forçages historique reconstruits. Les incertitudes moyennes et associées calculées sur 2081-2100 sont données pour tous les scénarios RCP par des barres verticales colorées.

Selon le scénario RCP8.5, les modèles climatiques CMIP5 prévoient un réchauffement continu durant le 21e siècle dont on attend qu’il dépasse le seuil ‘dangereux’ de 2° C de réchauffement dès 2040. Il est important de noter que les simulations CMIP5 ne tiennent compte que des scénarios futurs d’émissions de gaz à effet de serre – elles n’incluent pas des scénarios futurs d’éruptions volcaniques, de variabilité solaire ou d’oscillations océaniques de longue période. Des scientifiques russes affirment que nous devons nous attendre à un Grand Minimum Solaire (contribuant au refroidissement) culminant au milieu du 21e siècle.

Alors que les prévisions de température à court terme ont été abaissées par rapport aux simulations CMIP5 (Figure 5), le SPM [Résumé Pour Décideurs] de l’AR5 déclare à propos du réchauffement à long terme :

“Les fourchettes pour 2046-2065 ne tiennent pas compte de l’influence possible de facteurs qui ont conduit à l’évaluation à court terme (2016-2035) du changement de température moyenne globale de surface qui est plus basse que l’enveloppe 5-95 % du modèle, car l’influence de ces facteurs sur les prévisions à long terme n’ont pas été quantifiées en raison d’une compréhension scientifique insuffisante”.

 Il y a une troublante incohérence dans le rapport AR5 WG1 : l’AR5 tient compte d’une importante incertitude dans la sensibilité climatique et a nettement abaissé les prévisions pour 2016-2035 par rapport aux projections des modèles, au contraire, les projections jusqu’en 2100 utilisent les modèles climatiques qui sont clairement “trop chauds”. Encore plus troublant, le rapport WG3 – Atténuation du Changement Climatique – a mené toute son analyse sur la base d’une ‘meilleure estimation’ de la sensibilité climatique à l’équilibre à 3.0 °C.

L’AR5 a renoncé à choisir une ‘meilleure estimation’ de la sensibilité climatique à l’équilibre en raison de divergences entre les estimations des modèles climatiques et les estimations observées (lesquelles sont moitié moindres que les estimations des modèles climatiques). Le réchauffement de l’atmosphère est moitié moindre que celui estimé par les modèles, d’où le fait que les modèles CMIP5 produisent un réchauffement qui est nominalement deux fois plus important que les valeurs de sensibilité les plus basses auraient donné. Il n’est tenu aucun compte, dans ces projections du changement climatique au 21e siècle, de l’importante incertitude dans la sensibilité climatique qui est pourtant reconnue par le GIEC.

Les projections du GIEC pour le changement climatique du 21e siècle assument explicitement que le CO2 est le bouton de contrôle du climat global. Les projections des modèles climatiques pour le 21e siècle ne sont pas convaincantes parce que :

  • Elles ont échoué à prédire le ralentissement du réchauffement du début du 21e siècle.
  • Elles sont incapables de simuler le mode et la périodicité des oscillations océaniques multi décennales.
  • Elles ne tiennent pas compte des oscillations solaires futures et des effets indirects du soleil sur le climat.
  • Elles négligent la possibilité d’éruptions volcaniques plus actives que le relativement calme 20e siècle.
  • Elles surestiment apparemment la sensibilité à l’augmentation des gaz à effet de serre.

Résumé

Il est de plus en plus évident que les modèles climatiques sont “trop chauds” et que la sensibilité du climat au CO2 est vers le bas de l’enveloppe présentée par le GIEC. Cependant, ces valeurs plus basses de la sensibilité du climat ne sont pas prises en compte pour les projections de température des modèles climatiques du GIEC à la fin du 21e siècle ou dans les estimations de l’impact de la réduction des émissions de CO2 sur les températures. Les projections des modèles climatiques du GIEC se concentrent sur la réponse du climat à différents scénarios d’émissions. Les projections des modèles climatiques au 21e siècle ne comprennent pas :

  • Une gamme de scénarios d’éruptions volcaniques (les modèles considèrent que l’activité volcanique sera comparable au 20e siècle, au cours duquel l’activité volcanique a été bien plus faible qu’au 19e siècle).
  • Une possibilité de scénario de refroidissement solaire, analogue au minimum solaire prédit par les scientifiques russes.
  • La possibilité que la sensibilité du climat soit deux fois inférieure à ce qui est simulé par la plupart des modèles climatiques.
  • Des simulations réalistes de la période et de l’amplitude de la variabilité naturelle interne selon des échelles décennales à séculaire.

La communauté de la modélisation du climat s’est focalisée sur la réponse du climat à l’accroissement des émissions anthropiques, et la communauté des politiques admet (explicitement ou implicitement) les résultats des simulations GCM pour le 21e siècle comme des prévisions exactes. Pourtant, nous n’avons pas une bonne compréhension des impacts climatiques relatifs ci-dessus ou de leurs impacts potentiels sur l’évolution du climat du 21e siècle.

109 Comments     Poster votre commentaire »

51.  Araucan | 28/03/2017 @ 22:52 Répondre à ce commentaire

Merci !
Même si certains phénomènes que vous décrivez ne sont pas à mon sens, émergents mais plutôt non encore découverts, je vois ce que vous voulez dire. Pour moi, émergent, mais je suis plutôt biologiste, concerne plutôt des phénomènes avec une certaine auto organisation. Mais c’est certainement une définition plus étriquée que la vôtre.

52.  tsih | 29/03/2017 @ 8:23 Répondre à ce commentaire

Araucan (#51),

Pour moi, émergent, mais je suis plutôt biologiste, concerne plutôt des phénomènes avec une certaine auto organisation.

Oui, même une auto organisation certaine, c’est cette auto organisation que j’ai appelée « principes d’organisation supérieurs » qui produisent spontanément un ordre ou une organisation d’un système souvent stupéfiants et qui « émergent » c’est à dire ne coulent pas du tout de soi à partir des seules propriétés bien connues des parties et qui n’en sont, sauf cas très particulier, pas déductibles.

Si vous êtes biologiste il y a les travaux exceptionnels, les livres et présentations de Stuart Kauffmann.

53.  monmon | 29/03/2017 @ 16:19 Répondre à ce commentaire

Emergence? Les glaciations.
Les glaciations sont sans doute des phénomènes émergents. Il suffit pour les comprendre d’imaginer comment et pourquoi des anomalies d’évaporation tropicales comme les cyclones peuvent atteindre des zones nord américaines affectées de températures négatives et y déposer des masses considérables de neige qui se transforme en glace transitoire au Canada et aux USA puis disparaissent en fondant sans que les températures aient sensiblement varié, mais perdure sur le Groendland. Pourquoi enfin le phénomène n’a jamais affecté la plus large partie de la Sibérie.
On peut aussi parler de l’émergence puis de la disparition du grand lac Tchad.

54.  Araucan | 29/03/2017 @ 22:42 Répondre à ce commentaire

tsih (#52),
Oui, manifestement …

55.  lemiere jacques | 30/03/2017 @ 17:51 Répondre à ce commentaire

tsih (#46), donc il a été démontré quie les nina/nino sont des phénomènes émergents?

en ce qui me concerne je ne suis pas un physicien…MAIS…je tiens à rappeler que ce qui est extraordinaire à mes yeux n’est pas l’existence de phénomènes émergents dans les systèmes complexes d’après la définition de tsih ( car j’ai autre chose à foutre que de lire vos liens) c e qui est extraordinaire c’est la capacité à prédire d l’évolution de systèmes complexes…

on a des lois de la physiques microscopique et quantique de nature probabiliste… et quand on prend plein d’objets quantiques on arrive à établir des lois essentiellement déterministes…soit, c’est ce qu’on voit de façon empirique, on ne sait pas passer de l’un à l’autre mais ce n’est pas important..

Mais il y a un problème pour appliquer les lois de la physique macroscopique pour prédire l’évolution d’un système macroscopique complexe il faut pouvoir lui assigner une description avec des grandeurs « macroscopiques »,…pour simplement pouvoir appliquer les lois..je suis désolé je n’ai pas vu passer une explication de cela…en pratique , on y arrive dans des cas simple et clair, grosso modo et par exemple, on peut dire il existe un équilibre thermodynamique local et donc une température…sauf que…c’est approximatif… on a déjà un caillou dans la galoche.
ne vous en déplaise …pour affirmer que l’on peut théoriquement décrire un système complexe avec les lois de la physique il faut supposer qu’il soit parfaitement descriptible avec des grandeurs macroscopiques… vous êtes intelligents vous tous..expliquez moi!!!
oui .. en pratique je constate qu’on peut assigner une température à un système relativement simple …on peut même étendre la notion à un gradient de temperature ( moi ç me gratte un peu là) , mais posez vous simplement la question…à quelle condition puis le faire pour un système complexe?

ça n’a rien d’évident…et le pire qu’est ce qui m’empêche de penser que l’impossibilité de décrire un système avec des grandeurs macroscopiques conduit à la possibilité d’une évolution probabiliste du dit système autrement dit qu’il n’existe par UNE seule évolution possible d’un système complexe? qui n’a rien à voir avec une méconnaissance initiale du système ( quoique).

56.  Murps | 5/04/2017 @ 8:11 Répondre à ce commentaire

lemiere jacques (#55),

donc il a été démontré quie les nina/nino sont des phénomènes émergents?

A ma connaissance cela ne se « démontre » pas. On l’observe et on subodore.

Le reste de votre post est une vison mécaniste et prédictible du problème, or justement ce qui caractérise les systèmes instables, c’est leur imprédictibilité. Là est le paradoxe : les lois et les équations qui décrivent le système sont parfaitement déterministes, mais le comportement du système ne l’est pas.
Ce non déterminisme est certainement la conséquence de la dissipation de l’énergie par frottements et échauffements. Les équations sont non t-inversible et sensibles aux conditions initiales.

A cela s’ajoute la taille et la complexité du système climatique…

57.  tsih | 9/04/2017 @ 9:34 Répondre à ce commentaire

lemiere jacques (#55),

car j’ai autre chose à foutre que de lire vos liens

Comme moi de répondre à vos « questions »… tout compte fait.

Alors au hasard et pour la route un autre…

Lien

58.  Bernnard | 9/04/2017 @ 11:38 Répondre à ce commentaire

Murps (#56),
Systèmes chaotiques et phénomènes émergents.
Cela pour désigner notre limite de compréhension. Pour autant, il ne faut pas baisser les bras.
Bien sûr, la tache est immense pour avoir une idée du système climatique du globe terrestre en entier. Il y a surement des tas de sentiers et des voies sans issue que la recherche climatique devra emprunter avant de faire demi-tour et s’essayer sur d’autres chemins.
C’est une aventure longue et un parcours qui est fait de fausses certitudes et de vraies incertitudes.
La science climatique est jeune et elle doit avancer malgré ces difficultés.
Ce qui est anormal, c’est de dire : on sait tout du fonctionnement du climat terrestre et que cette aventure scientifique n’en est pas une ! Quelle erreur qui nous fera prendre du retard dans notre compréhension !

59.  Cdt Michel e.r. | 9/04/2017 @ 16:39 Répondre à ce commentaire

Bernnard (#58),

La science climatique est jeune et elle doit avancer malgré ces difficultés.

Permettez-moi de ne pas être d’accord.

La science du climat ou climatologie en tant que science descriptive n’est pas jeune du tout. Les Anciens, dès l’antiquité avait déjà compris pas mal de choses. A la fin du XIXe siècle, Julius von Hahn (1839-1921) publiait en allemand un « Manuel de climatologie » déjà très complet, lequel a été traduit en anglais en 1903.
Handbook of climatology, part I: General climatology, translated from the 2nd German edition, with additional references and notes by R. de Courcy Ward
On peut le télécharger ICI sous différents formats.

C’est la science du climat post-moderne tentant de prédire l’évolution du climat en se basant sur des modèles informatiques, qui est bien jeune et a tous les attributs d’une pseudo-science. Je ne vois pas pourquoi elle devrait continuer à avancer dans cette voie, alors que jusqu’à présent aucune de ses prédictions n’est avérée. Preuve s’il en est qu’elle fait fausse route.

Pour parodier Einstein, la bêtise et l’arrogance humaines n’ont pas de limites.

60.  Cdt Michel e.r. | 9/04/2017 @ 17:17 Répondre à ce commentaire

Cdt Michel e.r. (#59),
(suite)
Correction : lire Julius von Hann

Si vous voulez télécharger ce manuel depuis le site d’origine (archives de l’Université de Toronto), je vous conseille fortement les formats B/W PDF ou PDF. Parmi les autres, certains ont des passages complètement illisibles (dus à des problèmes de reconnaissance de caractères, OCR. Ce qui est inévitable sur des vieux documents avec des piqures;des taches et autres altérations mal interprétées par l’OCR).

Je vous rappelle que j’ai retravaillé ce document pour le rendre plus lisible et éditable. Vous pouvez le télécharger sur Dropcanvas au format ODT, document de base que j’ai ensuite enregistré au format MS DOC et exporté au format PDF.

61.  chercheur | 9/04/2017 @ 17:56 Répondre à ce commentaire

Bernnard (#58),

Doit-on comprendre que pour vous le hasard n’existe pas?

62.  Cdt Michel e.r. | 9/04/2017 @ 20:34 Répondre à ce commentaire

chercheur (#61),

Qu’entendez-vous par hasard ?
Il faut d’abord se mettre d’accord sur la définition.

Quand je vois une question pareille, j’ai le réflexe de faire une recherche sur le portail du CNRTL en Lexicographie.: Hasard

63.  Bernnard | 9/04/2017 @ 22:19 Répondre à ce commentaire

Cdt Michel e.r. (#59),
Merci pour ces précisons.
Je parlais de la science du climat en tant que science structurée et s’il y a eu un début de compréhension scientifique de climat, on s’est ensuite endormi et on a considéré que c’était une science bien comprise.
On dit : il n’y a plus de découvertes fondamentales à faire dans ce domaine et je crois que c’est une erreur. En cela, je trouve que la climatologie est « jeune » et n’a pas trouvé les grandes règles qui agissent sur le climat.
Par exemple, avant d’être une science structurée avec ses règles, la chimie pouvait décrire des « recettes » qui marchent pour faire des substances (comme on disait) mais il a fallu attendre Mendeleïev pour enfin structurer cette science comme une gamme musicale naturelle (on parlait de la loi des octaves). Il y a eu dés lors un net progrès. Bien sûr le parallèle est forcé et chaque science avance à un rythme propre.
Ce qui m’amène à répondre à chercheur.
chercheur (#61),
Bien sûr que le hasard a sa part, mais c’est ce qu’on peut admettre qui reste quand la plus grande partie des paramètres du climat est comprise.
Je ne me risque pas de mettre un pourcentage sur le niveau de compréhension actuel de la science du climat, mais je pense qu’on cerne les paramètres climatiques de manière très partielle, en tout cas certainement pas 100%
On doit aussi penser que pour qu’il y ait un effet il y avoir une cause. Par exemple: les oscillations océaniques qu’on a découvertes et dont on a observé une certaine périodicité ne sont pas vraiment des découvertes, mais des observations issues de statistiques. À quoi sont-elles dues ? La découverte serait de trouver sans ambiguïté leurs origines et surtout pas par des raisonnements du style œuf / poule. Il y a dans la science climatique actuelle beaucoup de questionnement et pas de réponses et celles-ci ne peuvent pas venir d’ordinateurs.
Il y a un grand travail à accomplir et quand on parle de chaos… il faut bien mesurer de ne pas mettre définitivement la clé sous la porte et de se satisfaire que ce soit uniquement chaotique pour ne pas approfondir. Encore une fois il y a une part de hasard certainement.

64.  Christial | 10/04/2017 @ 9:23 Répondre à ce commentaire

C’est la science du climat post-moderne tentant de prédire l’évolution du climat en se basant sur des modèles informatiques, qui est bien jeune et a tous les attributs d’une pseudo-science

Cdt Michel e.r. (#59),

La théorie du RCA pour laquelle l’influence sur le climat des GES est prépondérante suppose de prévoir sur le long terme le climat, j’en reviens encore aux propos de Cassou tenus devant l’Académie des Sciences.
La boule de cristal des climatologues post-modernes s’appelle  » modèles informatiques ».

65.  amike | 10/04/2017 @ 11:04 Répondre à ce commentaire

Christial (#64), C est le S (pluriel) qui pose problème. Un seul modèle serait forcément ouvert, critiquable et surtout responsable. Ses limites seraient alors constamment mise en avant, et toute politique serait associée à un risque. A l inverse, la multiplicité de modèles conduit à un consensus qui implique une politique unique.

66.  chercheur | 10/04/2017 @ 18:06 Répondre à ce commentaire

Bernnard (#63),

Le problème actuel est que le hasard est pratiquement supprimé des solutions possibles à toutes questions scientifiques. Prétendre qu’un évènement peut être causé par le hasard soulève des critiques incroyables, comme si c’était devenu un non-sens scientifique.

C’est une des plus graves dérives que connaissent les sciences aujourd’hui.

67.  Scaletrans | 10/04/2017 @ 20:41 Répondre à ce commentaire

chercheur (#66),

En termes climatiques, il n’y a pas de hasard, mais la sensibilité aux conditions initiales + les phénomènes émergents (mais ça revient au même dans le fond). C’est comme si on avait affaire à un monstrueux système d’équations dont une partie ne peuvent même pas être écrites à cause des phénomènes qu’on ignore.

68.  chercheur | 10/04/2017 @ 23:27 Répondre à ce commentaire

Scaletrans (#67),

Toutes les sciences qui se refusent à admettre le hasard comme possible cause d’un phénomène sont des pseudo-sciences.
Il en est ainsi de la climatologie, de l’épidémiologie, de l’écologie et bien d’autres.
La prise en compte du hasard ou non peut être considérée comme un critère de sélection entre sciences et pseudo-sciences.

69.  Murps | 12/04/2017 @ 22:05 Répondre à ce commentaire

chercheur (#66),

Prétendre qu’un évènement peut être causé par le hasard soulève des critiques incroyables, comme si c’était devenu un non-sens scientifique.

C’est un peu plus compliqué que cela je pense.
D’une part notre société n’aime plus le risque, ou ne l’accepte plus.
Quand une catastrophe imprévisible arrive, on cherche des responsables, même quand il n’y en a pas. Le risque est systématiquement judiciarisé.

Et d’autre part dans une théorie comme le RCA, il n’y a pas de place pour le hasard. Reconnaitre que le climat varie au petit bonheur, c’est flanquer toute la théorie par terre.

Mais vous avez sans doute raison, cette négation systématique de l’effet du hasard est bien la marque des sciences pathologiques.

70.  CK66 | 13/04/2017 @ 4:48 Répondre à ce commentaire

Scaletrans (#67),
c’est assez déconcertant pour moi , profane inculte , si la notion de hasard doit être éliminée , cela sous entend l’émergence de la notion de prévisibilité , vérifiable et donc modélisable , alors qu’il nous est dit ( AR5 je crois ) : la nature non linéaire et chaotique du climat rendent impossible la modélisation de son évolution future .

71.  scaletrans | 13/04/2017 @ 10:43 Répondre à ce commentaire

CK66 (#70),

Disons les choses autrement: dans un système, tout effet a une cause, et ce qu’on appelle le hasard décrit seulement l’impossibilité (calcul ou même conception) de remonter toute la chaîne dans son arborescence quasi infinie. On ne pourra jamais modéliser le système climatique hors un court laps de temps pour une région donnée. G & T le disaient, mais ils n’étaient pas les seuls.

72.  jeanl | 13/04/2017 @ 18:00 Répondre à ce commentaire

scaletrans (#71),
C’est le principe des systèmes chaotiques. Bien qu’ils soient parfaitement déterministes, ils sont imprévisibles à plus ou moins long terme. Pourquoi? Parce qu’on ne connaîtra jamais les conditions initiales avec la précision nécessaire.
Naturellement, ça ne veut pas dire qu’il ne faut pas continuer à les étudier, et même à les modéliser, quitte à simplifier. Mais la vraie simplification n’est pas de remplacer ce qu’on sait être vrai par ce qu’on sait être faux parce que ça nous arrange.

73.  CK66 | 14/04/2017 @ 3:55 Répondre à ce commentaire

scaletrans (#71),
Donc , si j’ai bien compris , à chaque effet une cause bien définie ? Est-ce que cette » précision  » ne va pas à contre sens de la théorie globale du RCA qui est une somme d’extrapolations de moyennes statistiques ( repères ) imprécises par définition ?

74.  scaletrans | 14/04/2017 @ 9:09 Répondre à ce commentaire

CK66 (#73),

On peut le dire en effet, et reconnaître notre impuissance à tout modéliser.

75.  Murps | 14/04/2017 @ 11:33 Répondre à ce commentaire

scaletrans (#74), une impuissance probablement définitive au sens ou jamais, au grand jamais, on ne pourra prévoir l’évolution fine d’un système chaotique et ce, quels que soient les progrès réalisés en sciences fondamentales et appliquées. On pourra seulement définir les bornes de son évolution dans l’espace des phases et son fonctionnement global. Mais pour « l’émergence », typiquement un point de rebroussement d’une courbe en mathématiques, nada !!!

76.  CK66 | 14/04/2017 @ 16:31 Répondre à ce commentaire

scaletrans (#74),
Merci de votre temps , patience et explications .

77.  Christial | 15/04/2017 @ 10:01 Répondre à ce commentaire

une impuissance probablement définitive au sens ou jamais, au grand jamais, on ne pourra prévoir l’évolution fine d’un système chaotique

Murps (#75),
Peut-être mais ce n’est pas, je crois, ce qu’avance les tenants du RCA.
Ils prédisent à terme une augmentation inéluctable de la température globale par « effet de serre » avec une part d’aléas due à la variabilité naturelle du climat et à la méconnaissance actuelle de l’impact des rétroactions.

78.  Bernnard | 15/04/2017 @ 10:24 Répondre à ce commentaire

Christial (#77),
Règle numéro 1:
Le principal paramètre gouvernant la température moyenne de la terre est la concentration en CO2 de la troposphère.
Règle numéro 2:
La température moyenne de la terre est soumise à des paramètres naturels qu’on étudie encore mais qui ne peuvent en aucun cas minorer le paramètre de la règle numéro 1.
Voilà, tout est dit.
Circulez, il n’y a rien à voir !

79.  Jojobargeot | 15/04/2017 @ 10:55 Répondre à ce commentaire

Bernnard (#78), Effectivement, rien à voir. Donc impossible de prouver scientifiquement l’inexistence de ce machin, comme l’inexistence de Dieu. Ce n’est pas un hasard si Al Gore est diplômé en théologie. Toute la clique marxiste déguisée de vert me fait bien marrer sur le point religieux. Le rejet de la religion traditionnelle sous prétexte de libération de l’esprit de l’opium du peuple, toute cette débauche de démagogie et de langue de bois pour finalement imposer de pareille manière une croyance avec son clergé, ses prêtres, ses soldats prêts à trucider les hérétiques. (Hillary Clinton l’avait promis durant sa campagne)
Non, en fait ils ne sont pas marrant, ils ne seraient que pathétiques si ils n’étaient pas aussi dangereux.

80.  tsih | 18/04/2017 @ 8:29 Répondre à ce commentaire

Ce papier qui vient juste de paraître « découvre » et pointe bien l’incapacité intrinsèque et définitive des modèles à faire la moindre prédiction ou projection quantitative sérieuse au delà de ce qu’on savait déjà dans les années 1940. C’est follement amusant, sauf pour les modélisateurs.

The sensitivity of these flux deviations to the observational dataset and to energy budget choices helps explain why previous studies conflict, and suggests that the origin of the recent hiatus may never be identified.

P.S. Ceux qui ont envie de lire gratuitement ( mais vous pouvez faire un don, ils le méritent) le papier complet (sous paywall) peuvent le faire via ce site.

81.  BenHague | 18/04/2017 @ 9:06 Répondre à ce commentaire

Merci . Tres interessant

82.  BenHague | 18/04/2017 @ 9:11 Répondre à ce commentaire

Pardon .. Extremement interessant !!!!

83.  amike | 18/04/2017 @ 10:48 Répondre à ce commentaire

tsih (#80),
On en parle aussi sur WUWT : New Karl buster paper confirms the pause…

84.  Nicias | 18/04/2017 @ 13:14 Répondre à ce commentaire

tsih (#80),

Chercher la cause d’un hiatus (qui selon certains n »existe peut être même pas) dans les modèles était une entreprise vouée à l’échec. C’est une entreprise curieuse de la part des auteurs qui avaient produit précédemment un article sur le tuning des modèles (que vous avez certainement lu chez JC). Les modèles sont fait pour reproduire l’augmentation de température mondiale au 20ème siècle mais pas le reste, et dans ce reste il y évidement la TOA.

Il eut été amusant qu’ils fassent leur article sur le Grand Hiatus. Remarquez que le modèle que nos amis allemands ont utilisé pour leur article est dans la liste de ceux représentés par McIntyre. Il s’agit du modèle maison MPI-ESM MR … ou bien du MPI-ESM LR (probablement le premier). Car c’est le même modèle mais avec exécuté avec deux résolutions différentes.

Là ou je me marre c’est que les deux versions donnent à peu près le même résultat pour la température de surface mais c’est déjà plus du tout le cas plus haut pour la basse troposphère. Alors ce qu’il se passe à la TOA ou au fond des océans…

Le MPI-ESM est vers la droite.

PS : c’est actuellement sci-hub.ac, merci c’est très pratique.

85.  Nicias | 18/04/2017 @ 13:38 Répondre à ce commentaire

Pour rappel, les variations observées par satellite à la TOA pour le visible à l’équateur. A comparer au 0,08 W/m2 trouvé par Hedemann et al et suffisant pour provoquer un Hiatus.

Remarque en passant, l’article de Hedemann a mis 9 mois pour être accepté et publié.

86.  Christial | 18/04/2017 @ 13:55 Répondre à ce commentaire

tsih (#80),
Plus la science avance, plus les modèles reculent !

87.  Cdt Michel e.r. | 18/04/2017 @ 17:00 Répondre à ce commentaire

Nicias (#84),

PS : c’est actuellement sci-hub.ac, merci c’est très pratique.

sci-hub.ac est un miroir parmi tant d’autres
Taper « sci hub search » dans Google vous fait découvrir pas mal d’articles sur le sujet.

88.  Ecophob | 18/04/2017 @ 17:27 Répondre à ce commentaire

tsih (#80), Merci de nous révéler ce genre d’article, alors que vous êtes un farouche défenseur de l’influence du CO2.

89.  tsih | 19/04/2017 @ 9:10 Répondre à ce commentaire

Ecophob (#88),

Merci de nous révéler ce genre d’article, alors que vous êtes un farouche défenseur de l’influence du CO2.

« alors que » ?

Je ne suis qu’un « farouche défenseur » de ce que la science dit (et peut dire) vraiment, rien de plus, rien de moins.

Pour être bien clair, il y a

– d’un coté (climatosceptique « primaire ») quelques scientifiques comme G. T. ou Duran qui cherchent à disputer la physique même de l’effet de serre, Gervais ou Salby qui nient l’origine même du CO2 sans parler des innombrables activistes qui profèrent toutes les âneries possibles et imaginables.

-de l’autre coté (alarmiste et catastrophiste) des scientifiques comme Hansen, Mann ou Jouzel qui prétendent que la science nous annoncerait un « désastre » certain « si on ne fait rien » et que nous pouvons « faire ce qu’il faut » pour éviter leur « désastre » sans parler là encore des innombrables activistes qui racontent n’importe quoi et surfent sur cet attrape nigaud.

La vérité c’est que la science contredit définitivement les premiers, les seconds font dire à la science des choses qu’elle ne peut absolument et définitivement pas dire et surtout incitent les benêts à croire à une nouvelle utopie, soi-disant basée sur la science, celle d’un monde de bisounours avec des énergies soi-disant « propres ».

90.  jean | 19/04/2017 @ 9:34 Répondre à ce commentaire

tsih (#89),

La vérité c’est que la science contredit définitivement les premiers

Tout ça dans la même phrase, ça pique un peu !

… et accessoirement cela décrédibilise beaucoup son auteur.

91.  argus | 19/04/2017 @ 10:30 Répondre à ce commentaire

tsih (#89),
La vérité est que vous mentez à longueur de posts.
Par exemple, dans ses textes, Duran soutient le modèle de l’effet de serre exposé par Lindzen, c’est à dire le modèle traditionnel. Pour être clair, Duran est un fan de Curry et de Lindzen.
Ce n’est ni courageux, ni honnête, de calomnier ses collègues qui travaillent sous leur vrai nom.
Surtout bien (?) caché derrière un pseudo.

N’est-ce pas, […] ?

Oups ! Voila qui ne va pas améliorer votre réputation, déjà bien ternie chez vous.

92.  tsih | 19/04/2017 @ 11:11 Répondre à ce commentaire

Tiens en voilà encore un qui vient me déverser son fiel, ça défile ce matin.
Et juste à propos de mensonge, il n’existe rien de tel qu’un « effet de serre Lindzen ou Curry ».
Que de l’enfumage.

93.  argus | 19/04/2017 @ 11:37 Répondre à ce commentaire

tsih (#92),

Qui parle d’

effet de serre de Lindzen ou Curry

Vous et seulement vous.

J’ai écrit :

Duran soutient le modèle de l’effet de serre exposé par Lindzen, c’est à dire le modèle traditionnel

encore des distorsions, des mensonges, des approximations.
Je ne peux croire que vous soyez « scientifique ».
Il est vrai qu’ils ne sont pas tous bons. Loin de là.

94.  tsih | 19/04/2017 @ 15:03 Répondre à ce commentaire

Eh hop, v’là une nouvelle giclée de bon gros fiel.
Vilain tsih, va !

95.  Nicias | 19/04/2017 @ 16:49 Répondre à ce commentaire

argus (#91),

Si des gens veulent intervenir ici sous des pseudos, cela les regarde. Que ce soit moi, Duran (et oui !) ou Tsih.

96.  argus | 19/04/2017 @ 18:48 Répondre à ce commentaire

Nicias (#95),
La bataille entre pseudos, d’accord.
A condition qu’on ne se cache pas sous un pseudo pour faire dire n’importe quoi à des gens qui travaillent sous leur vrai nom. Cet aspect « dénonciation anonyme » me dérange…
Pas vous ?

97.  Nicias | 19/04/2017 @ 22:32 Répondre à ce commentaire

argus (#96),

Tsih a dit une ânerie sur Durant, soit. Ne balancez jamais a nouveau l’identité de qui que soit sur Skyfall. Des tas de scientifiques ici sont calomniés, aucun ne recevra de traitements de faveur.

98.  tsih | 20/04/2017 @ 7:35 Répondre à ce commentaire

Nicias (#97), argus (#96),

Tsih a dit une ânerie sur Durant, soit.

BULLSHIT

Aucune ânerie sur Duran, bien au contraire, j’ai toujours été extrêmement modéré à son égard quand on voit tout ce qui a reçu un écho complaisant sur son site comme G.T., par exemple. N’importe quel physicien sérieux repère immédiatement le vide abyssal de cet article, c’est consternant.
Chacun peut vérifier qui ment dans cette affaire en allant sur son site.
La mauvaise foi est ici phénoménale pour ne pas employer un qualificatif plus approprié.

99.  tsih | 20/04/2017 @ 8:25 Répondre à ce commentaire

tsih (#98),

J’ajoute que je n’en ai rien à cirer des histoires de pseudo ou d’anonymat.
Certains, à défaut du moindre argument à m’opposer sur le fond, fouillent les poubelles, pensent avoir trouvé et savoir qui je suis et « m’embêter » en donnant mon nom ?
Eh bien qu’ils le fassent.

100.  scaletrans | 20/04/2017 @ 8:29 Répondre à ce commentaire

Vous avez parfois raison, mais votre style rugueux -pour ne pas dire plus- et parfois obscur, vous dessert.