Les modèles climatiques pour le profane

Par Judith Curry

Traduction : Scaletrans

Source

© Copyright 2017 The Global Warming Policy Foundation

A propos de l’auteur

Le professeur Judith A. Curry est l’auteur de plus de 180 articles scientifiques sur la météo et le climat et a reçu le Henry G. Houghton Research Award par l’American Meteorological Society en 1992.

Elle a récemment pris sa retraite du Georgia Institute of Technology où elle était professeur et titulaire de la chaire de l’École des Sciences de la Terre et de l’Atmosphère. Elle préside actuellement le Climate Forecast Applications Network.

Sommaire

Il existe un grand débat à propos de la fidélité et de l’utilité des modèles globaux du climat [GCM]. Ce débat a lieu dans la communauté des scientifiques du climat, car des scientifiques sont en désaccord avec l’importance à donner aux modèles climatiques par rapport aux analyses des observations. Les résultats des modèles climatiques sont aussi utilisés par les économistes, les agences de réglementation et les décideurs politiques. Par conséquent, les GCM ont été examinés à la loupe par une large communauté de scientifiques, ingénieurs, experts en logiciels, et philosophes des sciences. Ce rapport tente de décrire le débat autour des modèles climatiques pour un public éduqué mais non technique.

Résumé des points clés:

  • Les GCM n’ont pas fait l’objet de procédures de vérification et de validation rigoureuses qui sont la norme pour la science de l’ingénierie et de la régulation.
  • Il y a des inquiétudes justifiées à propos d’un manque fondamental de prévisibilité dans le complexe système climatique non linéaire.
  • Il existe nombre d’arguments amenant à la conclusion que les modèles climatiques ne permettent pas d’identifier avec un haut niveau de confiance l’importance relative des causes humaines et naturelles au réchauffement du 20e siècle.
  • Il est de plus en plus évident que les modèles climatiques prédisent un réchauffement trop important provenant d’une augmentation du dioxyde de carbone atmosphérique.

Les résultats des simulations des modèles climatiques pour le 21e siècle rapportées par le GIEC n’incluent pas des éléments clés de la variabilité climatique, et sont par conséquent incapables de fournir des projections utiles sur l’évolution du climat au 21e siècle

Les modèles climatiques sont utiles pour conduire des recherches scientifiques sur la compréhension du système climatique. Cependant, les points ci-dessus appuient la conclusion selon laquelle les modèles climatiques GCM actuels ne permettent pas d’attribuer les causes du réchauffement du 20e siècle ou de prédire un changement climatique global ou régional sur des périodes allant de la décennie au siècle, avec un niveau de confiance élevé. Par extension, les GCM ne peuvent permettre de justifier des politiques de changement fondamental des systèmes sociaux, économiques et énergétiques. C’est cette application des modèles climatiques qui rend le débat si virulent.

1-Qu’est-ce qu’un Modèle Climatique Global (GCM) ?

Les modèles climatiques globaux (GCM) essayent de simuler une approche grossière du système climatique terrestre à l’aide d’ordinateurs. Les GCM contiennent des modules modélisant l’atmosphère, l’océan, les surfaces du sol, la glace de mer et les glaciers. Le module atmosphérique simule l’évolution des vents, de la température, de l’humidité et de la pression atmosphérique à l’aide d’équations mathématiques complexes qui ne peuvent être résolues que par ordinateur. Les GCM incluent également des équations mathématiques décrivant la circulation océanique, comment elle transporte la chaleur, et comment l’océan échange de la chaleur et de l’humidité avec l’atmosphère. Les modèles climatiques incluent un modèle qui décrit comment la végétation, le sol et la neige ou le couvert glaciaire échangent de l’énergie et de l’humidité avec l’atmosphère. Les GCM incluent également des modèles de glace de mer et de glaciers. Bien que certaines équations des modèles climatiques soient basés sur des lois physiques comme les lois de mouvement de Newton et la première Loi de Thermodynamique, il y a dans le modèle des processus clés qui sont approximatifs et non basés sur des lois physiques. Pour résoudre ces équations sur un ordinateur, les GCM divisent l’atmosphère, les océans et les terres par un système de maillage à trois dimensions (voir Figure 1). Les équations sont alors calculées pour chaque cellule du maillage, de façon répétée pour les étapes d’avancement durant la période de simulation.

Le nombre de cellules du système de maillage détermine la “résolution” (ou granularité) du modèle, où chaque cellule a une température uniforme, etc. Les résolutions courantes des GCM sont d’environ 100-200 km horizontalement et de 1 km verticalement, et habituellement une résolution temporelle d’environ 30 minutes. Alors que les GCM représentent des processus quelque peu plus réalistes avec une plus haute résolution, le temps de calcul nécessaire augmente considérablement – un doublement de la résolution nécessite 10 fois plus de puissance de calcul, ce qui est à l’heure actuelle infaisable dans nombre de centres de modélisation climatique. Le niveau de résolution du modèle est fonction des ressources disponibles du calculateur, avec des compromis entre la résolution du modèle, sa complexité et la longueur et le nombre de simulations prévus.

En raison des résolutions spatiales et temporelles relativement grossières des modèles, il y a de nombreux processus importants qui se produisent à des échelles plus petites que la résolution du modèle (tels que nuages, pluies ; voir cartouche de la Figure 1). Ces processus trop petits sont représentés à l’aide de ‘paramétrisations’. Ces paramétrisations de processus plus petits que le maillage sont de simples formules basées sur des observations ou des dérivés de modèles de processus plus détaillés. Ces paramétrisations sont ‘calibrées’ ou ‘ajustées’ pour mieux correspondre aux observations historiques.

Les vraies équations utilisées dans les codes informatiques des GCM sont seulement des approximations des processus physiques se produisant dans le système climatique. Alors que certaines de ces approximations sont très précises, d’autres sont inévitablement sommaires. Ceci parce que les processus réels qu’il représentent sont soit mal compris, soit trop complexes à inclure dans le modèle étant donné les limitations du système informatique. Parmi les processus les plus importants du changement climatique, les paramétrisations associées aux nuages et précipitations restent les plus problématiques et sont la plus grande source de désaccords entre les différents GCM.

Figure 1 : Modèle de circulation générale GEOS-5 (Goddard Earth Observing System Model) développé par la NASA  (source Wikipedia)

On utilise les modèles climatiques GCM pour les raisons suivantes :

  • Comprendre comment fonctionne le système climatique : des expériences de sensibilité sont utilisées pour annuler, contraindre ou rehausser certains processus physiques ou forçages externes (p. ex. CO2, volcans, ensoleillement) pour voir comment le système répond.
  • Reproduire des états climatiques du passé : comprendre les causes de la variabilité du changement climatique du passé (p. ex. quelle part du changement peut être attribuée à des causes humaines telles que le CO2, par rapport aux causes naturelles comme les variations solaires, les éruptions volcaniques, et les circulations lentes des océans).
  • Changement climatique global : simulation d’états climatiques futurs, du décennal au séculaire, c.-à-d. des simulations d’états climatiques futurs selon différents scénarios d’émissions.
  • Affectation des météos extrêmes : prédiction et attribution des statistiques des événements climatiques extrêmes (p. ex. vagues de chaleur, sécheresses, ouragans).
  • Changement climatique régional : projections des changements climatiques régionaux pour justifier des décisions d’adaptation au changement climatique.
  • Conseils pour les politiques de réduction d’émissions.
  • Coût social du carbone : les résultats des GCM fournissent les données brutes utilisées pour le calcul du coût social du carbone.

Les objectifs particuliers d’un GCM varieront selon l’objet de la simulation. Généralement, en simulant le climat passé à l’aide d’un GCM, l’objectif est de simuler correctement la variation spatiale des conditions climatiques dans un sens moyen. Pour prédire le climat futur, le but n’est pas de simuler les conditions du système climatique d’un jour quelconque, mais de simuler les conditions sur une plus longue période – généralement des décennies ou plus, de telle manière que les statistiques du climat simulé correspondent réellement au futur climat.

Il existe plus de 20 groupes de modélisation internationaux qui contribuent aux simulations de modèles pour les Rapports d’Évaluation du GIEC. De plus, beaucoup de groupes de modélisation individuels contribuent à des simulations à partir de différents modèles. Pourquoi y a-t-il tant de modèles climatiques différents ? Est-il possible de trouver le ‘meilleur modèle de climat ?

Il y a littéralement des milliers de choix différents effectués lors de la construction d’un modèle de climat (p. ex. résolution, complexité des sous-modèles, paramétrisations). Chaque ensemble différent de choix produit un modèle spécifique ayant différentes sensibilités. De plus, les différents groupes de modélisation ont des centres d’intérêt différents, p. ex. de longues simulations de paléoclimats, des détails de circulations océaniques, des nuances d’interactions entre les particules d’aérosols et les nuages, le cycle du carbone. Ces différents intérêts concentrent les capacités de calcul limitées de leurs ordinateurs sur un aspect particulier au détriment des autres.

Est-il possible de choisir le ‘meilleur’ modèle ? Hé bien, plusieurs modèles révèlent de médiocres performances générales par comparaison avec les observations. Cependant, le meilleur modèle dépend de la façon dont vous définissez le ‘meilleur’, et aucun modèle n’est le meilleur dans tous ses aspects.

2-La fiabilité des modèles du climat

 En raison de la complexité des GCM, la notion de modèle correct ou incorrect n’est pas bien définie. La question pertinente est de savoir dans quelle mesure le modèle reproduit la réalité, et s’il est bien adapté au but recherché.

Le statisticien George Box fit cette déclaration fameuse : “Tous les modèles sont faux mais certains sont utiles”. Tous les modèles sont imparfaits ; nous n’avons pas besoin d’un modèle parfait, juste d’un qui réponde au besoin. Les avions sont conçus à l’aide de modèles incapables de simuler un écoulement turbulent.

Pour gérer les risques, on a utilisé pendant des décennies des modèles financiers basés sur des hypothèses grossières sur le comportement humain. Pour la prise de décision, on utilise plus ou moins les modèles en fonction de divers facteurs, l’un d’entre eux étant leur crédibilité.

Le développement de la modélisation du climat a suivi un chemin principalement conduit par la curiosité scientifique et les limites de puissance de calcul. Les GCM ont été conçus à l’origine pour comprendre comment fonctionne le système climatique. Les chercheurs utilisent les GCM pour représenter des aspects du climat qui sont extrêmement difficiles à observer, pour expérimenter une nouvelle façon d’effectuer des calculs jusque-là impossibles, pour comprendre un système complexe d’équations impénétrable autrement, et explorer le système climatique pour identifier des conséquences inattendues. Tels quels, les GCM sont un élément important de la recherche climatique.

Pourquoi les scientifiques font confiance aux modèles du climat ?

Les scientifiques qui développent des modèles climatiques et les utilisent sont convaincus (au moins jusqu’à un certain point) de l’utilité des modèles du climat pour leurs recherches. Ils sont convaincus à cause de la relation du modèle avec la compréhension du processus physique impliqué, de la cohérence des réponses simulées parmi les différents modèles et leurs différentes versions et de l’aptitude du modèle et de ses composants à simuler des observations historiques. La confiance dans les prévisions d’un modèle dépend crucialement de l’évaluation des prévisions par rapport aux observations dans la réalité, les deux utilisant des données historiques (a postériori) et prévisions actuelles. L’évaluation des prévisions est faisable pour le court terme (p. ex. prévisions météo). La saisie des phénomènes a postériori et des prévisions précédentes est une condition nécessaire mais pas suffisante pour l’obtention des phénomènes dans le futur.

Pourquoi certains scientifiques se préoccupent de la fiabilité des modèles du climat ?

Les incertitudes des GCM proviennent de l’incertitude dans la structure du modèle, de ses paramètres et paramétrisations et des conditions initiales. La calibration – ajustements ad hoc ou réglages – est nécessaire pour pallier des paramètres inconnus ou inapplicables du fait de la résolution du modèle, ainsi que dans la connexion de sous-modèles. Les ajustements ad hoc continuels d’un modèle peuvent masquer des déficiences sous-jacentes de la structure du modèle. Les soucis concernant l’évaluation des modèles climatiques se sont accrus dans le contexte des pratiques de calibrations/ajustements. Un remarquable article vient d’être publié dans Science : “Des scientifiques du climat ouvrent leurs boîtes noires aux regards”

“D’ailleurs, que les scientifiques du climat l’admettent ou non, pratiquement chaque modèle a été calibré précisément d’après les données climatiques du 20e siècle – autrement il aurait fini à la corbeille. Il est juste de dire que tous les modèles l’ont été”, dit Isaac Held, un scientifique du Geophysical Fluid Dynamics Laboratory, autre centre de modélisation important, de Princeton, New Jersey

Nous en sommes maintenant au point où reproduire les températures historiques du 20e  siècle ne constitue plus un bon étalon pour déterminer si des modèles sont bons ou mauvais. Cela implique que ces modèles qui correspondent aux données du 20e siècle après calibrations/ajustements avec ces mêmes données du 20e siècle peuvent difficilement servir à déterminer les causes de la variabilité du climat du 20e siècle.

L’accord entre les simulations des modèles et les données n’implique pas que le modèle donne la réponse correcte pour les bonnes raisons. Par exemple, tous les modèles climatiques couplés utilisés dans le Quatrième Rapport d’Évaluation reproduisent les séries temporelles des anomalies de températures moyennes globales de surface pour le 20e siècle ; cependant ils produisent des simulations nettement différentes pour le climat du 21e siècle. De plus, ajuster les modèles climatiques selon les observations de la période 1975-2000 correspond aux phases chaudes de la variabilité naturelle interne, ce qui donne une sensibilité trop élevée au CO2. Donc, réussir à reproduire les états passés ne donne qu’une confiance limitée dans la simulation des états du futur.

Résumé

Les modèles climatiques GCM sont des outils importants pour la compréhension du système climatique. Cependant, il existe de fortes préoccupations quant à leur fiabilité :

  • Les prévisions des GCM sur l’impact sur le climat de plus de CO2 ne peut être évalué avec rigueur à l’échelle d’un siècle.
  • L’examen des incertitudes des GCM est insuffisant.
  • Il y a un nombre extrêmement important de choix non contraints en termes de sélection des paramètres et paramétrisations des modèles.
  • Il y a un manque de contrôle et de validation de modèle formel qui est la norme en ingénierie et science de régulation.
  • Les modèles de climat sont évalués avec les mêmes observations utilisées pour leur ajustement.
  • Il y a des préoccupations sur un manque fondamental de prévisibilité dans un système complexe non linéaire.

3-Les carences des modèles de climat

 Compte tenu de leur maturation, les modèles climatiques GCM sont de plus en plus utilisés pour informer les décideurs politiques. Les simulations des modèles climatiques forment la base des politiques climatiques et énergétiques internationales, donc il importe d’évaluer l’adéquation des modèles climatiques à cet effet.

En particulier, l’aptitude des GCM doit être évaluée pour :

  1. La compréhension des causes du changement climatique du 20e siècle.
  2. La simulation des états climatiques au 21e siècle selon différents scénarios d’émissions.

Ce chapitre se concentre sur deux sujets généraux pour lesquels les modèles climatiques GCM sont inadéquats :

  • La détermination de la sensibilité du système climatique à l’augmentation du CO2
  • La nature chaotique du système climatique et sa variabilité interne

Sensibilité du climat au CO2

Le réchauffement d’origine anthropique dépend non seulement de la quantité de CO2 ajoutée à l’atmosphère, mais aussi de la ‘sensibilité’ du climat à l’accroissement du CO2. La sensibilité climatique se définit comme étant le réchauffement de surface global se produisant pour un doublement de la concentration du dioxyde de carbone dans l’atmosphère. Si la sensibilité est élevée, nous pouvons alors nous attendre à un réchauffement substantiel durant le siècle si les émissions continuent à augmenter. Si la sensibilité est basse, alors le futur réchauffement sera substantiellement plus bas.

La sensibilité climatique à l’équilibre (ECS) se définit comme le changement de la température moyenne globale causée par un doublement de la concentration atmosphérique de CO2, après que le système climatique ait eu plusieurs siècles pour répondre. Il n’est pas possible de mesurer l’ECS directement ; elle doit être estimée à partir de simulations de modèles climatiques et à partir des données historiques à l’aide d’un simple modèle d’équilibre énergétique.

Les conclusions de l’AR4 (2007) du GIEC sur la sensibilité climatique sont :

“La sensibilité climatique à l’équilibre… se trouve probablement dans la fourchette de 2 °C à 4,5 °C avec la meilleure estimation autour de 3 °C et très peu vraisemblablement inférieure à 1,5 °C. Des valeurs supérieures à 4,5 °C ne peuvent être exclues”.

 

Les conclusions de l’AR5 (2013) du GIEC sur la sensibilité climatique sont :

“La sensibilité climatique à l’équilibre est probablement dans la fourchette de 1.5 °C à 4.5 °C (haut degré de confiance), très peu vraisemblablement inférieure à 1 °C (haut degré de confiance), et très peu vraisemblablement supérieur à 6 °C (confiance moyenne)”.

Cette gamme de probabilité des valeurs d’ECS varie d’un facteur 3. Que le réchauffement global causé par l’homme soit dangereux ou non ne dépend pas significativement de savoir si l’ECS est plus proche de 1.5 °C  ou 4.5 °C. Les recherches des trois dernières décennies n’ont pas réduit cet écart – en 1979 l’étude de la National Academy of Sciences (le fameux Rapport Charney) citait une fourchette probable de la valeur d’ECS entre 1.5 et 4.5 °C.

En fait, il semble que cette incertitude sur les valeurs d’ECS s’est accrue depuis l’AR4 de 2007. Le plancher de l’enveloppe de probabilité a été abaissé de 2 à 1.5 °C dans l’AR5 2013 du GIEC, alors que l’AR4 2007 disait qu’il était très improbable que l’ECS soit inférieur à 1.5 °C. Il est également significatif que l’AR5 ne fasse pas état d’une meilleure estimation, alors que l’AR4 cite une meilleure estimation à 3 °C. La raison avancée de ne pas citer une meilleure estimation dans l’AR5 est la divergence substantielle entre les estimations d’ECS basées sur l’observation (plus basses), par rapport aux estimations des modèles climatiques (plus hautes).

La Table 1 compare les valeurs d’ECS déterminées par l’AR4 (2007), l’AR5 (2013), les modèles climatiques CMIP5 cités dans l’AR5 (2013), les analyses d’observations de Lewis et Curry (2014), et la mise à jour par Lewis (2016) avec un forçage plus bas pour les aérosols.

Table 1 : Valeur de la sensibilité climatique à l’équilibre (ECS) (° C)

Curry table 1

Lewis et Curry (2014) ont trouvé des valeurs d’ECS qui sont approximativement la moitié de celles qui ont été déterminées à partir des modèles de climat CMIP5. A l’aide d’une approche de balance énergétique basée sur des observations, Lewis et Curry ont utilisé pour leurs calculs les mêmes données (y compris les incertitudes) pour les changements des gaz à effet de serre et autres moteurs du changement climatique donnés dans l’AR5. Des articles récents trouvent également des valeurs d’ECS aussi basses.

Les dernières recherches suggèrent des valeurs d’ECS encore plus basses. L’incertitude la plus importante dans l’estimation de l’ECS provient des effets des petites particules d’aérosol (pollution ou naturelles), qui ont un effet refroidissant sur le climat (contre-réaction partielle à l’effet de serre). Un article récent de Stevens, auteur principal au GIEC donne un impact des aérosols sur le climat nettement plus faible que celui qui est adopté dans l’AR5. Nicolas Lewis a refait tourner les calculs de Lewis et Curry (2014) avec l’estimation d’impact des aérosols de l’article de Stevens. Très significativement, le plafond supérieur (95th percentile) est abaissé à 2.38 °C (Table 1).

Beaucoup de simulation de modèles climatiques utilisés pour l’AR5 (CMIP5) se basent sur des valeurs de forçage par aérosol qui semblent bien trop élevées. Les simulations de modèles climatiques qui sont réévaluées et recalibrées à partir de plus petites valeurs de forçage d’aérosol peuvent être utilisées pour clarifier le plafond d’ECS. Lors d’une présentation au Workshop, l’auteur principal du GIEC Bjorn Stevens plaidait en faveur d’un plafond d’ECS de 3.5° C basé sur l’analyse de modèles du climat. Les recherches continuent pour évaluer les méthodes d’estimation de la sensibilité climatique. Cependant, la réduction des estimations du refroidissement par aérosol conduit immanquablement à des réductions du plafond estimé de la sensibilité climatique.

Dans les GCM, la sensibilité climatique à l’équilibre est une ‘propriété émergente’ qui n’est pas directement calibrée ou ajustée. Bien qu’il y ait eu avec le temps quelque resserrement de l’enveloppe des sensibilités climatiques modélisées par altération des paramétrisations. Les versions d’un modèle peuvent être rejetées ou non, en fonction des partis pris, attentes et biais du modélisateur à propos du résultat du calcul de la sensibilité climatique à l’équilibre.

Quelle est la source des divergences de l’ECS parmi différents modèles de climat, et entre les modèles et les observations ? Dans un article intitulé “Qu’est-ce qui manque aux modèles ?” Stevens et Bony affirment :

Il est maintenant parfaitement évident qu’une représentation inadéquate des nuages et de la convection humide, ou plus généralement du couplage entre l’eau atmosphérique et la circulation, est la principale limitation des représentations actuelles du système climatique ”.

Quelle sont les implications de ces divergences dans les valeurs de la sensibilité climatique à l’équilibre (ECS) ? Si l’ECS est inférieure à 2 °C, au lieu de plus de 4 °C, alors les conclusions sur les causes du réchauffement du 20e siècle et sur l’importance du réchauffement au 21e siècle sont substantiellement différentes.

De plus, les divergences entre les observations et les estimations basées sur les modèles de la sensibilité climatique sont importantes, et d’une importance significative pour les décideurs politiques. La sensibilité climatique à l’équilibre, et le niveau d’incertitude sur sa valeur, est un élément clé des modèles économiques qui conduisent des analyses coûts/bénéfices et estiment le coût social du carbone.

Chaos et variabilité climatique naturelle interne

Les variations du climat peuvent être causées par un forçage externe, comme les variations solaires, les éruptions volcaniques ou des changements dans la composition de l’atmosphère comme une augmentation du CO2. Le climat peut aussi changer en raison de processus internes dans le système climatique (variabilité interne). L’exemple le plus connu de variabilité interne du climat sont les El Niño/ La Niña. Des modes de variabilité décennaux séculaires ou millénaires proviennent des circulations lentes dans les océans. Tel quel, l’océan sert de ‘volant’ du système climatique, stockant et relâchant de la chaleur sur de longues périodes et agissant comme stabilisateur du climat. Il résulte des décalages temporels et du stockage de chaleur dans l’océan que le système climatique n’est jamais en équilibre.

En ce qui concerne la variabilité interne multi décennale, le rapport du GIEC considère ce problème essentiellement dans le contexte de la détection d’un signal de réchauffement causé par l’homme supérieur au ‘bruit de fond’ de la variabilité naturelle. Cependant, d’autres interprétations du système climatique affirment que la variabilité interne naturelle constitue le signal climatique fondamental.

Beaucoup de processus dans l’atmosphère et les océans sont non linéaires, ce qui signifie qu’il n’y a pas de relation proportionnelle entre cause et effet. La dynamique non linéaire de l’atmosphère et des océans est décrite par les équations Navier-Stokes (basées sur les lois du mouvement de Newton), qui forment la base des prévisions des vents et de la circulation dans l’atmosphère et les océans. La solution des équations Navier-Stokes est un des problèmes les plus épineux de toutes les mathématiques : le Clay Mathematics Institute l’a énoncé  comme l’un des 7 problèmes majeurs des mathématiques et offre un prix de $1M pour sa solution.

Le défi le plus fondamental avec les modèles climatiques se trouve probablement dans le couplage de deux fluides chaotiques – l’océan et l’atmosphère. La caractéristique de la météo est d’être en état de chaos déterministe, en raison de la sensibilité des modèles de prévision aux petites perturbations dans les conditions initiales de l’atmosphère. La source du chaos se trouve dans les non linéarités des équations Navier-Stokes. Une conséquence de la sensibilité aux conditions initiales est que passé un certain temps, le système n’est plus prévisible, pour la météo, ce temps de prévisibilité se mesure en semaines.

Les simulations de modèles climatiques sont aussi sensibles aux conditions initiales (même dans un sens moyen). Le couplage d’un modèle atmosphérique non linéaire et chaotique avec un modèle océanique non linéaire et chaotique donne lieu à quelque chose de bien plus complexe que le chaos déterministe du modèle océanique, particulièrement sans les conditions de forçage transitoire (comme dans le cas d’une augmentation de la concentration de CO2). Des modes de variabilité interne atmosphère/océan couplés surviennent à des échelles hebdomadaires, annuelles, décennales, séculaires et millénaires. Ces modes couplés donnent lieu à de l’instabilité et du chaos. Caractériser un tel phénomène provenant du forçage transitoire du système couplé atmosphère/océan défie le classement selon les théories actuelles des systèmes dynamiques non linéaires, particulièrement dans des situations avec des changements transitoires des valeurs paramétriques. Stainforth et al. qualifient cette situation de “pandémonium”.

Objectif : attribution du réchauffement du 20e siècle

 Qu’en est-il de la pertinence des modèles climatiques pour déterminer les causes du réchauffement climatique du 20e siècle ?

La combinaison de l’incertitude dans la réponse climatique transitoire (sensibilité) et des incertitudes sur l’importance et la période des modes majeurs de la variabilité naturelle interne empêche de séparer sans ambiguïté les variations climatiques dues au forçage externe de la variabilité climatique naturelle interne. Si la sensibilité climatique est dans la fourchette basse des estimations et la variabilité naturelle interne dans la fourchette haute de la distribution des modèles climatiques, on tire des conclusions différentes sur l’importance relative des causes anthropiques du réchauffement climatique du 20e siècle.

Les anomalies des températures globales de surface depuis 1850 figurent ci-après.

Curry - 2017-2

Figure 2 : anomalies des températures globales de surface d’après les données UK HadCRUT4

Les simulations des modèles climatiques pour la même période sont données dans la Figure 3. Les températures globales de surface modélisées ressemblent étroitement aux températures observées pour la période 1970-2000. Cependant, les modèles climatiques ne reproduisent pas l’important réchauffement de 1910-1940, le refroidissement de 1940 à la fin des années 70 et le profil plat de température depuis le début du 21e siècle.

Curry - 2017-3

Figure 3. Comparaison de simulations CMIP3 et CMIP5 des anomalies de température de surface avec les observations. Figure 10.1 de l’AR5 du GIEC.

La conclusion finale de l’AR5 de 2013 est qu’il est extrêmement probable que plus de la moitié du réchauffement depuis 1950 ait été causé par l’homme, et les simulations de modèles climatiques indiquent que tout ce réchauffement a été causé par l’homme.

Si le réchauffement depuis 1950 a été causé par l’homme, alors qu’est-ce qui a causé le réchauffement de la période 1910-1945 ? La période 1910-1945 représente environ 40 % du réchauffement depuis 1900, mais ne correspond qu’à seulement 10 % de l’augmentation du dioxyde de carbone depuis 1900 [ jusqu’à aujourd’hui] – il est clair que les émissions anthropiques de gaz à effet de serre ont très peu joué dans ce premier réchauffement. Le léger refroidissement de 1945 à 1975 – appelé le ‘grand hiatus’ – n’a pas non plus été expliqué de façon satisfaisante.

Outre ces variations inexpliquées des températures du 20e siècle, il est prouvé que le climat global s’est réchauffé partout durant les 200 dernières années, ou même plus. Alors que les données deviennent de plus en plus éparses au 19e siècle, le Berkeley Earth Surface Temperature Project a collationné les données de température de terre disponibles jusqu’en 1750 :

Curry - 2017-4

Figure 4 : Anomalies de températures de surface terrestre depuis 1750, filtre de lissage décennal.

L’analyse du Berkely Earth montre une tendance au réchauffement depuis 1800, avec une variabilité considérable au tournant du 19e siècle. Une partie de cette variabilité au tournant du 19e siècle peut être attribuée à d’importantes éruptions volcaniques ; c’était aussi l’époque du minimum de Dalton de l’activité solaire (1791-1825). Les reconstructions paléoclimatiques du climat de l’Hémisphère Nord – par exemple à partir de cernes d’arbres et de forages – indiquent qu’un réchauffement général pourrait s’être produit au cours des 300-400 dernières années. La contribution humaine à cet ancien réchauffement global est pratiquement inexistante.

Quelle pourrait être la cause d’une période de 200-400 ans de réchauffement séculaire ? Les endroits évidents à regarder sont le soleil et les océans. Les formes de circulations océaniques influencent aussi le climat sur des échelles de temps allant du siècle au millénaire. Les connexions Soleil-climat sont l’objet d’un intérêt renouvelé, comme montré par le National Academies Workshop Report “Les effets de la variabilité solaire sur le climat terrestre”. La compréhension et l’explication de la variabilité climatique des 400 ans précédant 1950 ont fait l’objet d’une attention insuffisante. Sans cette compréhension, notre confiance dans les explications du GIEC pour le réchauffement depuis 1950 est limitée.

Résumé

Le changement climatique anthropique (d’origine humaine) est une théorie dont le mécanisme de base est bien compris, mais dont l’importance potentielle est hautement incertaine. Qu’est ce que l’analyse précédente du GIEC implique en attribuant de façon ‘extrêmement probable’ à des causes anthropiques le réchauffement depuis 1950 ? Les modèles climatiques infèrent que tout le réchauffement depuis 1950 peut être attribué à l’homme. Cependant, il y a eu des variations de grande amplitude du climat global/hémisphérique sur des périodes de 30 ans, qui sont de même durée que le réchauffement de la fin du 20e siècle. Le GIEC n’a pas d’explications convaincantes pour les 30 années précédentes du 20e siècle, notamment pour le réchauffement de 1910-1945 et pour le grand hiatus de 1945-1975. De plus, il y a une tendance séculaire au réchauffement depuis 1800 (et possiblement d’une durée atteignant 400 ans) qui ne peut s’expliquer par le CO2, et ne l’est que partiellement par des éruptions volcaniques.

Preuves que les modèles climatiques ne permettent pas d’identifier avec une certitude élevée l’importance relative des causes naturelles et anthropiques du réchauffement du 20e siècle.

  • Incertitudes substantielles sur la sensibilité climatique à l’équilibre.
  • Incapacité des GCM à simuler l’importance et la périodicité de la variabilité naturelle interne sur des échelles de temps décennales à séculaires.
  • Utilisation des observations du 20e siècle pour la calibration et l’ajustement des GCM.
  • Échec des modèles climatiques à fournir une explication cohérente du réchauffement du début et du refroidissement du milieu du 20e siècle.

 Les GCM sont-ils des outils fiables pour la prévision du changement climatique ?

Le GIEC a fait des prévisions terribles selon lesquelles nous pouvons nous attendre à un réchauffement de 4 °C ou plus d’ici la fin du 21e siècle si l’on ne réduit pas les émissions de carbone.

4-Projections de réchauffement pour le début du 21e siècle

Pour évaluer la crédibilité des terribles prévisions de réchauffement, nous devons d’abord évaluer comment les GCM ont réussi à simuler la variabilité climatique du début du 21e siècle. Le chapitre 11 de l’AR5 se concentrait sur le changement climatique à court terme, jusqu’en 2035. La Figure 7 compare les prévisions des modèles avec les observations récentes des anomalies de température.

Curry - 2017-5

Figure 5. Comparaison des simulations de modèle climatique CMIP5 des anomalies de la température de surface globale avec les observations jusqu’en 2014 (HadCRUT4 ; Figure 11.25 de l’AR5

Les températures observées pour la dernière décennie se trouvent à la limite inférieure de l’enveloppe 5-95 % des simulations CMIP5. Dans l’ensemble, la tendance dans les simulations est nettement plus forte que la tendance observée ces 15 dernières années. En ce qui concerne les projections pour la période 2015-2035, la fourchette de tendance des simulations CMIP5 est de 0,11 à 041 °C par décennie. Le GIEC cite alors un ‘jugement d’expert’ pour justifier l’abaissement des projections (indiqué par les hachures en rouge de la Figure 5) :

“Cependant il résulte du hiatus que les taux implicites de réchauffement pour la période 1986-2005 à 2016-2035 sont plus bas : 0,10 °C-0,23 °C par décennie, suggérant que l’évaluation AR4 était proche du sommet de l’enveloppe des prévisions en cours pour cet intervalle spécifique de temps”.

 Cet abaissement des projections par rapport aux simulations CMIP5 brutes a été fait sur la foi d’un jugement d’expert selon lequel certains modèles sont trop sensibles au forçage anthropique (CO2 et aérosols).

Ed Hawkins, auteur du GIEC, qui avait créé à l’origine la figure ci-dessus, l’a mise à jour avec les observations de température de surface jusqu’en 2015 :

Curry - 2017-6

Figure 6. Comparaison des simulations de modèle de climat CMIP5 des anomalies de la température de surface globale avec les observations jusqu’en 2014 (HadCRUT4). Mise à jour de la Figure 11.25 de l’AR5 pour inclure les observations de 2015.

Le pic des températures globales provenant du El Niño 2015 aide à améliorer l’accord entre les modèles et les observations, mais pas de beaucoup. Le pic de température de 2015 n’atteint même pas le milieu de l’enveloppe des projections des modèles, alors que le pic de température du El Niño 1998 se trouvait au sommet de l’enveloppe des prévisions de température. Jusqu’à présent au 21e siècle, les modèles GCM chauffent en moyenne deux fois plus vite que l’augmentation de température observée. La raison de la divergence entre les observations et les simulations de modèles au début du 21e siècle semble être causée par une combinaison de simulation inadéquates de la variabilité naturelle interne et d’une trop grande sensibilité des modèles à l’accroissement du CO2 (ECS).

Projections pour la fin du 21e siècle

Les projections des modèles du changement de la température globale à la fin du 21e siècle conduisent les négociations internationales sur les réductions des émissions de CO2, sous les auspices de la Convention Cadre sur le Changement Climatique (UNFCCC). La Figure 7 montre les projections des modèles climatiques sur le réchauffement du 21e siècle. Le RCP8.5 reflète un scénario extrême d’augmentation des émissions de gaz à effet de serre, alors que le RCP2.6 est un scénario où les émissions culminent en 2015 et décroissent rapidement après.

Curry - 2017-7

Figure 7 : Figure SPM.7 de l’AR5 WG1. Séries temporelles de 1950 à 2100 multi modèle CMIP5 simulées pour le changement de température de surface annuelle globale par rapport à 1986-2005. Les séries temporelles de projections et une mesure d’incertitude (grisé) sont montrées pour les scénarios RCP2.6 (bleu) et RCP8.5 (rouge). Le noir (gris ombré) est l’évolution historique modélisée à l’aide de forçages historique reconstruits. Les incertitudes moyennes et associées calculées sur 2081-2100 sont données pour tous les scénarios RCP par des barres verticales colorées.

Selon le scénario RCP8.5, les modèles climatiques CMIP5 prévoient un réchauffement continu durant le 21e siècle dont on attend qu’il dépasse le seuil ‘dangereux’ de 2° C de réchauffement dès 2040. Il est important de noter que les simulations CMIP5 ne tiennent compte que des scénarios futurs d’émissions de gaz à effet de serre – elles n’incluent pas des scénarios futurs d’éruptions volcaniques, de variabilité solaire ou d’oscillations océaniques de longue période. Des scientifiques russes affirment que nous devons nous attendre à un Grand Minimum Solaire (contribuant au refroidissement) culminant au milieu du 21e siècle.

Alors que les prévisions de température à court terme ont été abaissées par rapport aux simulations CMIP5 (Figure 5), le SPM [Résumé Pour Décideurs] de l’AR5 déclare à propos du réchauffement à long terme :

“Les fourchettes pour 2046-2065 ne tiennent pas compte de l’influence possible de facteurs qui ont conduit à l’évaluation à court terme (2016-2035) du changement de température moyenne globale de surface qui est plus basse que l’enveloppe 5-95 % du modèle, car l’influence de ces facteurs sur les prévisions à long terme n’ont pas été quantifiées en raison d’une compréhension scientifique insuffisante”.

 Il y a une troublante incohérence dans le rapport AR5 WG1 : l’AR5 tient compte d’une importante incertitude dans la sensibilité climatique et a nettement abaissé les prévisions pour 2016-2035 par rapport aux projections des modèles, au contraire, les projections jusqu’en 2100 utilisent les modèles climatiques qui sont clairement “trop chauds”. Encore plus troublant, le rapport WG3 – Atténuation du Changement Climatique – a mené toute son analyse sur la base d’une ‘meilleure estimation’ de la sensibilité climatique à l’équilibre à 3.0 °C.

L’AR5 a renoncé à choisir une ‘meilleure estimation’ de la sensibilité climatique à l’équilibre en raison de divergences entre les estimations des modèles climatiques et les estimations observées (lesquelles sont moitié moindres que les estimations des modèles climatiques). Le réchauffement de l’atmosphère est moitié moindre que celui estimé par les modèles, d’où le fait que les modèles CMIP5 produisent un réchauffement qui est nominalement deux fois plus important que les valeurs de sensibilité les plus basses auraient donné. Il n’est tenu aucun compte, dans ces projections du changement climatique au 21e siècle, de l’importante incertitude dans la sensibilité climatique qui est pourtant reconnue par le GIEC.

Les projections du GIEC pour le changement climatique du 21e siècle assument explicitement que le CO2 est le bouton de contrôle du climat global. Les projections des modèles climatiques pour le 21e siècle ne sont pas convaincantes parce que :

  • Elles ont échoué à prédire le ralentissement du réchauffement du début du 21e siècle.
  • Elles sont incapables de simuler le mode et la périodicité des oscillations océaniques multi décennales.
  • Elles ne tiennent pas compte des oscillations solaires futures et des effets indirects du soleil sur le climat.
  • Elles négligent la possibilité d’éruptions volcaniques plus actives que le relativement calme 20e siècle.
  • Elles surestiment apparemment la sensibilité à l’augmentation des gaz à effet de serre.

Résumé

Il est de plus en plus évident que les modèles climatiques sont “trop chauds” et que la sensibilité du climat au CO2 est vers le bas de l’enveloppe présentée par le GIEC. Cependant, ces valeurs plus basses de la sensibilité du climat ne sont pas prises en compte pour les projections de température des modèles climatiques du GIEC à la fin du 21e siècle ou dans les estimations de l’impact de la réduction des émissions de CO2 sur les températures. Les projections des modèles climatiques du GIEC se concentrent sur la réponse du climat à différents scénarios d’émissions. Les projections des modèles climatiques au 21e siècle ne comprennent pas :

  • Une gamme de scénarios d’éruptions volcaniques (les modèles considèrent que l’activité volcanique sera comparable au 20e siècle, au cours duquel l’activité volcanique a été bien plus faible qu’au 19e siècle).
  • Une possibilité de scénario de refroidissement solaire, analogue au minimum solaire prédit par les scientifiques russes.
  • La possibilité que la sensibilité du climat soit deux fois inférieure à ce qui est simulé par la plupart des modèles climatiques.
  • Des simulations réalistes de la période et de l’amplitude de la variabilité naturelle interne selon des échelles décennales à séculaire.

La communauté de la modélisation du climat s’est focalisée sur la réponse du climat à l’accroissement des émissions anthropiques, et la communauté des politiques admet (explicitement ou implicitement) les résultats des simulations GCM pour le 21e siècle comme des prévisions exactes. Pourtant, nous n’avons pas une bonne compréhension des impacts climatiques relatifs ci-dessus ou de leurs impacts potentiels sur l’évolution du climat du 21e siècle.

109 Comments     Poster votre commentaire »

1.  Nicias | 20/03/2017 @ 9:39 Répondre à ce commentaire

pop

2.  scaletrans | 20/03/2017 @ 11:05 Répondre à ce commentaire

A noter que j’ai souvent vu traduit GCM par Modèle de Circulation Générale, mais Judith voit ça autrement…

3.  Nicias | 20/03/2017 @ 12:32 Répondre à ce commentaire

scaletrans (#2),

Les deux traductions sont possibles pour GCM et cela dépend du contexte. Le modèle de circulation générale s’occupe uniquement de l’atmosphère et est intégré dans le modèle global du climat qui lui fait tout : océans, biosphère … etc …

4.  BenHague | 20/03/2017 @ 14:14 Répondre à ce commentaire

Les 4-5 lignes d’introduction de l’auteur sont les bienvenues. Merci d’avoir pris en consideration cette requete.

5.  tsih | 20/03/2017 @ 15:07 Répondre à ce commentaire

Ce que Curry ne dit pas hélas et qui est essentiel à mon sens et le vrai défaut mortel des modèles, c’est que le système climatique est un système complexe avec une foule de phénomènes émergents à l'oeuvre qui ne peuvent pas par essence être déduits des premiers principes de la physique

J’ai commenté à ce sujet chez les réchauffistes. Silence de mort jusqu’ici.

6.  volauvent | 20/03/2017 @ 16:22 Répondre à ce commentaire

tsih (#5),

Elle dit:

Dans les GCM, la sensibilité climatique à l’équilibre est une ‘propriété émergente’

et

Caractériser un tel phénomène provenant du forçage transitoire du système couplé atmosphère/océan défie le classement selon les théories actuelles des systèmes dynamiques non linéaires, particulièrement dans des situations avec des changements transitoires des valeurs paramétriques.

Pour moi, ça suffit amplement.

Merci infiniment à Scaletrans pour sa traduction: je vais la diffuser largement avec quelques commentaires.

7.  Imaz-Aizpurua | 20/03/2017 @ 16:48 Répondre à ce commentaire

tsih (#5),
Bonjour tsih !
Etes-vous tout cela à la fois ?

tsih = alphagruis chez Real Climate
tsih = alphagruis chez Roy Spencer
tsih = alpha Gruis chez Cloudy Nights (Your Astronomical Community)

JAIA

8.  tsih | 20/03/2017 @ 17:21 Répondre à ce commentaire

volauvent (#6),

Oui, mais ce que veut dire Curry c’est que les ECS calculées sont « émergentes » oui, mais d’un modèle informatique appelé GCM. Pas du système climatique réel.
En gros c’est « ce qui sort du chapeau des modèles ».
Et comme les différentes versions de GCM « laissent émerger » une large gamme de valeurs de l’ ECS et que dans le système réel il y en a bien sûr qu’une seule bien précise, ce qui émerge des GCM est forcément en général différent de ce qui émerge du système climatique réel. C’est ça mon argument: on sait aujourd’hui que pour des raisons fondamentales aucun modèle informatique ne peut de façon générale reproduire ou prédire la plupart des propriétés ou phénomènes d’un système complexe à partir des premiers principes de la physique.

Ce que dit Judith Curry en rapport c’est ça:

Il y a des inquiétudes justifiées à propos d’un manque fondamental de prévisibilité dans le complexe système climatique non linéaire.

A noter que la « complexité » est au sens technique et pas commun du terme et ce n’est pas simplement une question de non-linéarité des équations.

9.  tsih | 20/03/2017 @ 17:30 Répondre à ce commentaire

Imaz-Aizpurua (#7),

Bonjour JAIA. Réponses dans l’ordre: Oui, oui, non (s’écrit d’ailleurs pas pareil).

10.  patilleverte | 20/03/2017 @ 17:37 Répondre à ce commentaire

Merci pour la traduction… et j’ai (presque) tout compris, moi qui ne suis pas scientifique !
Une petite correction, vers le début le paragraphe « Pourquoi les scientifiques font confiance aux modèles du climat ?
==> « 
… est nécessaire pour palier à des paramètres inconnus… »
On doit dire ! « palier des« , merci

11.  Bernnard | 20/03/2017 @ 18:02 Répondre à ce commentaire

patilleverte (#10),
C’est corrigé !

12.  jdrien | 20/03/2017 @ 19:26 Répondre à ce commentaire

Bernnard (#11), pallier et non palier d’escalier

13.  Cdt Michel e.r. | 20/03/2017 @ 19:29 Répondre à ce commentaire

patilleverte (#10),
Bravo ! Vous avez vu une faute, mais il y en avait deux.
On dit « pallier » et non « palier à ». En effet, le verbe transitif « pallier » s’écrit avec deux L contrairement au substantif « palier ».
http://www.cnrtl.fr/definition/pallier

Bernnard (#11),
Ne vous précipitez pas pour corriger cette faute. J’en ai vu quelques autres, dont je vais vous établir la liste.

14.  volauvent | 20/03/2017 @ 19:34 Répondre à ce commentaire

tsih (#8),

C’est ça mon argument: on sait aujourd’hui que pour des raisons fondamentales aucun modèle informatique ne peut de façon générale reproduire ou prédire la plupart des propriétés ou phénomènes d’un système complexe à partir des premiers principes de la physique.

Je veux bien vous croire, mais où peut-on trouver des éléments argumentés? Y a -t -il une théorie scientifique là dessus?

15.  Cdt Michel e.r. | 20/03/2017 @ 20:12 Répondre à ce commentaire

Cdt Michel e.r. (#13),

La liste des suggestions de correction :

Des problèmes de typographie :
20ième siècle. —> 20e siècle. [avec le « e » mis en exposant] (des dizaines de fois dans tout le texte)
3° C —> 3 °C [avec une espace insécable entre le 3 et °C] (des dizaines de fois dans le texte)
% est normalement précédé d’une espace insécable

Les autres :
Au-dessus de la Figure 1 :
parce que les processus réels qu’il représentent —> … qu’ils représentent

Sous la Figure 1
c. à d. des simulations —> c.-à-d. des simulations
Pourquoi y-a-t-il tant de —> Pourquoi y a-t-il tant de

complexité des sous modèles, —> complexité des sous-modèles,

Sous « 2-La fiabilité des modèles du climat »
des calculs jusque là impossibles, —> des calculs jusque-là impossibles,

Sous « Pourquoi les scientifiques font confiance aux modèles du climat ? »
pour leur recherches. —> pour leurs recherches.

à postériori —> a posteriori [deux fois]

Sous « Pourquoi certains scientifiques se préoccupent de la fiabilité des modèles du climat ? »
palier à des paramètres —> pallier des paramètres

Sous « Sensibilité du climat au CO2 »
si les émissions continuent à augment. —> si les émissions continuent à augmenter.

Sous « Table 1 »
(contre réaction partielle à l’effet de serre) —> (contre-réaction partielle à l’effet de serre)

Sous « Résumé »
réchauffement depuis 1950 peut-être attribué à l’homme. —> réchauffement depuis 1950 peut être attribué à l’homme.

Je pense avoir été complet, mais je ne suis pas infaillible.

16.  amike | 20/03/2017 @ 21:03 Répondre à ce commentaire

…causé par l’homme

Cette expression revenant souvent, je propose quelques synonymes au choix smile

– anthropique
– de la responsabilité humaine
– anthropocène
– par l’Homme mais pas la Femme
– de la faute aux Blancs
– #RussiansDidIt

17.  Bernnard | 20/03/2017 @ 23:01 Répondre à ce commentaire

Cdt Michel e.r. (#15),
Merci
Je viens de balayer l’article suivant vos recommandations.

18.  Claude C | 21/03/2017 @ 9:03 Répondre à ce commentaire

Bernnard (#17),
dernier paragraphe: « la communauté des politiques admets » = admet

19.  Bernnard | 21/03/2017 @ 9:24 Répondre à ce commentaire

Claude C (#18),
Merci ! Vu et corrigé.
En cherchant bien, il y en a sûrement d’autres, c’est inévitable.

20.  Cdt Michel e.r. | 21/03/2017 @ 14:11 Répondre à ce commentaire

Bernnard (#19),

En cherchant bien, il y en a sûrement d’autres, c’est inévitable.

Le plus important est de supprimer les fautes qui piquent aux yeux, celles que toute personne éduquée risque de remarquer.
Il y a des cas où j’hésite, par exemple, sur le trait d’union. Si je vérifie sur le portail du CNRTL, je constate que celui-ci est parfois facultatif.
Exemple : non(-) élément formant, devant un adjectif ou un substantif
Parfois on met le trait d’union, parfois on l’omet, parfois on colle les deux parties du mot composé :
http://www.cnrtl.fr/definition/non-

21.  lemiere jacques | 23/03/2017 @ 8:12 Répondre à ce commentaire

Oui, toutefois j’ai un problème avec
Les GCM n’ont pas fait l’objet de procédures de vérification et de validation rigoureuses qui sont la norme pour la science de l’ingénierie et de la régulation.
Il y a des inquiétudes justifiées à propos d’un manque fondamental de prévisibilité dans le complexe système climatique non linéaire.
Il existe nombre d’arguments amenant à la conclusion que les modèles climatiques ne permettent pas d’identifier avec un haut niveau de confiance l’importance relative des causes humaines et naturelles au réchauffement du 20e siècle.
Il est de plus en plus évident que les modèles climatiques prédisent un réchauffement trop important provenant d’une augmentation du dioxyde de carbone atmosphérique.

Je trouve que ce point en gras n’a rien d’évident pour les prévisions à longs termes et si j’ose dire les points précédents suggèrent plutôt que les modèles sont inaptes à faire des prédictions, on peut s’en tenir là.
une fois qu’on regarde avec circonspection TOUT ce qui sort des modèles…on ne pense rien du fait qu’ils reproduisent mal la réalité et on se retrouve devant fait qu’on ne sait pas comment va répondre le système climatique à une augmentation du taux de CO2 sans parler que de toutes façons, la résultante de l’évolution du climat ce sera homme plus nature…

22.  tsih | 23/03/2017 @ 9:42 Répondre à ce commentaire

volauvent (#14),

Je veux bien vous croire, mais où peut-on trouver des éléments argumentés? Y a -t -il une théorie scientifique là dessus?

On est déjà confronté à ce problème simplement dans le cadre de la physique elle-même et donc des problèmes en relevant très directement. Par exemple on est incapable de déduire des équations fondamentales de la mécanique quantique des phénomènes comme la supraconductivité, la suprafluidité ou même la rigidité cristalline. Si on ne les avait pas découverts par l’expérience on ne pourrait pas théoriquement les deviner ou démontrer qu’ils doivent exister. C’est des phénomènes d’organisation supérieurs de la matière dits émergents dont les propriétés sont génériques et en fait largement indépendants de détails microscopiques.
Réductionnisme ne signifie donc pas constructivisme. Autrement dit le fait que l’on sache qu’une chose n’est faite que de tels ou tels atomes dont on connait les lois microscopiques qui les régissent n’implique pas qu’on est capable d’en déduire toutes les propriétés, phénomènes et lois qui régissent cette chose au niveau macroscopique. Et cette incapacité est fondamentale, irréductible, et non simplement pratique comme une équation qu’on ne saurait pas (encore) résoudre ou un ordinateur pas (encore) assez puissant.
Lien
Lien
Sans même parler de biologie…

23.  volauvent | 23/03/2017 @ 21:32 Répondre à ce commentaire

tsih (#22),

Ouh là là! ça démarre fort votre truc…c’est pas un peu « new age »?
Papijo va se régaler.

24.  tsih | 24/03/2017 @ 9:43 Répondre à ce commentaire

volauvent (#23),

Ouh là là! ça démarre fort votre truc…c’est pas un peu « new age »?

Science et les Proceedings of the National Academy of Science des US c’est « un peu new age » ?
Edge c’est un « peu new age »?

Ben voyons mais bien sûr, maintenant que vous me le dites, comment n’ai-je rien vu !

La meilleure preuve: ils publient bien sur l’effet de serre !

Papijo va se régaler.

Oui, oui, quoique pour le moment il a encore de quoi se régaler avec l’argenture des Dewar, autre tranche de science « new age ».

25.  papijo | 24/03/2017 @ 13:33 Répondre à ce commentaire

tsih (#24),
Non Tsih, je maintiens ma position sur le Dewar et sur les performances du rayonnement IR dû aux GES à faire évoluer visiblement l’atmosphère (on y reviendra un jour !). Par contre, les phénomènes « émergents », c’est un domaine dans lequel je n’ai aucune compétence, et qui de plus me laisse totalement froid !

26.  tsih | 24/03/2017 @ 17:38 Répondre à ce commentaire

papijo (#25),

Mais oui, on avait bien compris. Et les terraplatistes aussi maintiennent leur position et ça laisse maintenant les autres totalement froids.

Par contre pour sûr non, « on y reviendra pas un jour ».

27.  Benoît | 24/03/2017 @ 18:48 Répondre à ce commentaire

volauvent (#23),

C’est ça mon argument: on sait aujourd’hui que pour des raisons fondamentales aucun modèle informatique ne peut de façon générale reproduire ou prédire la plupart des propriétés ou phénomènes d’un système complexe à partir des premiers principes de la physique.

Je veux bien vous croire, mais où peut-on trouver des éléments argumentés? Y a -t -il une théorie scientifique là dessus?

Je fais cours, donc un peu provocant. smile

La raison fondamentale est que ce qu’on appelle « les lois de la physique », dans leur expression mathématique, nécessitent, pour être « valides », que les grandeurs manipulées soient des nombres au sens mathématique, c’est-à-dire qu’elles aient une structure de groupe pour les opérations les reliant entre elles.

Or un ordinateur ne sait manipuler que des nombres entiers dans une plage finie, ainsi que ce qu’on appelle des « nombres à virgule flottante », qui correspondent à un découpage fractal d’un segment de droite.

Ceci a deux conséquences :

1) La plus connue, c’est que les valeurs des grandeurs physiques qui nourrissent le modèle, en plus d’être approximatives au niveau des mesures, acquièrent une erreur relative dès l’instant où elles rentrent en mémoire. Et cette erreur s’accumule à chaque opération mathématique.

2) La moins connue, c’est que lorsque le programmeur de modèle recopie l’expression mathématique d’une loi dans son programme, il croit que l’opération d’addition et de multiplication de son micro-processeur est comme l’addition et la multiplication de son expression mathématique. Or elles n’ont pas grand chose à voir au final, ce qui fait que la loi n’est plus valide.

Le résultat, c’est qu’un modèle calcule un peu n’importe quoi. Et quand il calcule quelque chose d’utile, c’est plus « par chance » qu’autre chose.

Les modèles climatiques sont similaires à ce qu’en informatique on appelle un « générateur de nombres pseudo-aléatoires », en plus complexe.

Dit autrement, vouloir prédire le climat avec un programme informatique, c’est un peu comme vouloir modéliser l’architecture et la construction du pont de Millau en jouant à Minecraft.

28.  Benoît | 24/03/2017 @ 18:54 Répondre à ce commentaire

Je fais cours

Je fais court… Désolé, lapsus révélateur !

29.  Volauvent | 24/03/2017 @ 20:35 Répondre à ce commentaire

Benoît (#27),
Au lieu de faire cours sur un sujet que je connais vous auriez mieux fait de lire mon échange avec tshi qui ne à rien à voir avec votre post.

30.  the fritz le testut | 24/03/2017 @ 22:00 Répondre à ce commentaire

Benoît (#28),

Je fais cours

vous faites con cours rance à MURPS ?

31.  Benoît | 25/03/2017 @ 0:18 Répondre à ce commentaire

Volauvent (#29),

Dans ce cas pourquoi demandez-vous quelle est la théorie justifiant que « pour des raisons fondamentales aucun modèle informatique ne peut de façon générale reproduire ou prédire la plupart des propriétés ou phénomènes d’un système complexe à partir des premiers principes de la physique » ?

J’ai simplement de bonne foi essayé de répondre à cette question. Pourquoi le prenez-vous mal ?

32.  Benoît | 25/03/2017 @ 0:21 Répondre à ce commentaire

the fritz le testut (#30),

Désolé, mais je ne comprends pas de qui vous parlez, ni à quoi vous faites allusion.

33.  tsih | 25/03/2017 @ 8:33 Répondre à ce commentaire

Benoît (#31),

J’ai simplement de bonne foi essayé de répondre à cette question.

Mais ça n’a pas de rapport avec la question que je soulevais qui concerne les systèmes complexes et l’émergence, mots qui ont un sens technique ici et pas le sens courant. Si vous n’aviez ne fût-ce qu’ouvert et survolé au moins un de mes liens, vous auriez (peut-être) entrevu que vous ne savez même pas de quoi on parle.

34.  tsih | 25/03/2017 @ 11:50 Répondre à ce commentaire

Il est très instructif de lire cet article de Sawyer de 1972.
Toute la science « climatique » actuelle y est déjà, ça n’a pas vieilli le moins du monde et il faut saluer la pondération, perspicacité et lucidité extraordinaire de l’auteur.
Cet article est terrible pour les modèles: il démontre avec éclat que 45 ans de moulinage tous azimuts avec les ordinateurs les plus puissants n’a essentiellement pas fait avancer le schmilblick et encore moins levé la moindre parcelle de l’énorme incertitude dans cette affaire.

35.  scaletrans | 25/03/2017 @ 21:24 Répondre à ce commentaire

tsih (#34),

Il n’a jamais été traduit ?

36.  Cdt Michel e.r. | 25/03/2017 @ 22:00 Répondre à ce commentaire

scaletrans (#35),

Bonne question !

Si quelqu’un veut s’y mettre, j’ai déjà converti ce PDF sur deux colonnes en un document ODT continu et éditable.
Il est disponible ici aux formats habituels.

Les quatre figures sont en fin du document. Donc à réinsérer au bon endroit dans le texte (en tenant compte de la mise en page).

Notez que le document PDF original a été converti par une reconnaissance OCR. Des erreurs peuvent subsister malgré mes efforts.

37.  lemiere jacques | 25/03/2017 @ 23:03 Répondre à ce commentaire

Benoît (#27), cristopher essex a fait des petites présentations accessibles à tous sur certains aspects des simulations . https://www.youtube.com/watch?v=hvhipLNeda4 ce qu’on en tire est que simuler l’atmosphère est en fait impossible.
Mais de toutes façons qu’on ne puisse pas simuler le climat n’est pas la question, les équipent qui font les modèles savant cela. Grosso modo…forçage CO2 + amplification par grossièrement la flotte ça peut être grave… c’est le message..ça PEUT être grave.

38.  tsih | 26/03/2017 @ 7:48 Répondre à ce commentaire

scaletrans (#35),

Il n’a jamais été traduit ?

Je doute qu’il l’ait été, c’est un article de Nature.

39.  lemiere jacques | 26/03/2017 @ 10:17 Répondre à ce commentaire

tsih (#22), en général…le caractère déterministe de la physique à l’échelle macroscopique à partir de la mécanique quantique, non?
Ceci dit, quand vous évoquez l’émergence de trucs dans des systèmes complexes, ça ne suffira pas à décourager des modélisateurs du climat de modéliser surtout pour prétendre faire de la prédiction du fait de son aspect « utilitariste » et pas exactement scientifique, résumons très trivialement : vous avez un politique qui vient voir un chercheur et qui lui dit que va il se passer? le chercheur expsose les problèmes inhérents aux modèles, dit qu’il est possible que ce soit une tâche théoriquement impossible ,mais dit : on va essayer . Quand vous écoutez un type comme Le Treut, il reste prudent; il vous dit ce qui sort des modèles. L’argument le plus idiot mais central en faveur de la confiance qu’on peut avoir dans les modèles est toujours le même: ils convergent (un peu) ! Or cette convergence NE PROUVE EN RIEN qu’ils convergent autour de l’etat futur du système climatique pour autant que l’etat futur du système climatique soit unique !
vous prenez un métal « magnétique » à l’etat liquide vous le faites tourner et vous obtenez un système macroscopique qui passe la moitié de son temps avec un moment magnétique dans un sens et la moitié dans le sens opposé.( vous parlez de phénomène émergent).
considérer qu’un système complexe sera dans UN état dans le futur c’est déjà faire une hypothèse!
AMHA il en va autrement pour l’attribution, quand on regarde la simulation du passé par les modèles il apparaît que les modèles ne saisissent simplement pas le monde réel.

ce genre de discours a été tenu mille fois…et la question est ailleurs, pourquoi n’y t il pas plus de scepticisme exprimé chez les physiciens?
Il est fort possible qu’on ne soit pas capable de comprendre le climat avec les lois de la physique et qu’ l’on s’en tienne à expliquer ce qu’on voit .

40.  scaletrans | 26/03/2017 @ 10:49 Répondre à ce commentaire

Cdt Michel e.r. (#36),

Merci. Je m’y attelle… à mon rythme.

41.  Bernnard | 26/03/2017 @ 10:52 Répondre à ce commentaire

scaletrans (#40),
La traduction me paraît judicieuse compte tenu de la date de publication.

42.  Cdt Michel e.r. | 26/03/2017 @ 13:36 Répondre à ce commentaire

Bernnard (#41),
Je dirais même plus que c’est d’une urgence absolue de le déterrer, après 44 ans ! Je parle du document pas de l’auteur…
Pas la peine de demander son accord à l’auteur.
Ce brave homme est décédé le 19 septembre 2000 à l’âge de 84 ans.
Wiki

43.  Murps | 27/03/2017 @ 12:30 Répondre à ce commentaire

Cdt Michel e.r. (#42), à ce compte on peut également « déterrer » les publications du regretté Marcel Leroux.
C’est moins ancient mais les arguments sont de poids.

44.  Bernnard | 27/03/2017 @ 14:24 Répondre à ce commentaire

Murps (#43),
Oui, mais beaucoup pensent que cette découverte que le gaz carbonique chauffe l’atmosphère terrestre est récente et découle des plus récentes avancées scientifiques.
Il est bon de montrer à ces personnes que ce problème connu depuis longtemps a déjà été évalué sans tapage et conflits scientifico politiques.
Que déjà, de nombreux paramètres gouvernants le climat ont été ciblées et que le problème n’était pas facile à résoudre, que le refroidissement ou le réchauffement de l’atmosphère n’était pas uniquement dépendant du taux de gaz carbonique.
Il n’y a rien de nouveau sous le soleil scientifique de la science du climat depuis cette date.
Une traduction dans notre langue se justifie.

45.  Araucan | 27/03/2017 @ 20:06 Répondre à ce commentaire

tsih (#22),
Et quels seraient les phénomènes émergents dans l’atmosphère ?

46.  tsih | 28/03/2017 @ 8:20 Répondre à ce commentaire

Araucan (#45),

Comme ils ne sont pas prédictibles et doivent être découverts par l’observation, ils ne sont certainement pas tous connus.
Un exemple simple c’est les cycles pluriannuels El Nino- La Nina mais d’autres phénomènes cycliques à toutes les échelles de temps existent a priori et ne sont pas bien connus ou même simplement découverts.
Mais surtout directement en rapport étroit évident avec la température globale c’est la formation des nuages, nébulosité et couverture nuageuse globale dont la moindre variation substantielle dépasse l’effet direct du CO2. Une telle chose ne peut pas se prédire.
Et puis il y a les êtres vivants qui sont les phénomènes émergents par excellence et qui agissent clairement sur le climat. Par exemple le plancton émet des aérosols qui interviennent dans la formation des nuages. Ce type de phénomène ne peut en aucune façon se deviner à partir ou se déduire des premiers principes de la physique mais doivent être découverts et étudiés patiemment par l’observation et l’expérience. Ensuite seulement, une fois les phénomènes d’organisation à l’échelle supérieure connus, on peut éventuellement en faire un modèle (comme avec la supraconductivité en physique), mais certainement pas en partant juste des premiers principes de la physique, chimie ou thermodynamique.

47.  Bernnard | 28/03/2017 @ 9:21 Répondre à ce commentaire

tsih (#46),

Ce type de phénomène (émergent) ne peut en aucune façon se deviner à partir ou se déduire des premiers principes de la physique, mais doivent être découverts et étudiés patiemment par l’observation et l’expérience

.
Je suis entièrement d’accord avec vous à ce sujet. Le fait est qu’ actuellement, on ne prend pas assez de temps ou on n’a pas assez de moyens pour étudier profondément ce genre de phénomène et on se contente de statistiques et de descriptions approximatives pour trouver des lois qui malheureusement ne s’appuient sur rien.
On oublie la clé de la science qui est que pour toute hypothèse, l’expérience et/ou l’observation doivent la conforter.

48.  Hug | 28/03/2017 @ 13:47 Répondre à ce commentaire

Bernnard (#47),
Expériences et observations ? Mwouarf, non mais c’est quoi ces méthodes antédiluviennes ? Réveillez-vous, on est au XXIéme siècle, ça fait longtemps qu’on travaille exclusivement sur ordinateurs, assis bien au chaud (ou au frais, c’est selon) dans nos laboratoires informatisés. Les lois qu’on trouve ne s’appuient pas sur rien mais sur des consignes politiques qui remontent aux années 80 et qui n’ont jamais été démenties depuis ! C’est dire si c’est du solide !
😉

49.  Cdt Michel e.r. | 28/03/2017 @ 18:03 Répondre à ce commentaire

Hug (#48),
Excellent !
C’est ça, la science post-moderne ou science Nintendo (© Minitax).

50.  nivon | 28/03/2017 @ 18:23 Répondre à ce commentaire

Hug (#48),

……des consignes politiques qui remontent aux années 80….

Je comprends maintenant pourquoi, lorsque François Hollande, à Manille, avait annoncé sans rire, que les tsunamis et tremblements de terre étaient provoqués par le réchauffement climatique, personne dans la communauté « GIECienne » n’avait réagi, pas même les scientifiques « réchauffistes » !
Non seulement nos politiques établissent les lois, mais ils nous sortent aussi des « vérités » scientifiques non soumis au comité de lecture, puisque indiscutables !
Non mais ! « Qui c’est qui fait les lois, ici, ? »
Climatiquement vôtre