Lorenz validé

Par Kip Hansen

source

Quelques réflexions sur le Large Ensemble du NCAR (National Center for Atmospheric Research)

Dans son dernier Week in review – science edition, Judith Curry nous donnait un lien pour un communiqué de presse du National Center for Atmospheric Research (qui est géré par la University Corporation for Atmospheric Research sous le parrainage de la National Science Foundation – souvent dénommée NCAR/UCAR) intitulé « 40 Terres : Le NCAR Large Ensemble révèle une stupéfiante variabilité climatique  » .

L’illustration de ce communiqué de presse est cette image :

Tendances des températures hivernales (en degrés Celsius) pour l’Amérique du Nord entre 1963 et 2012 pour chacun des 30 résultats du CESM Large Ensemble. Les variations en réchauffement et refroidissement dans les 30 résultats illustre les effets à longue échéance de la variabilité naturelle superposée au changement climatique d’origine humaine. L’ensemble signifie (EM ; en bas seconde image depuis la droite) fait la moyenne de la variabilité naturelle, laissant seulement la tendance au réchauffement attribuée au changement climatique d’origine humaine. L’image en bas à droite (OBS) montre les vraies observations pour la même période. En comparant l’ensemble aux observations, l’équipe scientifique a été capable d’analyser le réchauffement sur l’Amérique du Nord du à la variabilité naturelle et du au changement climatique d’origine humaine. Lisez l’étude complète dans le Journal of Climate de l’American Meteorological Society. (© 2016 AMS.)

Tendances des températures hivernales (en degrés Celsius) pour l’Amérique du Nord entre 1963 et 2012 pour chacun des 30 résultats du CESM Large Ensemble. Les variations en réchauffement et refroidissement dans les 30 résultats illustre les effets à longue échéance de la variabilité naturelle superposée au changement climatique d’origine humaine. L’ensemble signifie (EM ; en bas seconde image depuis la droite) fait la moyenne de la variabilité naturelle, laissant seulement la tendance au réchauffement attribuée au changement climatique d’origine humaine. L’image en bas à droite (OBS) montre les vraies observations pour la même période. En comparant l’ensemble aux observations, l’équipe scientifique a été capable d’analyser le réchauffement sur l’Amérique du Nord du à la variabilité naturelle et du au changement climatique d’origine humaine. Lisez l’étude complète dans le Journal of Climate de l’American Meteorological Society. (© 2016 AMS.)

De quoi s’agit-il? Le Large Ensemble Community Project de l’UCAR a construit une base de données de « 30 simulations avec le Community Earth System Model (CESM) avec une résolution de 1° latitude/longitude, chacune étant sujette à un scénario historique identique de forçage radiatif mais partant d’un état atmosphérique légèrement différent. » Quelle sorte d’ « état atmosphérique différent » ? De combien différaient les conditions initiales ? « Les scientifiques ont modifié les conditions initiales des modèles en modifiant la température atmosphérique globale de moins d’un billionième de °C (Ndt 1 millième de milliardième de degré ou 1 pico-degré) ».

Les images, numérotées de 1 à 30, représentent chacune les résultats d’une seule itération du CESM partant d’une différence unique d’un billionième de degré de la température globale – chaque projection des tendances de températures hivernales en Amérique du Nord pour 1963-2012. L’image en bas à droite, étiquetée OBS, montre les tendances observées en réalité.

Il y a un article d’où cette image est issue: Forced and Internal Components of Winter Air Temperature Trends over North America during the past 50 Years: Mechanisms and Implications , l’article représentant juste l’un des « près de 100 articles revus par les pairs qui ont utilisé les données du CESM Large Ensemble. » Je ne commenterai pas cet article en dehors de mes commentaires sur l’image, la légende et les déclarations du communiqué de presse lui-même.

Je reconnais être estomaqué – non par le fait que 30 itérations de CESM produisent 30 projections climatiques sur 50 ans entièrement différentes à partir de conditions initiales presque identiques. C’est tout à fait normal. En fait, Edward Lorenz l’a montré dans les années 60 avec ses modèles climatiques jouets sur son ordinateur « jouet » (selon nos standards actuels). Sa découverte a conduit au domaine de recherche connu maintenant comme la Théorie du Chaos , étude des systèmes dynamiques non linéaires, particulièrement ceux qui sont hautement sensibles aux conditions initiales. Nos 30 itérations CESM furent initialisées avec une différence de combien ? Un billionième de degré dans la valeur d’entrée de la température globale initiale – une valeur si petite qu’elle est littéralement indétectable par les instruments modernes de mesure de la température de l’air.

Faire tourner les simulations pour juste 50 ans – de 1963 à 2012 – donne des résultats entièrement conformes avec les conclusions de Lorenz : deux états différant imperceptiblement peuvent par la suite évoluer en deux états différant considérablement… Si alors il y a la moindre erreur dans l’observation de l’état présent – et dans tout système réel de telles erreurs paraissent inévitables – une prédiction acceptable d’un état instantané du futur lointain peut bien s’avérer impossible… Compte tenu des inexactitudes et du caractère incomplet des observations, des prévisions précises à longue échéance sembleraient inexistantes.

Quelle est la signification [des conclusions] de Lorenz ? Littéralement on sait que TOUTES nos données collectives sur l’historique des « températures atmosphériques globales » sont inexactes d’au moins +/- 0.1 degrés C. Peu importe quelle valeur initiale les personnes dévouées au NCAR/UCAR entrent dans le CESM comme température atmosphérique globale, elle différera de la réalité (En pratique – le chiffre qui serait correct s’il était possible d’en produire un) de plusieurs ordres de grandeur par rapport au billionième de degré de différence utilisé pour initialiser ces 30 itérations dans le CESM-Large Ensemble. Est-ce que cela compte ? A mon avis cela ne compte pas. Il est aisé de voir que la plus petite différence pour juste une seule valeur initiale, produit des projections sur 50 ans qui sont aussi différentes qu’il est possible les unes des autres (voir note de fin 1). J’ignore combien de valeurs initiales doivent être entrées pour lancer le CESM – mais c’est certainement plus d’une. De combien se différencieraient les projections si chaque valeur initiale était altérée, même légèrement ?

Ce qui me sidère est la revendication faite dans la légende :

L’ensemble moyenné (EM ; en bas seconde image depuis la droite) fait la ressortir la variabilité naturelle, laissant seulement la tendance au réchauffement attribuée au changement climatique d’origine humaine.

Dans l’article qui a publié cette image, la revendication exacte est:

Le système de modélisation se compose de 30 simulations avec le Community Earth System Model (CESM) à une résolution latitude/longitude de 1°, chacune étant soumise à un scénario identique de forçage radiatif historique mais part d’un état atmosphérique légèrement différent. Par conséquent, tout écart au sein de l’ensemble résulte d’une variabilité interne imprévisible se superposant au signal de changement climatique forcé.

Cette idée est très séduisante. Oh, comme ce serait merveilleux si c’était vrai – si cela était aussi simple.

Ce n’est pas si simple. Et à mon avis, c’est presque certainement faux.

Le système climatique est un système dynamique chaotique non linéaire couplé – les deux systèmes couplés principaux étant l’atmosphère et les océans. Ces deux systèmes de fluides, inégalement chauffés agissant sous l’influence des forces gravitationnelles de la Terre, de la Lune et du Soleil alors que la planète tourne dans l’espace et se déplace dans son orbite irrégulière autour du Soleil, produit un système dynamique combiné d’une incroyable complexité qui expose les types attendus de phénomènes chaotiques prédits par la Théorie du Chaos – l’un d’entre eux étant la profonde dépendance aux conditions initiales. Lorsqu’un tel système est modélisé mathématiquement, il est impossible d’éliminer toutes les non linéarités (en fait, plus les formules non-linéaires sont simplifiées, moins le modèle est valide).

Faire la moyenne de 30 résultats produits par le comportement mathématique chaotique de tout modèle de système climatique ne fait pas « la moyenne de la variabilité naturelle » du système modélisé. Il ne fait rien qui ressemble à la moyenne de la variabilité naturelle. Faire la moyenne de 30 résultats chaotiques ne produit que « la moyenne des ces 30 résultats chaotiques respectifs. »

Pourquoi ce résultat n’est pas significatif de la moyenne de la variabilité naturelle ? C’est parce qu’il y a une grande différence entre des systèmes aléatoires et des systèmes chaotiques. Il semble qu’on ait oublié cette différence dans la revendication citée plus haut.

Jouer à pile ou face (avec une pièce honnête) donne des résultats aléatoires – non des pile-face-pile-face, mais des résultats dont, une fois que suffisamment de lancers ont été accomplis, il est possible de faire la moyenne et donner un vrai ratio des résultats – celui-ci devant être de 50-50 pour les pile et face.

Ceci n’est pas vrai pour les systèmes chaotiques. Dans les systèmes chaotiques, seul les résultats apparaissent aléatoires – mais ils ne sont pas du tout aléatoires – ils sont entièrement déterministes, chaque point successif étant précisément déterminé par l’application d’une formule spécifique à la valeur existante, puis en répétant pour la valeur suivante. A chaque tour, la valeur suivante peut être calculée exactement. Ce que l’on ne peut pas faire dans un système chaotique est de prédire quelle sera la valeur au bout des 20 tours suivants. Il faut calculer à chacune des 19 étapes précédentes pour arriver là.

Dans les systèmes chaotiques, ces résultats non aléatoires, bien qui semblent l’être, ont un ordre et une structure. Chaque système chaotique a des régimes de stabilité, périodicité, doublement de période, régimes ordonnés [1] qui paraissent aléatoires mais ont des valeurs contraintes, et dans certains cas des régimes qui sont hautement ordonnés appelés « attracteurs étranges ». Certains de ces états et de ces régimes peuvent faire l’objet d’une analyse statistique et sont appelés « lisses » (régions étant statistiquement visitées équitablement) – d’autres sont fantastiquement variés, joliment formés en espace de phase, et profondément « non-lisse » (avec quelques régions chaudes en activité, alors que d’autres sont rarement visitées, et peuvent être très résistants à la simple analyse statistique – bien qu’il existe un champ de recherche en statistiques qui se focalise sur le problème, cela n’englobe pas le type de moyenne utilisé dans notre cas).

Les données des systèmes chaotiques ne peuvent donc être simplement moyennées pour retirer ce qui est aléatoire ou variable – les données ne sont pas aléatoires et pas nécessairement uniformément variables (dans notre cas, nous n’avons absolument aucune idée de l’uniformité ou du lissage du système climatique réel).

(Sur un plan plus basique, la moyenne de 30 résultats ne serait pas valide même pour un système vraiment aléatoire à deux valeurs comme un pile ou face ou un système à six valeurs comme un lancer de dés. C’est évident pour un étudiant en première année de statistiques ou un débutant aux dés. Peut-être est-ce le nombre quasi infini de résultats chaotiques possibles qui donne l’impression d’une répartition régulière de résultats aléatoires qui fait qu’on ignore cette règle de débutant).

Auraient-ils fait tourner les modèles 30 ou 100 fois plus, et ajusté des conditions initiales différentes, ils auraient eu potentiellement un jeu de résultats entièrement différent – peut-être bien un Petit Âge Glaciaire dans certaines itérations – et ils auraient une moyenne et une signification différente. Aurait-on pu dire que cette moyenne différente qu’elle représente un résultat qui  » exclut la variabilité naturelle, laissant seulement la tendance au réchauffement attribuée au changement climatique anthropique  » ? Combien de significations différentes pourrait-on produire de cette façon ? Que représenteraient-elles ? Je soupçonne qu’elles ne représenteraient rien d’autre que tous les résultats climatiques possibles de ce modèle.

En réalité, le modèle ne possède intrinsèquement aucune « variabilité naturelle » en premier lieu – il n’y a pas de formule dans le modèle qui puisse être réputée représenter la part du système climatique en tant que « variabilité naturelle  » – Ce qu’il y a dans le modèle sont des formules mathématiques qui sont des versions simplifiées de formules mathématiques non linéaires représentant des choses comme le transfert de chaleur hors équilibre, l’écoulement dynamique de fluides inégalement chauffés, le refroidissement convectif, les écoulements fluides de tous types (océans et atmosphère), dont les dynamiques sont commues comme étant chaotiques dans le monde réel. Les résultats mathématiquement chaotiques ressemblent à ce que nous connaissons comme « variabilité naturelle » – ce terme signifiant seulement ces causes non anthropiques – causes spécifiquement codées dans le modèle en tant que telles. Les résultats du monde climatique chaotique réel, ce qui est la vraie variation naturelle, doivent leur existence aux mêmes principes – la non-linéarité des systèmes dynamiques – mais dans le monde réel les systèmes dynamiques en fonctionnement dans lesquels la variabilité naturelle n’inclut pas seulement ce qui est codé dans le modèle en tant que « naturel » mais aussi toutes les causes que nous ne comprenons pas et celles dont nous n’avons pas idée. Ce serait une erreur de considérer les deux variabilités différentes comme étant une identité – une seule et même chose.

Donc aucune « dispersion dans l’ensemble” ne peut être considérée résulter de la variabilité interne du système climatique ou représenter littéralement la « variabilité naturelle » au sens communément utilisé en science du climat. La dispersion dans l’ensemble résulte simplement du chaos mathématique inhérent aux formules employées dans le modèle climatique, et représente seulement la dispersion permise par la structure contraignante et la paramétrisation du modèle lui-même.

Rappelons-nous que chacune des images créées par les 30 itérations du CESM ont été produites par un code identique, des paramètres identiques, un forçage identique – tout à l’exception des conditions initiales identiques. Cependant, aucune ne correspond au climat observé en 2012. Une seule est assez proche. Personne ne pense qu’elles représentent le climat réel. Un bon tiers des itérations produit des projections qui, si elles avaient eu lieu en 2012, aurait mis la science climatique cul par dessus tête. Comment alors peut-on supposer qu’en moyennant ces 30 climats pourrait curieusement représenter par magie le vrai climat sans les effets de la variabilité naturelle ? Cela nous dit seulement en réalité à quel point le CESM est sensible aux conditions initiales, et nous révèle quelque chose à propos des limites des climats projetés que permet le système de modélisation. Ce que nous voyons dans l’ensemble moyen et la répartition est seulement la moyenne de ces exactes itérations et leur répartition sur une période de 50 ans. Mais cela a peu à voir avec le climat du monde réel.

Combiner les résultats mathématiquement chaotiques du système dynamique modélisé avec la « variabilité naturelle » du monde réel – dire que l’un est le même que l’autre – est une hypothèse sans fondement, particulièrement lorsque les effets du climat sont divisés en un système à deux valeurs, soit seulement la « variabilité naturelle » et le « changement climatique anthropique ».

L’hypothèse selon laquelle la moyenne de 30 projections climatiques issues du chaos crée une moyenne d’ensemble (EM) dont la variabilité naturelle a été moyennée et disparait de telle façon qu’en comparant les projections EM aux données réellement observées permet « d’analyser ce que le réchauffement sur l’Amérique du Nord devait à la variabilité naturelle et ce qui était du au changement climatique anthropique » n’est pas conforme à la Théorie du Chaos.

Le système à deux valeurs (variabilité naturelle contre à anthropique) n’est pas suffisant car nous n’avons pas une connaissance suffisante de toutes les causes naturelles (ni de l’importance de leurs effets) pour pouvoir les séparer de toutes les causes anthropiques – nous ne pouvons déjà pas facilement solder l’importance des effets des causes « naturelles », et par là calculer le reste « d’origine humaine ». En tout état de cause, il est presque certain que comparer la moyenne d’ensemble d’itérations presque identiques d’un modèle de système connu comme chaotique aux observations dans le monde réel n’est pas une approche scientifique ou mathématique supportable au regard de la Théorie du Chaos.

Dans le système climatique, il y a des causes connues mais il reste possiblement des causes inconnues. Pour être complet, nous devons mentionner les inconnues connues – comment les nuages sont à la fois effets et causes, selon des relations inconnues – et les inconnues ignorées – il peut y avoir des causes aux changements climatiques que nous ignorons totalement, bien que la possibilité de causes majeures restant inconnues décroît chaque année à mesure que le sujet mûrit. Pourtant, parce que le système climatique est un système couplé non linéaire – intrinsèquement chaotique – séparer les causes et effets couplés est et restera pour longtemps qu’un projet.

Il faut aussi considérer que, parce que le système climatique est un système chaotique contraint par nature (voir note de fin 2), comme cette étude le démontre, il peut y avoir quelque cause climatique qui, fut-elle aussi petite que le  » changement d’un trillionième de degré dans la température globale atmosphérique « , peut engendrer dans le futur des changements bien plus importants que nous pourrions l’imaginer.

Ce que l’image produite par le Large Ensemble Community Project du NCAR/UCAR réalise est de valider totalement la découverte d’Edouard Lorenz : les modèles météo et climatiques sont, et ils doivent l’être, de par leur vraie nature, chaotique – extrêmement sensibles aux conditions initiales – et par conséquent incapables de permettre des prévisions « précises à très long terme ».

# # # # #

Notes de fin:

  1. Les modèles climatiques sont paramétrisés pour donner les résultats attendus. Par exemple, si un modèle échoue à donner en gros des résultats qui ressemblent aux observations réelles lorsqu’il est utilisé pour prévoir des données connues, il doit alors être ajusté (Ndt tuné) jusqu’à ce qu’il y parvienne. Evidemment, si un modèle doit tourner pour 100 ans à partir de 1900 et qu’il donne un Petit Âge Glaciaire pour l’an 2000, alors quelque chose ne va pas dans le modèle. Il n’y a rien d’incorrect à cela en tant que principe bien qu’il soit de plus en plus évident que la pratique spécifique est peut-être un élément de l’incapacité des modèles à prédire correctement même des futurs à court terme (décennie) et leur insistance à prédire un réchauffement continu dépassant les tendances observées.
  2. Je fais référence à un système « contraint » basé seulement sur notre compréhension du climat terrestre – les températures de surface restent dans une fourchette relativement étroite et les états climatiques graves semblent réservés aux Âges Glaciaires et Interglaciaires. De même, dans la Théorie du Chaos, on sait que les systèmes sont contraints par des facteurs inhérents au système lui-même – bien que les résultats soient évidemment chaotiques, ils ne sont pas « n’importe quoi », mais existent dans le cadre d’espaces mathématiques – certains étant extraordinairement compliqués.
Share on FacebookTweet about this on TwitterEmail this to someone

74 Comments     Poster votre commentaire »

51.  Nicias | 29/10/2016 @ 16:33 Répondre à ce commentaire

tsih (#46),

Ce qui « émerge » bien par contre du code des modèles numériques du climat c’est une série de conneries comme une double zone de convergence intertropicale

Mais pourquoi pas 3 ou 4. Cela m’interpelle. Les modèles sont censés imaginer tous les possibles. Leurs enveloppes de résultats devraient être immenses (et inutiles). Certains modèles devraient reproduire 1 ITCZ et pourquoi pas d’autres plus de 2.

52.  7ic | 29/10/2016 @ 16:34 Répondre à ce commentaire

Nicias (#50),

N’hésitons pas à donner la date du papier aussi, et à se renseigner sur ce qui se fait aujourd’hui.

53.  7ic | 29/10/2016 @ 16:55 Répondre à ce commentaire

Nicias (#50),
On parlait GCMs.

[Votre commentaire est trop court. Essayez d’écrire quelque-chose d’utile.]

54.  7ic | 29/10/2016 @ 17:02 Répondre à ce commentaire

Nicias (#51),
Les modèles font 1 ou 2 (par contre regardez des graphes pour voir de quoi on parle). Plus, c’est possible, mais dans des conditions aux limites très éloignées de celle du système climatique.

55.  Nicias | 29/10/2016 @ 17:06 Répondre à ce commentaire

7ic (#52),

40 ans, c’est vieux comme le rapport Charney dites donc. Progrès depuis : zéro. Ils fixent moins de choses en aval et rajoutent des paramètres et des variables en amont ? Je suis impressionné.

56.  7ic | 29/10/2016 @ 17:07 Répondre à ce commentaire

7ic (#53),
Ben vous balancez Manabe Wetherald 1967 et leur modèle 1D en mettant l’accent sur le fait qu’il fixent l’humidité, alors qu’on était sur les GCMs, dans lesquels il est évident que l’humidité n’est pas fixée.

57.  tsih | 29/10/2016 @ 17:35 Répondre à ce commentaire

7ic (#48),

Si l’on encode la relation de Clapeyron comme c’est fait, il n’y a même pas besoin de faire tourner le modèle pour savoir d’avance qu’il va maintenir une humidité relative peu ou prou constante. Parler d’émergence ici c’est franchement du pipeau, puisque ce résultat est clairement le contraire d’un résultat émergent à savoir un résultat banal facilement prévisible.

7ic (#49),

Je vous précise volontiers que votre expression imbécile « alarmiste » c’est pour moi un joli pléonasme et je considère que cela répond définitivement à toutes vos questions

58.  7ic | 29/10/2016 @ 18:13 Répondre à ce commentaire

tsih (#57),

Prévisible OK, Manabe l’a fait. Pour le reste, vous avez 0 argument pour dire que RH diminue de manière significative.

Pour le deuxième point, je me doutais que vous alliez me répondre ça, mais on peut être imbécile et non alarmiste… En gros je vous demandais le « seuil » à partir duquel vous considérez qu’on est « alarmiste ». Vous voulez pas répondre. OK.

59.  phi | 30/10/2016 @ 0:16 Répondre à ce commentaire

7ic (#58),

Prévisible OK, Manabe l’a fait. Pour le reste, vous avez 0 argument pour dire que RH diminue de manière significative.

L’augmentation du taux de CO2 pourrait entraîner un assèchement de la haute troposphère (Bill Gray). Mais ce n’était peut-être pas exactement la question ici.

Vous avez commencé par cette affirmation (#37) :
« Le fait que l’humidité relative soit à peu près invariante, c’est justement une propriété émergente des modèles de climats (et autres modèles non globaux). »

Vous semblez donc avoir évolué.

Ce qui importe :

1. Les GCM n’ont rien à dire de marquant sur l’évolution du taux d’humidité.

2. L’effet radiatif de l’augmentation de l’humidité absolue sur les températures n’est pas plus modélisé par les GCM que celui de l’augmentation du taux de CO2. Les mécanismes sont identiques et relèvent d’une thermodynamique malheureusement totalement inexistante.

Les GCM ne sont donc pas sensés apporter d’informations significatives sur les premiers 2 °C de la sensibilité climatique.

Le dernier degré (en moyenne et façon de parler), domaine des GCM, est d’une part totalement dépendant des deux premiers et en plus la dispersion de sa valeur dans les différents runs et modèles est effroyable.

La débauche de terabytes est parfaitement inutile car les GCM ne sont en réalité pas du tout construit pour évaluer l’effet d’une augmentation du taux de CO2.

60.  tsih | 30/10/2016 @ 0:26 Répondre à ce commentaire

7ic (#58),

Prévisible OK, Manabe l’a fait. Pour le reste, vous avez 0 argument pour dire que RH diminue de manière significative.

Previsible, oui, comme le fait qu’il fera jour demain à Paris autour de 12 h TU.

« Pour le reste » 0 arguments suffisent amplement puisque je n’ai rien affirmé du tout sur ce que fait ou ne fait pas la RH et donc évidemment rien à démontrer à cet égard.

Vous avez donc dû avoir un moment d’absence et je vous rappelle donc que la seule chose que je vous ai bien dite c’est que le résultat RH sorti du chapeau des modèles n’a rien d’émergent, contrairement à ce que vous claironnez.

« Pour le deuxième point » c’est itou, itou puisque c’est moi qui vous ai dit qu’on peut très bien être un imbécile « non alarmiste » et que ce n’est pas plus flatteur ! Et toujours itou itou, pourquoi donc voulez-vous que moi je « fixe un seuil » ? Vous vous trompez d’interlocuteur c’est justement une exclusivité des benêts d’alarmistes qui prétendent naïvement pouvoir faire et font des choses pareilles…

61.  tsih | 30/10/2016 @ 11:02 Répondre à ce commentaire

7ic (#58),

J’ajoute que si vous voulez (me) convaincre qu’une RH constante émerge vraiment des modèles il faut donc non pas encoder d’avance le résultat via Clapeyron mais coder correctement à partir d’une thermodynamique appropriée en situation hors équilibre et des équations de Navier-Stokes les phénomènes réels d’évaporation, condensation et convection à petite échelle en jeu dans l’atmosphère réelle. Or c’est définitivement impossible de faire une chose pareille.

On est donc obligé d’introduire de tels phénomènes d’organisation ad hoc. Une fois de plus, faire ça peut tout à fait être ou ne pas être une approximation valable.

Ainsi pour des phénomènes organisationnels assez transparents physiquement et de relativement bas niveau comme une RH ou un gradient vertical de température qui sont « fixés » ad hoc dans les modèles on peut voir par exemple ici ce que l’on fait à la place de ce que j’ai rappelé plus haut qu’il faudrait faire et qu’on ne peut pas faire. Je n’ai pas de raison sérieuse de penser que ceci est grossièrement faux pour évaluer les effets radiatifs nus de la vapeur d’eau et du CO2 comme GES. De la même façon que je n’ai pas de raison sérieuse de penser qu’on ne peut pas simuler le comportement de l’aile d’un Airbus avec Navier-Stokes sous prétexte que l’approximation de milieu continu ignore la réalité sous-jacente qui sont les mouvements individuels erratiques pour chaque molécule de l’air.

Mais par contre pour une foule de phénomènes émergents majeurs à l’oeuvre, mal ou pas connus et bien plus subtils, il n’en est évidemment rien du tout. Par exemple simuler correctement le comportement de la nébulosité est actuellement hors de portée à quelque niveau que ce soit. Or la moindre variation de la couverture globale affecte de façon drastique le bilan énergétique.

62.  7ic | 30/10/2016 @ 11:58 Répondre à ce commentaire

tsih (#61),

Clausius-Clapeyron c’est effectivement la cause profonde de RH constante, mais en soit, ça donne juste une borne sup pour la vapeur d’eau. Donc le résultat n’est pas codé d’avance, c’est plus subtil que ce que vous sous-entendez, et rien n’indique qu’on ne peut pas construire un modèle (réaliste?) qui montrerait une diminution de RH dans la tropo. C’est pas le cas jusqu’à présent. Après, oui, ça reste des paramétrisations, personne ne dit le contraire (par contre, rien à voir avec ce que vous donnez dans votre lien, ça ressemble plus à ça ou encore ça). L’organisation de la convection c’est un point clef, mais rien n’indique que l’aggrégation impose une rétroaction négative majeure. On pourra commencer par lire ça et au passage on regardera les films ici (c’est pour phi qui nous explique que RH est fixée dans les modèles).
Pour les nuages, contrairement à RH, ou la rétroaction de l’albédo, ça part un peu dans tous les sens, mais pas tout le temps: par exemple, on peut citer FAT qui d’ailleurs, comme d’autres changements nuageux, est observée (d’ailleurs, en parlant d’obs, si les obs ont également leur limites, faut pas non plus penser qu’il y a que les modèles et la théorie).

63.  Christial | 30/10/2016 @ 12:01 Répondre à ce commentaire

Sur la capacité prédictive des GCM, source
https://fr.wikipedia.org/wiki/For%C3%A7age_radiatif

… comme dans toutes les déductions des modèles GCM, l’expression capacité prédictive peut être source d’erreur : il s’agit de la capacité de l’outil à expliquer la réponse du modèle, pas de la capacité du modèle de prédire le changement climatique.

64.  tsih | 30/10/2016 @ 19:03 Répondre à ce commentaire

7ic (#62),

par contre, rien à voir avec ce que vous donnez dans votre lien, ça ressemble plus à ça ou encore ça

Mon lien était pour montrer page 8 le principe et la simplicité de la « méthode » pour « fixer » le gradient thermique vertical en simulant l’effet de la convection+chaleur latente. Pour le profil vertical de RH l’algorithme ne peut certes pas être aussi simple et le calcul est plus laborieux mais c’est le même principe.

65.  phi | 30/10/2016 @ 19:59 Répondre à ce commentaire

7ic (#62),

c’est pour phi qui nous explique que RH est fixée dans les modèles

Bah non, j’ai écrit :
…les taux d’humidité dépendent essentiellement des profils de températures et de la convection qui ne sont pas modélisés mais paramétrés sur une base empirique.

En conséquence, et à bien plus forte raison, les premiers 2 °C de sensibilité sont bien une entrée des GCM (ils ne dépendent pas de ce qui y est réellement modélisé).

66.  7ic | 30/10/2016 @ 23:55 Répondre à ce commentaire

tsih (#64),
Mes liens aussi c’était pour montrer cette « méthode ». Vous auriez pas la doc d’un modèle d’aujourd’hui plutôt qu’un algo de 1964?

67.  tsih | 31/10/2016 @ 13:02 Répondre à ce commentaire

7ic (#66),

On a beaucoup bricolé depuis mais je ne suis pas trop impressionné par les « progrès » réalisés.

68.  lemiere jacques | 5/11/2016 @ 0:21 Répondre à ce commentaire

tsih (#67), on doit être toujours impressionné par un progrés, mais il est plus difficile de dire si un changement constitue un progrès.

69.  lemiere jacques | 5/11/2016 @ 8:49 Répondre à ce commentaire

jdrien (#42), je suis d’accord sur la modestie du propos, quand à la relecture faut pas trop compter la dessus, désolé, bon, il y a quand m^me un point sur le quel je veux insister et qui justifie le parallèle qui vous semble un peu tomber comme un cheveu sur a soupe, c’est une similitude entre l’application du concept d’équilibre thermodynamique à un système et une beaucoup d’ approches de modélisation: vous ne voyez jamais personne vous faire une longue introduction pour vous justifier à priori leur utilisation, et c’est normal car c’est au moins aussi difficile que de l’appliquer et ce d’autant plus que la majeure partie du temps il s’agit de problèmes particuliers qui ne demandent pas de solutions parfaites mais des solutions convenables et suffisantes. Telle description du système à l’aide de grandeur macroscopique sera suffisante si je le fais interagir avec un autre système mais insuffisante dans un autre cas, telle modélisation sera suffisante pour avoir accès à tel information mais insuffisante pour décrire un autre
Vous pouvez admirer la phrase de psih..

Je n’ai pas de raison sérieuse de penser que ceci est grossièrement faux pour évaluer les effets radiatifs nus de la vapeur d’eau et du CO2 comme GES. De la même façon que je n’ai pas de raison sérieuse de penser qu’on ne peut pas simuler le comportement de l’aile d’un Airbus avec Navier-Stokes sous prétexte que l’approximation de milieu continu ignore la réalité sous-jacente qui sont les mouvements individuels erratiques pour chaque molécule de l’air.

mais psih oublie par exemple qu’il a déjà constaté de visu que, pour ce qu’il en avait à faire ,on peut simuler l’écoulement de l’air sur un avion…parfaitement ? non…suffisament oui…en fait il aurait toute raison de douter sinon sur tout ou tout a minima de ce qu’il peut tirer des résultats.
Les modèles sont » faux » …la question n’est jamais là. les modèles sont ils suffisants pour ce qu’on leur demande est une question à laquelle on peut rarement répondre et certainement pas dans le cas de modèles climatiques aussi complexes…

On peut rendre cela via des considérations triviales qui déplaisent tant, comme un modèle climatique ne vous donne pas d’incertitude ou pourquoi tel changement dans un modèle constitue un progrès dans la simulation du phénomène qu’il simule.
Ce que je dis n’a rien de particulier ni d’original , ça ne constitue m^me pas une critique du fait que des gens tentent de modéliser le climat. Je dis juste que la partie explicative qui permet de dire mon modèle peut faire ça n’existe pas. Ce que peut faire un modèle se teste en faisant d’autres modèles (je tiens à rappeler l’indice de confiance donné par la météo ,qui vous suggère si j’ai bien compris que je peux croire mes modèles si ils donnent un résultat similaire, comme exemple du curieux mode de pensée et des limitations crasses de la modélisation)…

Je vais encore citer psih

J’ajoute que si vous voulez (me) convaincre qu’une RH constante émerge vraiment des modèles il faut donc non pas encoder d’avance le résultat via Clapeyron mais coder correctement à partir d’une thermodynamique appropriée en situation hors équilibre et des équations de Navier-Stokes les phénomènes réels d’évaporation, condensation et convection à petite échelle en jeu dans l’atmosphère réelle. Or c’est définitivement impossible de faire une chose pareille.

Les mots ont un sens ..convaincre…et tout est là….

70.  jdrien | 5/11/2016 @ 9:57 Répondre à ce commentaire

lemiere jacques (#69), dans le cas d’un avion, peu importe ce qu’il y a dans les modèles, ils sont validés par le vol de l’avion lui-même. Pour le climat, nous n’avons pas ce retour d’expérience (peut-être en 2100, on pourra juger)

71.  lemiere jacques | 5/11/2016 @ 12:02 Répondre à ce commentaire

jdrien (#70), non mais je suis d’accord…je ne suis juste pas d’accord avec l‘autovalidation des modèles.. mais sinon tout est plus ou moins empirique et en dépit de leur imperfections et du curieuxlangage qu’on me vend avec je fie aux prévisions météo données par les modèles.
sinon pour les modèles climatiques ou bien on estime qu’ilexiste un calcul correct qui est accessible qui permettrait de rendre une simulation du climat réaliste dans des limites données et on peut discuter ou bien on fait des calculs de pseudophysique de façon extrêmement brillante et on spécule sur le fait que certaines parties de leur résultats font sens….
avez vous déjà quelqu’un vous parler des limitations de son modèle à priori? de ce qu’il peut faire et avec précision?

72.  lemiere jacques | 5/11/2016 @ 12:18 Répondre à ce commentaire

on peut aussi poser une question simple à un modélisateur qu’est ce qui permet que le modèle A est plus réaliste que le modèle B comme on l’entend souvent… en fait le réalisme est multidimensionnel est il n’y a pas un chemin qui permet de s’approcher d’un réaliisme total…
Je vais essayer de donner un exemple concret sans doute simpliste de ce genre d’idée prenez la représentation pixelisée d’un image, on peut penser à priori qu’un pixellisation plus importante est toujjours plus réaliste, sauf que vous pouvez voir des effets entre les structure géometrique de l’image et par exemple la taille des pixels…et voir ..des choses…désolé n’y faites pas attezntion..

73.  Murps | 5/11/2016 @ 13:13 Répondre à ce commentaire

jdrien (#70),

dans le cas d’un avion, peu importe ce qu’il y a dans les modèles, ils sont validés par le vol de l’avion lui-même.

Evidemment !
😉

74.  jdrien | 5/11/2016 @ 14:33 Répondre à ce commentaire

Murps (#73), je parle en connaissance de cause, même si mon (ex) domaine de vol était plus élevé.