Lorenz validé

Par Kip Hansen

source

Quelques réflexions sur le Large Ensemble du NCAR (National Center for Atmospheric Research)

Dans son dernier Week in review – science edition, Judith Curry nous donnait un lien pour un communiqué de presse du National Center for Atmospheric Research (qui est géré par la University Corporation for Atmospheric Research sous le parrainage de la National Science Foundation – souvent dénommée NCAR/UCAR) intitulé « 40 Terres : Le NCAR Large Ensemble révèle une stupéfiante variabilité climatique  » .

L’illustration de ce communiqué de presse est cette image :

Tendances des températures hivernales (en degrés Celsius) pour l’Amérique du Nord entre 1963 et 2012 pour chacun des 30 résultats du CESM Large Ensemble. Les variations en réchauffement et refroidissement dans les 30 résultats illustre les effets à longue échéance de la variabilité naturelle superposée au changement climatique d’origine humaine. L’ensemble signifie (EM ; en bas seconde image depuis la droite) fait la moyenne de la variabilité naturelle, laissant seulement la tendance au réchauffement attribuée au changement climatique d’origine humaine. L’image en bas à droite (OBS) montre les vraies observations pour la même période. En comparant l’ensemble aux observations, l’équipe scientifique a été capable d’analyser le réchauffement sur l’Amérique du Nord du à la variabilité naturelle et du au changement climatique d’origine humaine. Lisez l’étude complète dans le Journal of Climate de l’American Meteorological Society. (© 2016 AMS.)

Tendances des températures hivernales (en degrés Celsius) pour l’Amérique du Nord entre 1963 et 2012 pour chacun des 30 résultats du CESM Large Ensemble. Les variations en réchauffement et refroidissement dans les 30 résultats illustre les effets à longue échéance de la variabilité naturelle superposée au changement climatique d’origine humaine. L’ensemble signifie (EM ; en bas seconde image depuis la droite) fait la moyenne de la variabilité naturelle, laissant seulement la tendance au réchauffement attribuée au changement climatique d’origine humaine. L’image en bas à droite (OBS) montre les vraies observations pour la même période. En comparant l’ensemble aux observations, l’équipe scientifique a été capable d’analyser le réchauffement sur l’Amérique du Nord du à la variabilité naturelle et du au changement climatique d’origine humaine. Lisez l’étude complète dans le Journal of Climate de l’American Meteorological Society. (© 2016 AMS.)

De quoi s’agit-il? Le Large Ensemble Community Project de l’UCAR a construit une base de données de « 30 simulations avec le Community Earth System Model (CESM) avec une résolution de 1° latitude/longitude, chacune étant sujette à un scénario historique identique de forçage radiatif mais partant d’un état atmosphérique légèrement différent. » Quelle sorte d’ « état atmosphérique différent » ? De combien différaient les conditions initiales ? « Les scientifiques ont modifié les conditions initiales des modèles en modifiant la température atmosphérique globale de moins d’un billionième de °C (Ndt 1 millième de milliardième de degré ou 1 pico-degré) ».

Les images, numérotées de 1 à 30, représentent chacune les résultats d’une seule itération du CESM partant d’une différence unique d’un billionième de degré de la température globale – chaque projection des tendances de températures hivernales en Amérique du Nord pour 1963-2012. L’image en bas à droite, étiquetée OBS, montre les tendances observées en réalité.

Il y a un article d’où cette image est issue: Forced and Internal Components of Winter Air Temperature Trends over North America during the past 50 Years: Mechanisms and Implications , l’article représentant juste l’un des « près de 100 articles revus par les pairs qui ont utilisé les données du CESM Large Ensemble. » Je ne commenterai pas cet article en dehors de mes commentaires sur l’image, la légende et les déclarations du communiqué de presse lui-même.

Je reconnais être estomaqué – non par le fait que 30 itérations de CESM produisent 30 projections climatiques sur 50 ans entièrement différentes à partir de conditions initiales presque identiques. C’est tout à fait normal. En fait, Edward Lorenz l’a montré dans les années 60 avec ses modèles climatiques jouets sur son ordinateur « jouet » (selon nos standards actuels). Sa découverte a conduit au domaine de recherche connu maintenant comme la Théorie du Chaos , étude des systèmes dynamiques non linéaires, particulièrement ceux qui sont hautement sensibles aux conditions initiales. Nos 30 itérations CESM furent initialisées avec une différence de combien ? Un billionième de degré dans la valeur d’entrée de la température globale initiale – une valeur si petite qu’elle est littéralement indétectable par les instruments modernes de mesure de la température de l’air.

Faire tourner les simulations pour juste 50 ans – de 1963 à 2012 – donne des résultats entièrement conformes avec les conclusions de Lorenz : deux états différant imperceptiblement peuvent par la suite évoluer en deux états différant considérablement… Si alors il y a la moindre erreur dans l’observation de l’état présent – et dans tout système réel de telles erreurs paraissent inévitables – une prédiction acceptable d’un état instantané du futur lointain peut bien s’avérer impossible… Compte tenu des inexactitudes et du caractère incomplet des observations, des prévisions précises à longue échéance sembleraient inexistantes.

Quelle est la signification [des conclusions] de Lorenz ? Littéralement on sait que TOUTES nos données collectives sur l’historique des « températures atmosphériques globales » sont inexactes d’au moins +/- 0.1 degrés C. Peu importe quelle valeur initiale les personnes dévouées au NCAR/UCAR entrent dans le CESM comme température atmosphérique globale, elle différera de la réalité (En pratique – le chiffre qui serait correct s’il était possible d’en produire un) de plusieurs ordres de grandeur par rapport au billionième de degré de différence utilisé pour initialiser ces 30 itérations dans le CESM-Large Ensemble. Est-ce que cela compte ? A mon avis cela ne compte pas. Il est aisé de voir que la plus petite différence pour juste une seule valeur initiale, produit des projections sur 50 ans qui sont aussi différentes qu’il est possible les unes des autres (voir note de fin 1). J’ignore combien de valeurs initiales doivent être entrées pour lancer le CESM – mais c’est certainement plus d’une. De combien se différencieraient les projections si chaque valeur initiale était altérée, même légèrement ?

Ce qui me sidère est la revendication faite dans la légende :

L’ensemble moyenné (EM ; en bas seconde image depuis la droite) fait la ressortir la variabilité naturelle, laissant seulement la tendance au réchauffement attribuée au changement climatique d’origine humaine.

Dans l’article qui a publié cette image, la revendication exacte est:

Le système de modélisation se compose de 30 simulations avec le Community Earth System Model (CESM) à une résolution latitude/longitude de 1°, chacune étant soumise à un scénario identique de forçage radiatif historique mais part d’un état atmosphérique légèrement différent. Par conséquent, tout écart au sein de l’ensemble résulte d’une variabilité interne imprévisible se superposant au signal de changement climatique forcé.

Cette idée est très séduisante. Oh, comme ce serait merveilleux si c’était vrai – si cela était aussi simple.

Ce n’est pas si simple. Et à mon avis, c’est presque certainement faux.

Le système climatique est un système dynamique chaotique non linéaire couplé – les deux systèmes couplés principaux étant l’atmosphère et les océans. Ces deux systèmes de fluides, inégalement chauffés agissant sous l’influence des forces gravitationnelles de la Terre, de la Lune et du Soleil alors que la planète tourne dans l’espace et se déplace dans son orbite irrégulière autour du Soleil, produit un système dynamique combiné d’une incroyable complexité qui expose les types attendus de phénomènes chaotiques prédits par la Théorie du Chaos – l’un d’entre eux étant la profonde dépendance aux conditions initiales. Lorsqu’un tel système est modélisé mathématiquement, il est impossible d’éliminer toutes les non linéarités (en fait, plus les formules non-linéaires sont simplifiées, moins le modèle est valide).

Faire la moyenne de 30 résultats produits par le comportement mathématique chaotique de tout modèle de système climatique ne fait pas « la moyenne de la variabilité naturelle » du système modélisé. Il ne fait rien qui ressemble à la moyenne de la variabilité naturelle. Faire la moyenne de 30 résultats chaotiques ne produit que « la moyenne des ces 30 résultats chaotiques respectifs. »

Pourquoi ce résultat n’est pas significatif de la moyenne de la variabilité naturelle ? C’est parce qu’il y a une grande différence entre des systèmes aléatoires et des systèmes chaotiques. Il semble qu’on ait oublié cette différence dans la revendication citée plus haut.

Jouer à pile ou face (avec une pièce honnête) donne des résultats aléatoires – non des pile-face-pile-face, mais des résultats dont, une fois que suffisamment de lancers ont été accomplis, il est possible de faire la moyenne et donner un vrai ratio des résultats – celui-ci devant être de 50-50 pour les pile et face.

Ceci n’est pas vrai pour les systèmes chaotiques. Dans les systèmes chaotiques, seul les résultats apparaissent aléatoires – mais ils ne sont pas du tout aléatoires – ils sont entièrement déterministes, chaque point successif étant précisément déterminé par l’application d’une formule spécifique à la valeur existante, puis en répétant pour la valeur suivante. A chaque tour, la valeur suivante peut être calculée exactement. Ce que l’on ne peut pas faire dans un système chaotique est de prédire quelle sera la valeur au bout des 20 tours suivants. Il faut calculer à chacune des 19 étapes précédentes pour arriver là.

Dans les systèmes chaotiques, ces résultats non aléatoires, bien qui semblent l’être, ont un ordre et une structure. Chaque système chaotique a des régimes de stabilité, périodicité, doublement de période, régimes ordonnés [1] qui paraissent aléatoires mais ont des valeurs contraintes, et dans certains cas des régimes qui sont hautement ordonnés appelés « attracteurs étranges ». Certains de ces états et de ces régimes peuvent faire l’objet d’une analyse statistique et sont appelés « lisses » (régions étant statistiquement visitées équitablement) – d’autres sont fantastiquement variés, joliment formés en espace de phase, et profondément « non-lisse » (avec quelques régions chaudes en activité, alors que d’autres sont rarement visitées, et peuvent être très résistants à la simple analyse statistique – bien qu’il existe un champ de recherche en statistiques qui se focalise sur le problème, cela n’englobe pas le type de moyenne utilisé dans notre cas).

Les données des systèmes chaotiques ne peuvent donc être simplement moyennées pour retirer ce qui est aléatoire ou variable – les données ne sont pas aléatoires et pas nécessairement uniformément variables (dans notre cas, nous n’avons absolument aucune idée de l’uniformité ou du lissage du système climatique réel).

(Sur un plan plus basique, la moyenne de 30 résultats ne serait pas valide même pour un système vraiment aléatoire à deux valeurs comme un pile ou face ou un système à six valeurs comme un lancer de dés. C’est évident pour un étudiant en première année de statistiques ou un débutant aux dés. Peut-être est-ce le nombre quasi infini de résultats chaotiques possibles qui donne l’impression d’une répartition régulière de résultats aléatoires qui fait qu’on ignore cette règle de débutant).

Auraient-ils fait tourner les modèles 30 ou 100 fois plus, et ajusté des conditions initiales différentes, ils auraient eu potentiellement un jeu de résultats entièrement différent – peut-être bien un Petit Âge Glaciaire dans certaines itérations – et ils auraient une moyenne et une signification différente. Aurait-on pu dire que cette moyenne différente qu’elle représente un résultat qui  » exclut la variabilité naturelle, laissant seulement la tendance au réchauffement attribuée au changement climatique anthropique  » ? Combien de significations différentes pourrait-on produire de cette façon ? Que représenteraient-elles ? Je soupçonne qu’elles ne représenteraient rien d’autre que tous les résultats climatiques possibles de ce modèle.

En réalité, le modèle ne possède intrinsèquement aucune « variabilité naturelle » en premier lieu – il n’y a pas de formule dans le modèle qui puisse être réputée représenter la part du système climatique en tant que « variabilité naturelle  » – Ce qu’il y a dans le modèle sont des formules mathématiques qui sont des versions simplifiées de formules mathématiques non linéaires représentant des choses comme le transfert de chaleur hors équilibre, l’écoulement dynamique de fluides inégalement chauffés, le refroidissement convectif, les écoulements fluides de tous types (océans et atmosphère), dont les dynamiques sont commues comme étant chaotiques dans le monde réel. Les résultats mathématiquement chaotiques ressemblent à ce que nous connaissons comme « variabilité naturelle » – ce terme signifiant seulement ces causes non anthropiques – causes spécifiquement codées dans le modèle en tant que telles. Les résultats du monde climatique chaotique réel, ce qui est la vraie variation naturelle, doivent leur existence aux mêmes principes – la non-linéarité des systèmes dynamiques – mais dans le monde réel les systèmes dynamiques en fonctionnement dans lesquels la variabilité naturelle n’inclut pas seulement ce qui est codé dans le modèle en tant que « naturel » mais aussi toutes les causes que nous ne comprenons pas et celles dont nous n’avons pas idée. Ce serait une erreur de considérer les deux variabilités différentes comme étant une identité – une seule et même chose.

Donc aucune « dispersion dans l’ensemble” ne peut être considérée résulter de la variabilité interne du système climatique ou représenter littéralement la « variabilité naturelle » au sens communément utilisé en science du climat. La dispersion dans l’ensemble résulte simplement du chaos mathématique inhérent aux formules employées dans le modèle climatique, et représente seulement la dispersion permise par la structure contraignante et la paramétrisation du modèle lui-même.

Rappelons-nous que chacune des images créées par les 30 itérations du CESM ont été produites par un code identique, des paramètres identiques, un forçage identique – tout à l’exception des conditions initiales identiques. Cependant, aucune ne correspond au climat observé en 2012. Une seule est assez proche. Personne ne pense qu’elles représentent le climat réel. Un bon tiers des itérations produit des projections qui, si elles avaient eu lieu en 2012, aurait mis la science climatique cul par dessus tête. Comment alors peut-on supposer qu’en moyennant ces 30 climats pourrait curieusement représenter par magie le vrai climat sans les effets de la variabilité naturelle ? Cela nous dit seulement en réalité à quel point le CESM est sensible aux conditions initiales, et nous révèle quelque chose à propos des limites des climats projetés que permet le système de modélisation. Ce que nous voyons dans l’ensemble moyen et la répartition est seulement la moyenne de ces exactes itérations et leur répartition sur une période de 50 ans. Mais cela a peu à voir avec le climat du monde réel.

Combiner les résultats mathématiquement chaotiques du système dynamique modélisé avec la « variabilité naturelle » du monde réel – dire que l’un est le même que l’autre – est une hypothèse sans fondement, particulièrement lorsque les effets du climat sont divisés en un système à deux valeurs, soit seulement la « variabilité naturelle » et le « changement climatique anthropique ».

L’hypothèse selon laquelle la moyenne de 30 projections climatiques issues du chaos crée une moyenne d’ensemble (EM) dont la variabilité naturelle a été moyennée et disparait de telle façon qu’en comparant les projections EM aux données réellement observées permet « d’analyser ce que le réchauffement sur l’Amérique du Nord devait à la variabilité naturelle et ce qui était du au changement climatique anthropique » n’est pas conforme à la Théorie du Chaos.

Le système à deux valeurs (variabilité naturelle contre à anthropique) n’est pas suffisant car nous n’avons pas une connaissance suffisante de toutes les causes naturelles (ni de l’importance de leurs effets) pour pouvoir les séparer de toutes les causes anthropiques – nous ne pouvons déjà pas facilement solder l’importance des effets des causes « naturelles », et par là calculer le reste « d’origine humaine ». En tout état de cause, il est presque certain que comparer la moyenne d’ensemble d’itérations presque identiques d’un modèle de système connu comme chaotique aux observations dans le monde réel n’est pas une approche scientifique ou mathématique supportable au regard de la Théorie du Chaos.

Dans le système climatique, il y a des causes connues mais il reste possiblement des causes inconnues. Pour être complet, nous devons mentionner les inconnues connues – comment les nuages sont à la fois effets et causes, selon des relations inconnues – et les inconnues ignorées – il peut y avoir des causes aux changements climatiques que nous ignorons totalement, bien que la possibilité de causes majeures restant inconnues décroît chaque année à mesure que le sujet mûrit. Pourtant, parce que le système climatique est un système couplé non linéaire – intrinsèquement chaotique – séparer les causes et effets couplés est et restera pour longtemps qu’un projet.

Il faut aussi considérer que, parce que le système climatique est un système chaotique contraint par nature (voir note de fin 2), comme cette étude le démontre, il peut y avoir quelque cause climatique qui, fut-elle aussi petite que le  » changement d’un trillionième de degré dans la température globale atmosphérique « , peut engendrer dans le futur des changements bien plus importants que nous pourrions l’imaginer.

Ce que l’image produite par le Large Ensemble Community Project du NCAR/UCAR réalise est de valider totalement la découverte d’Edouard Lorenz : les modèles météo et climatiques sont, et ils doivent l’être, de par leur vraie nature, chaotique – extrêmement sensibles aux conditions initiales – et par conséquent incapables de permettre des prévisions « précises à très long terme ».

# # # # #

Notes de fin:

  1. Les modèles climatiques sont paramétrisés pour donner les résultats attendus. Par exemple, si un modèle échoue à donner en gros des résultats qui ressemblent aux observations réelles lorsqu’il est utilisé pour prévoir des données connues, il doit alors être ajusté (Ndt tuné) jusqu’à ce qu’il y parvienne. Evidemment, si un modèle doit tourner pour 100 ans à partir de 1900 et qu’il donne un Petit Âge Glaciaire pour l’an 2000, alors quelque chose ne va pas dans le modèle. Il n’y a rien d’incorrect à cela en tant que principe bien qu’il soit de plus en plus évident que la pratique spécifique est peut-être un élément de l’incapacité des modèles à prédire correctement même des futurs à court terme (décennie) et leur insistance à prédire un réchauffement continu dépassant les tendances observées.
  2. Je fais référence à un système « contraint » basé seulement sur notre compréhension du climat terrestre – les températures de surface restent dans une fourchette relativement étroite et les états climatiques graves semblent réservés aux Âges Glaciaires et Interglaciaires. De même, dans la Théorie du Chaos, on sait que les systèmes sont contraints par des facteurs inhérents au système lui-même – bien que les résultats soient évidemment chaotiques, ils ne sont pas « n’importe quoi », mais existent dans le cadre d’espaces mathématiques – certains étant extraordinairement compliqués.

74 Comments     Poster votre commentaire »

1.  Nicias | 24/10/2016 @ 13:35 Répondre à ce commentaire

Merci à Scaletrans pour cette traduction.

2.  Bernnard | 24/10/2016 @ 16:11 Répondre à ce commentaire

Merci Scaletrans!
La dernière phrase:

Ce que l’image produite par le Large Ensemble Community Project du NCAR/UCAR réalise est de valider totalement la découverte d’Edouard Lorenz : les modèles météo et climatiques sont, et ils doivent l’être, de par leur vraie nature, chaotique – extrêmement sensibles aux conditions initiales – et par conséquent incapables de permettre des prévisions « précises à très long terme ».

indique qu’il est vain d’essayer de prévoir maintenant ce que sera précisément le climat dans plusieurs dizaines d’années. Ce qui n’empêche pas le GIEC de faire des prévisions et d’augmenter l’incertitude de ses prévisions à long terme
Lorenz reste ignoré !
Même en ayant la possibilité de connaitre des conditions initiales très précises, la prévision précise à long terme est et restera extrêmement difficile !
Contentons-nous de la météo à 10 jours (et encore) ! Pas avec notre connaissance de « la machine » climatique et avec la précision des mesures actuelles.

3.  tsih | 24/10/2016 @ 16:35 Répondre à ce commentaire

It’s been really eye-opening for people.

C’est ce que nous avoue candidement l’auteure principale du papier de référence Clara Deser.

Cela résume tout la naïveté des gens qui font tourner ces modèles mais n’ont aucune connaissance de ce que nous a appris depuis 40 ans le calcul numérique sur les systèmes physiques plus simples où l’on a pu tester les résultats un tant soit peu sérieusement. Voilà qu’ils se précipitent, comme la vérole sur le bas clergé breton, sur cette soi-disant « découverte » en croyant avoir enfin trouvé un moyen de séparer variabilité naturelle et « signal » anthropique. Pour cela Ils n’hésitent pas à prendre leurs désirs pour des réalités à savoir que l’instabilité numérique de leurs modèles qui ne sont même pas capables de reproduire certains traits majeurs de la circulation atmosphérique générale actuelle « simulerait la variabilité naturelle ».

4.  AntonioSan | 24/10/2016 @ 16:55 Répondre à ce commentaire

Tres interessant et clair.

5.  phi | 24/10/2016 @ 17:10 Répondre à ce commentaire

Je laisse Jouzel remettre l’église au milieu du village :

Abandonnons les modèles. Vous savez ce qu’on est en train de faire en augmentant la quantité de gaz à effet de serre de façon manifeste à cause des activités humaines ? On augmente de façon très simple le chauffage du système climatique c’est à dire la quantité de chaleur qui est disponible pour chauffer l’atmosphère, les glaces et l’océan. On augmente ça. On a augmenté de 3 W/m2 supplémentaire. C’était 240 maintenant c’est plutôt 3 W supplémentaire et quand vous chauffez plus, excusez-moi, il n’y a pas besoin de modèles pour savoir que le climat va se réchauffer.

(http://www.itele.fr/chroniques.....015-142159)

Ben voilà, le réchauffement global à la sauce du GIEC est indépendant du caractère chaotique du climat, question d’échelle.

Si les modèles climatiques n’ont rien à dire sur ce sujet particulier, c’est qu’ils n’intègrent pas de thermodynamique de l’effet de serre (ça, c’est pas du Jouzel).

Bon, je suppose qu’un jour, on finira par le comprendre.

6.  amike | 24/10/2016 @ 17:23 Répondre à ce commentaire

Bernnard (#2), Le problème ne me semble pas être la nature chaotique des modèles. Après tout, un modèle peut représenter une évolution possible du climat, virtuelle mais correcte, bien que différente de la réalité.

L’article critique surtout le simplisme de la solution proposée pour faire converger les modèles vers la réalité observée, en utilisant une bête moyenne des résultats. D’ailleurs, je pense que l’écart type sur ces données chaotiques doit être révélateur…

7.  Bernnard | 24/10/2016 @ 17:55 Répondre à ce commentaire

Oui j’ai bien compris le sens de l’article.
Le simplisme de la solution qui est mise en œuvre.
Je voulais simplement souligner une phrase qui est pour moi importante.
Le système climatique chaotique met des limites qu’on essaie de briser en utilisant des artifices. Le fond du problème demeure la méconnaissance des interactions atmosphère-oceans.

8.  amike | 24/10/2016 @ 19:46 Répondre à ce commentaire

Bernnard (#7), Je crois qu’il y a aussi l’idée que le climat pré-industriel ne variait que sur un long terme, et que les variations rapides qu’on constate de nos jours, qu’on étudie grâce à tous ces systèmes qui vont au-delà des ressentis à peine précis ou globaux qu’on avait même jusqu’à récemment, ces variations rapides donc ne peuvent être que d’origine humaine.

9.  yvesdemars | 24/10/2016 @ 20:09 Répondre à ce commentaire

amike (#8),

ce qui est manifestement faux voir l’épisode du Dryas récent

10.  Christial | 24/10/2016 @ 21:07 Répondre à ce commentaire

phi (#5),
On ne peut pas évacuer avec le seul mot « chaotique » le raisonnement de simple bon sens (dont il faut se méfier, je le reconnais) de Jouzel.
L’effet de serre entraine un déséquilibre thermique du système entre flux thermiques entrants et sortants. L’équilibre est retrouvé par une augmentation de la température du système.

Sur le thème « La variabilité naturelle du système climatique. Peut-elle moduler le forçage des gaz à effet de serre .. » on peut réécouter « Cassou en fait » (agaçant son tic de langage, déjà qu’il est médiocre orateur) lors de son audition à l’Académie des sciences.
Selon lui, sur le long terme, le caractère chaotique du climat de sa composante variabilité naturelle s’efface devant les forçages externes.
https://www.youtube.com/watch?v=Q8gcNHJ67pM

11.  scaletrans | 24/10/2016 @ 22:32 Répondre à ce commentaire

Christial (#10),

L’effet de serre entraine un déséquilibre thermique du système entre flux thermiques entrants et sortants. L’équilibre est retrouvé par une augmentation de la température du système.

Je suis en désaccord. L’effet d’atmosphère est simplement ce qui nous évite d’être congelés ou carbonisés selon l’exposition. Quant aux soi-disant « gaz à effet de serre », si l’on considère le taux important d’augmentation de la concentration du fameux CO2 ces dernières décennies parallèlement à l’évolution de la température UAH ou RSS, on se rend bien compte qu’il n’y a pas d’effet.
Quant à ce qu’a dit Cassou… sur le long terme… ça met à l’abri des vérifications comme le dit si bien Rémy Prudhomme.

12.  Murps | 25/10/2016 @ 1:56 Répondre à ce commentaire

Drôle de surprise, Judith Curry semble découvrir les exposants de Lyapunov et la réalité de la sensibilité aux conditions initiales.
Et encore, quand elle écrit :

A chaque tour, la valeur suivante peut être calculée exactement. Ce que l’on ne peut pas faire dans un système chaotique est de prédire quelle sera la valeur au bout des 20 tours suivants. Il faut calculer à chacune des 19 étapes précédentes pour arriver là.

, même cela, ce n’est pas tout à fait exact puisque le même calcul avec un processeur différent aboutira à un résultat très différent à cause justement des erreurs d’arrondi et de troncature des calculs.
La connaissance exacte des conditions initiales n’a même aucun impact sur la prédictibilité car si le système a un taux de divergence exponentiel dans l’espace des phases, les solutions divergeront très très rapidement (par exemple en doublant l’erreur à chaque itération).

Voila un truc que j’ai appris il y a des années quand j’étais étudiant à l’institut de mécanique des fluides de Strasbourg.
Il n’y a que sur des temps très courts par rapport à la durée du système qu’on pourra prévoir quelque chose. C’est pour cela qu’on ne pourra probablement jamais prévoir la météo au delà de quelques jours, et ce, quelle que soit la puissance de calcul. En parlant de cela, Ian Stewart assure qu’il « sait sur quoi il parie… »

13.  tsih | 25/10/2016 @ 9:42 Répondre à ce commentaire

Murps (#12),

Ce n’est pas Judith Curry qui écrit ça sauf erreur mais l’auteur de l’article qu’elle héberge..

Ensuite le problème des modèles climatiques n’est pas juste une affaire de système chaotique et de très loin. Leur code ne consiste pas simplement à résoudre un joli système d’équations différentielles non linéaires comme le modèle de Lorenz. Le système climatique est un système complexe infiniment plus « rebelle » que ça où divers phénomènes d’organisation de la matière de type émergents sont à l’oeuvre comme des oscillations océaniques, une circulation atmosphérique générale ou… des êtres vivants. Il n’y a pas de code ou d’équations différentielles qui fait apparaître automatiquement et correctement la plupart de ces phénomènes à partir de « lois fondamentales » de la nature. C’est une évidence pour les êtres vivants. Ils sont donc introduits ad oc et leurs effets quantifiés aux moyens de paramètres empiriques ajustables. Pour ceux dont on connaît des choses par l’observation, bien sûr, les autres sont forcément ignorés.

14.  Christial | 25/10/2016 @ 11:41 Répondre à ce commentaire

tsih (#13),

Vos 2 interventions me semblent particulièrement claires et bien résumer les limites des modèles, autant que ma modeste compréhension des choses et de l’article me permette d’en juger.

15.  micfa | 25/10/2016 @ 12:00 Répondre à ce commentaire

Il suffit de suivre au quotidien les modèles de prévision météo pour constater qu’à partir d’une situation identique initiale les prévisions au-delà de 5 jours (et même parfois moins) commencent à diverger au niveau des centres d’action (anticyclones et dépressions). On observe souvent qu’un même modèle modifie ses cartes de prévision d’un jour à l’autre pour une même échéance. Il suffit de pas grand chose pour chambouler une prévision au-delà de 5 jours. Une erreur de verticalité de 1mm au pied d’un mur peut donner 10cm en haut du mur. On serait tenté de faire une moyenne de tous les modèles, mais ce serait une erreur, car ils peuvent tous se planter. On pourrait croire un modèle fiable quand il se rapproche de la réalité observée le jour de l’échéance, mais malheureusement il lui arrive de se tromper dans d’autres cas.

16.  Murps | 25/10/2016 @ 20:01 Répondre à ce commentaire

tsih (#13),

Ce n’est pas Judith Curry qui écrit ça sauf erreur mais l’auteur de l’article qu’elle héberge..

Méa culpa…

Ensuite le problème des modèles climatiques n’est pas juste une affaire de système chaotique et de très loin.

Justement.
Se dire que la modélisation simpliste d’un milieu réel vaste et complexe aboutit déjà à un problème inextricable…

17.  lemiere jacques | 26/10/2016 @ 8:14 Répondre à ce commentaire

ce qui me frappe est l’acte de foi…climat simulé = climat….
mais pour le reste c’est intéressant, et plus les commentaires qu’on trouve ici ue cette « découverte »…
jouzel s’affranchissant des modèles ( sans s’en affranchir d’ailleurs) les commentaires excellents (mais pourtant si triviaux!) de tsih…
les modèles numériques sont des objets à manipuler avec précaution…
on peut le comprendre de façon simple..c’est un calcul livré en général sans incertitude… pour beaucoup ça suffit..
ce qui est rigolo c’est que vous n’avez aucune idée de savoir si vous vous rapprochez de la réalité ou vous vous en éloignez en faisant un modèle qui vous semble plus réaliste, on peut imaginer d’ailleurs des effets d’échelle bizarres..
mais parfois des paroles révélant le trouble dans la foi sont sidérante…

18.  Christial | 26/10/2016 @ 12:43 Répondre à ce commentaire

Je me pose une question sur le sens à donne à la dispersion des résultats, certains ne montrent pas de réchauffement.
Le modèle prend en compte l’effet de serre, je le retiens donc (pour Scaletrans) comme hypothèse, Or certaines des 30 instances présentées ne montrent donc pas de réchauffement. Peu importe que les résultats ne sont pas tunés, enfin je pense
On ne peut cependant évacuer le point de vue de Cassou, sur la durée, ici 50 ans, l’effet de serre continument croissant fini par l’emporte sur le chaos plus ou moins sinusoïdal de la nature. Ou encore celui de Jouzel, plus au ras des pâquerettes mais d’un certain bon sens, on augmente le chauffage donc le climat se réchauffe.

Quels explications sont possibles ? Est-ce que cela signifie que la part prédominante de la sensibilité au GES, celle des rétroactions, suivrait aussi un comportement chaotique ?

19.  Curieux | 26/10/2016 @ 15:14 Répondre à ce commentaire

Christial (#18),
Je pense surtout qu’on ne peut pas « moyenner » des runs de modèles, ça n’a pas de sens. Exemple moyenner les prévisions météo du lendemains si on annonce un temps chaud, on envisage un T-shirt, un temps froid un gros pull.
Mais la moyenne… des tong au pieds et un Cachemire en haut ?
Ce que montre cette exercice c’est que juste ou faux les modèles sont fondamentalement impuissant à prévoir le climat. Nicias à raison de titrer « Lorenz validé ».

20.  Murps | 26/10/2016 @ 15:22 Répondre à ce commentaire

Curieux (#19), Pas mieux. En même temps ça fait longtemps qu’il était « validé », il fallait juste une piqûre de rappel.

Raisonnement à appliquer aux moyennes de températures…

21.  Christial | 26/10/2016 @ 15:51 Répondre à ce commentaire

Curieux (#19),
Au delà de la faible taille de l’échantillon, bien sûr qu’on ne peut pas moyenner des résultats d’une variable non aléatoire d’un processus chaotique. C’est le sens des commentaires de Curry.
Mais quel rapport avec mon interrogation ?

22.  scaletrans | 26/10/2016 @ 16:29 Répondre à ce commentaire

Christial (#18),

La question qu’on peut se poser est la suivante: puisque les gaz dits « à effet de serre », qui ne sont qu’à l’état de trace dans l’atmosphère, n’ont pratiquement pas d’influence dans le bilan radiatif, pourquoi y aurait-il un réchauffement du à cette minuscule variation de la composition de l’atmosphère? A plus forte raison si l’on considère que ladite atmosphère ne représente qu’un millième du contenu thermique des océans.

23.  tsih | 26/10/2016 @ 20:07 Répondre à ce commentaire

Christial (#18),

Tout le problème ouvert c’est de quantifier l’effet réel, toutes rétroactions prises en compte. C’est là que réside toute l’incertitude. Hors rétroactions la physique prévoit 1°C environ par doublement du CO2. Les alarmistes multiplient ça par 3 avec des rétroactions positives mais en fait personne n’en sait rien car on ne sait pas sérieusement faire avec les rétroactions.

Selon l’amplitude du phénomène, on pourra ou on ne pourra pas clairement l’identifier et le séparer de la variabilité naturelle même après 50 ans.

Enfin je ne vois pas de sens physique du tout à donner aux variations chaotiques des différents runs d’un même modèle. Dire que c’est la variabilité naturelle ce n’est basé que sur du vent. Tout ce que cela signifie c’est qu’il y a instabilité numérique du code et ça ça montre juste que ces variations ne sont qu’un artefact.

24.  Christial | 26/10/2016 @ 20:54 Répondre à ce commentaire

tsih (#23),
Merci pour cette réponse plus précise que les modèles 😉
Dépenser autant de ressources et accorder autant de confiance à des modèles informatiques qui dispersent à tout vent et que je requalifierais volontiers de pétoire climatique me laisse … climatosceptique.
Mais c’est sans doute plus la faute au chaos qu’aux concepteurs.

25.  Murps | 26/10/2016 @ 22:35 Répondre à ce commentaire

Christial (#24), le chaos n’y est pour rien, pas plus que c’est la faute à la gravitation quand vous vous cassez la figure…
😉

26.  chercheur | 27/10/2016 @ 0:46 Répondre à ce commentaire

Murps (#25),

« pas plus que c’est la faute à la gravitation quand vous vous cassez la figure »

Là vous m’étonnez…

27.  Nicias | 27/10/2016 @ 8:17 Répondre à ce commentaire

tsih (#23),

Tout ce que cela signifie c’est qu’il y a instabilité numérique du code

Mais peut être qu’on vit dans un run d’univers ou sur la Terre le climat a évolué dans un sens qui a rendu l’existence des climatologues possible. Peut être que dans la plupart des autres univers le climat est parti en vrille comme dans les modèles.

Sur ce, j’aimerai publier un article sur l’émergence. Anderson avec « More is different » est trop compliqué. Laughlin ?
La littérature climatologique est muette sur le sujet…
Willis Eschenbach avait écrit sur le sujet :
https://wattsupwiththat.com/2013/02/07/emergent-climate-phenomena/
C’est typiquement ce genre de vulgarisation que je cherche (c’est un chouilla long, surtout qu’il faudra traduire). Qu’en pensez vous ?

28.  tsih | 27/10/2016 @ 11:50 Répondre à ce commentaire

Nicias (#27),

Je pense comme vous que ce serait une très bonne idée pour introduire l’idée très peu connue d’émergence de traduire le ou les articles de Willis Eschenbach sur le sujet.

29.  phi | 27/10/2016 @ 13:54 Répondre à ce commentaire

tsih (#23),

Hors rétroactions la physique prévoit 1°C environ par doublement du CO2.

D’une part, la physique de l’effet de serre ne dépasse pas le calcul de l’opacité de l’atmosphère. Les °C ou les W/m2 qui en sont tirés sont de la pseudo-science car il n’y a aucune thermodynamique de l’effet de serre. D’autre part, cette pseudo-physique ne prévoit pas un réchauffement de 1 °C pour un doublement du taux de CO2 mais de 2 °C. L’effet amplificateur de la vapeur d’eau, ordinairement versé dans les rétroactions, n’est en effet pas une sortie des GCM. Ceux là, n’ont éventuellement quelque chose à dire, globalement et si on est optimiste, que sur les rétroactions albedo et nuages. Les GCM ne sont donc responsables que du tiers du réchauffement théorique pronostiqué.

Le RCA, c’est 2 tiers de pseudo-science et 1 tiers de Nitendo.

30.  volauvent | 27/10/2016 @ 17:43 Répondre à ce commentaire

phi (#29),

Je ne comprends rien à ce que vous avez écrit.
– l’effet du CO2 seul est bien de 1 degrés; d’ou tenez vous vos 2 degrés?
– si les GCM intègrent des hypothèses d’albedo et de nuages, ils intègrent bien des hypothèses sur la vapeur d’eau ( pertinentes ou pas, c’est une autre question…)

31.  Murps | 27/10/2016 @ 18:08 Répondre à ce commentaire

volauvent (#30), bah en cherchant bien dans la littérature, on doit trouver un papier qui suggère 2 °C, non ? Honnêtement, compte tenu de l’allure bancale de la théorie et de la faillite de ses prévisions ça ne changera pas grand chose.

Je lis souvent « Nitendo » au lieu de Nintendo, c’est fait exprès ?

tsih (#28), si je me souviens de ce que j’ai lu, « l’émergence » c’est quand un système dynamique chaotique décide, comme ça sans prévenir, de changer son régime de fonctionnement (comme le double bretzel de Lorenz, qui passe d’une aile à une autre…), c’est bien ça ?
Ce que j’avais compris, c’est que l’émergence était une manière élégante de dire qu’on entrave que pouic à l’évolution du système.
En clair, tant qu’on aura pas de théorie générale de la turbulence on avancera pas…

Il n’est d’ailleurs pas étonnant que la littérature climatologique soit muette à ce sujet car admettre qu’on est pas capable de prévoir quoi que ce soit, c’est se tirer une balle dans le pied.

32.  Bernnard | 27/10/2016 @ 18:42 Répondre à ce commentaire

Murps (#31),
On parle d’émergence à propos de la fourmi de langton. C’est un petit programme informatique ayant un comportement ordonné, puis chaotique au début de son exécution et qui change de « régime » pour devenir ordonné d’une manière imprévue sans qu’on comprenne pourquoi.
https://youtu.be/qZRYGxF6D3w

33.  phi | 27/10/2016 @ 18:54 Répondre à ce commentaire

volauvent (#30),
A taux d’humidité relative constante, l’effet nu (radiatif) est sensé être de 2 °C. La prise en compte du degré supplémentaire dû à l’élévation de l’humidité absolue tient exactement aux mêmes mécanismes et hypothèses que celle du premier degré. Ces deux degrés ne sont pas liés à la modélisation des GCM mais aux suppositions sur le gradient qui remplacent la thermodynamique de l’effet de serre. Il n’y a aucune différence, du point de vue de la modélisation, entre ces deux premiers °C (ou plutôt entre ces deux quantités de W/m2). On peut les considérer toutes deux comme des entrées des GCM, en pratique introduites par la paramétrisation du gradient.

34.  jdrien | 27/10/2016 @ 20:35 Répondre à ce commentaire

Bernnard (#32), quand je vois une fourmi rouge, je ne peux m’empêcher de penser au film « quand la marabunta gronde » (de 54 avec Charlton Heston)

35.  Christial | 27/10/2016 @ 20:46 Répondre à ce commentaire

jdrien (#34),
La fourmi gronde ou croonde ?

36.  tsih | 28/10/2016 @ 10:00 Répondre à ce commentaire

Murps (#31),

si je me souviens de ce que j’ai lu, « l’émergence » c’est quand un système dynamique chaotique décide, comme ça sans prévenir, de changer son régime de fonctionnement (comme le double bretzel de Lorenz, qui passe d’une aile à une autre…), c’est bien ça ?

L’émergence c’est l’apparition dans un système composé d’un très grand nombre d’éléments en interaction de principes d’organisation, de propriétés ou lois à l’échelle globale et collective souvent extraordinaires et stupéfiantes qui ne peuvent pas, sauf rares cas particuliers, se déduire, calculer, deviner à partir de règles, lois ou propriétés qui régissent les éléments individuels qui le composent. On dit souvent que le « tout est plus que la somme des parties » et c’est une limitation fondamentale de l’approche réductionniste usuelle en physique ou science en général qui signifie qu’il faut découvrir par l’observation ou l’expérience les lois ou principes d’organisation en question qui existent en réalité par eux-mêmes. On ne peut ni les calculer ni les deviner si on ignore leur existence et c’est une barrière fondamentale un peu analogue mais bien plus profonde que celle qui limite la prévisibilité des systèmes chaotiques.

Bernnard a donné un exemple sorti d’expériences sur ordinateur qui illustre bien la chose. Mais le monde réel montre cela partout. Les êtres vivants par exemple sont un phénomène émergent par excellence. Ils sont faits de molécules qui obéissent aux lois de la physique et de la chimie mais ni leur existence ni leurs propriétés ne sont simplement « déductibles » de ces lois. En physique les phénomènes de supraconductivité, superfluidité ou simplement de rigidité cristalline sont des phénomènes collectifs émergents qui ne se déduisent pas simplement de l’équation de Schroedinger. Le deuxième principe de la thermodynamique lui-même avec sa flèche du temps et l’irréversibilité manifeste des phénomènes à notre échelle sont émergents puisque les équations à l’échelle microscopique régissant les atomes et molécules sont réversibles et invariantes par renversement du temps.

L’article fondateur en physique
Article plus récent

37.  7ic | 29/10/2016 @ 2:20 Répondre à ce commentaire

phi (#29),

Ben si c’est « une sortie »,

Le fait que l’humidité relative soit à peu près invariante, c’est justement une propriété émergente des modèles de climats (et autres modèles non globaux).

38.  lemiere jacques | 29/10/2016 @ 9:01 Répondre à ce commentaire

Bernnard (#32), je n’aime pas beaucoup le « sans qu’on comprenne pourquoi.. ».. il faudrait exprimer ça d’une façon différente, on connait parfaitement pourquoi car on connait le programme…et c’est bien ça qu’on est obliger de se servir du concept de « propriété émergente » ( ça reste un peu du baratin) …mais c’est bien la nature du programme et les conditions initiales qui sont la cause de ce qu’on voit…

Le fait est que vous n’avez pas de moyen « condensé » de donner l’etat du bidule au bout d’un certain temps…mais vous avez le moyen de le savoir pourtant puisque ‘il suffit de faire tourner le programme.. dans le meilleur des cas vous pouvez en avoir une description statistique et, quoi que je n’y connaisse rien en thermodynamique et rien en théorie du chaos ,c’est un peu ce qui se passe avec la thermodynamique…

MAIS il me semble qu’à un moment ou un autre pour établir la notion d’équilibre thermodynamique il y a un « le saut de la foi » qui vous dit que pour un certain nombre de raisons vraies mais non entièrement expliquantes ( grand nombre , parcours moyen, etc etc) le système atteint un équilibre thermodynamique;

je dirais m^me que l’idée qu’on machin ne soit pas régit pas un certain nombre de lois « simples » me semble entrer en conflit avec notre façon de penser et du’ne certaine façon on a du bol que en général les équilibres thermodynamiques se créent ( et surtout car les objet usuels sont composés d’un foultitudes d’atomes et molécules ° sinon on ne pourrait rien étudier de façon macroscopique autrement dit la plupart des bidules qu’on a mis en interaction ont eu la bonne grâce de pouvoir réduire toute la composante microscopique à quelques paramètres macroscopiques comme la temperature;
Les lois de la physique pour l’échelle macroscopique sont un miracle. C’etait bien joli de partir fleur au fusil pour trouver des lois aux phénomènes physiques macroscopiques mais il n’était pas écrit a priori que ce soit possible et que tout système en dépit de l’existence de lois à l’echelle microscopiques supposées se comporete de fa

39.  lemiere jacques | 29/10/2016 @ 9:11 Répondre à ce commentaire

se comporte de façon chaotique, ce qui revient à dire pas de loi…

la hantise d’un modélisateur serait que la nature chaotique du climat ne se limite pas à la météo…si le système climatique peut changer d’état tout seul comme un grand sans qu’on le force et que ces changements d’état conduisent à des modifications énergétiques comparables au forçage , faire des modèles à caractère prédictif est vai,.

40.  lemiere jacques | 29/10/2016 @ 9:20 Répondre à ce commentaire

et j’ajoute que la belle experience de physique c’est de faire tourner un métal à une certaine vitesse et de constater que son moment magnétique est réparti par moitié dans deux directions opposées avec des changements qui semblent aléatoires, est ce que ça ne veut pas dire qu’un système macroscopique ne peut pas avoir deux états macroscopiques? si c’est le cas…

41.  lemiere jacques | 29/10/2016 @ 9:35 Répondre à ce commentaire

et imaginons un peu qu’on donne à un modélisateur les données du climat soit l’etat initial et les lois de la physique mais qu’on lui cache les données historiques, le roi serait nu, …on ne peut pas faire de lois ad hoc pas faire d’hypothèses ici ou là ; ce serait très amusant de voir les résultats d’ensemble des modèles!!!!

42.  jdrien | 29/10/2016 @ 9:53 Répondre à ce commentaire

lemiere jacques (#38), soyez gentil, prenez le temps de vous relire avant de cliquer sur valider.
La plupart des lois macroscopiques de la Physique ont une origine expérimentale et non par déduction de propriétés microscopiques qui de toute façon ont été découvertes après coup.
La notion d’équilibre thermodynamique découle simplement de l’observation, on a en a fait un principe parce qu’on ne l’a pas encore trouvé en défaut.
La théorie du chaos reflète surtout notre incapacité à trouver les outils mathématiques pour le décrire.

43.  7ic | 29/10/2016 @ 9:59 Répondre à ce commentaire

tsih (#23),

Donc quelqu’un qui donne l’ECS à 3 K est un « alarmiste »?
Quelqu’un qui la donnerait entre 2 et 3 K est-il un « alarmiste » ?

44.  phi | 29/10/2016 @ 11:10 Répondre à ce commentaire

7ic (#37),

Le fait que l’humidité relative soit à peu près invariante, c’est justement une propriété émergente des modèles de climats (et autres modèles non globaux).

Absolument pas puisque les taux d’humidité dépendent essentiellement des profils de températures et de la convection qui ne sont pas modélisés mais paramétrés sur une base empirique.

45.  Christial | 29/10/2016 @ 11:32 Répondre à ce commentaire

L’émergence, que je découvre par ce site, est en effet un phénomène fascinant qui ouvre des horizons nouveaux sur la compréhension de la complexité des systèmes. Du climat jusqu’à la vie sur Terre.
Le papier de W. Eschenbach mériterait en effet que Skyfall s’y attarde et le traite.

On devine que modéliser le climat en prenant en compte, non plus par grossier paramétrage empirique mais finement, les phénomènes d’émergence avec ses changements de régimes locaux et brutaux par seuil, représente un travail monstrueux et hors d’atteinte aujourd’hui et pendant longtemps encore.
De ce que je comprends, il faudrait passer à un maillage beaucoup plus fin de la planète et gérer les régimes météo successifs jusqu’au niveau par exemple des orages.

La science du climat n’est pas établie, loin de là, la modélisation informatique du climat non plus.

46.  tsih | 29/10/2016 @ 14:36 Répondre à ce commentaire

7ic (#37),

L’humidité relative « à peu près constante » ne sort pas du chapeau et n’émerge pas des modèles. Ce n’est qu’un appel naïf à la relation de Clapeyron, loi dérivant de l’équilibre entre un liquide et sa vapeur à une température donnée, valable donc dans un système à l’équilibre thermodynamique, et appliquée donc ici à un système climatique réel qui est par essence et oh combien un système loin de l’état d’équilibre thermodynamique. . Point. Je ne prétends pas que c’est complètement idiot et injustifié mais ça n’a rien à voir du tout du tout du tout avec une propriété émergente à partir du code des modèles.

Ce qui « émerge » bien par contre du code des modèles numériques du climat c’est une série de conneries comme une double zone de convergence intertropicale, des pluies qui tombent là où elles ne tombent pas, des sécheresses là où il pleut , un Antarctique trop chaud etc etc.

C’est justement parce que l’émergence est à l’oeuvre partout dans le système climatique du monde réel qu’aucun ordinateur ne peut modéliser ça sérieusement à partir des lois de la physique de base. On ne peut jamais au mieux qu’introduire empiriquement tous les phénomènes de niveau supérieur ad hoc mais pour ça il faudrait d’abord suffisamment les connaître tous ce qui n’est évidemment justement pas le cas.

47.  tsih | 29/10/2016 @ 15:22 Répondre à ce commentaire

7ic (#43),

Quelqu’un qui prend au sérieux une ECS quelconque sortant de la théorie ou de modèles numériques est un juste un imbécile.

48.  7ic | 29/10/2016 @ 15:41 Répondre à ce commentaire

tsih (#46),

A partir du moment où, bien que l’humidité relative ne soit pas imposée dans les modèles, tous les modèles de climat (depuis le début de la modélisation climatique à aujourd’hui, quelque soit la résolution et les paramétrisations utilisées) prédisent qu’elle reste à peu près constante en changement climatique, ben si : c’est une propriété émergente des modèles de climat…

49.  7ic | 29/10/2016 @ 15:45 Répondre à ce commentaire

tsih (#47),

C’est noté. Je repose mes questions :
Donc quelqu’un qui donne l’ECS à 3 K est un imbécile « alarmiste » ?
Quelqu’un qui la donnerait entre 2 et 3 K est-il un imbécile « alarmiste » ?

50.  Nicias | 29/10/2016 @ 16:20 Répondre à ce commentaire

N’hésitons pas à lire ou relire « Thermal Equilibrium of the Atmosphere with a Given Distribution of relative humidity », Manabe et Wetherald.