La science classique s’arrête où commence le chaos.

Par Henri Masson membre du Collectif des climato-réalistes

«Depuis les premiers balbutiements de la Physique, le désordre apparent qui règne dans l’atmosphère, dans la mer turbulente, dans les fluctuations de populations biologiques, les oscillations du cœur et du cerveau ont été longtemps ignorés »

« Il a fallu attendre le début des années soixante-dix, pour que quelques scientifiques américains commencent à déchiffrer le désordre, des mathématiciens, médecins, biologistes, physiciens, chimistes cherchant tous des connections entre diverses irrégularités observées. Le syndrome de la mort subite fut expliqué, les proliférations puis disparitions d’insectes furent comprises et modélisées, et de nouvelles méthodes d’analyse de cours boursiers virent le jour, après que les traders aient dû se rendre à l’évidence que les méthodes statistiques conventionnelles n’étaient pas adaptées.
Ces découvertes furent ensuite transposées à l’étude du monde naturel : la forme des nuages, les trajectoires de la foudre, la constitution de galaxies. La science du chaosdynamical systems » pour les anglo-saxons) était née et allait connaître un développement considérable au fil des années ».

« Cette nouvelle science s’appuie sur des techniques mathématiques et graphiques innovantes aptes à révéler la structure infiniment sophistiquée qui sous-tend la complexité d’un désordre qui n’est qu’apparent ». « Elle permet d’analyser et de décrire l’évolution des volutes de fumée s’échappant d’une cigarette ou l’homogénéisation progressive d’un nuage de lait dans une tasse de thé (ou de café) ; ou encore la congestion du trafic automobile, voire l’écoulement de pétrole dans un pipeline. On retrouve une signature chaotique partout. Il s’agit d’une science qui s’adresse au comportement global de systèmes»; elle est pluridisciplinaire par essence, à contre-courant de la recherche d’expertise à outrance conduisant à former des scientifiques « pointus » qui en fin de compte « savent tout sur rien », ne voyant plus que l’arbre qui cache la forêt.

« Les premiers chercheurs à s’intéresser au chaos avaient un œil apte à déceler des formes, des structures qui se répètent du niveau microscopique au macroscopique. Ils manifestaient une attention particulière pour les irrégularités et soubresauts qui venaient enrichir un phénomène apparemment déterministe, ou au contraire parfaitement aléatoire. Ils tournèrent le dos au déterminisme et à la recherche de constituants élémentaires (quarks, bosons en physique, chromosomes et neurones en physiologie, etc.) de la science du 20ème siècle». Ces chercheurs étaient les précurseurs de la pensée systémique.

« A côté de la théorie de la relativité, de la théorie quantique, le chaos est sans doute la troisième révolution qui aura marqué la physique du 20ème siècle. Ces trois disciplines mettent radicalement en cause le « déterminisme newtonien » de la mécanique classique (tout est mesurable et contrôlable) et le rêve laplacien de « prédictibilité déterministe».

« Contrairement aux deux autres disciplines mentionnées, le chaos lui s’adresse au monde « tangible ». Quelques physiciens sortant de leurs abstractions propres à la physique théorique redécouvrirent que s’il leur était possible de décrire le comportement d’une goutte d’eau par des équations déterministes (les équations de Navier-Stokes), il leur était impossible de décrire, et encore moins de prédire, l’écoulement d’une rivière en crue ou le cheminement des filets fluides tombant d’une cascade». Comment prédire quelle sera la distance séparant deux « particules » d’eau, voisines au départ, un instant plus tard, dans un tel environnement ?

« Le développement moderne de la théorie du chaos commença avec une découverte qui eut un effet d’électrochoc : une infime différence des conditions initiales peut engendrer des différences énormes dans un système non linéaire. C’est le célèbre « effet papillon » ; exprimé sous une forme imagée, celui-ci s’énonce comme suit: « un léger battement d’ailes d’un papillon en Amazonie peut engendrer une tornade aux États-Unis ».

Voici l’histoire de cette découverte.

« Nous sommes au début des années soixante et dans son laboratoire du MIT, Edward Lorenz, un matheux que les hasards et besoins de la deuxième guerre mondiale ont transformé en météorologue, fait tourner un système de quatre équations sur son ordinateur oh combien rudimentaire »: un assemblage de tubes et diodes placé dans un cabinet ressemblant à un frigo américain et sur le toit duquel on pouvait cuire un œuf, à cause des pertes de chaleur qu’il engendrait.

« Pendant que sa machine tourne, il rêvasse en regardant par la fenêtre les circonvolutions des nuages qui passent dans le ciel». Un sujet qui le passionne depuis longtemps.

« Ses quatre équations constituent un modèle hyper-simplifié de l’atmosphère, essayant de combiner les lois physiques de la gravité, de la viscosité de l’air et de la convection naturellement induite par une source de chaleur externe représentant le soleil ».

« Contrairement aux météorologues de son temps, Lorenz ne s’intéressait pas aux relevés de température, pression, humidité, ni à l’identification de leurs maxima et minima au fil des saisons et des années, une discipline bien établie relevant des statistiques descriptives , mais il s’intéressait plus particulièrement à la façon dont ces données pouvaient changer brutalement, et plus précisément encore à l’estimation de leur prédictibilité à plus ou moins long terme. »

Sa machine rudimentaire imprimait initialement, très péniblement, ligne après ligne, sur une imprimante ‘préhistorique’, des lignes de chiffres.

« Lorenz était le Dieu de cet univers virtuel», choisissant à sa guise les lois qu’il voulait appliquer. Par essais et erreurs successifs, Il en sélectionna 12, qui décrivaient les liens entre température et pression et entre pression et vent. Lorenz pensait que ses formules combinant quelques lois de la mécanique, de la physique et de la thermodynamique, faisaient de lui le grand horloger d’une machine qui devait tourner pour l’éternité. Il était convaincu à l’époque, comme tous ses pairs, que « Comprendre les Lois c’est comprendre l’Univers ».

C’était encore l’époque où, en mathématique, on résolvait les équations analytiquement à la main, et pour y arriver, on faisait des changements de variable, et des approximations (de linéarisation), en laissant tomber les erreurs d’ordre supérieur, pensant que celles-ci étaient négligeables. Par changements de variables successifs, Lorenz obtint finalement ses 4 équations, et cela sans devoir introduire la moindre approximation.

« À cette époque, la météorologie n’était rien de plus qu’une sorte de devinette visant à prévoir le temps du lendemain, sur base des relevés fournis par les instruments de mesure équipant les stations météo.»

« Lorenz voulait, à partir des lois de la mécanique, de la physique et de la thermodynamique, y apporter plus de rigueur mathématique et de précision ». Ne doutant de rien, il voulait non seulement simuler une situation instantanée, mais en plus décrire son évolution en fonction du temps.

« À cette époque aussi, peu de scientifiques voyaient un quelconque intérêt à utiliser les ordinateurs, considérés comme rien de plus que des gadgets électroniques bien éloignés des préoccupations de la ʽ science sérieuseʼ. »

« Une amélioration notable dans le travail de Lorenz se produisit quand il transforma son imprimante en imprimante graphique. Pour cela, il imprima çà et là sur chaque ligne, de petits symboles entrecoupés de blancs, chaque symbole représentant un seuil de pression, de température, voire, la force ou la direction d’un vent». La feuille entière devenant ainsi progressivement une carte météorologique rudimentaire.

« Rapidement au sein de ce laboratoire du MIT, on s’adonna à une nouvelle sorte de jeu de hasard. Les collègues de Lorenz et lui-même essayaient de deviner comment, en changeant les conditions initiales et les paramètres du modèle, les symboles allaient se déplacer, en fonction du temps», c’est-à-dire d’une page imprimée à la suivante.

« Un jour de l’hiver 1961, Lorenz voulait examiner une séquence plus longue que d’habitude. Au vu de la lenteur de sa machine, il décida de partir non pas de l’origine de ses calculs, mais d’un point proche de la fin de sa première simulation. Il entra les paramètres correspondant à cet état, lança sa machine et partit prendre un café, en attendant les résultats. »

Surprise à son retour! Les résultats, absolument concordants au début entre sa courbe initiale et son prolongement se mirent rapidement à diverger. Croyant à une erreur de programmation ou à une défaillance de son ordinateur, Lorenz revérifia le tout, encore et encore.

« Inexplicable….jusqu’au moment où il comprit finalement qu’il avait introduit manuellement des valeurs approchées à la troisième décimale des valeurs générées par sa simulation initiale, qui elles avaient été calculées et imprimées avec six décimales. Il venait de découvrir l’extrême sensibilité aux conditions initiales de certaines équations non linéaires. Il comprit rapidement aussi que des systèmes décrits par de telles équations sont pratiquement imprédictibles, vu les erreurs de mesure qui entachent immanquablement les valeurs des conditions initiales.

Bien que les modèles de Lorenz ne représentaient qu’une caricature simpliste de la complexité de l’atmosphère, il venait de comprendre l’essence même de la météorologie et de la climatologie. Ces disciplines essayent en fin de compte de prédire le comportement d’un système extrêmement complexe, qui est en fait mathématiquement imprédictible à relativement long terme» .

J’en doute direz-vous ? Peut-être aussi évoquerez-vous les vagues océaniques. « Le système est également complexe direz-vous et présente également des périodicités multiples; et cependant on parvient à prévoir assez correctement l’amplitude des marées, longtemps à l’avance. C’est vrai, mais il s’agit là de la tendance générale du comportement du système océanique. Par contre, on est toujours incapable de prédire avec exactitude l’arrivée d’une tempête en un point donné, longtemps à l’avance. Pour le climat les choses sont différentes; la tendance générale est supposée bien connue par tout le monde : à chaque hiver succèdera un été puis un autre hiver. C’est aux détails qu’il convient de s’attacher (les « anomalies ») et ceux-ci sont parfaitement imprédictibles. »

Les anomalies de température (et le calcul de résidus).
À un moment donné, la température en divers points du globe varie entre moins 60°C et plus 50°C. En un point donné, la température varie au fil des saisons de quelques dizaines de degrés et de quelques degrés entre le jour et la nuit. Les anomalies de température ont été utilisées pour comparer les « dérives » de température en fonction du temps d’un point à l’autre du globe. On parle en climatologie d’une dérive globale de quelques centièmes de degré par an. On calcule l’anomalie de température en un point en comparant la température mensuelle moyenne à la moyenne de celle-ci calculée sur une période de référence qui s’étend sur les trente années précédentes (1930-1960, puis 1960-1990 ; la prochaine période de référence sera 1990-2020). La démarche est apparemment louable, car elle permet de comparer l’évolution de température en divers points du globe. Elle souffre cependant du fait, que la température en un point n’est pas constante sur le long terme. Les relevés ponctuels de température révèlent en effet des périodicités aussi multiples que significatives, s’étendant de façon quasi continue entre un jour et plusieurs millions d’années, en passant par des composantes décennales et centennales, qui rendent le concept même d’anomalie de température hautement discutable, pour ne pas dire inadapté. Car d’un point de vue purement statistique, l’approche est paradoxale. Les anomalies de température ne sont rien d’autre statistiquement qu’un calcul de résidus, subsistant après l’application d’un modèle à des données expérimentales. En inférence statistique, quand après un calcul de courbe de régression, les résidus ne sont pas constants et négligeables, on conclut que le modèle est imparfait et l’on change de modèle. Le GIEC lui interprète la non-constance des anomalies de température en clamant que c’est le système climatique qui dérive, tout en gardant une confiance aveugle dans ses modèles.

« Cette découverte fondamentale faite par Lorenz resta longtemps obscure, sans doute parce que, comme météorologue, il publia logiquement le résultat de ses travaux dans une revue de météorologie.» Ses considérations mathématiques, pas vraiment « digestes » par ses collègues météorologues, ne furent connues d’un public plus aguerri aux mathématiques que plusieurs années plus tard. On peut parler d’un secret partagé pendant plus d’une décennie par quelques scientifiques excentriques (des « mavericks » diraient les anglo-saxons).

« Progressivement cependant, certains météorologues commençaient à penser que les temps étaient mûrs pour appliquer la force brute des ordinateurs à la prévision météorologique, en répétant sans cesse les calculs fastidieux découlant de la juxtaposition des nombreuses lois physiques à prendre en compte simultanément. »

« Il faut se souvenir que les années soixante ont vu l’émergence de deux techniques révolutionnaires : le développement des ordinateurs et la conquête de l’espace. Sous l’impulsion de John von Neumann, attaché à IBM, tout un courant de pensée « mainstream » s’est développé, basé sur l’idée qu’en accumulant des masses considérables de données par observation satellitaire et en les faisant ʽdigérerʼ par un super ordinateur, on devrait finir par pouvoir décrire le système climatique.»

« C’est ainsi qu’au fil du temps, les douze équations de Lorenz en sont devenues 500 000. Mais 50 ans plus tard, les dizaines de modèles tournant pendant des jours voire des semaines sur de gigantesques ordinateurs ultra puissants et rapides ne sont toujours pas parvenus à simuler correctement l’évolution de la température moyenne du globe », et peut-être pire, les divergences entre simulations fournies par les divers modèles n’ont pas diminuées depuis les premières tentatives de simulation digitale.

« Il fallait se rendre à l’évidence la météorologie est extrêmement compliquée, et par ailleurs, le Principe d’Incertitude d’Heisenberg commençait à faire germer des doutes quant à l’optimisme de Laplace concernant le déterminisme de toutes choses dans la Nature.»

Il est tout simplement impossible de prédire la météo au-delà de quelques jours ; essayer de moyenner celle-ci sur l’espace et le temps pour en faire un exercice de climatologie est un non-sens.

La faute en est à l’effet papillon. En y regardant de plus près, avec des outils mathématiques développés spécialement pour étudier ce genre de systèmes, on s’aperçoit que les points ne sont pas distribués « normalement » (selon une distribution en cloche de Gauss) autour d’une moyenne ou d’une ligne de tendance, mais se répartissent autour de deux ou plusieurs « attracteurs étranges » autour desquels ils gravitent pendant un certain temps, avant de brutalement bifurquer d’un attracteur vers l’autre. Un tel système ne peut se décrire par une ligne de tendance purement déterministe et un certain bruit aléatoire qui s’y superpose. Entre ordre et désordre aléatoire existe un autre état, l’état chaotique, présentant des structures et des caractéristiques dynamiques propres qu’il convient d’aborder avec les outils mathématiques ad hoc, bien différents de ceux employés en statistique conventionnelle.

« Il est aussi illusoire de croire qu’on puisse modifier un tel système en modifiant volontairement l’un ou l’autre de ses paramètres. Cela revient à ajouter une carte à un château de cartes. On ne peut prédire ce qui va se passer: quand et comment le château de cartes va s’effondrer. Certes, on peut essayer de modifier un tel système, mais l’effet est absolument imprédictible. » C’est pourtant ce que prônent le GIEC et les gouvernements voulant imposer une politique minimisant l’empreinte carbone.

« Ce que Lorenz a découvert c’est le lien universel existant entre non-linéarité et non-prédictibilité »

La mécanique des fluides repose sur les équations de Navier-Stokes liant température, densité et viscosité. Ces équations sont non linéaires et ne peuvent être résolues analytiquement, sauf dans le cas de géométries très simples. Les algorithmes utilisés pour les résoudre numériquement (Runge-Kutta, etc.) présentent eux-mêmes un caractère chaotique quand on les applique à des systèmes non linéaires.

Il est parfaitement illusoire d’espérer simuler un système chaotique avec des algorithmes présentant eux-mêmes un caractère chaotique, alors que les conditions initiales et les conditions aux limites sont entachées d’erreurs expérimentales loin d’être négligeables.

Linéarité, périodicité, chaos et prédictibilité.
  • Un système linéaire donne une réponse qui est soit stable, soit continuellement croissante soit encore continuellement décroissante. Un système linéaire est parfaitement prédictible.
  • Un système oscillant est par essence non linéaire. Ces oscillations peuvent être parfaitement mono périodiques. Un tel système reste lui aussi parfaitement prédictible et se répète à l’infini.
  • Un système pluri-périodique présente un comportement plus complexe mais reste relativement prédictible, pour autant que l’on connaisse exactement l’amplitude, la période et la phase initiale de chaque sinusoïde qui décrit son comportement.
  • Un système peut devenir chaotique soit lorsque les périodicités différentes se multiplient à l’infini, soit lorsque sa réponse influence son excitation entrante (rétroaction ou « feedback » en anglo-saxon) et qu’il y a compétition entre une rétroaction non instantanée positive (amplifiante, source de réponses de plus en plus grandes) et une autre négative (visant à faire diminuer la réponse jusqu’à la faire disparaître). Un tel système est non périodique (« apériodique »).

Le climat présente-t-il lui-même une signature chaotique ? On peut très aisément le prouver mathématiquement à partir des relevés de température, mais aussi le comprendre intuitivement en énonçant simplement les caractéristiques des phénomènes qui l’affectent.

temperature-carottage.jpgLe système climatique terrestre est lié à une source (le Soleil) dont l’intensité présente une signature chaotique. Cette source s’applique à la Terre dont l’inclinaison, et donc l’exposition au Soleil, varie de façon chaotique. L’intensité du rayonnement solaire incident est aussi modulée par les nuages jouant le rôle de thermostat. La couverture nuageuse dépend quant à elle de la présence de rayons cosmiques dans l’atmosphère, selon les dernières recherches en la matière. L’abondance de ces rayons est elle-même modulée par les champs magnétiques terrestre et solaire, qui constituent en fin de compte le véritable organe de régulation du système, et dont les intensités présentent également une signature chaotique. Et on voudrait que la résultante (le changement de l’anomalie de température moyenne globale) des divers phénomènes cités soit déterministe et donc prédictible? Toutes les fluctuations évoquées ci-dessus seraient-elles trop faibles que pour affecter significativement le signal de sortie (l’anomalie de température moyenne) comme le prétend le GIEC? Que de non ! Car, précisément suite à l’ensemble des interactions mentionnées ci-dessus, le système climatique terrestre est hautement non linéaire et chaotique et donc hypersensible aux conditions initiales et à la valeur des trop nombreux paramètres qui le pilotent. Croyez-vous encore que la température moyenne globale serait déterministe et donc prédictible ? Le GIEC et quelques hommes politiques influents (Obama, Al Gore, Hollande, etc.) en sont toujours persuadés et vous font les poches, sous forme de taxes carbone, d’augmentation de votre facture d’électricité, j’en passe et des meilleures, pour pousser plus loin leur utopie… à vos dépens.

J’ai rajouté ce lien provenant du site « image des mathématiques », dont le titre est : Le moulin à eau de Lorenz. Le chaos est expliqué en utilisant un objet chaotique imaginé par Lorenz lui-meme: Un moulin à eau.
C’est un exposé qui utilise des animations et qui est voisin et complémentaire de celui d’H. Masson. Le climat comme objet chaotique est là aussi bien mis en évidence et le rapport avec la fréquence des évènements climatiques remarquables exliqué. (Bernnard)


[1]
Librement inspiré de Chaos: The amazing science of the unpredictable , James Gleick (Vintage 1998)

81 Comments     Poster votre commentaire »

1.  Bernnard | 20/10/2015 @ 7:22 Répondre à ce commentaire

Jetez-vous dans le Chaos…

2.  jmr | 20/10/2015 @ 9:01 Répondre à ce commentaire

Je m’étais intéressé à un livre, « Le chaos dans le système solaire » http://minilien.fr/a0amkn qui pose le problème des 3 corps bien résumé par ce commentaire d’un lecteur :

« Le bel équilibre des équations Newtoniennes n »est qu’apparent. L’univers n’est pas une horloge. Elles cachent le chaos et l »indétermination. Par exemple, on est incapable de savoir si le triplet Lune, Terre, Soleil est stable à long terme, ou si le système solaire n »est pas susceptible d’éjecter une de ses planètes. C »est ce qu’a découvert Poincaré, il y a plus d’un siècle. Tenter d’expliquer le mouvement des planètes a été une aventure. Ce livre en est le récit. »

J’ai été stupéfait de découvrir qu’au delà de 2 corps en orbite dans l’espace les variations à long terme et même la stabilité du système sont impossibles à prévoir, et que cela a été l’origine de la recherche autour du chaos.
Dans l’article ci-dessus une chose me frappe : l’idée de base du GIEC que si l’on ne touche à rien la t° en un endroit du globe est globalement stable. Une simple lecture de l’histoire du climat montre que c’est faux. Dans ce contexte, qu’est-ce qui peut être une anomalie ?
Et donc s’il n’y a PAS anomalie qu’est-ce que décrit une courbe des températures ? RIEN ! Une simple observation, dont on ne peut tirer AUCUNE PRÉVISION, que ce soit à long terme ou à court terme. Sinon que les millions investis dans le GIEC ne servent qu’à nourrir une polémique vide de sens scientifique.

3.  yvesdemars | 20/10/2015 @ 12:19 Répondre à ce commentaire

NKM si elle se souvient de ses études scientifiques devrait lire cela
Hollande Fabius et Royal inutile ils n’ont fait que l’ENA et croient au RCA et à COP21 pour tenter de sauver la déroute prévue en 2017

4.  Christial | 20/10/2015 @ 12:50 Répondre à ce commentaire

Papier d’une grande qualité je ne le conteste pas mais contradictoire avec les affirmations d’une partie des climato-sceptiques. Pour eux la corrélation du climat avec les pulsations et l’activité du soleil est établie et forte.
Le passage du ponctuel chaotique au global, à la résultante imprévisible est à mon sens (et avec mes très très modestes compétences dans ce domaine) un peu rapide.
Un cumul de nombreux phénomènes, certes chaotiques individuellement, ne peut-il avoir une distribution gaussienne et donc rendre le climat global prévisible ?

5.  R Walrus | 20/10/2015 @ 12:59 Répondre à ce commentaire

Merci de et intéressant article d’histoire des sciences et technique.

On aurait aussi pu citer le GPS (« Général Problem Solver) qui date de la même époque.

Mais certains tentent de réécrire cette histoire pour justifier les thèses du GIEC.
Voir « Des méchants si parfaits » : http://www.skyfall.fr/?p=1658

6.  Nicias | 20/10/2015 @ 13:24 Répondre à ce commentaire

Christial (#4),

Les Climato-sceptiques ne sont pas un bloc monolithique. Ceux qui revendiquent un rôle prédominant du soleil dans l’évolution récente du climat ne parlent que pour eux-mêmes.

7.  the fritz | 20/10/2015 @ 13:39 Répondre à ce commentaire

Christial (#4),
Un cumul de nombreux phénomènes, certes chaotiques individuellement, ne peut-il avoir une distribution gaussienne et donc rendre le climat global prévisible ?
———————–
les statisticiens sont capables de tout

8.  Jdrien | 20/10/2015 @ 13:47 Répondre à ce commentaire

Christial (#4), Si vous êtes allé voir le lien en bas de l’article, dans l’exemple du moulin à eau, le soleil est le robinet au dessus du moulin, c’est sûr que son comportement est primordial, ce qui n’est pas contritoire avec le fait que le comoprtement du moulin ( donc le climat) soit.chaotique.
Désolé pour les fautes,dur décrire sur un ipad surtout de corriger

9.  yvesdemars | 20/10/2015 @ 14:18 Répondre à ce commentaire

the fritz (#7),
si on reste sur la météo convenons que celle-ci est en France est régi par deux « attracteurs » dominants:
un régime dépressionnaire d’ouest apportant précipitations, douceur en hiver et fraîcheur en été
un régime anticyclonique apportant sécheresse, froid en hiver et chaleur en été

la situation oscille en permanence entre ces deux états aussi n’existe-t-il pas de situation intermédiaire stablethe fritz (#7),

la distribution des températures journalières en un lieu donné ne suit pas une loi de Gauss, c’est pour cela que le qualificatif de normales n’a pas de sens, ce qui est normal c’est qu’elles soient au dessus ou en dessous

10.  Cho_Cacao | 20/10/2015 @ 14:21 Répondre à ce commentaire

Ce n’est pas parce qu’un système est chaotique qu’il est obligatoirement impossible de prévoir son évolution sur une gamme donnée de temps. Cela dépend de son horizon temporel de prévision et donc du spectre des exposants de Lyapunov (pour ceux à qui ça dit quelque chose).

Par exemple, le système solaire est chaotique (interactions gravitationelles à N>2 corps), mais cela n’empêche pas que l’on peut prévoir les orbites des différentes planètes sur plusieurs centaines ou milliers d’années.

11.  Bernnard | 20/10/2015 @ 14:42 Répondre à ce commentaire

Cho_Cacao (#10),
L'horizon des évènements prévisibles dans un système considéré comme chaotique dépend de la précision des mesures des paramètres influant le système à un moment donné.
Imagions 2 terres "clones" avec absolument tous les paramètres imaginables qui influent sur le climat à un instant "t" et au lieu "L", exactement semblables à une infinité de décimales prés sauf un seul paramètre différent : par exemple 1 millionième de différence de pression atmosphérique (non-mesurable) à un endroit d'une des terres.
Que vont devenir ces deux terres qui sont "clones" jusque dans la forme, la puissance des dépressions, la forme et le nombre de nuages, toutes deux éclairées par le soleil de la même façon et au même endroit sur la même orbite. (Imaginons…)
Ce que suggère l'animation du moulin est qu'au bout d'un moment (l’horizon des prévisions) les destins des deux terres divergent. C'est l'imprévisibilité qui ne vient non pas des mathématiques, mais plus des incertitudes de mesure. Ce n'est pas en utilisant des ordinateurs plus puissants que cet horizon bougera si les incertitudes de mesure ne s’améliorent pas.
Comment prétendre prévoir le climat dans les 100 années qui viennent alors que la météo est prévisible à quelques jours ?
LE CLIMAT EST ÉMINEMMENT CHAOTIQUE.

12.  yvesdemars | 20/10/2015 @ 14:47 Répondre à ce commentaire

Cho_Cacao (#10), oui mais les échelles de temps ne sont pas les mêmes entre des corps célestes massifs et des molécules d’air perpétuellement brassées à la limite quand on est dans le domaine quantique on ne peut faire aucune prévision à cette échelle sur la position des électrons par exemple

13.  Cho_Cacao | 20/10/2015 @ 15:25 Répondre à ce commentaire

yvesdemars (#12),
et
Bernnard (#11),

Il ne faut pas oublier que le climat est défini comme la moyenne temporelle de la météorologie. Une météo très changeante n’implique pas spécialement un climat imprévisible (cf l’existence même du concept de saison).

Par exemple : le bruit blanc Gaussien induit souvent des contributions singulières dans les fonctions qui en dépendent, puisqu’il peut varier de plus à moins l’infini en un temps infinitésimal. Prendre la moyenne temporelle des fonctions « efface » ces singularités, si la moyenne est effectuée sur des temps suffisamment longs.

14.  Jdrien | 20/10/2015 @ 15:35 Répondre à ce commentaire

Cho_Cacao (#13), Vous parlez des saisons, excellent exemple de systėme chaotique, en fait l’été et l’hiver sont 2 attracteurs, le printemps et l’automne ,2 saisons de transition, instables

15.  Christial | 20/10/2015 @ 19:35 Répondre à ce commentaire

Jdrien (#8),
Pour la modélisation des taches solaires le Dr Sebastian Lüning et le professeur Fritz Vahrenholt ont utilisé « un système chaotique à évolution lente avec des phases qui ne sont jamais répétées exactement de la même façon. »
http://www.contrepoints.org/20.....climatique

16.  Henri Masson | 20/10/2015 @ 19:53 Répondre à ce commentaire

Calculer la moyenne d’un signal chaotique (disons à deux attracteurs) ne présente aucun intérêt: Le signal passe l’essentiel de son temps au voisinage de l’un ou l’autre attracteur (donc en positions « extrêmes »). la disribution d’amplitude n’est pas normale mais obéit plutôt à une distribution en forme de U. Regardez la figure jointe à l’article reprenant les mesures de Vostok pour vous en convaincre (la distribution d’amplitude de ces mesures a été calculée, mais n’a pas été jointe pour ne pas alourdir la présentation)
Par conséquent, tenter de tracer des intervalles de confiance à 95% avec une fenêtre « + – 2 sigma » (deux fois l’écart-type de la distribution) autour de la moyenne (ou autour d’une droite de régression) n’est pas valable statisitiquement, car l’hypothèse sous-jacente de normalité n’est pas respectée. c’est pourtant ce que fait le GIEC.
Comme rappellé dans l’article joint consacré à la roue de Lorenz, ce type de signal est lui-même parfaitement imprédcitble car hypersensible aux conditions initiales; mais la distribution d’amplitude est « robuste ». Ce qui n’est pas prédicitble c’est l’instant d’apparition et donc l’ordre d’apparition des évènements remarquables (comprenez « extrêmes ») Si la fenêtre d’observation est suffisament longue, le signal est stationaire (sans tendance). Avec des fenêtres d’observations plus courtes, on peut se leurer et croire détecter des tendances qui n’en sont pas. C’est ce qu’a fait le GIEC

17.  Rosa | 20/10/2015 @ 22:36 Répondre à ce commentaire

Henri Masson (#16),

Monsieur Masson, il faut relire Lorentz in extenso et parler des poids respectifs de la prévisibilité de 1ère espèce et de la prévisibilité de 2ème espèce. Si la première est effectivement primordiale pour la météo, son influence est négligeable pour le climat. Je n’invente rien ; c’est du Lorentz pur jus.

Quant à « l’hypothèse sous-jacente de normalité » pour pouvoir « tracer des intervalles de confiance » j’espère que c’est une boutade.

18.  Rosa | 20/10/2015 @ 22:40 Répondre à ce commentaire

Henri Masson (#16),

« […] s’applique à la Terre dont l’inclinaison, et donc l’exposition au Soleil, varie de façon chaotique […] »
Hé bé … comment expliquer alors que les éléments orbitaux aient été calculés jusqu’à 3MA en arrière (et a minima 1 MA en avant) ?
Après Lorentz, relire Berger et al.

19.  Henri Masson | 20/10/2015 @ 22:50 Répondre à ce commentaire

Cho_cacao:
A ptropos du caractère (indéniablement) chaotique du soleil, mais de la détection de sa signature dans les « proxies » climatiques.
En fait vous abordez là le problème de la synchronisation dans des systèmes complexes (ou du déphasage récurent entre les mesures de deux phénomènes) (cfr synchronisation des pendules de Huygens).
Cette sychronisation peut se faire par mécanisme LEGION (cfr Google pour plus de détails) d’influence mutuelle, sans qu’on puisse à proprement parler de liens de cause à effet. C’est ainsi que l’on explique le chant des cgales et les ballets des vers luisants, par exemple.
Il faut cependant toujours une horloge « maîtresse » qui donne l’impulsion initiale.
Nous pourrions discuter l’application de cette théorie, et de façon plus générale de l’analyse de la structure et de la dynamique des systèmes complexes (« dynamical systems ») au cas du système climatique dans un prochain article. Si cela ne vous rebute pas, bien sûr..

20.  Henri Masson | 21/10/2015 @ 3:22 Répondre à ce commentaire

rosa (#17)
je faisais simplement allusion à la pratique (trop) courante en climatologie qui consiste à prendre COMME intervalle de confiance à 95% l’intervalle +- 2 sigma. Ceci est bien spécifique à une distribution normale. Evidement quand on fait des statisitiques en appuyant sur les boutons de SPSS ou un autre logiciel du même genre, sans trop réfléchir, ce sont des choses que l’on finit par oublier.
Il est vrai cependant, que si l’on effectue une analyse d’amplitude des signaux, on peut reconstruire empiriquement un intervalle de confiance à partir de l’histogramme des amplitudes. Cela ne se fait que trop rarement.
Par ailleurs, si vous avez une distribution en U (comme c’est le cas avec des signaux d’un système chaotique à deux attracteurs, vous serez bien en peine de définir un intervalle de confiance unique autour d’une moyenne qui se trouve au creux du « U », alors que l’essentiel des points se trouvent aux deux extrémités de la distribution.

21.  Henri Masson | 21/10/2015 @ 4:26 Répondre à ce commentaire

rosa (#18)
Vous n’avez jamais entendu parler du problème des trois corps en mécanique? Les calculs de Berger ne sont qu’une approximation, qui est cependant bien utile; je le reconnais. Mais cela reste une approximation.
Vous n’avez jamais jeté un coup d’oeil sur les déplacements des pôles mécaniques de la Terre en fonction du temps (« wooble » en anglais)?
Et ne me dites pas que ces variations sont trop faibles que pour être significatives. N’oubliez pas: le système climatique est hautement non linéaire (et je ne vais pas reprendre l’histoire du papillon de Lorenz pour vous en rappeller les conséquences).
Ce qui est important pour le fond de la discussion (la prédicitibilité des données climatiques, et je ne parle pas de météo) c’est que les courbes de température relevées à Vostok (mentionnées brièvement dans l’article), comme la plupart des autres proxies d’ailleurs, présentent indéniablement une signature chaotique.
Remarquez que je parle ici de données expérimentales, certes entachées d’erreurs de calibrage, mais qui ne reposent sur aucune théorie (dont on ne peut vérifier les hypothèses)
Il suffit de les repésenter dans un plan des phases pour faire apparaître cette signature chaotique.
Les données (collationnées par Jouzel notamment, donc vraissemblablement au-dessus de tout soupçon pour vous) sont publiques; les logiciels pour en faire l’analyse sont des « freewares » conviviaux. C’est donc à la portée de tout un chacun de le vérifier, comme je l’ai fait moi-même.
Définir l’horizon de prédicitibilié est plus complexe: il faut calculer les coefficients de Hurst ou mieux les exposants de Lyapounov pour ce faire (comme le rappelait Cho_caco (#10) plus haut dans cette discussion).
C’est ainsi que tout le monde s’accorde pour dire que l’on devrait replonger vers une période glaciaire (*) dans un futur proche (à l’échelle géologique, rassurez-vous), mais personne n’est capable de vous dire exactement quand….même pas Berger que vous citiez.
(*) je ne parle pas ici d’une mini-glaciaition,comparable au minimum de Dalton (~1820-1830) que certains analystes de signaux non-linéaires annoncent pour les décades à venir, mais de la « retombée » qui devrait logiquement survenir dans le diagramme de Vostok, si (pseudo-) périodicité il y a, bien sûr

Pour ce qui est de l’équation de Lorenz (dont la découverte est l’objet de l’article que nous commentons; je n’ai pas évoqué ses autres travaux) je ne puis que vous recommander l’ouvrage de Colin Sparrow « The Lorenz equation: bifurcations, chaos and strange attractors » (Springer verlag, 1982) qui vous en fera apprécier toutes les subtilités, et nous pourions en reparler si vous le souhaitez. Je sais cela date, mais à mon avis c’est ce qu’on a fait de mieux sur le sujet.

22.  Bernnard | 21/10/2015 @ 12:27 Répondre à ce commentaire

Le fond du débat est la réponse à la question suivante : si nous savons dans les moindres détails absolument tout sur les liens, paramètres et équations qui influencent le « climat global » (si tant est que ça ait une signification), sommes nous en mesure de prédire précisément celui-ci dans une centaine d’années ? Manifestement et à cause de nos lacunes à la fois, des paramètres, des liens entre eux, et des équations qui les régissent ainsi que de l’incertitude de nos mesures, il est illusoire de prétendre à une telle performance.

Cela n’a rien à voir avec l’astronomie où les grandes lois sont hyper connues (peut être pas absolument toutes d’ailleurs, des découvertes peuvent encore se faire) et les positions et vitesses des astres sont connues avec une grande précision, ce qui repousse l’horizon des événements prévisibles en astronomie.

Prévoir avec une immense incertitude est le moins qu’on puisse faire pour le climat qui est hautement chaotique.
La science du climat n’est pas comprise contrairement à ce que le GIEC tente d’insinuer.

23.  Murps | 21/10/2015 @ 12:33 Répondre à ce commentaire

C’est vrai que la littérature scientifique, même vulgarisée, sur ce sujet important est assez maigre.
Ce sont les mêmes bouquins que l’on trouve dans les rayonnages depuis des années.
Quant aux « papiers », ils ne font état d’aucune découvertes majeures et surtout pas d’une théorie générale de la turbulence, ou ça se saurait.

Henri Masson (#20),

Par ailleurs, si vous avez une distribution en U (comme c’est le cas avec des signaux d’un système chaotique à deux attracteurs, vous serez bien en peine de définir un intervalle de confiance unique autour d’une moyenne qui se trouve au creux du “U”, alors que l’essentiel des points se trouvent aux deux extrémités de la distribution.

Que pensez vous alors d’une moyenne annuelle de la température d’une station avec ses « attracteurs » saisonniers ? Quid du calcul habituel de « l’erreur standard » ?
Qu’on sorte une « tendance », à la rigueur, mais quelle barre d’erreur est pertinente si la distribution n’est pas une « gentille gaussienne » ?

24.  Hug | 21/10/2015 @ 14:05 Répondre à ce commentaire

Henri Masson (#19),

Si cela ne vous rebute pas, bien sûr..

En ce qui me concerne, pas du tout, et même bien au contraire. Merci de faire honneur au site avec cet article très intéressant.

25.  Herté07 | 21/10/2015 @ 16:23 Répondre à ce commentaire

Henri Masson (#20),

si l’on effectue une analyse d’amplitude des signaux, on peut reconstruire empiriquement un intervalle de confiance à partir de l’histogramme des amplitudes. Cela ne se fait que trop rarement.

C’est certainement fait par le GIEC! au moins sur l’Ajustement du forçage radiatif des nuages dus aux aérosols qui est de -0,55 [-1,33 à -0,06]. Mais tous les autres forçage étant à +- 2 sigma, j’ai un doute. (cf figure RID.5)

26.  lemiere jacques | 21/10/2015 @ 17:24 Répondre à ce commentaire

une petite remarque

dans le premier rapport du giec :

in climate research and modelling, we should recognize that we are dealing with a coupled chaotic system and therefore long term prediction ot future climate states is not possible…
bon ça c’est fait..
alors je présume en gros on fait quand même un erstaz de la circulation, pour mélanger un peu l’atmosphère le reste…ben on se débrouille.

27.  lemiere jacques | 21/10/2015 @ 17:46 Répondre à ce commentaire

jmr (#2),
en mécanique newtonienne on peut décrire correctement le mouvement de deux « points materiels »..ensuite ça se complique.

28.  the fritz | 21/10/2015 @ 22:29 Répondre à ce commentaire

Rosa (#18),
Rosa, puisque André Berger ne vous a rien caché , pouvez vous résoudre une énigme qui me titille depuis 15 ans ; je cite le texte que j’ai écris après la sortie du bouquin de Bard
C’est d’ailleurs suite à ces variations de flux prévues pour les hautes latitudes que dans les années soixante dix , la mode était d’annoncer un lent glissement vers la prochaine glaciation qui verrait le jour dans une dizaine de milliers d’années.
Duplessy et Morel, Gros Temps sur la Planète , Odile Jacob 1990 donnent une figure qui montre bien que la période actuelle correspond à un maximum d’insolation au solstice d’été pour les régions situées vers 65° de latitude Nord. Cette figure est reproduite telle quelle dans bien des ouvrages et des sites de par le monde. Pourtant ces auteurs prévoient , je cite : «  » » une croissance modérée des glaciers continentaux au cours des prochains millénaires , passant par un maximum glaciaire dans 5000 ans et par un second maximum dans une vingtaine de millénaires pour atteindre finalement un niveau comparable à celui du dernier âge glaciaire dans environ soixante mille ans » » » »
On devrait donc situer la position actuelle à mi pente de la décroissance de cette courbe .
Mais quelle ne fut pas ma perplexité en découvrant dans l’article de A. Berger lui-même dans “L’homme face au climat” (Bard, 2006), que contrairement aux figures précédentes, la position de l’époque actuelle se situe dans le creux succédant à ce pic sur cette même courbe prédictive; et il confirme en écrivant que «  » » en effet l’insolation d’été commence à décroître à partir de 10 ka BP » » » ce qui correspond bien à une situation au creux de cette courbe ; ceci représente néanmoins un glissement vers l’avenir d’une dizaine de milliers d’années sur cette courbe par rapport à la figure de Morel Duplessy. Alors s’agit-il d’une coquille?
Certes non, parce que Berger écrit lui-même dans son livre “climat de la Terre”, de Boeck 2000 qu’en l’absence de toute autre perturbation naturelle ou anthropique, le refroidissement de la Terre, commencé il y a 6000 ans, se poursuivra encore pendant 5000 ans avant que le climat ne se réchauffe légèrement, pour plonger ensuite vers des conditions glaciaires d’ici à 60000 ans. Cette citation traduit parfaitement la courbe d’insolation avec la position au jour d’aujourd’hui au milieu de la pente décroissante de cette courbe d’insolation du grand Nord au solstice d’été ce qui est en accord avec ce qu’ont écrit Morel et Duplessy, mais pas avec leur figure .

Il faudrait donc lever le mystère de cette translation, parce que, en plus de semer le doute quant à la fiabilité de ses calculs et la pertinence de la théorie de Milankovitch, elle suscite pas mal de questions:
– pour être actuellement dans une des interglaciaires les plus durables du Quaternaire, on ne reçoit cependant, dans les zones boréales, qu’une énergie guère plus grande que lors de la dernière glaciation.
– est-ce que cette dégringolade de 60 W.m-2 de l’insolation pendant les 10 derniers millénaires est compatible avec la relative stabilité du climat observée depuis le début de l’Holocène
– est-ce que l’on ne voudrait pas nous préparer à l’idée que l’augmentation anthropique du CO2 nous sauvera de l’entrée certaine dans la prochaine glaciation, comme cela a déjà été suggéré par Ruddimann (2003) pour la civilisation préhistorique- ce qui serait somme toute une bonne nouvelle

https://books.google.fr/books?id=aAQ9sZZ9PwsC&pg=PA23&lpg=PA23&dq=Insolation+65+nord+au+solstice+d'%C3%A9t%C3%A9&source=bl&ots=V_tLzvwXEc&sig=V5w8DA-ktqDhD095hhCe3mQAPMc&hl=fr&sa=X&ved=0CEUQ6AEwCGoVChMI5M_dgLDUyAIVxgoaCh0JEwNs#v=onepage&q=Insolation%2065%20nord%20au%20solstice%20d'%C3%A9t%C3%A9&f=false

29.  Rosa | 21/10/2015 @ 23:09 Répondre à ce commentaire

Henri Masson (#21),
« […] intervalle de confiance à 95% l’intervalle +- 2 sigma […]»
Commencer par exemple par Leith, 1973 (mais ça ne suffit pas.)

« Les calculs de Berger […] restent une approximation »
Qui est cependant bien pratique pour expliquer la partie non chaotique du signal.

« Wobble »
C’est dans Berger et autres auteurs

« […] c’est que les courbes de température relevées à Vostok […] présentent indéniablement une signature chaotique. »
Une fois que l’on a retiré la part non chaotique du signal.

« Remarquez que je parle ici de données expérimentales, certes entachées d’erreurs de calibrage, mais qui ne reposent sur aucune théorie (dont on ne peut vérifier les hypothèses) »
Non. Nous ne parlons pas de données expérimentales mais d’observations. Les hypothèses sont parfaitement posées. Et il n’existe jusqu’à présent qu’une seule théorie pour expliquer ces hypothèses.

« Les données collationnées par Jouzel […] »
Jouzel n’est pas le seul glaciologue mondial que je sache.

« […]pour faire apparaître cette signature chaotique […]»
Mais également une grosse partie non chaotique.

« C’est donc à la portée de tout un chacun de le vérifier »
Malheureusement non. Ces analyses ne sont pas à la portée de tout un chacun.

« […] il faut calculer les coefficients de Hurst ou mieux les exposants de Lyapounov […] »
Il y a plein d’autres méthodes pour calculer des autocorrélations temporelles et spatiales.

« C’est ainsi que tout le monde s’accorde pour dire que l’on devrait replonger vers une période glaciaire (*) dans un futur proche (à l’échelle géologique, rassurez-vous), mais personne n’est capable de vous dire exactement quand….même pas Berger que vous citiez. »
Ce dont on est certain (et il n’y a pas que Berger qui le dit) c’est que notre holocène ressemble fortement à MIS11 du point de vue des éléments orbitaux ce qui nous fait un interglaciaire de l’ordre de 40kan au lieu de 10 ; ce qui n’est déjà pas si mal.

« la “retombée” qui devrait logiquement survenir dans le diagramme de Vostok, si (pseudo-) périodicité il y a, bien sûr »
Là vos analyses m’intéressent fortement. Etes-vous réellement en mesure de démontrer (par le calcul) qu’il n’existe pas de périodicité dans les enregistrements arctiques et antarctiques ? C’est le prix Nobel assuré et je m’en réjouis par avance.

« Pour ce qui est de l’équation de Lorenz [..] je ne puis que vous recommander […] »
Pour apprécier toutes les subtilités de Lorentz, je préfère lire Lorentz plutôt que des livres qui parlent de Lorentz histoire d’avoir une vision globale de la chose ; comme par exemple Predictability : a problem partly solved (1976). Chacun ses lectures.

A vous lire.

30.  Rosa | 21/10/2015 @ 23:21 Répondre à ce commentaire

the fritz (#28),
De mémoire, j’ai toujours vu les courbes de Berger comme celle que vous indiquez. Je n’ai cependant pas le bouquin de Duplessy & Morel sous la main pour me faire une idée i) du décalage que vous mentionnez et ii) des références utilisées par D&M. Un scan serait-il possible ?

31.  Nicias | 22/10/2015 @ 7:27 Répondre à ce commentaire

Rosa (#29),

Dans la mesure ou on ne sait pourquoi on entre ou on sort d’un interglaciaire je doute que la seule connaissance des éléments orbitaux puisse permettre de raconter que l’holocène va durer 40000 an.

32.  Nicias | 22/10/2015 @ 7:54 Répondre à ce commentaire

Nicias (#31),

Pour mémoire :
http://www.skyfall.fr/?p=1280
Les variations de l’insolation expliquent très bien celles des calottes sauf lors des interglaciaires ( cf fig 14).

33.  the fritz | 22/10/2015 @ 9:51 Répondre à ce commentaire

Rosa (#30),Je vois que la confiance règne : je vais refaire un nouvel effort pour trouver la courbe originelle qui a inspiré les « écrivains scientifiques » des années 90, car la courbe avec la situation actuelle au sommet du pic n’est pas uniquement trouvée chez D et M, mais aussi chez Villeneuve et Richard (vivre les changements climatiques ) et bien d’autres ; peut-être ai-je plus de chance sur des sites , mais là des corrections auront certainement été apportées
Mais il n’y a pas que les figures ; les textes , même ceux de Berger évoluent d’une publication à l’autre et cela c’est plus grave

34.  lemiere jacques | 22/10/2015 @ 17:53 Répondre à ce commentaire

Nicias (#31), oui…cause toujours quand tu connais pas les causes… quand on lit ce genre de prose ça le fait toujours penser aux scientifiques de 19eme capables de trouver des « explications » au fait que le soleil brille, ou que les volcans vulcanisent…

35.  abc | 22/10/2015 @ 21:35 Répondre à ce commentaire

Un système est souvent chaotique quand il est peu contraint. L’atmosphère a des libertés pour répondre à la contrainte globale, ce qui est la variabilité « météorologique ». Mais la moyenne globale (et glissante dans le temps) de l’atmosphère est contrainte par la nécessité d’avoir un bilan global à peu près équilibré. Ca se voit sur les simulations réalistes (celles qui arrivent à accrocher un état à peu près équilibré) et ça se voit dans l’historique des indicateurs climatiques.
Ceci dit, l’histoire de Lorenz est très bien racontée. Mais la Nature s’amuse à créer de l’ordre et des pseudo-équilibres, au point qu’on prévoit mieux les choses en utilisant les équilibres qu’en appliquant des équations comme Lorenz qui ne disent rien à priori sur l’équilibre final. Et le succès des statistiques gaussiennes c’est la preuve de l’existence de ces pseudo-équilibres. On a le droit de ne pas croire à ces équilibres et supposer qu’à priori tout est chaotique, mais vous faites quoi du succès de la science moderne qui utilise à fond ces principes d’équilibre ? Vous le jetez à la poubelle sur le seul principe que ces équilibres ne sont pas certains ? Le scientifique est plus intelligent, il applique la méthode tant qu’elle marche, et se jure de comprendre plus tard pourquoi ça marche. En attendant, la société profite de ce qui marche. Et d’ailleurs la société impose de plus en plus des statistiques de réussite à la science, tellement la science arrive à des prouesses. Alors qu’au fond, tout tient en l’idée d’équilibres, d’hypothèses linéaires, de distributions gaussiennes…

36.  volauvent | 23/10/2015 @ 9:07 Répondre à ce commentaire

abc (#35),

« Le scientifique est plus intelligent, il applique la méthode tant qu’elle marche, et se jure de comprendre plus tard pourquoi ça marche. En attendant, la société profite de ce qui marche. »

Le problème, dans le cas du climat, c’est que cela ne marche pas!

37.  miniTAX | 23/10/2015 @ 9:44 Répondre à ce commentaire

Ca se voit sur les simulations réalistes (celles qui arrivent à accrocher un état à peu près équilibré)

abc (#35), euh… il n’y a aucune simulation qui arrive à « accrocher un état équilibré » dans l’état actuel des GCMs. Les modèles divergent tous, sans exception, à cause de la manière de simuler la rétroaction de la vapeur d’eau (plus réchauffement => plus de vapeur d’eau => plus d’effet de serre => plus de réchauffement, etc), il n’y a qu’à voir les résultats du projet ClimatePrediction déjà signalés sur Skyfall.
Pour l’instant, personne n’a encore percé le secret de l’équilibre homéostatique de la température terrestre (sauf peut-être Miskolczi avec son « effet de serre saturé », qui est mille fois plus plausible que le stupide « effet de serre »-qui-n’est-pas-un-vrai-effet-de-serre réchauffiste).
Alors insinuer en plus que les modèles seraient capables de converger vers un attracteur, c’est franchement du grand n’importe quoi.

38.  volauvent | 23/10/2015 @ 9:59 Répondre à ce commentaire

Rosa (#29),

Ce débat intéressant semble être très « à la mode » sur les blogs en ce moment. Je n’ai guère investigué sur ce sujet jusqu’à présent, aussi j’aurais quelques questions plus « pragmatiques » qu’un ping pong à coups de Lyapounov et autres Hurst.

D’abord, le GIEC, dans ses premiers rapports, admettait le caractère chaotique du climat, et en déduisait sa non prédictibilité. Il insistait (ce qu’il ne fait plus) sur le fait que les simulations étaient des scénarii et pas des prédictions. Ce n’est plus le cas des derniers rapports. Y a t il eu des avancées théoriques entre temps qui permettent cette évolution?

Surtout, quels travaux théoriques permettent de dire que la moyenne des résultats de température mondiale de 5 runs d’un modèle climatique est représentative de quelquechose? Qu’en est il des autres caractéristique d’un climat (rose des vents,pluviométrie, hygrométrie, saisonnalité…). Qu’en est il des résultats à l’échelle régionale, qui seule importe pour les conséquences et l’adaptation?

L’intervalle de confiance à 95% des résultats de température de 30 modèles climatiques
(pour la plupart consanguins) calculé selon des lois probabiliste est il représentatif de quelque chose? Quels sont les justificatifs théoriques?

Sur un plan plus général, n’étant pas familier avec la théorie du chaos, je suis surpris de certaines affirmation qui se répètent dans votre post comme »Qui est cependant bien pratique pour expliquer la partie non chaotique du signal. » Il me semble qu’un signal composé d’une « partie chaotique et non chaotique » ne peut être que globalement chaotique? Dans ce cas, il est bien prédictible?

Enfin, un point de détail mais qui me gêne. Vous faites une réflexion inutilement désobligeante à H Masson sur un point de sémantique mineur:
« Non. Nous ne parlons pas de données expérimentales mais d’observations. Les hypothèses sont parfaitement posées. Et il n’existe jusqu’à présent qu’une seule théorie pour expliquer ces hypothèses. »

Evidemment, tout le monde avait compris que H M voulait dire « observation » et pas « expérimentation ». Mais dans la phrase de remarque, vous faites vous aussi une erreur sémantique (je l’espère): une théorie « n’explique pas » ses hypothèses. Ce sont les hypothèses qui construisent la théorie, et ensuite, on « vérifie » les hypothèses.

39.  Jojobargeot | 23/10/2015 @ 10:00 Répondre à ce commentaire

yvesdemars (#9), Concernant ce basculement entre ce que l’on appelait encore il n’y a pas si longtemps un climat océanique et un climat continental, je vous encourage tous à mettre en relation ces basculements avec minima et maxima de l’activité solaire. Corrélation n’est pas raison, certes mais ça « colle » assez bien. J’irai même plus loin, plus l’activité est intense, plus l’effet océanique est marqué et plus les T° hivernales sont douces, ce qui influe fortement la moyenne annuelle. De là à penser que des tempêtes comme « Martin » ou « Lothar » qui se sont produites en hiver, pendant une montée d’activité proche du maxima et suivant un El Niño puissant, seraient issues d’une conjonction de tous ces effets, est une hypothèse fort soutenable et même à creuser.
Pour mémoire, fin 1987, la Bretagne avait subit de fortes tempêtes durant des circonstance solaires analogues et l’absence d’un El Niño.
Mieux, c’est durant les périodes de basculements entre ces deux types de « climats » que se produisent les épisodes caniculaires, ni l’un ni l’autre ne prenant le dessus, l’air tropical remonte très facilement vers le nord.

Depuis que le soleil s’est calmé, les évènements météorologiques extrêmes sont aussi en diminution, et ce n’est pas seulement AMHA le résultat d’une stagnation des T° induite par changement de l’albédo engendré par les nuages, un autre phénomène durant le maxima influence le taux de vapeur d’eau à la hausse au delà de l’effet de saturation par la température et amplifie de fait l’intensité des météores.
C’est un domaine à creuser j’en suis convaincu et la présence de pointures en thermodynamique sur ce site devrait nous y aider.

Ceci résulte d’une approche intuitive mais pas gratuite et basée sur 26 ans d’observations personnelles, qui m’ont permis depuis de rarement subir des vacances estivales ou hivernales (Ski) pluvieuses, en recherchant des destinations en fonction des influences solaire.
Mon épouse à très rarement été déçues de mes choix, il va de soi que jamais je ne l’ai informée des raisons qui guidaient mes choix, sinon elle m’aurait pris pour un dingue, comme certainement certains d’entre vous.
En tout cas pour bibi ça à bien fonctionné et ça fonctionne encore, Piers Corbyn ne dira pas le contraire.
Honnêtement, depuis que l’activité à faibli, les variations sont moins marquées et l’exercice est plus difficile.

40.  de Rouvex | 23/10/2015 @ 11:33 Répondre à ce commentaire

Jojobargeot (#39), « Mon épouse à très rarement été déçues », Heureux homme ! 8)

41.  Murps | 23/10/2015 @ 15:47 Répondre à ce commentaire

« déçues »….
Lapsus révélateur ???
Bon, je suis pour la paix des ménages.

42.  de Rouvex | 23/10/2015 @ 15:52 Répondre à ce commentaire

Murps (#41), Chut… Pas de jalousie.

43.  lemiere jacques | 23/10/2015 @ 17:46 Répondre à ce commentaire

volauvent (#38), oui…
la simple nature « probabiliste » des runs des modèles me pose question, comme le fait d’agréger différents modèles…
je ne comprends simplement pas …

J’ai rappelé la citation du giec ,premier rapport, la question est ailleurs, si ce post est intéressant et critique, les physiciens et les climatologues savent très bien tout cela… ils savent aussi très bien que la circulation qu’ils simulent est une illusion, en conséquence, le giec admet que l’état de la circulation n’a que peu d’importance ou pas d’importance dramatique sur les résultats des modèles, leur circulation ne sert qu’à mélanger l’atmosphère et faire de la convection  » dans des limites réalistes », elle a un rôle qui se limite au transport « horizontal » de l’energie…
et ce n’est pas vraiment liés à la nature chaotique du bazar…mais simplement d’accumuler une quantité importante calculs approximatifs…
prenez un simple oscillateur harmonique et résolvez le de façon approximative et numérique, à moins de le forcer à conserver l’énergie il y a de force chance que ça diverge..
traitez numériquement la densité..;et vous verrez de la masse disparaître sauf à introduire ici ou la des « normalisations »….

alors mis à part son coté didactique, ce post sert à quoi, à qui sur plan du scepticisme? .

ça me pose vraiment question…
on fait quoi?
on veut des débat huet contre bidule? pour « gagner un débat »? gagner l’opinion?
ou on veut savoir la vérité des choses?t questionner le giec est tout à fait louable souhaitable et necessaire, gagner la bataille de l’opinion ce n’est pas forcement joli joli.. la preuve en est que .les verts ont réussi à gagner en partie cette bataille…

44.  lemiere jacques | 23/10/2015 @ 17:50 Répondre à ce commentaire

abc (#35),
Mais la moyenne globale (et glissante dans le temps) de l’atmosphère est contrainte par la nécessité d’avoir un bilan global à peu près équilibré.
contrainte par quoi????

45.  abc | 23/10/2015 @ 18:04 Répondre à ce commentaire

« Le problème, dans le cas du climat, c’est que cela ne marche pas!  »
Connaissant le modèle théorique simple, connaissant l’historique du climat et sa relation assez linéaire avec le CO2, ayant déjà vérifié cette relation sur les autres planètes, on a envie de sélectionner la moitié haute de la fourchette des modèles climatiques. On saura en 2050 si on avait raison. En attendant, la variabilité ne permet pas de savoir ce qui marche ou pas.

« il n’y a aucune simulation qui arrive à “accrocher un état équilibré” dans l’état actuel des GCMs »
Les courbes qui sont publiées sont plutôt stables. Peut-être qu’il y a un post-processing supplémentaire pour obtenir un score stable de la T globale, je ne sais pas. Les meilleurs arguments tiennent à ma réponse juste au-dessus : modèle théorique, historique du climat, autres planètes.

46.  abc | 23/10/2015 @ 18:31 Répondre à ce commentaire

« contrainte par quoi ? »
contrainte par l’impossibilité d’un sous-système du climat à absorber durablement et fortement l’énergie qui circule. Ce qui explique que ces sous-systèmes du climat ne jouent pas de rôle majeur sur la T globale. La T globale glissante oscille sur une gamme de plusieurs dixièmes de degrés, alors que la T locale instantanée oscille sur une gamme cent fois plus forte. Et quand la T globale change de plusieurs degrés, ça se fait sur au moins 100 ans. La lenteur du processus le rend fondamentalement linéarisable et prévisible pour ce qui nous intéresse, soit des prévisions à 100 ans. Dit autrement, une extrapolation linéaire d’une version simplifiée du signal donne une idée de ce qui va se passer. Très loin d’une idée du chaos. Evidemment, si le Soleil s’arrête du jour au lendemain, la T globale chutera en moins de 100 ans. Mais les perturbations actuelles et historiques du climat sont d’un ordre bien plus faible.

47.  lemiere jacques | 23/10/2015 @ 20:29 Répondre à ce commentaire

abc (#46),

curieux de parler d’impossibilité puis de relativiser ensuite

impossibilité d’absorber durablement et fortement …implique possibilité de ….

durablement? quelle echelle de temps..
fortement? c’est à dire?

ça me laisse sur ma faim.
autrement dit auriez vous une formule magique qui nous donne une valeur de variabilité de la temperature globale?

48.  lemiere jacques | 23/10/2015 @ 20:37 Répondre à ce commentaire

lemiere jacques (#47), et au passage la temperature globale peut varier de plus que quelques centièmes de degrés.. ce petit monde bien sage mais dissipé ( humour) nous donne quand m^me des petites ruades tous les 4 noels… en v’la une belle « d’anomalie ».

dans ce que vous dites j’ai ‘impression que votre conclusion qui est un climat intrinsèquement « assez » stable est un peu dans votre introduction.

vieille rengaine mais quand les modèles me sortiront les nino j’aurai fait un pas de plus dans la foi. C’est incroyable mais si les nino ne sont pas compris j’ai du mal à saisir que la régularité de la date calendaire de leur déclenchement ne puisse pas donner des pistes.

49.  abc | 23/10/2015 @ 21:05 Répondre à ce commentaire

je suis spécialiste de choses sur le fonctionnement terrestre mais chaque domaine a ses techniques, je ne sais pas comment on stabilise les scénarios climatiques

sur les indices de la stabilité de la T globale, on a les observations récentes mesurant la T globale avec une certaine précision. je ne suis pas sûr de pouvoir (ou quelqu’un d’autre) vous donner autre « preuve », sinon que ce n’est pas la première fois qu’on voit dans la Nature ce type d’organisation où la grande échelle est plus stable que la petite.

50.  the fritz | 23/10/2015 @ 21:47 Répondre à ce commentaire

Nicias (#109)