51.  Papyjako | 7/02/2011 @ 21:46 Répondre à ce commentaire

pastilleverte (#46),

comme déjà dit plusieurs fois ici, j’ai pas tout compris, sauf que reconstituer le passé “pile poil” en bidouillant les paramètres jusqu’à ce que ça marche, ne me semble pas une “preuve” suffisante de la pertinence des modèles.
Autre comparaison que je trouve, elle pertinente, c’est l’excellente prévision (dois-je préciser que je plaisante) des modèles économiques et/ou boursiers, pourtant également nourris de pleins de données “historiques”.
Et encore, les “lois” (?) économiques ne sont pas forcèment plus chaotiques que le climat,
quoique, après tout, je n’en sais rien…

Pastilleverte … j’observe que vous n’avez laissé aucune place où celui qui est en entier accord puisse apposer sa signature … C’est pour cela que je reprend l’intégralité de votre paragraphe, comme si je l’avais écrit moi-même ! 😉 😉

52.  skept | 7/02/2011 @ 21:49 Répondre à ce commentaire

volauvent (#45),
Merci de ce lien.

Je lis ce paragraphe :

« Par contre, le climat est un problème de conditions aux limites — une description statistique de l’état moyen et de la variabilité d’un système, et non pas un chemin individuel à travers l’espace des phases. Les modèles climatiques actuels conduisent à des climats stables et non chaotiques ce qui implique que les questions qui regardent la sensibilité du climat à, disons une augmentation des gaz à effet de serre sont bien posées et justifient de l’utilisation des modèles. Cependant, dans la mesure où sont incorporés davantage de composants compliqués tels que les systèmes biologiques, la dynamique complète des calottes glaciaires, etc., il est concevable que les possibilités de contre réaction s’accroissent et que des climats chaotiques en résultent. »

Donc les modèles actuels ne sont pas chaotiques, mais si on les améliore pour qu’ils ressemblent au climat réel et à ses déterminants, eh bien alors ils seront peut-être chaotiques. Je pense que « non-linéaire » serait plus exact que chaotique stricto sensu, mais surtout on comprend que si les modèles simulaient vraiment le climat, ils n’auraient certainement pas les mêmes runs à l’arrivée qu’aujourd’hui. Voilà qui incite à la confiance dans les résultats actuels.

53.  Patrick Bousquet de Rouvex | 7/02/2011 @ 21:55 Répondre à ce commentaire

Murps (#49), Ne retenons que le principe d’incertitude sur tout ce qui touche à Eisenberg… ?

54.  Araucan | 7/02/2011 @ 22:44 Répondre à ce commentaire

Marot (#48), volauvent (#45),

Sauf que les phénomènes émergents, par nature, ne peuvent être que constatés et non déduits … même avec des modélisations simples telles que le jeu de la vie … La question n'est pas que les modèles aient reproduit des phénomènes émergents déjà constatés, mais est-ce que les modèles climatiques ont mis en évidence des phénomènes émergents jusqu'à présent non constatés de visu ?

http://fr.wikipedia.org/wiki/Jeu_de_la_vie

http://en.wikipedia.org/wiki/Emergence

Pour ceux qui aiment les équations et la programmation
http://books.google.fr/books?i.....CEYQ6AEwBQ

55.  scaletrans | 7/02/2011 @ 22:54 Répondre à ce commentaire

skept (#51),

Dans l’état d’esprit actuel de capitulation en rase campagne vis à vis de l’anglais, remplacer run par itération suffirait à mon bonheur. smile

56.  Marot | 7/02/2011 @ 23:15 Répondre à ce commentaire

skept (#51)
Je ne suis pas d’accord avec

les modèles actuels ne sont pas chaotiques

Le fonctionnement du moteur, partie centrale qui contient les fameuses équations de la physique est chaotique et rend le système non extrapolable.

C’est pour moi l’ajout à chaque itération (très bien scaletrans) ou toutes les quelques itérations de contraintes qui rend le fonctionnement non chaotique.

L’ajout des contraintes est une modification du fonctionnement de base. Le résultat se trouve ainsi bridé.

Reste-t-il représentatif d’une évolution du climat ? je n’en ai jamais vu de preuve.

Tout ce que j’en sais est que les calculs sont faits.

57.  Araucan | 7/02/2011 @ 23:40 Répondre à ce commentaire

volauvent (#28),

Pas envie de vider climat-sceptique … smile

Sinon une conférence de Maxence Revault d’Allonnes
http://www.cnam-paysdelaloire......34069.kjsp
(pas écoutée)

58.  volauvent | 8/02/2011 @ 0:45 Répondre à ce commentaire

Araucan (#53),

L’émergence, c’est ce qu’on dit d’un système tellement complexe qu’on ne sait pas relier les propriétés de ses sous ensembles d’un ordre inférieur à ses propriétés globales? Est ce une propriété du système ou simplement l’aveu qu’on n’y comprend rien?

59.  lemiere jacques | 8/02/2011 @ 0:49 Répondre à ce commentaire

skept (#19),

je pense que les gens du giec vous diront que l’ocean est important pour connaitre le climat mais que de toute façon c’est de la fluctuation qui se superpose à un machin ( climat moyen) qui lui est stable mais que le taux de CO2 fait évoluer…
Mais…il est délicat être sur de cette affirmation sur la stabilité du climat….. notamment car les modèles sont censés démontrer que les changement du climat du siècle sont dus à l’homme…
ça repose sur cette affirmation implicite…nous connaissons toutes les causes qui peuvent influer sur le climat… ( et la trouille que la preuve soit apportée sans conteste d’un optimum medieval bien réel et global)
Leur avantage est que les détracteurs ne possèdent pas de modélisation des autres effets…
Il speuvent avoir foi en leurs modèles mais on verra bien…

60.  skept | 8/02/2011 @ 0:51 Répondre à ce commentaire

Marot (#55),

Je ne suis pas d’accord avec…

Pour le coup, je ne me prononçais pas sur l’aspect mathématique qui me dépasse, je soulignais juste les incohérences internes du discours de Schmidt.

L’ajout des contraintes est une modification du fonctionnement de base. Le résultat se trouve ainsi bridé.

Cela je ne sais pas. L’AR4 signalait qu’une partie des modèles n’utilise plus les « ajustements de flux » (des contraintes initiales sur les flux de chaleur et d’humidité pour éviter des runs itérations irréalistes) :

Most AOGCMs no longer use flux adjustments, which were previously required to maintain a stable climate. At the same time, there have been improvements in the simulation of many aspects of present climate. The uncertainty associated with the use of flux adjustments has therefore decreased, although biases and long-term trends remain in AOGCM control simulations.

61.  volauvent | 8/02/2011 @ 1:10 Répondre à ce commentaire

skept (#59),

Ce qui est bizarre, c’est qu’ils admettent tous que le système climatique est chaotique, en particulier pour décrire ses variations internes naturelles:c’est écrit dans AR4, un récent résumé de la British Royal Society le répète; doit on comprendre que dans le cas d’un forçage anthropique, l’évolution n’est plus chaotique?

62.  Laurent Berthod | 8/02/2011 @ 2:03 Répondre à ce commentaire

Murps (#49),

OK.

Je suis d’accord avec vous sur Heisenberg.

Ce que je cherchais à savoir c’est ce qu’en pensent Patrick Bousquet de Rouvex et JG2433 ? Mais peut-être avez-vous raison, il vaut mieux s’en ficher.

63.  skept | 8/02/2011 @ 2:52 Répondre à ce commentaire

volauvent (#60),

Ce qui est bizarre, c’est qu’ils admettent tous que le système climatique est chaotique, en particulier pour décrire ses variations internes naturelles:c’est écrit dans AR4, un récent résumé de la British Royal Society le répète; doit on comprendre que dans le cas d’un forçage anthropique, l’évolution n’est plus chaotique?

Je pense qu’ils entendent par « chaotique » le fait que, quand bien même les modèles s’amélioreraient beaucoup, il serait toujours impossible de prévoir à l’avance comment seront distribués les ENSO d’une décennie par rapport à une autre (par exemple).

En même temps, les modèles paraissent exclure toute variabilité durable et non forcée des températures de surface : si on trouve une hausse ou une baisse des T sur quelques décennies, celle-ci ne peut être assignée qu’à un forçage : elle est nécessairement la traduction thermique d’un déséquilibre énergétique mesuré au sommet de l’atmosphère (soleil, volcan, GES…). Les modèles posent qu’il est alors possible de simuler l’effet de ce forçage sans trop se soucier de la variabilité résiduelle (et chaotique).

Dans cet entretien à Edge, par exemple, Gavin Schmidt évoque le point

The problem with climate prediction and projections going out to 2030 and 2050 is that we don’t anticipate that they can be tested in the way you can test a weather forecast. It takes about 20 years to evaluate because there is so much unforced variability in the system — the chaotic component of the climate system — that is not predictable beyond two weeks, even theoretically. This is something we can’t really get a handle on. We can only look at the climate problem once we have had a long enough time for that chaotic noise to be washed out, so that we can see that there is a full signal that is significantly larger than the inter-annual or the inter-decadal variability. This is a real problem because society wants answers from us and won’t wait 20 years.

Il a l’air de dire : OK les températures peuvent monter à cause de la variabilité chaotique, mais au bout de 20 ans ce genre de signal non forcé sera forcément dissipé.

Par ailleurs, j’ai l’impression que les modèles tels qu’ils sont décrits ne peuvent strictement rien prévoir de non-linéaire. De fait, les itérations reproduisent toutes le climat actuel avec plus de chaleur (donc éventuellement des ENSO plus prononcés, une convection tropicale plus active, quelques déplacements de zones de subsidence plus au nord, une amplification polaire, etc.). En tout cas, je n’ai jamais vu une équipe conclure : nous prévoyons une bifurcation de la circulation A-O dans tel nouvel état régional ou global très différent du système actuel. Mon intuition (peut-être fausse) est que cela provient de leur technique expliquée par Moron, l’évaluation du signal forcé dans l’espace de phases :

Il est donc nécessaire de réaliser des ensembles de simulation en changeant les conditions initiales afin de capturer de façon probabiliste l’espace de phase occupé par le « signal » forcé, qui est reproductible d’une expérience à une autre.

En gros, avec de légères modifications dans les paramètres ou les conditions initiales, le modèle va bel et bien produire des itérations chaotiques parmi toutes ses simulations. Mais on va retenir les trajectoires les plus probables de l’ensemble d’itérations (la densité centrale), donc cela va automatiquement virer celles qui divergent trop (les trajectoires non linéaires atypiques).

Mais bon, là je spécule, c’est ce que je comprends des explications (assez alambiquées) données de ci de là, sans pouvoir analyser et traduire mathématiquement ce qui est réellement fait dans un modèle. Donc, à ne pas prendre pour autre chose que des spéculations, si des lecteurs ont une idée plus précise, cela m’intéresse !

64.  Murps | 8/02/2011 @ 9:29 Répondre à ce commentaire

Ce qui caractérise un système chaotique, c’est que précisément le passage d’une trajectoire à une autre dans l’espace des phases est imprévisible.

Et en plus le terme imprévisible ne signifie pas « aléatoire » au sens de l’utilisation des statistiques.
On est quelque part entre le déterminisme d’une équation de conservation et le hasard, sans pouvoir utiliser l’une ou l’autre des théories.
Si vous regardez les deux « chips » qui constituent l’attracteur de Lorenz, vous vous rendez compte que que l’on passe d’une chips à l’autre « sans prévenir ».
Et encore, les équations couplées de Lorenz sont risibles de simplicité, et ne représentent que de loin la dynamique fluide.

On peut produire des comportements chaotiques avec des systèmes d’équations encore plus simple, il suffit d’un peu de non linéarité et hop !

Affirmer que les effets chaotiques disparaissent à certaines échelles suppose que l’on a compris les mécanismes du climat.
Je suis personnellement convaincu que l’écriture du système dépend de l’échelle de temps, en clair, il faut un système pour chaque durées.

De plus il n’est pas impossible que l’on démontre dans l’avenir que sur de tels systèmes la prévision est impossible.

Un peu comme la démonstration de l’absence de solutions analytiques pour les polynômes de degré supérieur à 5…

65.  Patrick Bousquet de Rouvex | 8/02/2011 @ 9:46 Répondre à ce commentaire

Laurent Berthod (#61), j’ai dit ce que j’ai dit, mais peut-être qu’une meilleure connaissance du sujet me rendrait plus modéré dans mon jugement : ne cherchez pas la petite bête.

66.  Marot | 8/02/2011 @ 9:54 Répondre à ce commentaire

Je vous fais part de quelques unes de mes réflexions.

Il y a accord général explicite sur le fait qu’initialisé comme l’on veut tous les modèles sont intrinsèquement chaotiques

Il semble y avoir accord, en général non dit, sur le fait qu’il existe une technique pour non pas supprimer le caractère chaotique mais rendre ces manifestations inopérantes, en d’autres termes les canaliser, en gommer l’apparition.

Ces opérations sont efficaces pour chaque modèle.

Le caractère chaotique apparaît néanmoins, mais très atténué, dans les divergences entre modèles (de 2°C à 7°C p.e.) encore qu’une part inconnue vient des paramétrisations arbitraires.

Les justifications des pratiques de réduction sont simplement esquissées au mieux. Elles tiennent difficilement à l’examen.

La plus visible est que ce sont les fluctuations qui sont chaotiques et que ces fluctuations sont temporaires. La période envisagée est de quelques dizaines d’années au plus. Or, les grandes oscillations non modélisées ont des périodes de 60 ans ou plus. La circulation thermohaline quasiment inconnue opère sur plusieurs siècles.

Mes conclusions pas définitives du tout sont que:
« on » ne sait pas faire autrement;
les grandes périodicités sont ignorées;
toutes les prévisions à plus de 30 ans doivent être rejetées sans examen.

P.S. 1 Il est amusant de voir Hansen courir après ses points de basculement avec comme outils des modèles qui les suppriment.

P.S. 2 Le Soleil, moteur premier est quant à lui largement imprévisible à quelques années, il est vrai que ses variations sont devenues négligeables qu’ils disent !

67.  JG2433 | 8/02/2011 @ 10:45 Répondre à ce commentaire

Laurent Berthod (#47),
Addendum à propos de W. Heisenberg.

Ôtez moi d’un doute.
Vous voulez dire qu’Heisenberg était un grand savant et une fripouille pour ne pas avoir choisi l’exil ou bien qu’on peut être Juif et néanmoins considéré comme un grand savant par des fripouilles nazis ?

Bien sûr, c’est la deuxième partie de l’alternative que je voulais mettre en exergue. Mais je me suis mal exprimé, sans doute. Je corrige pour que soit levée toute ambiguïté.

Ainsi donc, bien que juif (ou seulement considéré comme tel…), les gangsters nazis savaient pertinemment qu’ils ne pouvaient se priver de sa science.

68.  volauvent | 8/02/2011 @ 11:04 Répondre à ce commentaire

Marot (#65),

Ce n’est pas encore très clair dans mon esprit; après relecture de AR4 et différents autres document du GIEC, j’ai cru comprendre:

– les premiers modèles étaient stables car contraints par des « ajustements de flux »
-maintenant, la plupart des modèles se rapprochent par leur précision et leur utilisation des modèles météo, avec importance de fixer des conditions initiales; ils s’essayent même à la prévision journalière et saisonnière(???)

Ce qui est dit dans l’exposé fourni par MAROT (différence entre modèles météo, définis par conditions initiales, et climat, définis par conditions aux limites) semble beaucoup moins vrai.
A titre anecdotique, j’ai trouvé dans AR4:

 » version of the HadCM3 AOGCM (known as GloSea) has been assessed for skill in predicting observed seasonal climate variations (Davey et al., 2002; Graham et al., 2005). Graham et al. (2005) analysed 43 years of retrospective six-month forecasts (‘hindcasts’) with GloSea, run from observed ocean-land-atmosphere initial conditions. A nine-member ensemble was used to sample uncertainty in the initial conditions. Conclusions relevant to HadCM3 include: (i) the model is able to reproduce observed large-scale lagged responses to ENSO events in the tropical Atlantic and Indian Ocean SSTs; and (ii) the model can realistically predict anomaly patterns in North Atlantic SSTs, shown to have important links with the NAO and seasonal temperature anomalies over Europe. »

A déguster sans modération.

69.  skept | 8/02/2011 @ 12:41 Répondre à ce commentaire

Marot (#65),
Nota : je pense que la fourchette de sensibilité vient entièrement des paramétrisations, et l’expérience climateprediction montre qu’on peut l’élargir encore sans problème, justement en modifiant légèrement tous les paramètres semi-empiriques.

Murps (#63),

Affirmer que les effets chaotiques disparaissent à certaines échelles suppose que l’on a compris les mécanismes du climat.

Il faut aussi avoir en tête que les modèles sont mal placés pour les oscillations quasi-périodiques, probablement produite à diverses échelles de temps par des couplages soleil-océan-atmosphère. Quand la modélisation a commencé, on travaillait à soleil constant. Même à l’époque de l’AR3, une majorité de modèles conservait cette simplification (et l’AR4, dans son tableau de synthèse du chapitre 8 sur les comparaisons de modèles, ne donne plus la précision concernant le caractère variable ou fixe de l’irradiance).

Constant ou pas, la simulation du rayonnement solaire dans l’atmosphère et à la surface reste médiocre, comme le reconnaît l’AR4 (8.3.4.3)

Despite considerable effort since the TAR, uncertainties remain in the representation of solar radiation in climate models
(…)
Difficulties in simulating absorbed solar and infrared radiation at the surface leads inevitably to uncertainty in the simulation of surface sensible and latent heat fluxes.

C’est ennuyeux parce que les flux de chaleur sensible et latente sous la couche limite ont évidemment une certaine influence sur les fameuses températures de surface. Et ce n’est pas étonnant parce qu’outre la médiocre compréhension de toutes les interactions entre une irradiance (totale, spectrale) variable et le climat terrestre, les modèles partent dans les choux avec les nuages (qui vont déterminer l’insolation effective en surface terrestre ou océanique).

70.  yvesdemars | 8/02/2011 @ 15:30 Répondre à ce commentaire

là où les modèles se plantent q’est que tous ont intégré arbitrairement une rétroaction positive due à l’augmentation de la vapeur d’eau, GES bien plus efficace que le pauvre CO2 (aux effets des nuages près…). le raisonnement est que la hausse de la température due au CO2 fait évaporer plus d’eau … certains allant jusqu’à prévoir un phénomène qui s’entretient tout seul, car l’effet de la vapeur d’eau fait sortir le CO2 des océans et ainsi de suite …

Or l’humidité a baissé ces dix dernières années, ce que Miskolczi a souligné en montrant que l’épaisseur optique de l’atmosphère était constante. La publication de ses études a été rejetée par la NASA ….. trop iconoclaste

71.  Laurent Berthod | 8/02/2011 @ 15:55 Répondre à ce commentaire

Patrick Bousquet de Rouvex (#65),

Heisenberg s’est défendu après la guerre en expliquant que vu comme le projet était mal barré il savait qu’il ne déboucherait pas. Bon, il doit être le seul à disposer des informations permettant de savoir si cela est vrai ou faux. Je ne sais pas si on trouvera un jour quelque chose de probant dans un sens ou dans l’autre. En attendant ce jour hypothétique, ne dit on pas que le doute doit bénéficier à l’accusé ?

72.  the fritz | 8/02/2011 @ 16:31 Répondre à ce commentaire

yvesdemars (#70), Un truc que je n’ai jamais compris, c’est cette rétroaction positive de la VE; je pense que cela se régule tout seul car la VE a des raies pas saturées du tout dans l’IR proche du spectre solaire; cela fait que si la VE augmente, cela fait autant de flux qui n’arrive plus au sol et qui reste dans la troposphère; bien sûr je suis incapable de quantifier, mais cela me semble pas négligeable du tout
Et tout cela bien sûr , en dehors de l’effet albédo des nuages

73.  skept | 8/02/2011 @ 17:00 Répondre à ce commentaire

the fritz (#72),

Un truc que je n’ai jamais compris, c’est cette rétroaction positive de la VE; je pense que cela se régule tout seul car la VE a des raies pas saturées du tout dans l’IR proche du spectre solaire; cela fait que si la VE augmente, cela fait autant de flux qui n’arrive plus au sol et qui reste dans la troposphère; bien sûr je suis incapable de quantifier, mais cela me semble pas négligeable du tout

L’absorption du rayonnement visible par les composés de l’atmosphère est étudiée depuis longtemps, et à ma connaissance paramétrisée dans les éléments radiatifs des modèles. En cherchant sur Scholar, on trouve divers papiers (surtout des années 1970 à 1990) sur cette question.

A noter : dans les modèles, la rétroaction VE n’est pas indépendante de la rétroaction du gradient thermique adiabtique (lapse rate), qui tend à la compenser négativement. S’il y a plus de VE et plus de visible absorbé dans les moyennes et hautes hautes couches, cela réduit le gradient entre la surface et le haut de la troposphère, et le système rayonne plus vers l’espace au sommet. C’est du moins ce que j’ai cru comprendre.

74.  skept | 8/02/2011 @ 17:02 Répondre à ce commentaire

Correction : pas seulement le rayonnement visible, mais tout le spectre en fait (donc aussi IR proche ou lointain)

75.  Patrick Bousquet de Rouvex | 8/02/2011 @ 17:37 Répondre à ce commentaire

Laurent Berthod (#71), c’est bien le sens de mon jeu de mots au post 53 …

76.  pecqror | 8/02/2011 @ 17:50 Répondre à ce commentaire

Laurent Berthod (#71),
Max planck a aussi travaillé avec les NAZI?
Des hommes trop passionnés par la science.

77.  M | 8/02/2011 @ 19:52 Répondre à ce commentaire

Laurent Berthod (#71),

Werner Karl Heisenberg (5 décembre 1901 à Wurtzbourg, Allemagne – 1er février 1976 à Munich) était
un physicien allemand.

Wikipedia

C’est un peu tard pour lui demander pourquoi il a accepté de travailler sur ce projet, s’il avait le choix. 😉

Ne peut-on pas supposer que Heisenberg a pensé qu’il serait plus utile en restant, pour contrôler l’avancement du projet de l’intérieur. Si c’est le cas c’est plus risqué et plus courageux que de fuir à l’étranger, laissant le champ libre à quelqu’un d’autre, peut-être moins compétent mais plus pro-nazi.

78.  JG2433 | 8/02/2011 @ 21:44 Répondre à ce commentaire

M (#77),

Ne peut-on pas supposer que Heisenberg a pensé qu’il serait plus utile en restant, pour contrôler l’avancement du projet de l’intérieur. Si c’est le cas c’est plus risqué et plus courageux que de fuir à l’étranger, laissant le champ libre à quelqu’un d’autre, peut-être moins compétent mais plus pro-nazi.

En tant que juif (selon les nazis), même dans l’hypothèse où il aurait pu, pour diverses raisons telles que rébellion, … être déporté, probablement au camp de Theresienstatd, plutôt réservé aux « personnalités » (dénommées en allemand « Prominenz »), aurait-il eu la possibilité et la chance de survivre ? Rien n’est moins sûr.
C’est pourquoi, tenter d’interpréter à l’heure actuelle… pourrait s’avérer plutôt vain, je pense.

79.  lemiere jacques | 9/02/2011 @ 0:45 Répondre à ce commentaire

skept (#63),
ce qui révèle toutes les « certitudes » des gens du giec….ils ont des tas de certitudes sur le climat qui n’ont jamais été prouvées par manque d’observations….
« le climat » non perturbé est stable », » nous connaissons les perturbations »…
les modèles n’apportent pas grand choses pour eclairer ces questions. .D’un autre côté, nous n’avons tout simplement pas de données…a-t-on une période d’observation du climat non perturbé? evidemment que non..

On doit quand même revenir à la raison…regardez les prévisions des modèles avec des hypothèses similaires…
on va d’un monde plus chaud à la quasi fin du monde…..
la conclusion doit être il y a un progrès à faire dans les modèles ( si c’est possible) au liue de ça….on annonce une moyenne arithmetique entre la fin du monde et un réchauffement….et serieusement….et ne doutez pas…

Mais les modèles sont de bien jolies choses très respectables d’ailleurs pour la somme de connaissances et de compétences qu’ils requièrent mais ce ne sont que des modèles….à verifier….

80.  Marot | 9/02/2011 @ 8:33 Répondre à ce commentaire

lemiere jacques (#79)

ce qui révèle toutes les “certitudes” des gens du giec

Il y a au moins deux choses que l’on ne connaît pas :
le climat lui-même et son moteur principal, le Soleil.

Regrouper des ignorants à 10, 50 ou 2 500 (!) en «panels» ne fera jamais une science quelque soit le nombre de papiers qu’ils ont écrits.

Pour le Soleil, on peut lire les prévisions vaticinations du «panel» d’experts de 2006 à 2009 de la NOAA ici.

La petite gloriole du tout début 2006 en 2006, a beaucoup de sel :

Significant progress in the development of new predictive techniques has been made since the cycle 23 panel report

Des progrès significatifs dans de nouvelles techniques de prédiction ont été faits depuis le «panel» du cycle 23.

Ben voyons !

En bref la première prédiction était pour le cycle 24 : 140 taches en 2011 ou 90 taches en 2012.

La dernière «prévision» de la Nasa est 55 en 2014 et ce n’est pas fini.

81.  monmon | 9/02/2011 @ 10:16 Répondre à ce commentaire

Si le système climatique n’a pas de mémoire cela veut dire qu’il na pas de règles,qu’il est hors les lois et qu’il est donc imprédictible!
Nous savons bien qu’il n’en est rien, mais nous restons démunis devant le grand nombre de nos échecs.
Nos anticipations sont la base constituée dès l’enfance de notre « mémoire du futur » et les modèles que nous utilisons sont un jeu « d’adultes » pour réaliser nos rêves ou exorciser nos peurs avec autres choses que les intestins de poulets des augures de l’ancien temps.

82.  Murps | 9/02/2011 @ 20:59 Répondre à ce commentaire

monmon (#81),

Si le système climatique n’a pas de mémoire cela veut dire qu’il na pas de règles,qu’il est hors les lois et qu’il est donc imprédictible !

J’aurais plutôt dit que les équations ne sont pas t-inversibles, ou encore que les systèmes sont dissipatifs…

Remarquez, ça revient au même.
😉

83.  Myke | 10/02/2011 @ 10:24 Répondre à ce commentaire

Si le système climatique n’a pas de mémoire

J’aimerais bien qu’on développe un peu cette assertion, que je ne comprends pas (et dont je ne connais pas l’origine). Le système climatique ne repart pas de zéro à chaque instant, comme un jet de dés ou un tirage de cartes. Qu’est-ce à dire ?

84.  volauvent | 10/02/2011 @ 12:30 Répondre à ce commentaire

Myke (#83),

Ce qu’on lit dans l’exposé proposé par Marot:

« Dans une prévision/ simulation « climatologique » l’initialisation n’a aucune importance en tant que telle puisque l’atmosphère n’a pratiquement pas de mémoire. Seul le forçage importe ici mais une seule expérience ne permet pas de discerner la portion de variance liée au « bruit » de celle forcée par les conditions aux limites.Il est donc nécessaire de réaliser des ensembles de simulation en changeant les conditions initiales afin de capturer de façon probabiliste l’espace de phase occupé par le « signal » forcé, qui est reproductible d’une expérience à une autre. »

Il y a plusieurs choses qui m’interpellent dans l’exposé. D’abord, les « équations primitives » qu’il donne sont purement radiatives, la convection est présentée comme une « paramétrisation ». Cela rejoint la réflexion de Morel: les modèles ne sont pas issus de lois de la physique (ou en tous cas partiellement)

La prise en compte de la convection et de la chaleur latente de vaporisation conduit à des résultats sensiblement différents (voir Kramm, que j’ai déjà cité).

Concernant l’absence de mémoire, un début d’explication est sans doute dans l’extrait que j’ai cité ci-dessus. Les conditions initiales, issues des phénomènes autres que les forçages considérés, sont perçues comme des « bruits » des signaux climatiques qu’on cherche. Un traitement probabiliste du signal permet donc de sortir le « bruit ».

Tout cela me paraît peu étayé. Mais je ne connais que superficiellement l’approche chaotique des systèmes . Y a t il des études mathématiques étayant ces affirmations?

Enfin, la lecture du sujet dans AR4 donne une vision sensiblement différente, car ils disent que les GCM récents se rapprochent des modèles météo, en incluant avec plus de précision les conditions initiales.

85.  monmon | 10/02/2011 @ 14:44 Répondre à ce commentaire

83 @ Myke 82@murps
Je fais référence au document de Vincent Moron:
dans une prévision/ simulation climatique , l’initialisation n’a aucune ‘importance puisque l’atmosphère n’a pratiquement pas de mémoire . seul le forçage importe ici ……/b>..i>

Je pense au contraire que l’atmosphère est un système à mémoire complexe ce qui la rend difficilement prévisible.
Le comportement de l’eau d’un bocal étanche placé dans une grotte est par exemple facilement prévisible.
Les glaciations, les assèchements, les variations du niveau de la mer, les érosions, montrent l’importance de cette mémoire que nous essayons d’utiliser en imaginant des anticipations que nous nommons modélisations pour les habiller de science, mais qui ne sont pas meilleures que les » prédictions » des temps anciens et qui entretiennent la « mémoire du futur » de nos sociétés de mammifères censés penser, anticiper et se protéger du malheur.

86.  skept | 10/02/2011 @ 15:28 Répondre à ce commentaire

volauvent (#84),

Les conditions initiales, issues des phénomènes autres que les forçages considérés, sont perçues comme des “bruits” des signaux climatiques qu’on cherche. Un traitement probabiliste du signal permet donc de sortir le “bruit”.

En fait, un présupposé fondamental des modèles paraît que toute variation durable des températures de surface est assignable à un forçage (au sens du GIEC) car à l’échelle pluridécennale et séculaire, le climat d’un interglaciaire tempéré oscillerait autour d’un état moyen. (Ce n’est pas vrai sur les temps géologiques, ou en phase instable de déglaciation). Les oscillations quasi-périodiques, dont l’ENSO et la NAO sont les plus influentes dans notre hémisphère, ou les variations chaotiques non forcées ne produiraient donc aucune tendance sur les Ts au-delà de quelques années. Dès lors, cela réduit l’attribution des causes des ∆T aux GES, au soleil, aux aérosols, etc.

A signaler sur Real Climate un papier de Kyle Swanson (avec lien vers son article d’origine) ayant fait l’hypothèse que des couplages non-linéaires de certains modes de variabilité (ENSO, NAO, PDO et NPI) peuvent au contraire conduire à des régimes de réchauffement et refroidissement, se superposant au signal anthropique et échappant aux modèles en l’état.

87.  Myke | 10/02/2011 @ 15:53 Répondre à ce commentaire

monmon (#85),
Oui, merci à tous les deux ; j’ai bien lu l’expression dans le papier de Moron, mais il écrit cela, en incidente, comme une évidence incontestée et sans l’expliciter en rien ni fournir de référence. Est-ce que les tendances longues, les cycles, l’état actuel et l’évolution passée des hydro-cryo-bio-litho-sphères ne constituent pas une sorte de « mémoire », avec des inerties colossales ? Ou alors je n’ai rien compris, et dans ce cas je m’en excuse. Je préfère poser une question idiote que mourir idiot.

88.  skept | 10/02/2011 @ 15:57 Répondre à ce commentaire

monmon (#85),

Je pense au contraire que l’atmosphère est un système à mémoire complexe ce qui la rend difficilement prévisible.

L’atmosphère non… en dehors de certains composés à longue durée de vie comme les GES, justement. Elle est « imprévisible » non pas en raison de sa « mémoire », qui est très courte, mais de sa turbulence. En gros c’est une mince enveloppe qui passe son temps à dissiper radiativement ou convectivement. Si l’on cherche une « mémoire complexe » du climat, elle est dans la masse océanique, parce que l’eau n’a pas les mêmes propriétés que l’air.

Sur les océans dans les modèles (selon qu’ils sont ou non à « ajustement de flux »), voir notamment cette page de l’AR4. On y trouve aussi un développement sur Lorenz, correspondant à ce que je signale plus haut (pour l’effet d’un forçage, on s’intéresse aux effets statistiques moyens ; pour la variabilité chaotique, on ne sait pas faire mais on suppose qu’elle n’a pas d’effet de long terme).

Pour une simulation sur le XXe siècle, les conditions initiales de l’océan résultent soit de l’implémentation de mesures empiriques avec quelques réglages d’ajustement tout de même (modèle à flux non ajustés), soit d’un long travail préalable pour essayer de produire (par une autre simulation) un océan en équilibre au début de la période d’intérêt (modèle à flux ajustés). Dans les deux cas, on voit que les conditions initiales océaniques, les plus importantes en raison de leur mémoire longue, paraissent assez faiblement contraintes.

The design of the coupled model simulations is also strongly linked with the methods chosen for model initialisation. In flux-adjusted models, the initial ocean state is necessarily the result of preliminary and typically thousand-year-long simulations to bring the ocean model into equilibrium. Non-flux-adjusted models often employ a simpler procedure based on ocean observations, such as those compiled by Levitus et al. (1994), although some spin-up phase is even then necessary. One argument brought forward is that non-adjusted models made use of ad hoc tuning of radiative parameters (i.e., an implicit flux adjustment).

89.  monmon | 10/02/2011 @ 17:59 Répondre à ce commentaire

87 @skept
Si il n’y avait que de la dissipation, je pense que le temps et le climat ne serait pas difficiles à prévoir.
Pour ce qui est des gaz à effet de serre la vapeur d’eau montre une influence massive malgré sa faible teneur. Ce gaz léger, instable dans l’atmosphère, en état méta-stable, transporte des quantités significatives de matières capables à toutes les échelles de temps et d’espace de déplacer de l’eau de charrier des sédiments, d’assécher des lacs de stocker de la glace sur des milliers de mètres, de faire varier de centaines de mètres le niveaux des océans et d’araser opiniâtrement des montagnes.
Que peut on dire du CO2 si ce n’est qu’il est la source de la vie et la seule façon de stocker l’énergie solaire sur terre, qu’il est lourd et instable dans l’atmosphère où ses concentrations ont toujours été faibles, qu’il se dissout facilement dans l’eau et que son habitat naturel est dans les carbonates et dans les océans.
La compréhension de la mémoire et du futur du climat est certainement dans la compréhension de l’intrication de tous les paramètres du cycle de la vapeur d’eau plutôt que dans la mise au pas nucléaire de l’humanité angoissée par CO2 interposé.

90.  volauvent | 10/02/2011 @ 18:12 Répondre à ce commentaire

skept (#87),

Oui mais ce que je trouve bizarre, c’est l’assertion que les variations « naturelles » sont chaotiques, mais qu’on les considère comme un bruit qu’on sépare ensuite statistiquement du signal qu’on cherche.
Le système ne sait pas, lui, que le forçage c’est un truc spécial; il réagit en système chaotique à toute sollicitation.
Et peut on appliquer la théorie du signal à un système chaotique? Et puis il peut y avoir d’autres signaux « naturels » non chaotiques à certaines échelles de temps: une oscillation de 60 ans, peut être une de 1000 ans…Comment on les reconnaît du signal issu du forçage testé par « l’expérimentation »?

Comme Mike, je trouve que certains points sont assénés comme des évidences; soit cette présentation était destinée à des initiés pour qui effectivement ce serait des évidences, soit il aurait dû plus développer.
C’est tout aussi obscur pour moi dans AR4 et les documents de formation de Trenberth d’ailleurs.

Si on prend l’analogie d’un écoulement turbulent, c’est vrai qu’en général on peut déterminer le sens et la vitesse moyenne d’un flux; sauf que de temps en temps il y a des « surprises » (c’est le terme employé par les climatologues quand leur modèle diverge, si j’ai bien compris.)
Mais finalement on s’en fiche un peu, de la vitesse et du sens de l’écoulement, si on est en train de se noyer en plein dans les remous. Pour leurs modèles, à la limite avec un modèle à une dimension on peut calculer des résultats globaux pour la planète (si on suppose que le modèle est correct) mais les éléments régionaux (qui seuls nous intéressent, car on vit quelque part, pas dans un endroit virtuel « global » ) est ce qu’on pourra un jour les approcher avec leurs super modèles? Est ce que c’est même mathématiquement possible? Le plus on va au régional, le plus cela ressemble à de la météo.

91.  Marot | 10/02/2011 @ 18:47 Répondre à ce commentaire

monmon (#88), volauvent (#89)
Je crois qu’il faut voir en ces choses, des réalisations de la boutade connue :
pourquoi cherchez-vous ici ?
Parce que c’est le seul endroit éclairé.

Pourquoi considérer les phénomènes chaotiques comme du bruit ?
Parce que la théorie du signal traite du bruit.
Pourquoi ne pas traiter le chaos ? parce qu’on ne sait pas.

Pourquoi utiliser pour le long terme, le système de contraintes des « forçages » ?
Parce qu’autrement on ne sait pas faire.

Et au total :
Croyez-vous vraiment à vos prédictions dans ces conditions ?

Non, mais sinon on ne sait rien faire.

92.  yvesdemars | 10/02/2011 @ 20:08 Répondre à ce commentaire

Marot (#90),
ou (plus développé)
on n’y croit pas trop mais comment faire autrement, que dirait ma femme si je perdais mon gagne pain. En plus je sais pas faire grand chose d’autre ….

93.  monmon | 10/02/2011 @ 20:35 Répondre à ce commentaire

90 @Marot
D’accord mais il y a à éclairer d’autres aspects que le CO2 anthropique et s’occuper en priorité de la vapeur d’eau et de ses variations ( eau, pluie, nuage,neige, glace,boue) et de ses effets radiatifs(pourquoi pas), me semblerait plus efficace si l’on veut comprendre la notion de climat.

94.  monmon | 10/02/2011 @ 20:38 Répondre à ce commentaire

90 @Marot

D’accord mais il y a à éclairer d’autres aspects que le CO2 anthropique et à s’occuper en priorité de la vapeur d’eau et de ses variations ( eau, pluie, nuage,neige, glace,boue) et de ses effets radiatifs(pourquoi pas), me semblerait plus efficace si l’on veut comprendre la notion de climat.

95.  skept | 10/02/2011 @ 20:40 Répondre à ce commentaire

volauvent (#90),

Le système ne sait pas, lui, que le forçage c’est un truc spécial; il réagit en système chaotique à toute sollicitation.

Eh oui mais c’est ainsi que raisonnent les modélisateurs. Je m’en expliquais chez Huet avec un exemple précis, un papier de Hoerling et al 2001, je me permets de le reprendre ici. Vous le trouvez en pdf si vous n’avez pas d’accès.

Ces chercheurs montrent que les variations nord-atlantiques (NAO) sont liées aux températures océaniques tropicales. Ils suggèrent qu’une part substantielle du réchauffement de surface 1950-1999 est lié la hausse des SST tropicales entrainant un certain régime NAO+ dominant sur l’hémisphère Nord.

Jusque-là, nous sommes apparemment en système de variabilité naturelle. Mais les chercheurs concluent leur exercice de la manière suivante :

« We have argued, largely through atmospheric GCM experiments, that the observed wintertime trend in North Atlantic climate since 1950 is intimately linked with a gradual warming of tropical SSTs, in the sense that the latter is forcing the former. This leads to the question of the origin of the tropical SST changes themselves. Although the possibility cannot be dismissed that the oceanic behavior is purely due to intrinsically coupled ocean- atmosphere interactions, it is plausible that the oceans may also be responding to an external forcing. Solar forcing, for instance, appears to play a role in multi-century global surface temperature change since 1000 A.D. (29), but it appears to have little influence since 1950 (30). A more likely candidate over recent decades may be changes in the atmo- sphere’s chemical composition due to human activities. »

On fait l’hypothèse d’une variabilité intrinsèque, mais on l’écarte pour revenir encore et toujours au forçage, et au forçage le plus connu des modèles (GES).

Donc pour reprendre vos termes, les modélisateurs peuvent très bien observer des phénomènes relevant du système à variation chaotique (ou oscillation quasi-périodique), mais à partir du moment où il y a une hausse de T dans ce système, ils vont chercher le forçage. Comme dit Marot, ils cherchent dans le seul endroit éclairé de leur modèle : hors forçage, en itération de contrôle, ces modèles reproduisent une T stable à l’échelle pluridécennale, des hausses et des baisses mais pas de tendance.

Il se peut que les modèles aient raison, que les T de surface moyennes soient globalement stables, que tout se ramène à un budget énergétique où seuls les forçages ont des effets sur les T. Le problème évident est néanmoins la robustesse actuelle de ce genre de conclusion, et cela au regard même de ce que dit le GIEC de l’état de la modélisation : le soleil est toujours mal évalué dans ses variations d’irradiance et dans ses effets indirects, les oscillations AO et téléconnexions ne sont toujours pas très bien reproduites, l’évolution nuageuse à échelle pluriannuelle ou pluridécennale est une inconnue quasi complète des mesures et diverge dans tous les modèles… malgré tout cela, on déduit une attribution « très probable » (>90% de confiance) aux GES. Si les modélisateurs reconnaissaient ces limites et se contentaient d’un modeste « more likely than not », je n’aurais ma foi guère d’objection à leurs conclusions.

PS : on voit aussi en lisant le papier l’effet déformant du résumé pour décideur du GIEC. Dans des travaux individuels comme celui cité ci-dessus, les chercheurs se contentent généralement de dire que tel ou tel phénomène s’explique mieux avec les GES anthropiques. Ils ne disent pas que presque tout le phénomène est très probablement attribuable aux GES. Or la poignée de « lead authors » du GIEC, sous la pression des politiques et des médias, franchit le pas à leur place.

96.  Murps | 10/02/2011 @ 20:56 Répondre à ce commentaire

Myke (#83), a vrai dire, je n’en sais rien et je pense que personne n’en sait rien.

Mais justement, ce qui caractérise un système chaotique entre autres, c’est la sensibilité aux conditions initiales, et par la même l’imprédictibilité.

Est-ce une « absence de mémoire » ?
Je ne suis même pas certain de cela finalement.

Mais si on ne peut pas remonter le temps en rentrant une valeur de t trop éloignée d’une mesure parce que les trajectoires divergent exponentiellement dans l’espace des phases (voir les techniques comme celles de Lyapunov), cela revient au même : on ne peut pas prédire l’avenir ni remonter trop dans le passé.

En ce qui concerne l’analogie avec un écoulement de fluide citée plus haut.
Cette analogie est à la fois pertinente par sa relation avec Navier-Stokes et la non-linéarité, et en même temps totalement inadaptée à la description du climat.

Pensez que lorsque vous écrivez Navier-Stokes, vous effectuez de facto une modélisation très précise à partir d’un fluide Newtonien (et incompressible ?).
Vous pouvez moyenner vos flux, prévoir la perte de la laminarité de l’écoulement, calculer les pressions, les prévoir dans une certaine mesure.
Vous ne pourrez juste pas prévoir le comportement de vos turbulences.

Pour le climat, vous écrivez l’équation du…qui… enfin une équation… l’équation, là…

Tiens, quelle équation écrit-on au fait ?
Quelqu’un s’en rappelle ? J’ai un trou…

97.  skept | 10/02/2011 @ 21:17 Répondre à ce commentaire

Une présentation de Shukla (pdf) sur la manière dont les modélisateurs essaient de discriminer variabilité forcée et non forcée :
On the Role of Unforced Multidecadal Variability in Twentieth Century Global Warming

Et un papier du même avec deux autres auteurs, sur cette question appliquée au climat récent (pdf) :
DelSole, T., Tippett, M.K., Shukla, J. 2010. A significant component of unforced multidecadal variability in the recent acceleration of global warming. Journal of Climate

Il est à noter que ce dernier papier conclut à une variation naturelle à la baisse des années 1940 aux années 1970, puis à la hausse des années 1980 aux années 2000. S’ils ont raison, le signalé forcé est évidemment difficile à détecter et plus difficile encore à attribuer…

98.  volauvent | 11/02/2011 @ 0:37 Répondre à ce commentaire

Murps (#94),

En relisant la présentation, on se rend compte que la « non mémoire » est attribuée à l’atmosphère, en référence aux faibles constantes de temps des phénomènes dont il est le siège. Ce qui conduit à penser que pour l’auteur (qui reproduit ce qu’on lit par ailleurs) le climat c’est uniquement l’atmosphère. Ce qui leur permet de dire que les conditions initiales sont finalement secondaires; elles dépendent de l’océan, de la cryosphère, toutes choses à grosses inerties. Sauf qu’à l’échelle de temps de 10, 30 ou cent ans, tout cela varie quand même…
Pour les équations, c’est simple: dans chaque petit cube qui découpe l’atmosphère en longitude, latitude et altitude,
-conservation de la masse
-conservation de l’énergie
-conservation de la quantité de mouvement (Navier Stokes)

Enfin, je l’espère…

99.  skept | 11/02/2011 @ 1:04 Répondre à ce commentaire

Il faut croire que le plateau des T 1998-2010 inspirent les chercheurs, voici un autre travail qui fait état d’une variabilité naturelle importante dans l’hémisphère Nord – tout en prenant bien soin de préciser que cela ne remet pas en cause le forçage anthropique (la manière très crispée dont ils le font est assez drôle, à la fin du papier, on sent qu’ils marchent des oeufs) :
Semenov, V, Latif, M, Dommenget, D, Keenlyside, N, Strehz, A, Martin, T and Park, W (2010) The Impact of North Atlantic-Arctic Multidecadal Variability on Northern Hemisphere Surface Air Temperature, J Climate

Celui-ci souligne que sur le long terme 1850-2000, il se pourrait que l’ENSO joue à la hausse en moyenne (à la baisse dans un seul bassin), sans que l’on puisse très clairement distinguer sa composante intrinsèque et sa composante (éventuellement) forcée :
Compo, G , Prashant P, Sardeshmukh, D (2010), Removing ENSO-Related Variations from the Climate Record, J. Climate

En voilà un troisième qui souligne que le mode « rapide » de la circulation thermohaline dans l’Atlantique Nord (NA THC lié à l’AMO) a connu un « shift » vers 1970 jusqu’aux années 2000 :
Dima, M, Lohmann, G (2010), Evidence for Two Distinct Modes of Large-Scale Ocean Circulation Changes over the Last Century, J Climate

Le J Clim n’étant pas franchement un repaire de sceptiques, cette abondance de publications sur les modes de variabilité naturelle suggère peut-être qu’une partie de la communauté doute que la stagnation 1998-2010 soit un simple effet provisoire de quelques années? On verra. En tout cas, c’est agréable de lire autre chose que le enième papier de la enième équipe de modélisation sur la enième itération triomphale du modèle appliqué à tel ou tel détail sans grande portée.

(Nota : tous les liens adressent aux pdf)

100.  Laurent Berthod | 11/02/2011 @ 10:43 Répondre à ce commentaire

volauvent (#95),

Si je ne me trompe pas, quand une boule de billard en frappe une autre, la conservation de la quantité de mouvement est observée sur l’ensemble constitué par les deux boules, avant et après la rencontre.

Pourquoi en serait-il autrement pour une cellule atmosphérique. Pourquoi la quantité de mouvement se conserverait en son sein et non pas dans l’ensemble constitué par la cellule et ses voisines, sur lesquelles elle influe et avec lesquelles elle a des échanges ?

Je généralise la question et la pose également pour la masse, l’énergie…

Merci à ceux qui pourront m’expliquer, ça me tracasse.

Sorry, the comment form is closed at this time.