Divergences

Par phi

La divergence la plus fameuse dans le petit monde de la climatologie est celle apparaissant entre les températures continentales de l’hémisphère nord et les densités des bois d’été (MXD). Elle inspira une mauvaise cuisine et un mot devenu célèbre : hide the decline.

La vulgate considère que ce problème vient d’une modification, depuis 1960, de la réponse des arbres à la température sous l’effet d’un facteur inconnu d’origine anthropique. L’hypothèse anthropique est infondée mais s’explique par la nécessité de ne pas faire perdre confiance dans les capacités de ce proxy à rendre compte des températures des siècles passés. Mais au fond, est-on tellement certain que le problème vient des arbres ?

Basse troposphère

Zeke Hausfather est l’un des distingués défenseurs des courbes de températures globales. Quand on émet des doutes sur leur fiabilité, il répond en montrant la superbe cohérence des constructions émanant des différents instituts fournisseurs. Il oublie malheureusement d’intégrer au bel ensemble les données satellitaires, on lui donnera donc un petit coup de pouce.


Fig. 1. Anomalies des températures continentales selon Zeke Hausfather complétées par les valeurs de la basse troposphère.
 
La divergence est d’environ 0.1 °C par décennie.On pourrait objecter que la basse troposphère n’est pas la surface. C’est vrai, théoriquement, l’évolution des températures de surface devrait être amplifiée en altitude en raison des modifications de l’humidité absolue. Sur le plan global, on s’attend à une amplification d’environ 1.1 alors qu’on observe au contraire un amortissement.

L’arbre

Les arbres ne sont donc pas les seuls à diverger. Se pose alors une question : y a-t-il une divergence entre les arbres et les données satellitaires ?

Longtemps, il n’a pas été possible de répondre car les données disponibles n’allaient guère au-delà de 1980. Briffa et al. 2013, une mise à jour des dendros de la région de Yamal [NdT : Au nord de la Sibérie occidentale], change la donne. Le papier lui-même ne vaut pas grand chose mais il est accompagné par les données brutes (MXD et TRW) se prolongeant jusqu’en 2006. Une aubaine.


Fig. 2. MXD de la région de Yamal.
Ce que montre le graphique dans les grandes lignes :

  • Les MXD suivent relativement bien les températures instrumentales régionales. Apparemment, les MXD d’arbres sur pied forment un excellent proxy de la température estivale.
  • Il n’y a pas de divergence MXD – TLT.
  • Ce sont les données des stations qui divergent depuis la fin des années 1980 et la chute de l’Union Soviétique.
  • Il n’y a pas de tendance générale au réchauffement dans la région de Yamal pour le XXème siècle.

Et la forêt

A partir de là, on peut faire l’hypothèse non pas que les thermomètres sont de mauvais instruments mais qu’ils ne mesurent pas cette grandeur cible qu’est la température régionale, qu’ils s’en écartent en proportion du développement urbain et de la consommation d’énergie et que cette évolution est grossièrement modélisable par une progression linéaire à partir d’une date charnière.


Fig. 3. Hypothèse sur la divergence.
 
Il n’est pas toujours facile de comparer des séries de valeurs entre elles surtout quand elles n’ont pas les mêmes unités. Le calibrage est une opération sensible qui peut conduire à des résultats très différents. Dans la figure 3 sont représentés deux calibrages des MXD qui racontent des histoires très différentes. Le premier calibrage correspond à la vulgate, le second nous permet de retrouver une divergence de 0.1 °C par décennie. Lequel est le bon ? Quelques jours après avoir réalisé ce graphique en 2011, un blogueur écrivait un article chez Jeff Id démontrant que, statistiquement parlant, la divergence ne partait ni de 1960 ni de 1920 mais de 1900.

Glaciers

Poursuivons la chasse aux divergences sur les glaciers en compagnie de Huss et al. 2009 qui utilise les anomalies de fonte de 3 glaciers suisses pour les comparer aux données de températures de la station de Davos. Les anomalies de fonte sont particulièrement intéressantes parce que physiquement, elles sont simplement et directement reliées aux températures estivales. Les auteurs constatent une divergence et tentent de l’expliquer par l’évolution de l’irradiance. Mauvaise idée pour deux raisons. D’abord, la corrélation n’est pas très bonne. Ensuite et surtout, ils supposent qu’une anomalie positive de l’irradiance par rapport à la température devrait favoriser la fonte alors que c’est l’inverse qui est vrai. Dans un tel cas, la part de chaleur d’origine locale augmente or, il n’y a pas plus mauvais récepteur d’ondes courtes qu’un glacier.

La solution est beaucoup plus simple que cela, la divergence provient du traitement déficient des données de la station de Davos.


Fig. 4. Anomalies de fonte d’après Huss et al. 2009 et données de températures de la station de Davos.
 
L’anomalie de fonte suit, en réalité et comme attendu, très étroitement les températures.A partir de là, nous pourrons estimer l’erreur affectant les relevés de températures estivales sur le plan régional.


Fig. 5. Anomalies de fonte et MXD
 
Divergence de 0.15 °C par décennie confirmée également par les arbres.

Neige

Qu’en est-il des températures hivernales ? Nous pouvons essayer d’utiliser l’enneigement en nous basant par exemple sur Marty 2008 :

Regime shift of snow days in Switzerland.

Il y a bien un graphique dans l’article mais le calibrage est grossier. Mieux vaut ici procéder par normalisation des séries détrendées.


Fig. 6. Enneigement selon Marty 2008.
 
La divergence est également d’environ 0.15 °C par décennie.

Océans

Retour au niveau global avec les SST. Il y a quelques mois lors d’une conférence, Phil Jones faisait part de son scepticisme à propos de la divergence entre océans et continents. Pour lui, une telle différence était improbable et devait cacher une erreur, évidemment sur les SST.


Fig. 7. Comparaisons globales.
 
La divergence entre SST et CRUTEM est de nouveau proche de 0.1 °C par décennie et accessoirement confirmée par RSS et UAH. On constate également sur ce graphique un apparent problème avec la fraction continentale de UAH depuis 2005. Roy Spencer s’en occupe, nous verrons ce qui sortira de la prochaine version UAH très attendue.

Conclusions

Cette liste est très loin d’être exhaustive, ceux qui souhaitent l’allonger peuvent aller fouiller chez McIntyre qui est un découvreur hors pair.

Cela dit, peut-être plus significatif encore que cette énumération de divergences est l’absence totale de variables corrélant les données instrumentales. Totale ? Non pas totale car un proxy résiste à la divergence : les marronniers de la Treille plantés en pleine ville de Genève :


Fig. 8. Dates de floraison des marronniers de la Treille à Genève.
 
De cette petite promenade au pays de la divergence, j’ai acquis la conviction que le problème principal venait des stations météo. Conviction renforcée par l’étude des homogénéisations et par la physique de l’effet UHI mais ce n’est pas le lieu de développer ces sujets. Dans ce rapide survol, il n’a pas été question des marges d’erreurs chères à beaucoup, il faut donc prendre un certain recul par rapport aux chiffres et toujours avoir un oeil critique face aux illusions que peuvent créer les représentations graphiques.
Crédits images : Zeke Hausfather pour le fond de la figure 1, Ville de Genève pour la figure 8.

49 Comments     Poster votre commentaire »

1.  Abitbol | 10/12/2014 @ 8:04 Répondre à ce commentaire

Excellent article !
Les chauffards s’accrochent comme des perdus aux mesures des stations terrestres et on comprend pourquoi…
Elles sont en très grande majorité en ville ou sur des aéroports, là où ça chauffe.
On se demande pourquoi on dépense des fortunes à envoyer des satellites ?

2.  Nicias | 10/12/2014 @ 11:53 Répondre à ce commentaire

Merci à Phi pour cet article qui reprend les différentes divergences entre les thermomètres et d’autres indicateurs du climat.

Lors de la dernière discussion sur Climate Dialogue concernant le soleil, on peu lire Jan Erik Solheim : »Stauning’s conclusion is that the solar activity relation can explain the temperature anomaly in the period 1860-1990, but from then on another components appears. » p.6 de sa contribution.

« La conclusion de Stauning est que la relation avec l’activité solaire peut expliquer l’anomalie de température pendant la période 1860-1990, mais après un autre un autre composant apparait ».

Une nouvelle crosse de hockey qui démarre à la même date que la française.

A défaut de 2014, voici Stauning 2013 :
http://file.scirp.org/Html/8-4700240_41752.htm
Le modèle de Stauning semble être une droite de régression sur les taches solaires.

3.  yvesdemars | 10/12/2014 @ 12:03 Répondre à ce commentaire

joli travail !!

4.  the fritz | 10/12/2014 @ 12:50 Répondre à ce commentaire

Nicias (#2),

les différentes divergences entre les thermomètres et d’autres indicateurs du climat.

Y pas que cela ; ce qui me paraît plus important c’est les divergences entre zones géographiques pour un même thermomètre ou proxy; et cela montre la réalité du RCA
Merci à John de l’avoir spécifié dans son texte

Conviction renforcée par l’étude des homogénéisations et par la physique de l’effet UHI.

5.  the fritz | 10/12/2014 @ 13:07 Répondre à ce commentaire

@phi

La divergence est d’environ 0.1 °C par décennie.On pourrait objecter que la basse troposphère n’est pas la surface. C’est vrai, théoriquement, l’évolution des températures de surface devrait être amplifiée en altitude en raison des modifications de l’humidité absolue. Sur le plan global, on s’attend à une amplification d’environ 1.1 alors qu’on observe au contraire un amortissement.

Je ne sais pas , mais si on regarde les évolutions des températures des différentes tranches d’atmosphère données par RSS, on s’aperçoit que plus on monte , et plus l’augmentation de température récente diminue pour se stabiliser au sommet de la troposphère et diminuer dans la stratosphère
J’en conclue que si on avait des données satellites qui donneraient la température des thermomètres aux mêmes endroits où ceux-ci sont placés , la différence serait moins sensible

PS, j’ai pas bien compris l’allusion à l’humidité absolue

6.  phi | 10/12/2014 @ 13:26 Répondre à ce commentaire

Merci à Nicias pour la mise en ligne.

the fritz (#5),

…on s’aperçoit que plus on monte , et plus l’augmentation de température récente diminue pour se stabiliser au sommet de la troposphère et diminuer dans la stratosphère…

En fait, non. La diminution du gradient dans la troposphère est parfaitement observé à la fois par les ballons et les satellites. Il y a donc bien une amplification troposphérique. Elle est simplement brouillée quand on fait l’erreur de raccorder la courbe aux températures des stations. Message par contre clair si on raccorde aux SST.

Graphe de John Christy que j’ai surchargé.

7.  the fritz | 10/12/2014 @ 13:54 Répondre à ce commentaire

phi (#6), Je parle de températures et vous de gradients; or vous comparez bien des températures plus haut

8.  phi | 10/12/2014 @ 14:22 Répondre à ce commentaire

the fritz (#7),
Oui mais comme c’est un gradient de température, c’est la même chose. Si vous voulez, on peut le dire comme ça : ballons et satellites observent que plus on monte plus le réchauffement est prononcé.

9.  Bob | 10/12/2014 @ 16:15 Répondre à ce commentaire

phi (#8),

ballons et satellites observent que plus on monte plus le réchauffement est prononcé.

… au dessus des tropiques.
Oui, mais environ 0,13°C au lieu de 0,3°Cà 0,4°C /décennie d’après ce graphique. Une paille.

10.  Nicias | 10/12/2014 @ 16:35 Répondre à ce commentaire

Pour en revenir à la divergence française, j’ai lu le fil de discussion de 2009 avec les interventions de Mestre, je le cite :

Pour revenir à la série de Pau, qui est notre point de départ :

Corrections sur les TN (températures minimales)

AN 1879->1921 0.83
AN 1922->1973 0.54
AN 1974->1985 0.07
AN 1986->1991 0.21

Corrections sur les TX (températures maximales)

AN 1879->1895 -1.84
AN 1896->1911 -1.45
AN 1912->1921 -1.70
AN 1922->1932 -0.29
AN 1933->1934 0.38
AN 1986->1991 0.31

Ce n’est que Pau mais ce qui est intéressant ici, c’est le changement de pente des corrections pour les température mini faites sur la fin, c’est à dire pendant ou juste avant la divergence.

On en saura plus lorsque Ben aura obtenu les données de Météo France…
Avec on pourra savoir aussi ou ça chauffe et précisément quand en France. Il me semble avoir lu un papier ou il y avait les températures de quelques stations du sud de la France. L’augmentation des températures commençaient a priori plus tôt, au début des années 80, et ils expliquaient cela par l’ensoleillement.

Donc je vais aller potasser le « dimming » et voir si ça explique quelque chose.

11.  scaletrans | 10/12/2014 @ 17:10 Répondre à ce commentaire

Nicias (#10),

Voilà un article de Wiki qui vaut son pesant de poil à gratter.

12.  the fritz | 10/12/2014 @ 17:48 Répondre à ce commentaire

phi (#8),
Ne me dites pas que vous ne comprenez pas ce que je veux dire
Allez sur le lien ci-dessous
http://images.remss.com/msu/msu_time_series.html
et tapez sur « channel » en faisant défiler les tranches d’atmosphère de plus en plus élevées; vous voyez bien qu’au cours du temps, l’évolution de l’écart de température entre la surface et une tranche donnée augmente et d’autant plus que cette tranche est élevée.
Inversement si on avait une tranche encore plus mince et plus proche du sol , celle ci se rapprocherait encore plus des températures thermométriques qu’elles soient situées à terre ou en mer

13.  phi | 10/12/2014 @ 18:45 Répondre à ce commentaire

the fritz (#12),
Ok, vu. La progression ne s’observe que pour TLT-TTT tropical. Ailleurs c’est dans l’autre sens. J’ignore si c’est compatible avec le graphique de Christy et les ballons parce que les TMT commencent à être sérieusement affectées par la stratosphère. Globalement, on peut effectivement se poser la question. Cela dit, cet effet éventuel est de 0.01 °C par décennie (global TTT – TLT) donc dix fois moindre que la divergence TLT -stations. Alors, non, je ne pense pas qu’en affinant la définition des satellites on parvienne à éliminer la divergence.

14.  Nicias | 10/12/2014 @ 20:14 Répondre à ce commentaire

the fritz (#12), phi (#6),

Le Hot Spot est sous les tropiques. Si vous réduisez les observations de RSS, on retrouve les résultats de Phi.
Hors des tropiques, bah c’est bizarre mais c’est pas bon pour les modèles en tous cas !

15.  Nicias | 10/12/2014 @ 20:17 Répondre à ce commentaire

Ou la, je suis à la bourre pour ma réponse.

Si on regarde bien UAH diverge pas tant que cela pour les terres fig 7.

16.  lemiere jacques | 10/12/2014 @ 23:36 Répondre à ce commentaire

J’ai un peu de mal à comparer satellite et thermomètres , la température du jour c’est pas le milieu du maximum et du minimum pour les thermomètres tandis que les satellites doivent procéder autrement, il doit falloir collecter sur une durée et rebricoler ça mais sans notion de min et max ( j’en sais rien!!), alors certes je sais bien que au nom du saint signal de réchauffement qui est partout et nulle part  » tout ça se moyenne et fait une excellente température »..mais cette façon de regarder des trucs sans savoir exactement ce que c’est me gêne beaucoup.

C’est pas évident, si on regarde par exemple des trucs biologiques, les températures minimales et maximales sont cruciales..mais bon pour moi se poser des question sur la validité des températures de surface est forcement une bonne chose.

17.  the fritz | 10/12/2014 @ 23:46 Répondre à ce commentaire

phi (#13),

Alors, non, je ne pense pas qu’en affinant la définition des satellites on parvienne à éliminer la divergence.

Bien sûr que non , on est d’accord

18.  lemiere jacques | 11/12/2014 @ 18:51 Répondre à ce commentaire

bah travail intéressant mais vous avez tort sur le fond …la question à poser est puisque d’évidence les mesures des stations sont faussées d’une part et que d’autre part ces stations ne peuvent pas remonter à une température moyenne vraie..de quelle miraculeuse façon peut estimer la fiabilité de ces mesures?

Il n’y a aucune raison pour qu’une mesure satellite soit recoupable avec une mesure tirées des stations au sol…
au sol vous avez une anomalies des moyennes des minimums et maximums (huh??)tandis que les satellites sont un échantillonnage de températures vraies.

donc on sait a priori que ce n’est pas la même chose..et ce n’est pas parce que les climatologues l’affirment par défaut qu’il faut l’accepter.

depuis le début on a une inversion de la charge de la preuve..il faut pas céder…vous ne pouvez pas prouver que les mesures des stations au sol sont inexploitables…mais on s’en fout…eux ne peuvent pas montrer qu’elles le sont..

on marche sur la tête…dans un monde normal, si après une suspicion de fausseté des mesures, on proposait une méthode de correction et qu’on constatait que l’écart est grand on tirerait la conclusion que les mesures sont pourries…et si on voulait conserver les mesures on garderait les mesures brutes auxquelles on ajouterait une barre d’erreur déduite de cet écart avec un avertissement que cette estimation de l’erreur est hypothétique…
du moins c’est ce qui me semble logique si on souhaite rester à peu près sur que les résultats vrais sont dans la barre d’erreur donnée!
avec la méthode giec on se retrouve avec une anomalie de température des océans en 1900 connue à 0,1° près…: NON.

19.  phi | 11/12/2014 @ 20:32 Répondre à ce commentaire

lemiere jacques (#18),
On cherche à approcher l’évolution des températures régionales. Ce n’est pas idiot et cela peut être utile. On dispose de diverses mesures dont celles des stations météo. On sait également qu’aucune de ces mesures n’est absolument fiable mais que toutes ont une certaine relation avec la grandeur cible. La manière la plus raisonnable de procéder est de comparer toutes ces données et de repérer les régularités. La quantification des divergences par rapport aux données des stations est simplement un moyen d’y parvenir.

Comme la grandeur cible n’est qu’une évolution, le problème des maximums, minimums ou moyennes n’est pas nécessairement un obstacle insurmontable. Cela peut être critique dans certains cas, c’est vrai. Alors, on fait avec et on regarde si ce qui sort est ou non intéressant.

Apparemment, le résultat est cohérent. Il reste approximatif et est certainement critiquable mais il ne fait guère de doute qu’il est plus satisfaisant que les courbes officielles. En plus de tous les cas énumérés, le nombre d’énigmes qu’il permet de résoudre est assez remarquable : hot spot, évolution du niveau des océans, progression des glaciers, multiples singularités de proxies au XXème siècle etc.

Quant à la charge de la preuve, vous avez raison mais visiblement l’entourloupe marche bien sans.

20.  yvesdemars | 11/12/2014 @ 20:47 Répondre à ce commentaire

quand on ajoute RSS l’écart grandit …

21.  phi | 11/12/2014 @ 21:31 Répondre à ce commentaire

yvesdemars (#20),
Effectivement. Ce graphique est aussi intéressant parce qu’il montre que de 1980 à 1995 RSS et UAH sont remarquablement alignés. Roy Spencer pense que le problème trouve son origine à cette date. Il a peut-être tort pour UAH. Il y a de bonnes raisons de penser que les TLT ne devraient, y compris sur les continents, pas trop diverger des SST. Pour UAH, cela voudrait clairement dire que l’origine du problème se trouve en 2005 (v. fig. 7). 1995 pourrait alors plutôt marquer une déviation de RSS.

22.  Nicias | 12/12/2014 @ 15:16 Répondre à ce commentaire

phi (#21),

1995 est la fin des effets réchauffants de Pinatubo dans la stratosphère. Je suis persuadé que RSS en ont trop fait la dessus, en corrigeant la tropo de la strato, ça marchait tant que la stratosphère se refroidissait mais c’est aussi la pause la haut.

23.  lemiere jacques | 13/12/2014 @ 11:47 Répondre à ce commentaire

phi (#19),

si on veut reste que vous n’avez aucune idée de ce que vous verriez si les satellites et les ballons sondes mesuraient la « température » d’une façon similaire » soit en prenant la moyenne entre max et min en un point donné.

La « température  » donnée par les station n’est pas la température moyenne de la France .
c’est un objet curieux qui contient outre ce que l’on a pris l’habitude de considérer comme des erreurs inacceptables car non souhaitées ( environnement) une information de circulation… il suffirt de prendre un exemple idiot ou chaque jour en france une bulle d’air froid à la temperature Tf de surface Sf se baladait sur un hexagone de surface S à la temperature
T et que cette petite bulle avait la bonne idée de parcourir tout le pays journellement..

temperature du jour selon météo france (T+Tf)/2
température du jour par unité de surface ( T*(S-Sf)+Tf*Sf)/S qu’on peut aprroximer à T…sauf erreur

ok c’est un exemple idiot…mais il faut en passer par là…alors le couplet que l’on à l’ordinaire entend chez les climatologues qu’il existe une raison magique et mystérieuse qui fait que la température donnée par météo France doit être vue comme la température moyenne par unité de surface n’est pas acceptable…

Vous ne voyez pas que ça ouvre la porte à une complication dérisoire et des corrections infondées reposant sur du vent et des hypothèses??

Les températures satellite devraient être privilégiées pour la comparaison aux modèles ou à la rigueur les températures de surfaces des océans car on parle de la même observable physique.
Voir des divergences sur des observables différentes n’avance à rien et c’est surtout dangereux si veut faire reposer la critique sur cela…Non les températures de stations au sol sont un objet à part qui ne contient pas qu’une information en température mais aussi par exemple en circulation.

la climato est une science qui adore taire ( au public!) les hypothèses sous jacentes , on vous colle une courbe de CO2 tirée des vulles de gaz coincées dans la glacee avec des mesures du taux de CO2 réel mesuré ( en altitude!) , on vous colle reconstitution de proxy et courbes de température,et on escamote l’énorme erreur qu’on peut commettre en prenant un hypothèse de « recollage » fausse comme base de travail.
Si on ajoute le fait de s’attacher aux « anomalies »..

Il suffit de voir l’accroissement du niveau de la mer mesuré par satellites gps et tout ce qu’on fait de mieux… si vous regardez les mesures brutes du niveau de la mer tirées des satellites et ce qui sort au final…
Je reconnais que j’ai pas creusé la question , j’en ai eu assez de chercher des données..cette courbe qu’on voit dans un vidéo de willie soon m’a parue suffisament parlante
https://www.youtube.com/watch?v=1gmW9GEUYvA 21 mn 24

24.  Bob | 15/12/2014 @ 18:42 Répondre à ce commentaire

Jeux de mains, jeux de vilains (Au GISS de la NASA)

Le résultat pour l'anomalie de température du mois de Novembre 2014 vient d'être affiché sur le site du Goddard Institute (Ex James Hansen, maintenant Gavin Schmidt) . Elle est de 0,65°C en baisse par rapport au mois précédent (0.76)

Mais ce qui est vraiment bizarre c'est que des corrections ont été également apportées aux mois précédents et dans le sens qui "va bien" (bien sûr). Voici le tableau des valeurs avant, et après correction. Le tout en degré C.

Mois; Récent; Ancien; (C'est à dire la semaine dernière)
Mars; 0,7; 0,7;
Avril; 0,71; 0,71;
Mai ; 0,77; 0,78;
Juin ; 0,6; 0,61;
Juillet; 0,49; 0,52;
Août; 0,74; 0,69;
Sept.; 0,81; 0,76;
Oct.; 0,76; 0,76;
Nov ; 0,65;

Les 0,65 ne sont vraiment pas une bonne nouvelle pour le GISS. ça risquait de faire baisser la moyenne annuelle et de faire passer 2014 en dessous de 2010 et 2005 (les années les plus chaudes selon le GISS).
Alors, un petit coup de pouce en septembre et en août, (+0,1°C quand même) ça arrange. Pour faire sérieux, un petit (moins grand) coup de pouce en sens inverse pour Juillet.

Ouf ! Michel Jarraud de l'OMS a eu chaud, mais il sera content !

Résultat de ces "petits arrangements", à l'heure actuelle (manque le mois de décembre) :

L'année 2014 bat l'année 2010 de 1/100e de degré et l'année 2005 de près de 2/100e de degré.

Tout cela est du plus grand ridicule quand on sait que l'incertitude sur ce genre de mesure (annuelle) est, au moins, de + ou – 1/10e de degré (dixit le Hadley Center).

Mais pour les médias qui ne s'embarrassent jamais des questions de marges d'erreurs, c'est pain bénit !

Comme disait Lindzen, il est normal qu'il y ait des erreurs et qu'elles soient corrigées mais ce qui est un peu "surprenant" c'est que les corrections aillent toujours dans le même sens. Celui du réchauffement.
Triste époque !

25.  AntonioSan | 15/12/2014 @ 22:10 Répondre à ce commentaire

Bob (#24), Deja que tout cet attirail et les conclusions qui en sont tirees sont hautement suspects, mais la cela devient franchement ridicule.

26.  the fritz | 15/12/2014 @ 22:20 Répondre à ce commentaire

Bob (#24),
Y a-t-il une explication sur le site ?

27.  Bob | 15/12/2014 @ 22:37 Répondre à ce commentaire

the fritz (#26),
Je n’en ai pas vu. Mais ils peuvent toujours dire que les résultats étaient « non parvenus » comme on pouvait lire dans l’Huma après les élections.

28.  Nicias | 16/12/2014 @ 13:11 Répondre à ce commentaire

http://documents.irevues.inist.....2042/54071

Le régime thermique des glaciers alpins : observations, modélisations et enjeux dans le massif du Mont-Blanc

D’un côté pas de divergence, enfin c’est pas net et ils ne calent leur modèle au bon moment.

De l’autre :

La comparaison de ces résultats avec des données météorologiques de basse altitude sur l’ensemble de la région alpine montre que le réchauffement climatique n’est pas amplifié avec l’altitude. La question de l’amplification du réchauffement climatique en altitude est controversée, car les observations semblent contredire les résultats des modèles (Rangwala et Miller, 2012 ; Pepin et Lundquist, 2008).
Nombre d’auteurs invoquent le manque de données à très haute altitude.
Notre étude comble, en partie, cette lacune.

29.  phi | 16/12/2014 @ 21:09 Répondre à ce commentaire

Nicias (#28),
Intéressant mais pour ce qui est de l’estimation de l’évolution des températures de l’aire, donc amplification et divergence éventuelles, ce papier ne fait que reprendre les conclusions de Gilbert et Vincent 2013 (malheureusement payant). La reconstitution de l’évolution des températures à partir des profils récents de Tglace est un objectif très ambitieux. Un truc de modélisation lourdement paramétrisé en fait et qui pose un problème de principe : il n’y a pas de solution unique. Plusieurs évolutions temporelles peuvent mener à des profils semblables. Le moins que l’on puisse dire est que c’est un peu trop riche en degrés de liberté pour en tirer des conclusions tranchées.

30.  Cdt Michel e.r. | 16/12/2014 @ 23:57 Répondre à ce commentaire

phi (#29),

ce papier ne fait que reprendre les conclusions de Gilbert et Vincent 2013 (malheureusement payant)

Ah bon ! Sur la page citée par Nicias, vous pouvez télécharger gratuitement ce PDF Le régime thermique des glaciers alpins : observations, modélisations et enjeux dans le massif du Mont-Blanc des mêmes auteurs.

31.  phi | 17/12/2014 @ 8:26 Répondre à ce commentaire

Cdt Michel e.r. (#30),
Celui-ci est le papier donné par Nicias, les réflexions sur l’évolution des températures ne sont que résumées (p. 35) et proviennent de : Gilbert et Vincent 2013, Atmospheric temperature changes over the 20thcentury at very high elevations in the European Alps from englacial temperatures qui est payant.

32.  Cdt Michel e.r. | 17/12/2014 @ 20:21 Répondre à ce commentaire

phi (#31), Pour moi, 35 pages ou plus sur le sujet c’est au-dessus de mes forces.

Et ce d’autant plus que mon état de santé s’est de nouveau détérioré.

33.  phi | 17/12/2014 @ 21:06 Répondre à ce commentaire

Cdt Michel e.r. (#32),
Je suis navré d’apprendre que votre santé s’est détériorée. Dans ces discussions virtuelles, on oublie parfois que les caractères sympathiques qu’on y croise existent quelque part en chair, en os et en sang. J’espère que vous retrouverez rapidement toute votre belle vigueur.

34.  phi | 19/12/2014 @ 8:32 Répondre à ce commentaire

Suite à une discussion sur le fil Académie, une illustration d’une autre divergence.
Le problème du remplissage de la grosse baignoire en graphique :

L’évolution généralement admise des températures explique mal l’observation d’une montée presque linéaire du niveau des mers depuis le milieu du XIXème siècle. Ce caractère est ici relié à la fameuse divergence de Briffa 1998.

35.  the fritz | 19/12/2014 @ 12:15 Répondre à ce commentaire

phi (#34),
La discussion a vite tourné court ; par exemple j’avais posé une question là
http://www.skyfall.fr/?p=1424&cp=1#comments
Mais visiblement elle ne semble pas vous troubler
Sinon votre graph ci-dessus, il vient d’où ? Je ne pense pas que c’est du site de Berruyer, mais cela serait intéressant de le savoir ; peut-être qu’on pourrait comprendre le bien fondé des corrections qui font varier le niveau de la mer du simple au double
De plus , à regarder en détail , on voit bien un ralentissement lors de la période de Pause des températures des années 50-70; moi cela me rassure et me conforte dans l’idée que l’effet de serre ne viole pas les principes de thermo

36.  phi | 19/12/2014 @ 14:31 Répondre à ce commentaire

the fritz (#35),
La question Nino et nina ? Intéressant mais je n’en ai aucune idée.

Pour le graphique, c’est vous qui me l’avez inspiré. C’est un modèle simple qui permet de montrer qu’un plateau de température ne correspond pas forcément à une stabilisation du niveau. Il montre aussi que la courbe HadCRUT n’est pas compatible avec une élévation linéaire sur 150 ans.

Ce modèle suggère aussi que l’effet d’une augmentation de la température globale sur les variables physiques est sous-estimé. Si la courbe corrigée montre une stabilité du niveau dans les années 70, c’est simplement que les températures étaient alors proches de la valeur d’équilibre utilisée dans le modèle.

Pour ce qui est des lois de la thermodynamique, je ne vois toujours pas ce qu’elles viennent faire ici. Il est bien clair que le principe général de l’effet de serre ne viole pas ces lois. Ce qui viole ces lois ce sont :
– la notion de forçage des GES,
– les back radiations telles que représentées dans les graphiques à la Trenberth,
– la simplification fondamentale utilisée dans la modélisation et qui consiste à admettre que la convection seule fixe le gradient de température.

37.  phi | 22/12/2014 @ 21:53 Répondre à ce commentaire

Pardonnez-moi ce message un peu particulier mais je pense qu’il pourrait être utile à curious qui le verra peut-être.
Plus généralement, il est également instructif sur un petit jeu de positions qui a lieu dans un climat assez singulier (le modérateur du moment sur CA n’est autre que Steve McIntyre).

38.  Nicias | 22/12/2014 @ 22:15 Répondre à ce commentaire

phi (#37),
sur quel fil de discussion est-ce chez CA ?

39.  phi | 22/12/2014 @ 22:23 Répondre à ce commentaire

Ici.

40.  Nicias | 23/12/2014 @ 7:13 Répondre à ce commentaire

phi (#39),

Bizarre. Normalement McI ne censure que le hors sujet.
Quel que soit ce qu’il s’est passé, a mon avis, expliquer la divergence par un problème de thermomètre, c’est pas trop son trip ces dernières années.
Il se concentre sur les proxy et pour le reste cherche à donner une image respectable.

Sur le fil chez Jeff Id il y a une image intéressante de timetochooseagain :

C’est toujours CRU et UHA pour le coin de Yamal. Seulement le graphique est construit « pour » cacher la divergence (« I then baselined to 1979-2013 »).
Du coup mon œil est attiré par autre chose que souligne l’auteur, la variance de CRU plus forte.
C’est surprenant parce qu’on a l’habitude du contraire.
Et c’est approximativement en 1998 et 2010 que les deux courbes divergent la plus. Si Leroux a raison (mais on doit pouvoir arriver au même résultat avec un GCM si on en a un sous la main), c’est lié aux descentes d’air froid de l’arctique qui vont provoquer les el nino.
Ces masses d’air froid ne dépassent pas 2km de haut et ne seront pas vues par UHA a priori (ou moins bien).
Comme c’est un problème hivernal avant tout, pas sur que les arbres enregistrent quelque chose.

Je note que la variance plus grande de CRU démarre vers 1995 avec le retournement de l’AMO et le réchauffement de l’arctique.

41.  phi | 23/12/2014 @ 9:44 Répondre à ce commentaire

Nicias (#40),
Ce n’est pas la première fois que McIntyre me censure en cours de discussion et c’est assez désagréable. La dernière fois, il avait reconnu ne pas appliquer une politique précise mais le faire à sa convenance. Il cherche à cadrer les échanges, ce que je comprends car cela peut les rendre plus intéressants mais il a aussi tendance à utiliser ce moyen pour infléchir les opinions vers ce qui lui convient.

McIntyre a surtout une théorie à laquelle il tient beaucoup sur la crosse de hockey de Mann, elle est certainement correcte mais pas assez générale. Il est en particulier emprunté pour expliquer les crosses qui peuvent apparaître avec des proxies de bonne qualité. Il règne également sur le fil en question une grande confusion parmi les intervenants entre TRW et MXD. McIntyre le sait pertinemment mais il a plutôt tendance à l’entretenir qu’à la dissiper.

Le graphique de timetochooseagain est effectivement intéressant mais il ne dit pas grand chose sur le problème particulier des MXD qui ne se comparent qu’à trois mois dans cette région. Les trois mois d’été (JJA) sont nettement moins affectés par l’amplification de surface. En fait ils le sont un peu, on le voit sur mon graphique où le calibrage est fait sur les TLT.

42.  Nicias | 23/12/2014 @ 15:21 Répondre à ce commentaire

phi (#41),

Oui c'est pénible pour la confusion TRW/MXD, et en plus par des gens qui fréquentent le blog et le sujet depuis des années.

Il y a aussi cette question de la variance basse fréquence. J'ai pas l'impression qu'ils se posent la question pour les thermomètres (question quasi insoluble sauf à chercher des bon proxis) alors que pour les arbres toutes catégories, cela leur semble évident.

Je suis d'accord sur votre dernier paragraphe, mais le graphique nous dit des choses dur UAH/CRU donc peut-être sur les MXD. J'essayerai de revenir sur le sujet lorsque j'aurai finit de monter ma cuisine.

43.  Nicias | 30/01/2015 @ 10:51 Répondre à ce commentaire

Cette année 2014 me laisse perplexe. Record de chaud sur les océans, mais la chaleur a oublié de monter.

44.  Bob | 30/01/2015 @ 16:56 Répondre à ce commentaire

Nicias (#43),
Moi aussi, indice PDO étonnamment fort alors qu'on est en phase basse…
Ce point 2014 fait tache.

45.  Bob | 30/01/2015 @ 19:55 Répondre à ce commentaire

Voici la PDO avec le point 2014. Etonnant, non ?
Ce doit être une fluctuation. Il y en a eu de ce calibre précédemment. ça pourrait retomber.

46.  Nicias | 30/01/2015 @ 20:35 Répondre à ce commentaire

Bob (#45),

Oui assez.

Oui ça va retomber, sur votre graphique (et hadsst), ça retombe toujours. Ces grosses fluctuations ne nous disent rien des tendances.

47.  Nicias | 30/01/2015 @ 21:40 Répondre à ce commentaire

Le bond des températures de surface de l’océan vient de l’hémisphère nord.

Je me demande comment ils font leur moyenne. Est ce que les deux hémisphères ont la même pondération alors que a priori es océans sont plus dans l’hémisphère sud.
Ensuite c’est vraiment bizarre question variance.

48.  Bob | 30/01/2015 @ 23:23 Répondre à ce commentaire

Nicias (#47),

Ensuite c’est vraiment bizarre question variance.

En effet et c'est le moins que l'on puisse dire.
Pour le global, ils additionnent les terres et les océans du Nord, puis même chose pour le Sud.
Puis, ils font la moyenne des deux. (NH+SH)/2
Ce qui est sujet à caution tout comme la température moyenne.

J'ignore pour le Hadsst.

49.  phi | 27/10/2015 @ 14:16 Répondre à ce commentaire

A propos des dates des vendanges dont il a été question sur le fil Fabius.

Ladurie est l’un des auteurs de Daux et al. 2012 (An open-access database of grape harvest dates for climate research: data description and quality assessment). On y trouve cet intéressant graphique (figure 6) :

Un petit homme adepte du grand Mann s’y est essayé à la confection d’une bébé-crosse garantie fait main. Cette horreur retirée, on peut tenter d’ajouter les températures annuelles françaises en lissage sur 11 ans (courbe rouge) :

Tiens, tiens, une divergence de plus !