par Roy W. Spencer, Ph. D.
Il y a quelques très bons arguments pour être sceptique des prévisions de réchauffement climatique. Mais la prolifération des mauvaiss arguments devient presque vertigineuse.
Je comprends que beaucoup des choses que nous pensons savoir de la science finissent par être fausses. Je saisis ça. Mais quelques-unes des explications que je vois sont à la limite du ridicule .
Donc, voici mon Top 10 des arguments sceptiques stupides. Je suis sûr qu'il y en a plus, et peut-être que j'en ai raté une paire d'importants. Bien.
Mon but évident ici n'est pas de faire changer d'idée des gens qui se sont déjà fait leur opinion, mais d'atteindre plus de 1000 commentaires (le plus souvent désagréables ) en réponse à ce message. Alors, aidez-moi ici !
1. Il n'y a pas d'effet de serre. Malgré le fait que le rayonnement infra-rouge descendant du ciel puisse-être mesuré, et s'élève à un niveau (~ 300 W/m2) qui peut être à peine être ignoré ; sa négligence pourrait bousiller les prévisions des modèles météo ; conduirait à des nuits très froides s'il n'existait pas ; il peut être facilement mesuré directement avec un thermomètre infrarouge de poche pointé vers le ciel (car un thermomètre IR mesure le changement de température IR induit à la surface d'une thermopile, CQFD) … S'il vous plaît arrêtez le truc du "pas d'effet de serre". Cela nuit à l'image des sceptiques.
2. L'effet de serre viole la seconde loi de la thermodynamique. La deuxième loi peut être écrite de différentes façons, mais l'une d'elle est que le flux net d'énergie doit être du corps le plus chaud vers celui le plus froid. L'effet de serre ne contredit pas cela. La violation apparente de la 2ème loi semble naitre du fait que tous les corps émettent un rayonnement IR … y compris un corps plus froid vers un corps plus chauds. Mais le flux net de rayonnement thermique reste du corps chaud vers le corps froid. Même si vous ne croyez pas qu'il y ait un flux bidirectionnel, et que le flux a un seul sens … le débit dépend de la température de ces deux corps, et changer la température du corps plus froid va changer la vitesse de refroidissement (et donc la température) du corps plus chaud. Donc, oui, un corps froid peut faire d'un corps chaud un corps encore plus chaud … comme lorsque vous mettez des vêtements.
3. Le CO2 ne peut être responsable du réchauffement parce-que le CO2 émet des IR aussi vite qu'il en absorbe. Non. Quand une molécule de CO2 absorbe un photon infrarouge, le parcours moyen dans l'atmosphère est si court que la molécule transmet de l'énergie aux molécules environnantes avant qu'elle ne puisse (en moyenne) émettre un photon infrarouge dans son état temporairement excité. Il est également important que la vitesse à laquelle une molécule de CO2 absorbe des IR est pratiquement indépendante de la température, mais la vitesse à laquelle il émet des IR augmente fortement avec la température. Il n'est pas nécessaire qu'une couche d'air émette autant d'IR qu'elle en absorbe … en fait, en général, les taux d'émission et d'absorption IR sont très loin d'être égaux.
4. Le CO2 refroidit, ne réchauffe pas l'atmosphère. Cet argument est un peu plus subtil car l'effet de serre refroidit l'atmosphère supérieure, et réchauffe la basse atmosphère, par rapport à une situation sans gaz à effet de serre. Puisque tout absorbeur d'IR est également un émetteur IR, une molécule de CO2 peut à la fois chauffer et refroidir.
5. L'ajout de CO2 dans l'atmosphère n'a aucun effet car l'atmosphère est déjà 100% opaque dans les bandes d'absorption du CO2. Tout d'abord, non, elle ne l'est pas, et c'est en raison de l'élargissement des bandes d'absorption dû à la pression. Deuxièmement, même si l'atmosphère était 100 % opaque, cela n'a pas d'importance.
6. La température dans la basse atmosphère est due au gradient de température adiabatique. Non, le gradient adiabatique décrit comment la température d'une parcelle d'air change par la compression/expansion adiabatique lorsqu'elle baisse/augmente d'altitude. Ainsi, cela peut expliquer comment les températures changent au cours de renversements convectifs, mais pas ce que la température absolue est. Expliquer la température absolue de l'air est une question de budget énergétique. Vous ne pouvez pas écrire une équation basée sur la physique pour obtenir la température moyenne à n'importe quelle altitude sans utiliser de budget énergétique. Si la compression adiabatique explique la température, alors pourquoi la température de l'atmosphère à 100 mb est presque la même que la température à 1 mb, malgré 100x plus de pression atmosphérique ?
7. Le Réchauffement fait augmenter le taux de CO2, pas l'inverse. Le taux d'augmentation du CO2 atmosphérique est actuellement de 2 ppm/an, un taux qui est 100 fois plus rapide qu'à n'importe quel moment dans l'enregistrement des carottes de glace de Vostok sur 300.000 ans. Et nous savons que notre consommation de combustibles fossiles émet du CO2 200 fois aussi rapidement ! Alors, où est l'augmentation 100x plus rapide de la température aujourd'hui causant cette augmentation de CO2 ? Allez les gens , réfléchissez. Mais ne vous inquiétez pas … le CO2 est l'élixir de vie !
8. Les modèles du GIEC sont pour une terre plate. Je n'ai aucune explication où cette petite friandise de désinformation vient. Les modèles climatiques traitent d'une Terre sphérique en rotation, une Terre avec un cycle jour/nuit (diurne) d'éclairage solaire et de la force de Coriolis atmosphérique (due à la fois à la courbure de la Terre et à la rotation). Oui, vous pouvez faire une moyenne globale des flux d'énergie et les afficher dans un dessin pour enfant de la terre plate, comme le schéma de bilan énergétique Kiehl-Trenberth qui est un outil d'apprentissage utile, mais j'espère que la plupart des gens sensés peuvent faire la distinction entre une poignée de nombres moyens globaux dans un schéma conceptuel, et un modèle climatique global en véritable 3D.
9. Il n'y a pas une telle chose que la température moyenne mondiale. Vraiment ? ! Y a-t-il une température moyenne de l'eau de votre baignoire ? Ou d'une pièce de votre maison ? Maintenant, nous pouvons discuter sur la façon de faire la moyenne (Spatiale ? Pondérée par la masse ? ), mais vous pouvez calculer une moyenne, et vous pouvez la suivre au fil du temps, et voir si elle change. L'exercice n'est futile que si votre échantillonnage n'est pas assez bon pour surveiller de manière réaliste les changements au fil du temps. Simplement parce que nous ne connaissons pas la température moyenne à la surface de la Terre avec une précision meilleure que, disons 1°C, ne signifie pas que nous ne pouvons pas surveiller les changements dans la moyenne au cours du temps. Nous n'avons jamais su exactement combien de personnes sont aux États-Unis, mais nous avons des estimations utiles de la manière dont le nombre a augmenté au cours des dernières 50 à 100 années. Pourquoi la "température" est si importante ? Parce que l'émission infrarouge thermique en fonction de la température est ce qui stabilise le système climatique …. plus les choses sont chaudes, plus l'énergie est perdue dans l'espace.
10. La terre n'est pas un corps noir. Eh bien, personne n'a dit qu'elle l'était. Dans la bande IR, cependant, elle est proche d'un corps noir, avec une émissivité moyenne de l'ordre de 0,95. Mais si un modèle climatique utilise 0,95 ou 1,0 pour l'émissivité de la surface cela ne va pas modifier les conclusions que nous faisons sur la sensibilité du système climatique à l'augmentation du dioxyde de carbone .
Je suis sûr que je pourrais venir avec une liste plus longue que cela, mais ce sont les principales questions qui me sont venues à l'esprit.
Alors, pourquoi suis-je en train de remuer un nid de frelons (encore) ? Parce que quand les sceptiques adoptent de la «science» qui est pire que la science du GIEC, nous faisons du mal à notre crédibilité.
papijo (#47),
-20°C ça fait 253K, pas 353 arrondi à 350.
Je n'ai pas du tout nié le flux de chaleur. Il y en évidemment un net qui va du thermomètre de Spencer vers l'atmosphère. C'est comme ça qu'un thermomètre infrarouge de ce type mesure la température. Ce que je conteste c'est l'affirmation de Spencer qui croit mesurer l'irradiance descendante. Il ne mesure que la température quelque part dans l'atmosphère, pas le flux descendant.
papijo (#49),
Non, la théorie dit qu’à cause de « l’effet de serre additionnel », l’augmentation de température atmosphérique dans cette zone est plus forte dans la haute troposphère que dans la basse troposphère. Ca signifie une réduction du gradient.
Hug (#43),
Ma façon de voir les choses, on peut commencer par simplifier en ne considérant que la troposphère.
Premièrement, l’ajout de GES est sensé y diminuer le gradient sauf dans les hautes latitudes (soit à plus de 60°). Ce phénomène est lié à l’augmentation de l’humidité absolue, il est en général connu sous le nom de hot spot tropical car c’est là qu’il est le plus sensible. Il n’est pas caractéristique des GES mais de tout réchauffement de la surface. Cela n’est pas sérieusement contesté d’où la polémique sur la prétendue absence de hot spot.
Le second mécanisme est à mon avis plus intéressant car spécifique aux GES. Le profil d’équilibre dans la troposphère n’est pas adiabatique parce qu’il y a des transferts radiatifs et notamment un important rayonnement IR en direction de l’espace (à l’origine de l’effet de serre). Le 6.5 °C par km est la valeur empirique de l’équilibre actuel. En s’élevant les masses d’air sont à la fois refroidie par la détente et par le rayonnement IR. Augmenter le taux de GES diminue l’efficacité du refroidissement radiatif et donc nous rapproche de la situation adiabatique (une certaine composition de l’adiabatique sèche et humide) qui correspond à un gradient plus faible que les 6.5 °C par km.
phi (#53),
Non, si vous augmentez le taux de GES vous augmentez la température de surface et la température dans toute la colonne d’air (jusqu’à la TOA) où se fera l’équilibre; le gradient pseudo-adiabatique lui ne varie pas, il sera toujours de 6.5°/km. Le problème de la convection et de chaleur latente étant laissé de coté.
ah ce bidulator, comment les gens peuvent vivre sans lui?
juste avant cet article, Spencer( et ce n’est peut-être pas innocent?) se demandait si des IR pouvaient chauffer la mer?
les commentaires comme d’hab sont partis dans tous les sens, mais une certaine unanimité semblait aller vers aucun effet sur la t) de l’océan.
c’est ballot, car les océans, c’est 4/5 de la surface de la terre, où la backradiation n’aurait aucun effet,si on ajoute les pôles, les lacs, les flaques d’eau…
@papyjo
à ma connaissance, les isolants en couche mince, sont une foutaise.
Je vous signale que entre les empilements de couches réflectives, ils glissent subrepticement de la laine de verre!
L’effet isolant selon moi ,entre les couches multiples, vient d’une mauvaise conduction.
Empilez des couches d’alu, l’une sur l’autre, cela ne fera pas un isolant.
Par contre dans l’espace, évidemment, tout devient radiatif, ce qui change tout.
Dans les commentaires, Spencer dit que la troposphère ne pourrait se réchauffer sans GES.On devrait l’envoyer dans le désert, où l’air est sec( pas tout à fait malgré tout)
Mais il dit aussi que la terre ne pourrait se refroidir sans GES. Toujours dans le même désert, il peut geler la nuit.
Le bidulator devient le bordelator!
@ Bob
quand Spencer point son détecteur….
cela rejoint mes objections sur ses expériences avec ses boites dans son jardin
(quand on pense que l’on claque des milliards sur base d’expériences géotouvetout dans le jardin…)
joletaxi (#54),
Il existe une version un peu plus sophistiquée de ce que fait Spencer dans son jardin. Des appareils, toujours basés sur le même principe que celui de Spencer ; un capteur (peint en noir pour simuler un corps noir) mesure le transfert de chaleur vers l’atmosphère et ce capteur (thermopile ou autre) convertit la variation de température observée en millivolts. Le tout est étalonné à partir d’un corps noir. IL faut évidemment connaître la température du capteur avec précision pour pouvoir évaluer la perte de ce dernier par rayonnement.
Ces appareils s’appellent des pyrgeomètres. Il y en a des batteries complètes sur la planète disposés en général sur des cimes élevées hors de la pollution (autant que possible). Tout ça est expliqué dans une brochure de l’OMM qui ne se pose évidemment pas de question sur la physique qui va avec.
Modification du gradient de température modélisé par le GIEC :

Le c concerne les GES. Sa signature unique est le refroidissement de la stratosphère. Cette dernière est en effet chauffée par les uv mais se refroidit par le CO2 qui émet des IR. Dans la troposphère le gradient diminue sous les tropiques (hot spot) et augmente aux pôles (la bizarre amplification arctique due à la fonte de la banquise et l’inexpliquée amplification antarctique dont personne ne parle).
le chti. (#54),
A la description d’un mécanisme, vous opposez une opinion. Quel intérêt ?
le chti. (#54),
Revoyez vos cours de thermo. Le gradient de 6,5°C/km suppose que la détente pendant les mouvements ascendants de l’air est adiabatique. Si vous apportez de la chaleur par rayonnement, on n’est plus en adiabatique, et alors les températures tendent à s’égaliser (baisse du gradient).
Ceci étant dit, vous avez quand même raison, ces variations de températures induites par nos très faibles quantités de GES sont totalement négligeables et il est légitime de considérer que le gradient reste constant !
joletaxi (#55),
Effectivement, les quelques points de contact entre feuille d’alu ne permettent pas de passer beaucoup de chaleur, mais une faible émissivité, ça aide aussi. Le fait de mettre du fibreux entre les feuilles d’alu est sûrement un moyen de faire baisser considérablement le prix de l’isolant sans dégrader les performances.
Hug (#52),
J’essayais de répondre sur le point chaud parce que la question m’avait été posée, mais j’ai vraiment beaucoup de mal à me passionner pour ce genre de phénomène, et je vous concède que votre réponse est certainement beaucoup plus pertinente que la mienne !
NB: R. Spencer en est à plus de 420 commentaires sur son blog. Espérons que nous n’en arriverons pas là !
papijo (#59),
420 commentaires du chti, je ne l’espère pas. Mais 420 commentaires de papijo et autres, c’est bien mon objectif.
Nicias (#57),
Relisez bien la légende de cette figure, ce sont les anomalies calculées sur un siècle (1890/1999) quant à la figure f c’est le total de toutes les anomalies. cet ensemble de figures est juste une décomposition du signal global suivant les différents forçages.
Persévérez, c’est grandiose
papijo (#59),
gradient adiabatique = gradient sec = 10°/km. Si vous y ajoutez l’humidité ça devient le gradient pseudo-adiabatique (ou gradient humide) => 6.5°/km
Nicias (#57),
Excusez moi, j’ai oublié la légende :
Nicias (#60),
Peut-on appeler ça « des commentaires » ?
On se le demande.
le chti. (#61),
"Relisez bien la légende de cette figure […] Persévérez, c’est grandiose"
Est-ce que tu te rends compte que tu insultes l'intelligence du modérateur qui débloque tes contributions et qui peut te bannir sur un coup de tête ?
Relis mon commentaire, ou as tu été pécher l'idée que j'en ignorerai la légende ou que je ne l'aurai pas comprise ? Hug, phi etc parlaient de l'effet des GES sur le gradient de température (le panneau c), mon idée était d'illustrer la chose. On se fout du f, des détails sur la période de modélisation, et bien sur que c'est une anomalie.
le chti. (#61),
Adiabatique signifie sans échange de chaleur, le taux d’humidité n’a rien à voir là dedans. Par exemple, dans une turbine à vapeur, on entre une vapeur sèche qui ressort humide. Comme les pertes thermiques sont extrêmement faibles, on parle d’une détente adiabatique (non réversible).
Nicias (#64),
Perso et comme les « commentaires » de Chti sont en modération automatique, je serais assez partisan de deleter tous ceux qui ne contiennent aucun argument technique et qui se contentent d’invectives comme « collector », « allez réviser tel truc » etc. Bref, des posts ultra fréquents chez ce citoyen.
ça améliorerait la conversation, IMHO.
Bob (#66),
Oui, c’était aussi mon idée.
Nicias (#67),
voir Z-ligne-Z
Nicias (#57),
Ces graphiques sont des modèles réalisés en 2003, voir la source ici http://www.ipcc.ch/pdf/assessm.....apter9.pdf . Mais il semblerait qu’il a été démontrait que ce n’est pas exactement ceci ou disons que c’est plus compliqué encore comme le montre les données dans HadAT2 qui montre les tendances linéaires de la température moyenne zonale (K / décennie) pour 1958-2005 et de 1979 à 2005 à 1000hPa et 500hPa, source : http://hadobs.metoffice.com/ha.....report.pdf
Voir aussi ce site en français http://boupey.free.fr/enseigne.....-serre.htm où il est dit :
» L’une des empreinte des gaz à effet de serre sur la température de l’atmosphère, prévue par les modèles, considérée comme caractéristique et donc recherchée, est la présence d’un point chaud aux basses latitudes, à environ 10km d’altitude (tropospheric hotspot, Fig. 15). Aucun point chaud n’a été observé et depuis 2007 la discussion fait rage : Les modèles de circulation globale sont-ils pris en défaut ? Les phénomènes d’amplification de l’effet de serre sont-ils contrôlés par d’autres variables que celles prises en compte, telles que la variation de la teneur en vapeur d’eau avec l’altitude par exemple ? Les relevés de température de la troposphère sont-ils déficient ? Est-ce toute notre appréciation du principe même de l’effet de serre qui est à revoir ? »
Williams
williams (#69),
A mon humble avis, le texte que vous citez accumule les erreurs et les mauvaises représentations.
1. Le hot spot tel que compris habituellement par les scientifiques n’est pas caractéristique des gaz à effet de serre, c’est une conséquence logique du réchauffement de la surface quel qu’en soit la cause.
2. Il est peu probable que les modèles se trompent sur ce point, la physique sous-jacente est bien comprise.
3. Le hot spot est bien observé mais la valeur absolue du réchauffement général est beaucoup plus faible que celle prévue par les modèles. Toutes les sources de mesures (y compris les SST) confirment cela sauf une seule : les stations au sol. La cohérence des sources homogènes est bien trop bonne pour imaginer sérieusement une autre cause d’erreur que celle-là.
williams (#69),
Plutôt d’accord avec Phi.
Sur un autre sujet qui me tient à cœur.
Le premier lien que vous donnez cite : Seidel, D. J., and Lanzante, J. R., 2004: An assessment of three alternatives to linear trends for characterizing global atmospheric temperature changes. JGR 109 Art. No. D14108 dans lequel on peut lire :
Even more prominently than with the radiosonde stratospheric data (Figure 4) the cooling in the sloped steps model for MSU4 data is a result of ratcheting down of temperature following volcanic eruptions. In this case, El Chicho´n is associated with a net cooling of 0.40 K, and Mt. Pinatubo is associated with a net cooling of 0.43 K, which combine to explain 94% of the total cooling. The modeled trend between the two eruptions is +0.085 K/decade (a slight warming), and post-Pinatubo it is only 0.006 K/decade.
Autrement dit 94% du refroidissement de la stratosphère est ponctuel. Une des pistes pourrait être l’injection de vapeur d’eau par les volcans dans la stratosphère. Dommage que l’on manque de données pour tuer la théorie du refroidissement de la stratosphère par le CO2.
phi (#70),
Christy est intervenu devant le comité chargé par l’APS de rédiger leur déclaration sur le RCA.
http://www.aps.org/policy/stat.....script.pdf
Il y parle beaucoup des biais dans les températures de surface pour expliquer le problème du hot spot
Nicias (#71),
Christy commence à parler p. 330 !
Nicias (#72),
à propos de Christy, J. Curry a un article qui retrace l’affaire Man
j’sais pas , mais il me semble qu’il y a une mauvais ambiance chez les climatologues?
phi (#70),
Je ne comprends pas certain choses. Dans le graphique que montre Nicias, à F on voit le résultat du cumul du gradient de température modélisé par le GIEC.
Puis ceci
nous montre logiquement la même chose mais d’après des données et non des modèles par contre le graphique est différent de celui du GIEC car de 1000 à 200 hpa tout est jaune à toutes les latitudes donc il n’y a pas de réchauffement plus important entre les tropiques de 500 à 100 hpa et au solau pôle nord.
Voir ici aussi : http://www.climatedata.info/Fo.....sonde.html
On ne doit pas bien se comprendre.
Williams
Nicias (#71),
Oui. c'est aussi l'idée avancée par Lindzen pour qui il ne reste que deux explications possibles 1) la théorie est fausse 2) Les temps de surfaces sont biaisées.
… Et comme il est exclu que la théorie soit fausse, ce ne peuvent être que les températures.
Possible. Mais éliminer d'emblée l'hypothèse qu'une théorie soit fausse parce qu'on la croit juste me paraît un peu hardi. Même si les idées sont simples.
Tant qu'elle n'est pas vérifiée par les faits, une théorie n'est guère qu'une théorie. Et elle ne semble pas l'être.
Syukuro Manabe (l'un des deux célèbres auteurs de l'article fondateur de ces affaires) et ses collègues sont plus prudents et envisagent la possibilité d'une erreur des modèles. Voici le résumé/conclusion de leur article :
Ref : "On the warming in the tropical upper troposphere: Models versus observations"
Qiang Fu, Syukuro Manabe, and Celeste M. Johanson
GEOPHYSICAL RESEARCH LETTERS, VOL. 38, L15704, doi:10.1029/2011GL048101, 2011
A noter que Manabe et al ont utilisé les données satellitaires TLT comme référence et pas les données trafiquées de surface.
Et de fait en ne considérant que les données satellitaires T24 et TLT , on retrouve ce désaccord théorie/observations.
Il est quand même peu probable que les données satelitaires haute et basse troposphère aient été bricolées pour aller dans le même sens ( de la divergence modèles/observations)
Donc et pour ce qui me concerne, tout est possible. Mais au vu de ces résultats, il est fort possible que la théorie soit tout simplement fausse.
En tout cas, ça a l'air d'inquiéter l'un de ses auteurs
Bob (#75),
Le hot spot est une rétroaction négative qui transfère de la chaleur de surface en altitude. Donc sans hot spot, la température de surface dans les modèles doit être corrigée à la hausse et les modèles sont alors tout aussi faux
Le hot spot est observé sur une échelle saisonnière et lors des évènements el nino. Ce n’est pas que de la théorie (de la convection toute bête !).
williams (#74),
Oui soit les modèles, soit les données sont faux. Probablement les deux !
williams (#74),
La comparaison des graphiques n’est pas toujours aisée. HadAT2 correspond aux cercles vert sur le graphique que j’ai mis en lien, période de référence 1979-2012. Celui que vous présentez est sur 1979-1999. Malgré la différence des périodes, à première vue, il n’y a pas d’incohérence entre les deux. HadAT2 est relativement élevé à 850 hPa par rapport aux autres sources. Bon, ça montre quand même que la fiabilité n’est pas top et qu’il faut interpréter tout ça avec prudence.
Bob (#75),
Sauf erreur, le désaccord concerne la valeur absolue de la tendance. En fait, cela revient à un désaccord sur l’amplitude du réhauffement et pas sur l’effet du réchauffement sur le gradient.
Bob (#75), Nicias (#76),
Par expérience, j’ai constaté que les logiciels informatiques qui deviennent des usines à gaz sont de plus en plus difficile à maîtriser et surtout à corriger.
Dans le cadre de logiciel ou modèle ayant une fonction précise, on peut juger de son résultat. Si le résultat n’est pas celui que l’on attend, on essaye de trouver le bug et le corriger. Et ce n’est pas toujours possible.
L’exemple du logiciel de paiement du salaire des militaires en est un exemple flagrant. Cela fait des années qu’ils essayent de le corriger, en vain. Il est certainement à mettre à la poubelle.
Il me semble que les modèles climatiques doivent aujourd’hui être au niveau des pires de usines à gaz avec toutes les modifications qu’ils y ont apportées depuis des dizaines d’années. Et il leur est impossible de savoir s’il y a des bugs dans la plupart des cas, puisqu’ils ne peuvent pas savoir à priori si le résultat est exact. Et sans savoir s’il y a des bugs, ce n’est pas en relisant simplement des dizaines de milliers de lignes de programmation que l’on peut garantir l’exactitude d’un logiciel sachant qu’il y a toujours des bugs. C’est la constatation d’un bug qui guide sa correction.
En plus, les équipes de programmeurs ont certainement changé à de nombreuses reprises. C’est toujours synonyme de très grosses difficultés.
Donc à mon avis, à la théorie fausse et aux données biaisées, il faut certainement ajouter la programmation du modèle qui devient invérifiable et donc à mettre à la poubelle.
Nicias (#76), phi (#77),
Je suis bien sûr d'accord sur la nature intrinsèque du hotspot.
Mais ce qui est en question ici, ce n'est pas son existence. c'est l'amplitude du réchauffement du hotspot par rapport au réchauffement de la surface. Si le modèle de cette relation était exact, cela ce verrait.
Si les relevés de temp de surface sont exacts, le hotspot devrait chauffer plus vite que la planète et ceci dans une proportion bien connue. Ce n'est pas le cas. D'où le raisonnement de Lindzen qui pense que les données de surface sont biaisées.
Mais, apparemment, c'est la même chose si on se base non pas sur les données de surface mais si on compare avec les données satellitaires.
J'émets donc un doute sur la conclusion de Lindzen.
Voici la figure 3 de l'article de Manabe et al que j'ai cité, avec sa légende (en dessous)
"Figure 3. Différences entre les séries temporelles T24 et T2LT au dessus des tropiques ( de 20°N à 20°S) tirées des jeux de données résultant des observations du RSS (ligne fine rouge) et de l'UAH (ligne fine bleue) avec la moyenne des résultats de l'ensemble des modèles (ligne noire épaisse)"
"L'ensemble des modèles" concernent évidemment les modélisations numériques du hotspot. Les données satellites concernent les mêmes altitudes que les modèles et, évidemment, au dessus des tropiques.
Il est bien clair que les modèles se réchauffent nettement plus vite que ce que voient les satellites à la bonne altitude et au bon endroit… sans aucune référence à la température de surface qui serait biaisée selon Lindzen.
Bien sûr, on peut peut-être voir ça comme une exagération de la sensibilité climatique mais pour une propriété "intrinsèque", ça fait plutôt désordre.
Bob (#79),
A vue de nez, les données satellitaires indiquent une absence de réchauffement au dessus des tropiques. Je ne doute pas qu’avec un fin travail statistique on puisse extraire de ça un trend positif, c’est possible.
Mais en première approche je pense que cela indique que les données de surface sont biaisées par le haut.
Dans la même veine, Isaac Held devant l’APS évoquait le fait que si l’on prenait en compte le fait que les océans s’étaient moins réchauffés que ce que les modèles simulent ; alors les modèles étaient moins faux sur le hot spot. Je regarderai si je peux extraire le passage sans trop de boulot.
Je vais lire Manabe et al.
joletaxi (#73),
Avant l’article sur Mann, il y a un guest post pas mal de Pielke et Christy.
Isaac Held devant l’APS :
DR. Held: Juste sur ce point, je pense qu’il est important, et il y a de la documentation sur ce sujet, mais il y a beaucoup de travail en cours qui, si vous prenez ces modèles qui ont l’air si mauvais dans les images de John [ Christy ] et que vous imposez les températures observées à la surface de l’océan comme condition limite sur ces modèles, l’adéquation est bien meilleure.
Nous discutons de savoir si c’est tout à fait conforme. Il peut toujours y avoir une certaine différence [et Christy soutient ensuite qu’il y en a encore ], mais ce n’est pas comme […mots manquants]- le problème est plus de savoir si dans le fait que l’océan ne s’est pas réchauffée autant que les modèles, leur température de surface, non pas tant la structure verticale [ de l’atmosphère ].
Bob (#79),
Quel que soit la source, la surévaluation du réchauffement par les modèles est évidente, donc, il ne fait pas trop de doute qu’il y a là un problème théorique.
La situation est assez différente pour l’effet d’un réchauffement de la surface sur le gradient. La comparaison T2LT et T24 n’est, à mon avis, pas très utile à cet égard. Je ne connais pas exactement la plage de T24 mais il y a une part de basse stratosphère, de plus, le point d’inversion de tendance est en plein dedans. D’après le graphique de Christy, ce point est plus bas dans les observations que dans les modèles et ce détail peut passablement perturber le rapport des deux valeurs.
Les profils de Christy montrent précisément que, dans la troposphère, les modèles s’accordent bien avec les observations pour ce qui est de l’évolution du gradient (ils sont même trop faibles). On peut ajouter les SST (donc les océans) qui sont en phase avec le reste. Le seul endroit où il y a une divergence, c’est en surface sur les continents. Là, cette divergence est bien plus grande que ce que montre le graphique, la tendance au sol doit y être supérieure à 0.2 °C/décennie. Que le problème soit théorique ou d’observation, il ne concerne que la surface des continents.
Théorie, modèles, observations par ballons sondes et satellites (à mon avis pour les satellites) et SST sont en accord.
D’après ce que j’ai vu ailleurs pour les stations, un biais de tendance de 0.2 °C par décennie sur cette période, à cet endroit, est plus que plausible.
phi (#83),
Voici les caractéristiques des T2LT et T24 dont les auteurs (Manabe et al) ont utilisé une combinaison parce que (sic) « ils constituent des produits idéaux pour étudier le réchauffement beaucoup plus intense de la haute troposphère tropicale, tel qu’il est prédit par les modèles GCM. »

Il faut lire l’article.
Merci pour les remarques très éclairantes de Bob.
Mais le juge de paix n’est-il pas la comparaison des différentes courbes erratiques de température avec la teneur en CO2 constamment croissante mesurée correctement de puis 1958 (voir P.U.): 24% d’augmentation de CO2 en 56 ans pour 2.6% d’augmentation de la température soit +O.4°C.
L’hypothèse du réchauffement anthropique est contredite par les observations ou falsifiée au sens de Popper.
Pas besoin de grande messe à Paris pour conclure.
MONMON (#85),
Merci. Mais, Vox clamans in deserto.( rien à voir avec St jean, ici)
J’ai bien peur que la grand’ messe de Paris n’ait même pas besoin de ce prétexte pour nous entraîner vers la désindustrialisation accélérée et la paupérisation
Bob (#86),
Ils feront comme Maurice Strong, après avoir foutu le bordel et détruit l’économie, ils iront se réfugier en Chine avec les remerciement du gouvernement d’avoir déroulé le tapis rouge de la délocalisation de l’industrie européenne vers les masses laborieuses chinoises.
Haute trahison envers l’état, c’est quoi la peine infligée en temps normal pour un citoyen normal? Et pour un président normal?
papijo (#22),
Merci pour ces explications. Je comprend l’intérêt de l’engin pour une source chaude, disons plus chaude que l’environnement, mais qu’en est-il pour une source froide ? Par exemple, qu’en est-il du rayonnement thermique provenant de l’appareil lui-même ?
Une expérience intéressante serait de réaliser l’expérience double avec le même appareil :
* en plein jour (midi solaire) sur Terre, par temps clair et en plein désert à l’équateur, en pointant hors du Soleil
* en plein jour (midi solaire) sur l’équateur de la Lune, en pointant hors du Soleil et de la Terre
A peu de chose près, le rayonnement incident sur l’appareil devrait être comparable (éventuellement corrigée de l’absorptivité de l’atmosphère terrestre), et la température propre du pyromètre pas trop éloignée.
) ?
La différence nous donnerait-elle l’influence du rayonnement propre de l’atmosphère ? Apollo a-t-il embarqué ce type de pyromètre (ce serait un hasard fou
Bob (#27),
La raison en est bien que le libre parcours moyen des photons IR dans l’atmosphère est extrêmement faible, de moins de quelques mètres ?
Pour préciser, vous affirmez qu’il mesure la différence de température entre le thermomètre et l’atmosphère environnante à quelques mètres ?
En tout cas je confirme, j’avais fait le test avec un pyromètre d’un collègue, il ne mesure rien de mon souffle chaud passant sur sa ligne de vue mais montre sans problème une surface à 100°C derrière.
MONMON (#85),
La conclusion d’une réunion politique sera politique !
Peut importe ce que montrent les courbes et les observations ! Les dés sont déjà jetés et il ne faut pas douter de cela. C’est une question de principe malheureusement !
Eloi (#89),
Pour préciser, le pyromètre détectait bien l’empreinte résiduelle d’une main sur un mur, donc une empreinte à température du corps au maximum (38 °C), tout en ne détectant pas un souffle chargé en vapeur d’eau et en CO2 à même température (~ 38 °C).
J’en déduis :
* l’émissivité du cocktail de gaz d’un souffle humain est très faible.
* Le fait de détecter à quelques mètres une empreinte thermique de main montre que sur cette distance l’atmosphère est transparente. La température de l’air devait être à ~15-20°C (un peu frisquet)
J’imagine que la situation change après une certaine épaisseur d’air ? Quelle est la portée de la vision infrarouge en atmosphère terrestre ? Un pyromètre est-il calibré pour éliminer (ou ajouter) le signal provenant de l’environnement en-dessous de l’air ambiant ?
Eloi (#88),
Le problème de tout cela est qu’on donne une très grande importance aux échanges de type radiatifs dans l’atmosphère en oubliant (du moins en minimisant) les échanges convectifs et conductifs.
On oublie volontiers le « milieu matériel » que représente le système Terre /Eau / Atmosphere. Sans parler de la confusion que cela amène !
Sur notre planète, avec son atmosphère, la manière dont se propage l’énergie (les joules) est décisif et si la conduction ou la convection reposent sur des principes de thermo, les échanges radiatifs sont différents.
Mais il est vrai que, dés qu’on est hors atmosphère (dans l’espace), ce sont ces derniers échanges qui sont importants.
Les interventions de Bob ont été magistrales et les posts que j’avais préparé vont venir modestement les compléter en termes de layman.
Mais je puis encore avoir dit des inexactitudes et demande toutes les corrections nécessaires.
« Point 1 de Spencer : La radiation IR est de l’énergie électromagnétique, comme toute radiation. Quand elle interagit avec un corps, elle peut se convertir en 3 formes d’énergie :
• énergie radiative (émission électromagnétique), conversion totale et instantanée pour une cavité idéale dans le vide n’ayant que cette forme d’échange correspondant, sur tout le spectre, à une ré-émission selon la loi du corps noir. La mesure avec une thermopile s’exprime en K (Kelvin), pas en °C (ou °F).
• énergie potentielle (chimique, changement de phase …)
• chaleur, c’est à dire agitation moléculaire dont le niveau peut être mesuré par un thermomètre à dilatation et estimé en °C (ou °F), pas en K qui est une convention pour caractériser la température du corps noir idéal à l’équilibre thermodynamique (S&B).
Le K est proportionnel à la racine quatrième de l’énergie électromagnétique incidente ou émise, par contre le °C (ou °F), est proportionnel la masse et à la racine carrée de l’énergie thermique, moyenne des énergies cinétiques des molécules du corps.
Rappelons que, dans une serre, les gaz ou les infrarouges n’ont aucun rapport avec la température qui y règne, tout est affaire d’obstacle à la convection (preuve les serres en plastiques plus ou moins transparents aux IR). Effet d’atmosphère serait plus exact. »
Voilà pour le point 1, sans avoir pris en compte les précisions de Bob. Je ne suis pas à Rennes mais dans le Finistère assez occupé, donc je vais donner mes autres posts préparés, je participerai à la discussion plus tard.
Point 2 de Spencer : L’erreur ici vient de l’expression « rayonnement thermique » qui sous entendrait que seuls les IR transféreraient de la « chaleur » ou de l’ « énergie calorique ». Nous savons bien que l’essentiel de l’agitation moléculaire transmise à la terre en provenance du soleil sous forme d’énergie électromagnétique se situe dans la zone visible et proche UV du spectre, très peu dans l’IR.
La terre ré-émet de l’énergie électromagnétique, en plus de la part qu’elle réfléchit par l’albédo mais ce flux est extrêmement faible face à la conduction. Les parties solide et liquide de la planète ne sont pas dans le vide, elles peuvent transmettre par conduction l’agitation moléculaire que le rayonnement électromagnétique reçu y produit.
Ce transfert de chaleur se produit par conduction dans les masses solides et liquides et aussi dans l’atmosphère par convection et surtout changement de phase de l’eau et ceci constitue l’essentiel de la météo et du climat.
Quant au 2nd principe, de mon point de vue, mais je me trompe peut-être, il est aussi issu de la loi théorique de la radiation du corps noir. Un corps noir dans le vide, ayant atteint sa température d’équilibre correspondant à une source de rayonnement donnée, ré-émet selon un spectre typique de cette température, toute l’énergie qu’il reçoit (et non de la température de la source dont l’énergie se trouve réduite proportionnellement à 1/r^2). Pour augmenter sa température et donc son émission, il faut qu’une autre source émette plus d’énergie électromagnétique que dans l’équilibre précédent. Les énergies des deux sources ne s’additionnent pas.
Pour illustrer, si on imagine autour du soleil une sphère aux propriétés de corps noir, parfaitement absorbante, elle aura pour température, pour un rayon égal à la distance de la terre (ou de la lune) au soleil, une température de 394 K, elle ré-émettra toute l’énergie reçue vers le soleil, mais celui-ci ne verra pas sa température augmenter.
C’est contre intuitif, mais, pour moi, c’est la loi du corps noir.
La meilleure démonstration de cette réalité est la variation de la température à la surface de la lune mesurée par la NASA lors des Apollo 15 et 17, au cours de plusieurs jours lunaires et dont j’ai discuté et repris certaines publications introuvables sur le web ici : http://dropcanvas.com/00rhf .
Point 7 de Spencer : Ce raisonnement est consternant de stupidité. Il témoigne de quelqu’un qui n’a jamais mis le nez dans un enregistrement de CO2, qu’il soit moderne (type Mauna Loa) ou issu de traces paléographiques comme les glaces polaires.
Comparer les vitesses d’évolution des teneurs atmosphériques en CO2 et la vitesse d’évolution de la température au cours des années, des siècles, des millénaires etc. sans relativiser les échelles est absurde.
Le pas d’enregistrement de Vostok est supérieur à 3000 ans pour le CO2, il ne peut donc donner aucune information sur les vitesses annuelles de variation de teneurs en CO2. Par contre, on sait que plus de 30% du CO2 quitte annuellement le réservoir atmosphérique et y retourne, 100+ Gt dans l’océan, ~100 Gt dans le bios, à +/- 20% près.
L’émission humaine est de l’ordre de 1% (7Gt) à 3% de la teneur atmosphérique, perdue donc dans les marges d’incertitude.
Einstein disait à peu près : « il y a pire que l’ignorance, et c’est l’arrogance » et cela peut atteindre même les plus grands.
phi (#53),
J’ai de la peine à comprendre. Vous écrivez bien (je reformule avec mes mots ?) : « les GES d’une particule d’air à une position quelconque du gradient adiabatique diminue l’efficacité du refroidissement radiatif (montant) de cette même particule d’air ». Je comprend de vos propos que le contenu en GES d’une particule d’air située un peu plus haut bloque le refroidissement d’une particule d’air située un peu plus bas ? Voulez-vous dire que le photon IR doit passer par plus de molécules de GES avant de s’échapper vers l’espace, plutôt que partir directement vers l’espace ?
Point 10 de Spencer : Si, si ! La terre est bien considérée comme un corps noir. En appliquant les lois de la radiation du corps noir à la thermodynamique de la terre c’est bien qu’on la considère comme un corps noir ou gris, c’est à dire comme une surface concave n’ayant avec son environnement le vide que des échanges radiatifs et présentant une température uniforme à l’équilibre radiatif.
La terre est loin d’avoir ou de se rapprocher de ces propriétés et en particulier il s’accomplit à sa surface un travail considérable utilisant de l’énergie thermique transmise et dégradée notamment par conduction, énergie qui ne peut donc être rayonnée vers l’espace vide.
Bernnard (#92),
Je suis bien d’accord avec vous. Au final les gros modèles costauds ne semblent pas bien capables de séparer de façon physique tous ces phénomènes, ce qu’il fait qu’ils doivent être ajustés/calibrés pour reproduire l’évolution des températures du siècle précédent. Une corrélation à 4 ou 5 coefficients ferait aussi bien (pour considérablement moins cher) et avec le même pouvoir prédictif… à peu de chose près nul (en tout cas risqué).
S’ils ne peuvent prédire, au moins pourraient-ils servir de « sondes virtuelles » permettant éventuellement de faire de la phénoménologie et de l’explicatif, mais comme ils sont à conclusion imposée (« réchauffement anthropique dû au CO2 »), ils ne peuvent génétiquement pas être missionnés pour expliquer la physique du climat….
On peut espérer que le « Plateau » aura cet effet bénéfique qu’il conduira à devoir comprendre. Quelques frémissements semblent aller en ce sens (?).
Eloi (#96),
Oui je le pense
J’ai un raisonnement « simpliste » dont je vous fais part:
la chaleur est dans tous les cas de sortir de la terre par rayonnement dans l’espace.
Je vais m’expliquer un peu plus longtemps sur ce point même si c’est intuitif.
La chaleur du sol est évacuée par convection vers le haut (cela est bien connu et je ne vais pas m’appesantir là-dessus).
Elle peut être aussi évacuée par rayonnement vers le haut préférentiellement.
Regardons ce qui se passe:
Une molécule gazeuse absorbante capte un photon IR venant du sol (à une certaine hauteur) et ensuite le réémet (toutes les directions sont possibles pour la réémission).
Admettons que ce soit un photon de la même longueur d’onde que celui de l’excitation (il pourrait être de longueur d’onde plus grande- ce qui est souvent le cas-).
Je vais faire appel à une loi très simple de spectro que tout le monde connait : la loi de Beer Lambert
Qui dit que l’absorbance (A) d’un faisceau de lumière est proportionnelle à un coefficient d’extinction molaire « ελ » à la longueur d’onde considérée, à un chemin optique « l » et à une concentration en gaz absorbant « c » : A = ελ * l *c
« A » varie de 0 à l’infini. Si on dit qu’A = 5 cela signifie qu’un photon sur 100 000 est transmis sans être absorbé (c’est logarithmique)
Donc on peut définir un chemin optique maximum « l max » en postulant que pour A = 5 le milieu est opaque.
l max =100 000 /ελ * c
« c » est une concentration et donc « c » = « n » (le nombre de moles) / « V » (le volume)
Pour un gaz : c = n / V = P / R * T (« P » la pression, « T » la température, « R » la constante des gaz parfaits
D’où : l max = 100000 *R * T /ελ * P
En regroupant les termes constants : l max = K * T / P avec K = 100 000 * R / ελ
Pour avoir la même absorbance, le chemin optique maximum est plus court vers le sol que vers le haut (à la verticale) car la pression diminue avec l’altitude, et même si la température descend l’effet ce celle-ci sur le chemin optique est faible.
On comprend ainsi par une suite d’absorptions et de réémission que l’avenir des photons est de progresser préférentiellement vers le haut.
Dans tous les cas, la sortie de l’énergie hors de l’atmosphère est transportée par des IR Qu’il y ait un retard à cette sortie ? Oui, mais plusieurs facteurs interconnectés sont impliqués et les gaz absorbants les IR en font partie.
En réalité les ondes électromagnétiques qui sortent de la terre par le haut ne sont pas dans les longueurs d’ondes plus courtes qui correspondent à l’absorption car évidement ce sont les rayonnements avec un grand chemin optique pour une même absorbance qui sortent de l’atmosphère en premier c’est-à-dire que ce sont les rayonnements avec un moindre ελ donc les photons réémis différents de ceux de l’excitation. C’est dans la queue de la cloche d’absorption que se trouvent ces rayonnement transporteurs d’énergie: dans l’IR lointain. Le drame est qu’on ne sait pas intégrer cette dissipation sur toute la sphère terrestre dans toutes les longueurs d’ondes.
Ce que je dis là est critiquable et c’est une opinion bien sur!
Bernnard (#99),
Oui, j’entends bien sur cette évacuation des IR par le haut vers l’espace.
Cependant je ne vois pas le lien avec le fait qu’une hausse de la concentration de GES dans une particule d’air diminue le refroidissement de cette même particule d’air. La loi de Beer-Lambert va seulement dire qu’une hausse de la concentration de GES de c_1 à c_2 va augmenter l’opacité des différentes couches d’air, dans les deux directions (les GES étant répartis de façon homogène). En quoi cela diminue-t-il le refroidissement d’une particule d’air ?
On peut imaginer deux scénarios :
1/ Si les photons IR absorbé/réémis le sont « sans pertes », c’est juste la quantité de photons en circulation dans le système va augmenter entre les deux état à c_1 et c_2, mais cela n’a pas d’impact sur la température des « particules » d’air, et donc sur leur refroidissement.
2/ A contrario, si les photons IR sont thermalisés (énergie de vibration des molécules de GES convertis en énergie cinétique des molécules environnantes) cela va conduire à une hausse de la température du gaz, mais à un rayonnement thermique plus faible que celui du sol (le gaz est moins chaud que le sol), et donc au décalage des longueurs d’onde des IR hors de la fenêtre d’absorption du CO2, permettant finalement ceux-ci vont s’échapper. La hausse de la concentration du CO2 conduirait donc à dégrader les photons IR du sol sur une distance plus courte par rapport au sol (à une altitude plus faible). Peut-être que les traces de GES conduisent alors à un réchauffement de la particule de gaz, mais pas à une diminution de son refroidissement.
PS : Quand on fouille le net sur ces 2 scénarios (lequel choisir) on trouve plein de chose, et tout et son contraire. Mais le fait que dans la haute atmosphère, les traces d’ozone la chauffent par absorption des UV tend à me faire favoriser un scénario type 2 : un gaz absorbant d’une certaine fréquence peut convertir un rayonnement incident en température de la particule d’air environnante (sauf que l’ozone se décompose sous les UV, « photolyse », ce qui ne serait pas le cas pour le CO2).
PS2 : quand je parle d’une « particule de gaz » ce n’est pas une molécule, c’est un volume de gaz petit mais suffisamment grand pour pouvoir y définir une température