De la Validité des données de température globale de surface NOAA, NASA et Hadley CRU

II .OBJECTIF DE L’ÉTUDE

Bien que le réchauffement global de 1979 à 1998 soit bien confirmé dans tous les jeux de données de température de surface et de la troposphère, il reste des questions essentielles quant à la validité des données de température de surface depuis 1900 telles qu’officiellement signalées (voir ici).

Donc le but de l’étude était d’évaluer si : les données GAST fournies par la NOAA, la NASA et HADLEY, sont des estimations suffisamment crédibles des températures globales de surface pour servir à la modélisation climatique et à l’analyse politique.

Les trois jeux de données fournis par les organismes –National Climatic Data Center (NCDC) de la NOAA, Goddard Institute for Space Studies (GISS/GISTEMP) de la NASA, Hadley Center Climatic Research Unit (CRU) de l’Université d’East Anglia – dépendent tous des données fournies par des stations de surface et des données diffusées par la NOAA sous la direction du National Climatic Data Center (NCDC) d’Asheville, Caroline du Nord.

Le GHCN est la source la plus fréquemment citée pour les données brutes ou non ajustées de température globale de surface pour les 100 dernières années au moins. Phil Jones du Hadley CRU déclarait que « presque toutes les données de stations que nous avons dans les archives du CRU sont exactement les mêmes que celles des archives GHCN utilisées par le National Climatic Data Center de la NOAA » (Source).

La NASA écrit “Les analyses en cours se servent de mesures de la température de l’air de surface des jeux de données suivants : les données non ajustées du GHCN (Peterson et Vose, 1997 et 1998), UHCN et SCAR (Scientific Committee on Antarctic Research) provenant des stations Antarctiques.” Il n’est pas surprenant qu’il y ait un bon accord entre NOAA, NASA et Hadley sur les températures passées étant donné qu’elles utilisent toutes largement les mêmes données brutes. La “meilleure estimation” est que 90-95% des données brutes sont les mêmes dans chaque jeu de données (Pielke). L’analyse de Steve McIntyre a montré une concordance de 95.6% entre GHCN et Hadley CRU.

Le Dr. Roger Pielke Sr. note : “Les différences apparaissant entre les trois températures globales de surface résultent de la méthodologie utilisée par chacun des trois groupes. Ils ne sont pas “totalement indépendants.” Chacune des trois analyses de température de surface souffrent d’incertitudes et biais non résolus comme nous l’avons montré…”

Donc le fait qu’aujourd’hui les trois entités donnant la Température Globale de Surface montrent la même tendance sur les plus de 100 années passées ne constitue pas une preuve supplémentaire de leur crédibilité individuelle. Voir la Figure II-1. Leurs collectes de données et leurs efforts d’analyse ne sont clairement pas indépendants. En outre, mesurer avec précision la Température Globale de Surface implique d’éviter de nombreux défis, et lorsque cela n’est pas possible de les surmonter. Après la collecte des données brutes avec tous ses problèmes, on fait des ajustements. De tels ajustements sont nécessaires non seulement pour les données brutes de la période en cours mais quelquefois aussi pour les données historiques précédemment publiées.

anomalies température mensuelle

Figure II-1 Source: NOAA GHCN, NASA GISS & Hadley CRU

III. AJUSTEMENTS DE DONNÉES DE TEMPÉRATURES HISTORIQUES

L’ajustement de données brutes de températures de surface est clairement nécessaire pour surmonter de nombreux problèmes. Le défi peut-être le plus important provient de facteurs locaux. La population terrestre est passée de 1 milliard à plus de 7 depuis 1900, ce qui fait que les données de température de surface sont très contaminées par l’urbanisation et des facteurs locaux tels que les changements d’usage et de couverture du sol. C’est ce que l’on appelle les impacts des Ilots de Chaleur Urbains (ICU). Ce qui est également bien documenté sont les mauvaises implantations qui soumettent les instruments de mesure à des sources de chaleurs qui peuvent significativement biaiser les résultats.

De plus, bien qu’il y ait eu des efforts pour calculer GAST avec plus de précision afin de mieux vérifier le degré de changement climatique, la distribution géographique et la “fiabilité” des données ont empiré. Il y a eu la disparition de 75% des stations autour de 1990. Et le restant est urbain de façon disproportionnée avec 49% des stations sur des aéroports. Pour plus de détails voir cet article.

Toujours à propos de la fiabilité des données, à peu près au même moment, il y a eu une importante augmentation des données mensuelles manquantes dans des stations de tous les pays. Plus de 90% des stations d’Afrique et d’Amérique du Sud ont des mois manquants nécessitant des interpolations. Des données manquantes et des valeurs aberrantes ont été également observées dans les données US. Des changements de technologie ont introduit de nouvelles divergences via des biais instrumentaux et des changements obligés d’implantations. De plus, durant les 100 dernières années, l’heure journalière d’observation a changé au fil du temps et n’était pas la même selon les sites, ce qui a pour effet de modifier les plus hauts et plus bas quotidiens et pour lesquels des ajustements appropriés des données brutes doivent être faits.

Il y a aussi de grandes incertitudes sur les températures de l’océan, et ce n’est pas un petit problème vu que les océans couvrent 71% de la surface terrestre. Il persiste des questions importantes pour savoir quand et comment faire des ajustements pour des changements de couverture aussi bien que des changements de techniques de mesures : passage du seau plongé dans l’eau aux mesures des entrées de refroidissement moteur, des bouées amarrées ou dérivantes, aux bouées plongeantes ARGO. Ces problèmes de mesures océaniques sont sans doute les limites les plus importantes à la précision de l’évaluation de GAST.

James Hansen, l’ancien scientifique en chef du GISS disait que la constitution d’un GAST était compliquée en expliquant que “cela ne peut être fait qu’à l’aide des mêmes modèles informatiques utilisés pour élaborer les prévisions météo quotidiennes [NdT : ce qu’on appelle des réanalyses]. Nous pouvons démarrer le modèle avec les quelques données observées disponibles et remplir le reste par des estimations (appelées aussi extrapolations) et laisser ensuite le modèle tourner suffisamment longtemps de façon à ce que les estimations initiales ne comptent plus, mais pas trop longtemps de peur que les inexactitudes du modèle ne deviennent trop pénalisantes…” (Source).

Nonobstant tous ces défis, le calcul GAST nécessite qu’après la collecte des données brutes, on fasse quelques ajustements. Par exemple, les ajustements pour l’heure d’observation et les ICU se sont avérés clairement nécessaires. Il y a eu ailleurs débat sur le fait que l’adéquation de ces ajustements aux données GAST historiques n’a pas été suffisante pour enlever les biais de réchauffement : La conclusion générale de ce rapport est qu’il y a de sérieux problèmes de qualité dans les données de température de surface qui amènent à se demander si l’historique de température globale, spécialement terrestre, peut être considéré comme constant et précis. Les utilisateurs devraient être conscients de ces limitations, spécialement en ce qui concerne les applications influant la politique (Source).

Dans ce rapport, l’accent est mis sur les changements effectués par les trois entités à leurs données historiques publiées précédemment. Le bien fondé de certains ajustements aux données historiques n’est pas contesté ici. La question principale est si oui ou non les représentations actuelles des tendances cycliques des données GAST par la NOAA, la NASA et Hadley CRU sont valides à la lumière d’autres indications contradictoires hautement crédibles.

IV. AJUSTEMENTS DES DONNÉES GAST HISTORIQUES

Cette section montre les changements apportés aux données de température GAST historiques. La Figure IV-1 ci-après donne les représentations NASA GAST. Si l’on regarde seulement la période jusqu’à 1980, l’évolution d’un mode cyclique vers une tendance à la montée linéaire plus agressive est évidente. La question de savoir si la tendance GAST jusqu’en 1980 est crédible sera spécifiquement examinée plus loin dans la Section VI.

comparaison GISS

Figure IV-1 Source: GISS, and Air Improvement Resource, Inc. 12

La Figure IV-2 ci-dessous montre les changements nets apportés aux données historiques entre le 17 mai 2008 et le 15 mai 2017. Les changements effectués par la NASA ont clairement gommé le mode cyclique de 1900 à 1980 de la représentation originale GAST 1980 (en bleu) dans la Figure IV-1 ci-dessus.

Figure IV 2

Figure IV-2

Diagramme final montrant le changement net des données de température de l’air de surface depuis le 17 mai 2008 préparé par le Goddard Institute for Space Studies (GISS) à l’Université de Columbia, New York City, USA. Cette estimation de température débute en janvier 1880. Dernière mise à jour du diagramme le 15 mai 2017.

Pour parvenir à ce résultat, on peut voir dans la Figure IV-2 ci-dessus que les changements de données historiques effectués entre le 17 mai 2008 et le 15 mai 2017 se ramènent à abaisser les données de température des années 30 et à remonter les données nouvellement publiées au-delà de 1975. Ces changements ont servi à accroître la pente de tendance linéaire sur toute la période.

La Figure IV-3 ci-dessous montre les changements effectués par Hadley CRU de 2001 à 2010. Ici encore, les changements aussi récents ont servi à lisser le profil cyclique précédent.

Figure IV-3

Figure IV-3

Puis, comme le montre la Figure IV-4, entre février 2008 et mai 2017, le vaste assortiment de changements a servi à élever les températures, en insistant particulièrement sur les années 50 et 60 si l’on compare avec les données Hadley GAST publiées en 2008. Un retour en arrière à la représentation 2008 de la figure IV-3 laisse entrevoir pourquoi les augmentations de 1950-60 pourraient avoir été faites. Notez aussi pourquoi la réduction ciblée autour de 1940 pourrait avoir été faite aux données publiées en février 2008.

Figure IV-4

Figure IV-4

Diagramme final montrant le net changement depuis le 25 février 2008 dans l’enregistrement des températures globales mensuelles de l’air de surface préparé par le Hadley Centre for Climate Prediction and Research et le Climate Research Unit (CRU) de l’Université d’East Anglia, UK. Cette estimation de température s’étend jusqu’en janvier 1850. Dernière mise à jour : 3 mai 2017 (Source Climate4you, Global Temperatures, Temporal stability of global temperature measurements).

Comme le montre la Figure IV-5 ci-dessous, aussi récemment que le 18 mai 2017, la NOAA a apporté des changements significatifs à ses données historiques datant seulement de mai 2015.

Figure IV-5

Figure IV-5 Température mensuelle globale de l’air de surface depuis 1979 selon le National Climatic Data Center (NCDC), USA. Cette série temporelle est calculée à l’aide des données terrestres de surface du Gobal Historical Climatology Network (Version 2) et des anomalies de température de surface maritime (données MOHSST, UK) et des SST Optimum Interpolées (NCEP, version 3 ; noter le changement de version du 2 mai 2011). La ligne épaisse est la simple moyenne glissante sur 37 mois, correspondant presque à une moyenne glissante sur 3 ans. Période de référence : 1880-2016, dernier mois montré : avril 2017, dernière mise à jour du diagramme : 18 mai 2017.

Dans la Figure IV-6 ci-dessous, on peut voir que les modifications des données historiques de la NOAA effectuées entre le 17 mai 2008 et le 18 mai 2017 a servi à faire basculer la tendance GAST vers une pente de montée plus accentuée. En fait, pour citer l’auteur du graphe de Climate4you: “le résultat d’ensemble des ajustements effectués devient substantiel, et les ajustements depuis mai 2016 dépassent quelquefois 0.1°C. Avant 1945 les températures globales sont généralement abaissées, et généralement remontées après 1945 ; il en résulte un réchauffement plus prononcé au 20ième siècle (environ 0.15°C) comparé à l’enregistrement de température NCDC publié en mai 2008. Dernière mise à jour du graphe: 18 mai 2017.”

Figure IV-6

Figure IV-6 Diagramme définitif montrant un net changement depuis le 17 mai 2008 dans l’enregistrement de la température globale mensuelle de l’air de surface préparé par le NCDC, USA.

V. VALIDATION DES DONNÉES GAST

Il est clair que les ajustements des données GAST historiques ont été spectaculaires et toujours favorables aux opinions des Alarmistes du Climat à propos du Réchauffement Global. La question est maintenant de savoir si les dernières versions GAST par la NOAA, la NASA et Hadley sont crédibles pour l’analyse politique ou même la modélisation du climat.

Comme montré clairement au paragraphe IV ci-dessus, les conséquences des changements apportés aux versions des données GAST historiques préalablement publiées ont été de supprimer virtuellement le mode cyclique visible dans les anciennes publications. L’existence d’une période chaude dans les années 30 et 40, suivie d’une période froide au milieu des années 70 est dorénavant perdue dans le bruit de fond pour ainsi dire. Dans cette section, on utilisera des données particulièrement crédibles de pays spécifiques pour évaluer la validité de la quasi non existence de ce mode cyclique dans les versions actuelles de GAST [1].

Il est évident que si les ajustements aux données historiques GAST ont supprimé ce mode cyclique de façon inappropriée, alors les trois versions GAST actuelles doivent être considérées comme invalides.

En commençant par les USA, un certain nombre de tableaux montrant le mode cyclique susmentionné disponibles dans les archives des villes étasuniennes nous informent immédiatement. Voyez les Figures V-1 à V-4 et notez que le réchauffement des années 30 et 40 et le refroidissement des années 70 est présent dans toutes.

Figures V -1 Source : NERCC

Figure V-2

Figure V-2 Source : NOAA NWS

Figure V-3

Figure V-3 Source : NOAA NWS

Figure V-4

Figure V-4 Source : NOAA NWS 20

Le mode cyclique déjà mentionné est également clair dans les données de l’État de New York de la Figure V-5 ci-dessous. On voit les températures maximales dans la mesure où elles ne reflètent pas l’effet d’ilot de chaleur urbain (ICU) évident dans les températures minimales car l’atmosphère tend à être mieux mélangée durant le jour.

Figure5

Figure V-5 Source : NOAA Climate at a Glance

On voit le même mode cyclique de la “Ceinture Maïs et Soja” dans la Figure V-6 et V-7.

Figure 6

Figure V-6 Source : NOAA Climate at a Glance

Figure7

Figure V-7 Source : NOAA Climate at a Glance

A l’échelon national comme dans la Figure V-8, le pourcentage de journées chaudes a également chuté, ce qui contredit l’augmentation de tendance GAST de 1900 à nos jours.

Figure V-8 Source : NOAA USHCN

Ce fait [Ndt l’augmentation de tendance] n’est pas confirmé par la Figure V-9 qui implique qu’environ 70% des records de chaleur actuels ont été établis avant 1940. Et que dans les 5 dernières décennies pleines, il y a eu plus de records de froid que de chaleur.

Figure V9

Source: NOAA NATIONAL CLIMATIC DATA CTR., State Climate Extremes Committee, Records, https://www.ncdc.noaa.gov/extremes/scec/records

La preuve finale que le profil de température reflété dans GAST devrait inclure ce comportement cyclique particulier se trouve dans la figure V-10 montrant l’indice annuel de vagues de chaleur US. Ces données couvrent les 48 premiers états.

 

 

Figure V10

Figure V-10 U.S. Annual Heat Wave Index, 1895–2015   Source : https://www.epa.gov/climate-indicators/climate-change-indicators-high-and-low-temperatures Les vagues de chaleur sont définies comme épisodes de chaleur d’une durée de 4 jours avec une température moyenne excédant la limite d’un événement par 10 années (Kunkel et al, 1999) à l’aide d’une transformée logarithmique.

Incidemment, la Figure V-11 ci-dessous montre que le froid est bien plus dangereux que la chaleur.

Figure V11

Figure V-11 Source : Gasparini et al, 2015

Naturellement il se pourrait que seules les données US montrent ce mode cyclique mais pas celles d’autres régions, disons de l’Hémisphère Nord. Mais ce n’est pas le cas comme on le voit dans les Figures V-12 à V-14.

Figure V12

Figures V-12 Source : NASA GISS 24

Figure V13

Figure V-13

Le fait que le profil cyclique de la tendance des villes Arctiques soit similaire à celui des villes US comme montré dans la Figure V-14 ci-dessous est assez parlant.

Figure V14

Figure V-14 Source : NOAA GHCN 25

Donc il semble peu douteux que les données US reprises dans le calcul des données de Température Moyenne Globale de Surface devraient contenir les profils cycliques montrés plus haut. En fait, comme montré ci-dessous dans la Figure V-15 des données NOAA en 1999, c’était le cas !

Figure V15

Figure V-15 Source: USHCN

Cependant, comme le montre la Figure V-16 ci-après, cela gênait ceux qui croyaient que la crise du réchauffement global était réelle. Les données GAST montraient un réchauffement record, réchauffement absent des données US.

Figure V16

Figure V-16 Source: USHCN, GHCN 26

La solution : les données historiques US furent ajustées comme sur la Figure V-17.

Figure V17

Figure V-17 Source: USHCN

Certains pensent que “La Correction” des données de température USHCNv2 montrée à la Figure V-17 consistait à enlever, ou au pire, ajuster à tort, les impacts réels et significatifs des ICU[2].

Enfin les températures de l’Hémisphère Sud ont été moins cycliques que celles de l’Hémisphère Nord. Donc, comme on pouvait s’y attendre, pour l’Hémisphère Sud, il n’y avait pas de cycle apparent à retirer, et les données brutes ont été simplement ajustées pour obtenir une pente de la courbe beaucoup plus agressive comme illustré par la Figure V-19 ci-dessous.

 

Figure V19

Figure V-19 Source: NOAA GHCN

L’analyse ci-dessus soulève de graves doutes sur la crédibilité des jeux de données GAST quant à leur représentation de la réalité. Le profil cyclique significatif des données anciennement publiées a pratiquement été éliminé par “ajustement”. Comme le montre la Figure V-20, le cycle est devenu juste du bruit autour d’une tendance linéaire dans les données GAST de Hadley.

 

De plus, commençant en 1977, l’escarpement de la tendance de ce GAST est vraiment spectaculaire, si tant est qu’il corresponde à la réalité.

VI.TEMPÉRATURE MOYENNE GLOBALE : SURFACE Vs SATELLITE

Dans cette section, on cherche à évaluer la crédibilité des données GAST de 1979 à aujourd’hui. Étant donné la nature non scientifique du processus d’ajustement des données de température tel que documenté plus haut, il n’y a aucune raison de croire que la Tendance GAST de 1979 à aujourd’hui soit crédible. Entretemps, des données satellites sont devenues disponibles en 1979 et peuvent servir à valider la Tendance GAST.

La Figure VI-1 montre les données de température Hadley CRUT4 et sa Tendance fortement dressée par rapport à la moyenne des données de Température UAH & RSS et du Saut de Tendance depuis 1998. Si on compare les deux lignes de tendance, la question est de savoir laquelle représente le mieux la véritable tendance de température moyenne globale.

Elles pourraient toutes deux être fausses, mais une seule peut être correcte. Et compte tenu de l’analyse de cette étude, il est certain que c’est celle qui montre une pause de presque 20 ans. Seules les données satellite offrent une couverture spatiale suffisamment régulière et globale pour revendiquer une mesure de température libre d’ICU et d’autres problèmes compliqués.

Figure VI 1

Figure VI-1 Anomalies de température moyenne globale, °C HadCRUT4 Versus Average UAH & RSS TLT Anomalies & Barres de Tendances La “Meilleure Tendance” est celle qui a le meilleur coefficient de détermination

VII. RÉSUMÉ & CONCLUSIONS

Dans cette étude on a identifié les problèmes les plus importants d’ajustement de données de surface et quantifié les changements passés dans les données GAST historiques préalablement publiées. Bien que la nécessité de certains “ajustements” aux données historiques ne soit pas discutable, on s’attendrait logiquement à ce que ces données historiques de température soient ajustées parfois vers le haut, parfois vers le bas. Cette situation signifierait que l’impact de tels ajustements sur la pente de tendance des températures est neutre.

Cependant, chaque nouvelle version de GAST a presque toujours présenté une pente de la droite de tendance de plus en plus prononcée vers le réchauffement.

Ce fut réalisé en éliminant systématiquement le profil cyclique de température préalablement existant. Ceci est vrai pour les trois entités produisant des données GAST, NOAA, NASA et Hadley CRU. Cette étude a cherché à valider les estimations GAST actuelles à l’aide des données disponibles les plus pertinentes. Cela comprend les jeux de données US et autres les mieux documentées et comprises ainsi que des données globales satellites qui fournissent une couverture globale bien plus étendue et ne sont pas contaminées par une mauvaise implantation et des impacts urbains. L’intégrité des données satellites bénéficie des références croisées entre UAH et RSS aussi bien que des données de ballons sondes.

Les conclusions probantes de cette étude sont que les trois données GAST ne sont pas des représentations valides de la réalité. En fait, leurs ajustements des données historiques, qui ont éliminé les profils cycliques de température, sont totalement incohérents avec d’autres données de température publiées et crédibles des USA et d’ailleurs. Donc il est impossible de conclure d’après les jeux de données GAST que les dernières décennies ont été les plus chaudes de tous les temps – malgré les affirmations actuelles de records de chaleur.

Au final, étant donné que la validité des données GAST est la condition nécessaire pour les conclusions de l’EPA sur le danger GHG/CO2, celles-ci sont par conséquent invalidées.

[1] Presque toutes les données de température montrées dans cette Section doivent être vues comme des données “brutes” ; mais ces données se focalisent sur le maximum quotidien au lieu des moyennes quotidiennes – les maxima sont beaucoup moins affectés par les impacts d’Ilots de Chaleur Urbains au fil du temps. Comme discuté dans la Section III ci-dessus, de tels ajustements d’ICU sont essentiels car sans cela, toutes choses égales par ailleurs, les données montreraient une tendance linéaire positive due seulement aux impacts d’ICU. Cependant, pour les besoins de cette analyse, si toutes les données brutes de température montrent un profil cyclique marqué, par exemple avec des pics dans les années 30 et 40, et jusqu’aux années 70, de telles conclusions doivent être considérées comme robustes en ce que de tels cycles seraient même plus significatifs par rapport aux lignes de tendance de données convenablement corrigées de l’ICU.

[2] Concernant l’importance d’une correction appropriée de l’ICU, Tom Karl et al (NOAA) déclaraient : […] “les tendances de température de l’air de surface calculées principalement à partir des données de stations [de surface] ont des chances d’avoir un sérieux biais de réchauffement… La différence moyenne entre les tendances [urbaines vs rurales] correspond à un réchauffement de 0.34°C/décennie… La raison pour laquelle le taux de réchauffement est nettement plus élevé [est peut-être] que ce taux peut avoir augmenté après 1950 en fonction de l’importante croissance des aéroports et autour… Nos résultats et d’autres montrent que l’inhomogénéité de la croissance urbaine est sérieuse et doit être prise en compte dans l’évaluation de la fiabilité des enregistrements de température.” Voir Karl et al, 1986 et 1988. Voir aussi : Une Revue Critique des Résultats des Données de Température Globale de Surface. Source.

240 Comments     Poster votre commentaire »

201.  Nanuq | 29/01/2018 @ 20:57 Répondre à ce commentaire

Cdt Michel e.r. (#200),

Oh ! Les beaux dessins colorés et animés. On dirait du Walt Disney…

Oh! comme c’est gentil…
Et d’après vous, le bilan radiatif terrestre est calculé comment? En relation avec le thème du topic et mes derniers post? Je parle des même modèles non?

Nanuq

202.  Nanuq | 29/01/2018 @ 21:10 Répondre à ce commentaire

Cdt Michel e.r. (#200),
Allez, un indice..

Nanuq (#199),

Comme pour les prévisions MJO, chaque modèle fait ces prévisions pour la stratosphère pour les SSW:

Pour GFS: http://weatheriscool.com/
Pour la NASA: https://acd-ext.gsfc.nasa.gov/Data_services/Current/antarctic/main.html
https://acd-ext.gsfc.nasa.gov/Data_services/met/ann_data.html
Pour ECMWF: http://www.geo.fu-berlin.de/en…..index.html

https://www.ecmwf.int/en/research/climate-reanalysis

Nanuq

203.  Cdt Michel e.r. | 29/01/2018 @ 22:22 Répondre à ce commentaire

Nanuq (#201),

Le sujet de ce fil de discussion est « De la validité des données de température globale de surface… ».
Le pinaillage en cours sur les AMP et les modèles de circulation atmosphérique est donc complètement hors sujet.

204.  Nanuq | 29/01/2018 @ 22:32 Répondre à ce commentaire

Cdt Michel e.r. (#200),
Je suis toujours resté dans le sujet!
Bilan radiatif terrestre selon l’IPCC=> chapitre 8 SM.8-36 https://wg1.ipcc.ch/publications/wg1-ar4/ar4-wg1-chapter8-supp-material.pdf

UMKO, c’est ECMWF =>met office (hadley crut) pour les données satellitaires.. Voir mon post Nanuq (#199),
Je ne parle pas des températures de surface passée (GHCN et ICODS) pour les réanalyses à 2m sol (Hadcrut V4) mais du bilan radiatif terrestre.
GISS, c’est la Nasa (Nasa GEOS5 sur météo ciel) et =>https://data.giss.nasa.gov/modelE/cmip3/ Voir mon post Nanuq (#199),
Etc,etc…
Pour les modèles de températures de surfaces (et non satellitaire), j’ai déjà commenté par le passé (GHCN et ICOADS pour les SST)..
Alors, simple remarque, comment voulez vous, selon mes posts passés, définir l’effet CO2 radiatif sur le climat?? QBO-MJO-PDO-AMO etc..

Sérieusement, je me demande où vous voulez en venir avec vos messages interminables, qui doivent passer au-dessus de la tête de la plupart des lecteurs de ce blog.

Selon le graphique que j’ai mis de IPCC, c’est une différence de 20W au niveau de l’équateur selon les modèles qui doit passé largement en dessus de la plupart des lecteurs de ce blog selon vos dire..
ben ma fois, tant pis!

Nanuq

Edit: un peu de lectures sur le QBO…
https://judithcurry.com/2018/01/21/nature-unbound-vii-climate-change-mechanisms/

205.  Araucan | 29/01/2018 @ 22:42 Répondre à ce commentaire

Nanuq (#203),
Il s’agit là de modèles et non de données, sinon tout le monde aurait le même bilan radiatif (ou à peu près). Sauf qu’en ordonnée , il s’agit de l’erreur sur le bilan radiatif, mais de quelle erreur ?
Sinon si c’est pour nous dire que les modèles errent, on le savait déjà…

206.  AntonioSan | 29/01/2018 @ 22:56 Répondre à ce commentaire

Cdt Michel e.r. (#202),

« De la validité des données de température globale de surface… »
Le pinaillage en cours sur les AMP et les modèles de circulation atmosphérique est donc complètement hors sujet.

Cdt, considerant la maniere dont ces donnees sont obtenues a partir d’un nombre restreint de stations (voir Climateaudit.org), la place preponderante des algorithmes dans la manufacture de la temperature globale de surface et la position de ces stations en rapport avec la circulation atmospherique de basse couche et donc les temperatures mesurees, le terme de « pinaillage » est injuste.

207.  Nanuq | 30/01/2018 @ 0:28 Répondre à ce commentaire

Araucan (#205),

Il s’agit là de modèles et non de données

Mes posts précédents font référence à la complexité de la variabilité naturelle. Les transferts radiatif (ENSO VS QBO et activité solaire pour les SSW en corrélation avec l’indice MJO ) + océan et atmosphère voir post de Camille Veyres (#286) pour les puits de carbone, par la complexité dans leurs prédictions (prévisions futur ENSO => ä savoir que les oscillation océanique PDO, IOD, AMO… sont lissée par les modèles), ne reflète absolument pas l’évolution Co2 (voir mon post sur l’holocène).
Pour lancer un nouveau débat, les rayons UV sont beaucoup plus énergique que l’irradiance solaire (TSI ou Wm2). Les UV sont corrélés avec l’ozone stratosphérique. Plusieurs études ont fait le lien entre température stratosphérique et ozone. Pour faire simple, durant l’hiver, plus la convection MJO sera forte ( non contrée), et active plusieurs fois durant l’hiver, plus il y aura d’ondes de Rossby déstructurant le vortex stratosphérique et troposphérique (SSW) réchauffant de ce fait le vortex polaire. Ces réchauffements (SSW) diminuent les températures très froides du vortex et évitent une trop grosse perte d’ozone le printemps venu. Plus le vortex est froid et concentré et plus l’ozone se fera détruire au printemps. Les Noctilucent Clouds, pour ceux qui connaisses ( http://www.spaceweather.com/ ) sont la résultantes de cette destruction d’ozone stratosphérique au printemps.
http://www.theozonehole.com/ozonehole2002.htm

Plus il y arra d’ozone stratosphérique nous protégeant des réchauffement du soleil, plus le climat se refroidira. La stratosphère se réchauffe, la troposphère se refroidit.. Ne me juger pas, là encore, c’est un très gros raccourcit ..!!

Dans le graphique que j’ai posté, le CO2 n’est qu’une variable, mise dans l’IPCC pour chaque calculateur, créant une fourchette d’approximation en Wm2. Approximation qui reflète l’incompréhension des modèles à prédire le climat actuel et futur. Ces modèles sont, ce que l’on appel, des réanalyses avec une seul variante, celle du Co2..

Nanuq

208.  nicolas d | 30/01/2018 @ 2:56 Répondre à ce commentaire

Nanuq (#206),

Mes posts précédents font référence à la complexité de la variabilité naturelle.

Alors la je suis d’accord. D’ailleurs je ne comprends rien a vos posts et franchement j’essaie! Mais je ne désespère pas.

209.  Cdt Michel e.r. | 30/01/2018 @ 3:56 Répondre à ce commentaire

nicolas d (#207),

Vous avez bien du mérite à essayer de comprendre les interventions de Nanuq, qui étale sa science du climat. Ce qui est je le répète complètement hors sujet du fil de discussion.

J’insiste que les discussions sur les modèles n’ont rien à voir avec la validité des données de températures globales, quelles soient terrestre (terres et océans) ou satellitaires.
S’étendre ici sur les modèles c’est faire de l’enfumage et rend le fil du discussion complètement illisible, rébarbatif pour qui veut s’informer sur le problème de la validité des températures.
Il faut être bouché à l’émeri pour ne pas s’en rendre compte.

Ce fil de discussion compte plus de 200 messages, dont beaucoup trop hors sujet. Cela fait longtemps qu’il est parti en sucette et devrait être fermé.

210.  Nanuq | 30/01/2018 @ 8:46 Répondre à ce commentaire

Cdt Michel e.r. (#209),

J’insiste que les discussions sur les modèles n’ont rien à voir avec la validité des données de températures globales, quelles soient terrestre (terres et océans) ou satellitaires.

Insistez, et relisez le titre de ce topic.

Nanuq

211.  Nanuq | 30/01/2018 @ 9:23 Répondre à ce commentaire

nicolas d (#208),

L’AMO devrait repassé en phase froide d’ici 2020-2025. La banquise Arctique en mer de Barrent va reprendre de l’extension durant l’hiver dans un cycle de trente ans, les eaux en mer arctique seront moins chaudes.
Le PDO est vu quant à lui repassé en phase chaude d’ici 2025, favorisant les événements El-Nino. Plus de phénomènes Nino, c’est un vortex stratosphérique moins dense et plus dérangé durant l’hiver. C’est aussi plus d’humidité atmosphérique. Un vortex polaire plus dérangé, éclaté et donc plus chaud durant l’hiver, c’est une diminution de la destruction d’ozone stratosphérique au printemps.
Ce sont les variations dans le bilan radiatif total terrestre. Vous lissez, gommer la variabilité naturelle et la remplacer par le méchant CO2, vous réajuster des données passées terrestre et océanique que vous n’avez pas en plus chaud et vous avez l’IPCC.
Plus vous comprendrez les événements météo, leurs formations, ce que sont les modèles.. plus vous deviendrez sceptique quant aux projections des modèles climatique.

Nanuq

212.  volauvent | 30/01/2018 @ 9:31 Répondre à ce commentaire

Cdt Michel e.r. (#209),

Je ne suis pas capable de juger la littérature de Nanuq, mais il a raison sur un point: on est toujours (un peu) dans le sujet, la compréhension de la météo est indispensable pour juger de la validité (ou non) de cartographies de températures.
On pourrait ouvrir un fll « meteo et compréhension de la variabilité naturelle » mais je crains qu’il n’y ait pas beaucoup d’amateurs pour poster là dessus, vu la technicité du sujet.

213.  Cdt Michel e.r. | 30/01/2018 @ 10:33 Répondre à ce commentaire

volauvent (#212),

Continuez à discuter de tout en de rien entre spécialistes, si cela vous chante. Cela ne me dérange pas, même si cela réduit le peu d’intérêt qu’offre encore ce site.
Je ne suis pas le propriétaire du blog et s’il le laisse se déglinguer, c’est son affaire.

Je passe beaucoup de temps sur ce site, mais je zappe de plus en plus de messages et j’interviens de moins en moins.
Ce blog n’est plus épinglé sur ma barre d’adresses personnelle.

214.  Nanuq | 30/01/2018 @ 10:54 Répondre à ce commentaire

Cdt Michel e.r. (#213),
Prenez juste un peu de temps à consulter ce site, par curiosité..
http://www.meteociel.fr/modele.....38;carte=1
Regardez GFS Europe dans la barre de gauche puis, entrer hémisphère Nord (géopotentiel à 500hpa). Ensuite, taper suite en dessous de 192h. Le modèle est réactualisé toute les 6 heures..
Reprenez mes posts sur l’interaction MJO et la « bulle » polaire. Il est très rare d’avoir une telle convection MJO, la dernière était en février 2012. C’est la seule chose que je vous demanderai. Je suis prêt à me faire plus discret quitte à ne plus posté.
Bonne journée, Nanuq

215.  Araucan | 30/01/2018 @ 14:09 Répondre à ce commentaire

Nanuq (#207),
Pour fréquenter ce site depuis plus de dix ans, je pense avoir vu énormément de discussions sur les variables susceptibles d’inglu La météo et le climat. Je suis convaincu que la variabilité naturelle n’est pas assez connue. Je ne m’aventurerai toutefois pas à discuter du poids de telle ou telle variable.
La seule chose que je retire de ces discussions est que plus le nombre de variables est grand et plus le système comporte d’équatIons différetielles et plus l’on peut discuter longtemps sans aboutir …
Concernant les données, ce qui me semble être la base de toute activité scientifique portant sur la nature, on doit se poser la question de leur validité… Sinon on peut bidouiller tous les modèles ou représentations que l’on veut, il y aura toujours des problèmes à la sortie. Les équations ne corrigent pas les données insuffisantes ou biaisées.
Il est parfois nécessaire de reprendre un problème à la base.
Nb : que voulez-vous montrer dans vos posts ?
Nb2 : je crains ne pas avoir vu d’explication du graphique LW error.

216.  Nanuq | 30/01/2018 @ 16:44 Répondre à ce commentaire

Araucan (#215),

Nb : que voulez-vous montrer dans vos posts ?

Que le chemin est encore long dans la compréhension météorologique et climatique!

Nb2 : je crains ne pas avoir vu d’explication du graphique LW error.

le graphique représente le transfert radiatif atmosphérique direct et forçage CO2 ajusté  (indépendamment du chauffage de surface ). Forçage CO2 ajusté par les nombreuses variables climatiques comme par exemple l’interaction de l’ENSO à l’équateur, bien visible sur le graphique. Intéressant non? La troposphère n’est-elle pas liée par convection de surfaces? La question que l’on peut se poser est quelle est la sensibilité CO2 affectant le climat dans le bilan radiatif (ondes courtes ou ondes longues)au niveau équatorial entrevue par les modèles climatique.. La deuxième question à se poser serait, de quel ordre de grandeur le forçage CO2, dans l’incertitude des modèles, pourrait avoir comme impact au chauffage de surface océanique (l’exemple de l’équateur). Incertitudes, quant tu nous tiens..

Nanuq

217.  micfa | 30/01/2018 @ 18:11 Répondre à ce commentaire

Je suis attentivement matin et soir les prévisions de tous les modèles. Je constate qu’à partir de 4 ou 5 jours les cartes commencent à diverger, en particulier la plus importante, celle de la pression au sol et du géopotentiel à 500hpa, puisque c’est celle qui indique la circulation des masses d’air, et donc le temps qui va en découler. Pour une échéance au delà de 7 jours, les runs d’un même modèle viennent fréquemment contredire ceux de la veille, un anticyclone prévu à un endroit pour une échéance n’est plus au même endroit le lendemain. On peut donc affirmer qu’au delà de 7 jours toute prévision n’est plus fiable, et j’invite tout un chacun à le vérifier (évidemment il faut consulter les runs régulièrement et non une fois en passant). Les tendances saisonnières sont donc pure fantaisie. Je suppose que pour élaborer ces modèles de prévisions du dernier cri on a tenu compte de tous les paramètres, et pourtant ils ont une limite. Il est évident qu’on ne maîtrise pas la prévision météo à moyen terme et il en va de même pour la prévision du climat, encore plus compliquée car d’autres interactions entrent en jeu, et je doute qu’on y arrive un jour.

218.  Araucan | 30/01/2018 @ 18:26 Répondre à ce commentaire

Nanuq (#216),
Je pense que c’est une opinion largement partagée ici ….
Quant au graphique je reste sur ma faim.
Tant pis !😇

219.  scaletrans | 30/01/2018 @ 22:51 Répondre à ce commentaire

micfa (#217),

il en va de même pour la prévision du climat, encore plus compliquée car d’autres interactions entrent en jeu, et je doute qu’on y arrive un jour.

Je serais plus optimiste, car les grandes tendances sont plus faciles à anticiper, à partir du moment où on aura identifié les principaux paramètres dont le principal est le Soleil.

220.  chercheur | 31/01/2018 @ 0:55 Répondre à ce commentaire

micfa (#217),

7 jours maximum? Vous ne semblez pas savoir de quoi est capable la NOAA…

http://www.noaa.gov/stories/ne.....snow-falls

Ils promettent de donner la quantité de neige qui va tomber sur une chaîne de montagne 8 mois à l’avance…

221.  Nanuq | 15/02/2018 @ 20:20 Répondre à ce commentaire

@Zimba:

Je ne vais pas en détail dans les corrections, et je ne sais pas pourquoi ils font ça. Ça peut paraître bizarre voire douteux je vous l’accorde. De là à dire qu’ils faussent les relevés pour accentuer le réchauffement, ça me semble rocambolesque mais bon chacun à le droit de penser ce qu’il veut

J’avais fait un post sur le sujet: Nanuq (#126),

https://stevengoddard.files.wordpress.com/2014/02/alicesprings.gif
https://stevengoddard.files.wordpress.com/2013/11/vestmannaeyja.gif
https://stevengoddard.files.wordpress.com/2012/05/iceland-1.gif
http://stevengoddard.files.wor.....#038;h=355
https://realclimatescience.com/wp-content/uploads/2017/08/NASASurface2001-2016.gif
https://realclimatescience.com/wp-content/uploads/2017/10/NOAAFakerySeptember2017.gif

ETC…

Pour moi, il faisait 12.5°C (MF) par an il y a 50 ans ici plus ou moins 0.2°. La moyenne est montée à 14°C , dépassés les 4 dernières année.Mes relevés perso sont assez proches des sources officielles.

Pour info mon thermo a affiché 9°C ce matin et 20°C cet AM. Je n’ai pas truqué les chiffres promis !

Dans quelle région vous trouvez-vous (climat océanique ou continental)? Il y a l’AMO qui influence la France depuis 60 ans..
Vos relevés par votre station sont-ils reconnus, êtes vous dans les normes? A quelle distance de la votre se trouve une station météo France? Etes-vous sur IC? Habitez-vous en ville?
Je dis cela parce que, selon météo France, l’écart de températures n’est que de 0.5°C en 50 ans…

Nanuq

222.  phi | 16/02/2018 @ 12:08 Répondre à ce commentaire

Nanuq (#221),
Auriez-vous la source pour le graphique de Météo France ?
Quelle saison, quelle région ?

223.  Nanuq | 16/02/2018 @ 12:48 Répondre à ce commentaire

phi (#222),

Auriez-vous la source pour le graphique de Météo France ?

Non… 😉
Je suis très occupé par l’évolution météo de la semaine prochaine..😜

Voici le lien..

http://www.meteofrance.fr/clim.....-en-france

Nanuq

Edit: De Zimba:
Pour moi, il faisait 12.5°C (MF) par an il y a 50 ans ici plus ou moins 0.2°. La moyenne est montée à 14°C , dépassés les 4 dernières année.Mes relevés perso sont assez proches des sources officielles.

Encore une autre moyenne.. 12.5°C.. Arfff!

224.  phi | 16/02/2018 @ 20:55 Répondre à ce commentaire

Nanuq (#223),
Merci, ouf, c’est donc HadCRUT annuel et global. J’ai tout à coup eu un vertige, est-ce que Météo France aurait fait son coming out ?
Mais, non, pas encore, patience.

225.  Nanuq | 16/02/2018 @ 21:20 Répondre à ce commentaire

phi (#224),

Désolé, j’étais pressé et j’ai mal lu..
Mes excuses à Zimba. Merci phi..

226.  chercheur | 18/02/2018 @ 14:03 Répondre à ce commentaire

Combien d’exemples faudra-t-il pour montrer aux adeptes du RCA qu’ils admettent enfin que les températures sont manipulées.

https://notalotofpeopleknowthat.wordpress.com/2018/02/16/us-big-freeze-is-adjusted-out-of-existence-by-noaa/

Je pense que certains membres de la NOAA, NASA et Hadley CRU ont les preuves manifestes de cette manipulation permanente. Mais l’omerta persiste au sein de ces organismes.

Afin de délier les langues dans certaines affaires, on n’hésite pas à donner des primes à ceux qui vont donner des informations permettant de confondre les coupables de malversations.

Pourquoi ne pas faire une souscription mondiale afin de réunir des fonds qui permettraient de donner une prime substantielle à ceux donneraient des preuves incontestables des manipulations sur les températures. On pourrait réunir des millions de dollars qui en ferait certainement hésiter plus d’un. Puisqu’il ne faut pas compter sur l’honnêteté intellectuelle des membres de ces organismes, il est fort probable que l’argent pourrait être efficace.

Personnellement, je participerais volontiers à une telle souscription qui devrait être lancée aux US par les américains.

Avis à ceux qui ont des contacts aux US pour leur faire cette proposition.

227.  scaletrans | 18/02/2018 @ 16:49 Répondre à ce commentaire

chercheur (#226),

Ce serait un jeu dangereux si je puis me permettre. Même si la vérité prend l’escalier, elle finit quand même par arriver. Dans notre époque de grands mensonges institutionnels, on sent cependant un certain affolement au sein des cercles qui prétendent nous imposer leurs vues (le Ministère de la Vérité ?..)

228.  chercheur | 18/02/2018 @ 17:40 Répondre à ce commentaire

scaletrans (#227),

En quoi serait-ce un jeu dangereux?

Je ne suis pas aussi optimiste que vous sur le règlement de cette affaire. En attendant, elle nous coûte rien qu’en France, des dizaines de milliards d’euros d’impôts supplémentaires.

229.  KilgoreT | 18/02/2018 @ 20:31 Répondre à ce commentaire

chercheur (#226),
Pour des fonds CF :

230.  the fritz | 18/02/2018 @ 21:17 Répondre à ce commentaire

chercheur (#228), scaletrans (#227),
tout ce qui touche le pognon, petit ou gros , est pourri ; faut pas se lancer dans ce jeu

231.  KilgoreT | 19/02/2018 @ 15:37 Répondre à ce commentaire

KilgoreT (#229),
Désolé j’avais mis un lien mais je m’y suis probablement mal pris : http://www.arnoldfoundation.or.....integrity/

232.  chercheur | 19/02/2018 @ 15:47 Répondre à ce commentaire

the fritz (#230),

Si les Français ont des problèmes avec l’argent, ce n’est pas le cas aux US où cette pratique est courante depuis plus de 150 ans.

https://www.whistleblowersinternational.com/what-is-whistleblowing/rewards/

On peut même imaginer que ce soit le gouvernement américain qui propose des primes énormes. Ce sont certainement des centaines de milliards de dollars que l’Etat Fédéral américain a perdu à cause de ces manipulations de températures.

233.  chercheur | 19/02/2018 @ 15:51 Répondre à ce commentaire

KilgoreT (#231),

Je n’ai pas tout lu, mais je ne pense pas que cet organisme propose des primes pour rechercher les fraudes.

234.  M_a_n_u | 21/02/2018 @ 19:25 Répondre à ce commentaire

chercheur (#226),
En discutant des « manipulations » avec un ami, il m’a interpellé sur la justification de ces adaptations par une analogie : le calcul de la circonférence terrestre au cours des âges.
Ne serait-il pas légitime de rectifier ces mesures rétro-activement si l’on se rend compte de biais inconnus de l’époque ?
On peut donc sincèrement croire que des mesures d’époque sont falsifiées, alors qu’elles ne sont qu’ajustées au niveau de connaissance actuel.

235.  AntonioSan | 21/02/2018 @ 19:42 Répondre à ce commentaire

M_a_n_u (#234), LOL

236.  jdrien | 21/02/2018 @ 20:38 Répondre à ce commentaire

M_a_n_u (#234), sauf que l’analogie n’est pas bonne, dans le cas de la circonférence de la Terre, c’est l’amélioration des méthodes de mesure qui ont permis d’affiner la valeur d’une constante (du moins à l’échelle humaine), dans le cas des températures, il s’agit d’un signal variable dans le temps, rien ne prouve que la valeur corrigée est plus proche que la valeur brute de la valeur réelle qui est de toute façon inconnue.

237.  M_a_n_u | 21/02/2018 @ 20:41 Répondre à ce commentaire

jdrien (#236),
En fait, ma question est : les « corrections » sont-elles assorties d’une justification quelconque ?

238.  AntonioSan | 21/02/2018 @ 22:17 Répondre à ce commentaire

jdrien (#236), Et puis c’est bien connu en 2000 on ne savait pas mesurer une temperature… /sarc

239.  papijo | 21/02/2018 @ 22:38 Répondre à ce commentaire

M_a_n_u (#237),
Si vous avez du temps à perdre, vous pouvez lire cet article de « Skeptical Science » (qui malgré son nom n’a rien à voir avec le climato-scepticisme) qui vous sortira une longue suite de justifications sur le sujet. Si vous avez du mal à le suivre, et à vous laisser convaincre … vous ne serez pas le seul !

240.  M_a_n_u | 22/02/2018 @ 9:22 Répondre à ce commentaire

papijo (#239),
Merci pour le lien.