Voici la première partie de la traduction de Manu95 et de Papyjako du dernier article de Ross MacKitrik ….(SOURCE) Pour les francophones stricts, son entretien sur Climat sceptique ici.
NB : le résumé sera fourni à la fin …
• • • • •
Examen critique des données mondiales de température de surface
Ross McKitrick, Ph.D., professeur d'économie, université de Guelph, Guelph Ontario Canada
26 juillet 2010
Ceci est une version préliminaire d'un rapport qui sera publié à l'automne 2010 par la Global Warming Policy Foundation (http://thegwpf.org/) Londres, Royaume-Uni.
Les commentaires et corrections sont les bienvenus : merci de les envoyer à rmckitri@uoguelph.ca.
Table des matières (1ière partie)
1. Sources de données terrestres
1.1. Le réseau mondial GHCN de climatologie historique
1.1.1. Historique des versions
1.1.2. Description des archives GHCN v2 et mises à jour des séries
1.2. Nombre d'échantillons GHCN et leur baisse après 1990
1.2.1. La perte de données par région
1.2.2. Un biais croissant en faveur de sources aéroportuaires
1.2.3. Un biais croissant vers des latitudes plus basses
1.2.4. Un biais croissant vers des sites de plaine
1.3. Ampleur croissante des ajustements employés pour tenter de résoudre les problèmes de discontinuités d'échantillonnage
1.4. Résumé: Les problèmes d'échantillonnage du GHCN
1. Sources des données terrrestres
Il existe trois principales séries historiques pour la température mondiale: l’enregistrement combiné CRU-Hadley (HADCRU), l’enregistrement NASA GISS-(GISTEMP), et l’enregistrement de la NOAA.
Cette section donne un aperçu de la base de données terrestres utilisée pour les archives de la température mondiale.
1.1. Le réseau mondial de climatologie historique (GHCN : The Global Historical Climatology Network).
1.1.1. Historique des versions
Les données ont été publiées telles quelles, sans corrections des incohérences. [2] La deuxième version (GHCN v2) a été publiée en 1997. La construction de GHCN v2 est décrite dans Peterson et Vose (1997) et les méthodes de contrôle qualité sont décrites dans Peterson et al. (1998). (1998). Pendant la préparation de GHCN v2, les auteurs ont appliqué des corrections plus systématiques des incohérences et ajouté des métadonnées telles que la population à proximité et une information précise sur l'emplacement de chaque station afin que les utilisateurs puissent mieux apprécier la qualité de la source.
1.1.2. Description de l'archive GHCN v2 et mises à jour des séries.
Le GHCN v2 a compilé 31 sources différentes de données, chacune avec une couverture différente dans le temps. Le GHCN a tenté d'obtenir des données originales
Le GHCN publie les données brutes telles que reçues des sources, ainsi qu'une version ajustée pour homogénéité (GHCN-ADJ). Etant donné que le GHCN compile des données provenant de nombreuses bases de données différentess, et qui avaient, dans certains cas, collecté chacune les mêmes données, il s'est retrouvé avec un grand nombre de doublons. Pour produire une version remaniée du GHCN, les doublons ont été fusionnés. Parfois, les doublons ont des codes ID différents [NDT : ID = identification], ainsi, des méthodes de recherche numériques sont nécessaires pour les identifier et les combiner en données parstation. Le processus d'ajustement complet comporte trois étapes :
(i) Évaluation de la qualité de la source. La source doit fournir des données d’origine visiblement brutes, qui soient exemptes d'erreurs manifestes de collection.
(ii) Examen de chaque série manuellement.
Chaque station a été localisée sur des graphiques de navigation opérationnels (NDT : Operational Navigation Charts) pour en vérifier l’altitude , puis la série a été comparée aux valeurs attendues au regard de la climatologie locale connue. Les erreurs découvertes à ce stade, généralement une mauvaise localisation de la station, ont été corrigées , sinon l’enregistrement était écarté. Les données ont été également testées en recherchant les discontinuités se manifestant par des changements abrupts dans la moyenne et l'écart-type.
(iii) Comparaison de chaque série à une série régionale de référence. Pour les stations avec au moins 20 ans de données, la construction d'une série de référence régionale pour chaque station a été faite comme suit.
* Pour chaque station, calcul des « différences premières » des moyennes annuelles, en d'autres termes, les changements d'une année à l'autre dans la moyenne annuelle.
* Pour la station sélectionnée ( dite «candidate»), sélection de cinq stations voisines dont les « différences premières » sont les plus fortement corrélées avec celles de la station « candidate », sous réserve de la disponibilité des données.
* Prendre la moyenne de trois des cinq stations voisines (NDT : il n’est pas dit comment sont choisies les 3 parmi les 5) pour former la série des « différences premières » de référence.
* À partir de zéro pour la première année, former une série finale de référence en cumulant la « différence première » de référence année par année. Un ajustement peut être également appliqué pour garantir que la valeur finale de l'année corresponde à celle de la série candidate.
La série de référence ainsi construite est supposée représenter le climat de la région autour de la station. La série candidate est ensuite comparée à l'aide de méthodes de régression pour vérifier les ruptures structurelles (points où la tendance linéaire change clairement) et d'autres divergences.
Si une station n'a pu être ajustée en utilisant la méthode ci-dessus, soit parce qu'il y avait trop peu de voisines ou moins de 20 ans de données, elle n'a pas été incluse dans le groupe des stations homogénéisées, à moins que les données brutes n’aient quand même été jugées homogènes. Dans le cas de stations avec des enregistrements complets (y compris moyenne quotidienne, la température maximum et minimum), cela a conduit à une réduction du nombre total d'enregistrements initiaux de 8.000 environ à un peu moins de 5.000.
et d’abord M Mac Kitrik, ne peut être qu’un suppôt d’Exxon, un anti alramiste primaire, un « négationniste », un non aligné du GIEC, une poupée de chiffons salie par les rejets des centrales au charbon, un…
Comment ? c’est un économiste, féru de statistique ? mais alors c’est pas un « Klimatomancien » ?
OUF !
Merci de noter que mon pseudo n’est pas
Papyjacko
[suite] …
mais PapyJako, sans ‘c’ avant le ‘k’
Rien que ça, déjà, ça suffirait pour expliquer la montée des t°…. sur les relevés ! Alors, le reste en plus…. Merci Messieurs Manu 95 et PapyJako sans c . Ca sera utile pour instruire le peuple !
Ceci est déjà inquiétant en lui-même, mais on ne parle jamais des thermomètres. Une mesure, ce n’est pas seulement une nombre dans un tableau, mais aussi un capteur, un étalonnage, une procédure. Quelles sont la précision, la résolution, la fidélité (dérive dans le temps) des thermomètres utilisés dans les stations météo ? Comment est étalonné un thermomètre ? Quelle peut être l’influence du prélèvement (mini/maxi ou moyenne) sur le résultat attendu ? etc…
jdrien (#5),
A ma connaissance, il n’y a pas trop de problème de ce côté là avec les instruments modernes. Par contre, les anciens thermomètres à mercure étaient affectés par une contraction du verre en vieillissant. Cette contraction provoquait une montée du mercure (et donc des températures relevées) et une brusque chute des valeurs au moment du changement d’instrument. Ce phénomène est intéressant car il offre une analogie avec le problème plus important de l’urbanisation et des changements d’emplacements. Comme dans le cas des thermomètres à mercure, une station subit au cours du temps un réchauffement au caractère plus ou moins continu dû aux perturbations par l’urbanisation et une chute brusque de température quand la station est déplacée dans un endroit moins perturbé. Dans ces deux cas l’homogénéisation aboutit à des résultats analogues. Le réchauffement artificiel n’est pas repéré car trop continu et donc pas corrigé alors que le refroidissement brusque est identifié, quantifié et corrigé en ajustant les valeurs postérieures à la hausse. Dans ces deux cas, les discontinuités disparaissent mais une tendance totalement artificielle au réchauffement est ajoutée.
PapyJako (#3),
😳
Corrigé
jdrien (#5),
http://www1.ncdc.noaa.gov/pub/.....mentD0.pdf
ou comment faire une station de référence …
Autre référence
http://www.wmo.int/pages/prog/.....-home.html
moi ce que je ne comprends pas c’est l’accord de modeles censés reposer sur de la physique seulement avec des courbes de temperatures dont l’information semble etre plus qualitative que quantititative.. et sans les mains…. pfff faut pas prendre les gens pour des idiots les 3/4 des gens qui sont convaincus que la hausse des températures observées est due au CO2 le sont ma foi.. car sinon… quoi d’autre…et comme en plus justement on possède une explication possible…..c’est d’ailleurs la base de la rhetorique de la refutation de toute autre hypothèse pour le moment.. ouais coco tu vois des corrélations mais t’as pas de modeles qui donnent des grandeurs…ma foi c’est une debat possible…mais on est loin de science is settled….merci de donner des données et du grain à moudre!!! c’est quand mem surprenant….cette diminution de la qualité des données….
Absolument pas, vous n’avez rien compris au problème… c’est même le contraire !
C’est la région proche du pôle nord qui se réchauffe le plus vite, et ce sont les relevés satellites qui l’indiquent
Source RSS
« Perdre » des stations en arctique aurait donc plutôt tendance à donner des anomalies plus faibles. N’oubliez pas que tous les instituts qui donnent des estimations globales travaillent en anomalie, justement pour éviter le problème de fluctuation du nombre de station…
Warm (#10),
Et en antarctique? Il y a deux pôles sur terre !
@Warm
Moins de stations = plus d’impact sur chaque erreur de relevé. Le GISS fait du smoothing à 1200km, et obtient un réchauffement pour pratiquement tout l’Arctique. Le DMI (qui combine avec des mesures de satelittes, ballons sondes…) conclue pour sa part à un refroidissement des températures au nord du 80e parallèle (http://wattsupwiththat.com/201.....ince-1958/).
Donc c’est pas uniforme.
Quand on sait qu’il ne reste qu’une station au Canada au nord du 65e, toute erreur de lecture a des répercussions énormes. Les thermomètres sont dans les aéroports, et influencés par l’asphalte, les avions et véhicules d’entretien… Ils ne représentent en rien la région avoisinante, et on l’utilise pour faire de l’interpolation sur de grandes distances, donc on réchauffe artificiellement toute la région.
Rappelez-vous aussi l’histoire de M (http://www.rechauffementmediat.....oire-de-m/)…
En gros, les données des thermomètres, et les calculs du GISS sont bon pour la poubelle.
Yves Pelletier (#12),
Je n’ai pas le temps de m’étendre, car je suis mangé par la traduction de la suite de McKitrick … Mais je ne peux dire que :
« Bravo Yves » !… 😉
… et inviter tous ceux qui ne le font pas encore à consulter régulièrement ses excellents billets.
Mon préféré, parmi les récents, est celui sur Yamal.
Je croyais naïvement que les satellites étaient inopérants pour calculer la température aux pôles, sur les surfaces neigeuses et les glaciers ??
Les satellites en question mesurent directement la température de l’atmosphère, pas de la surface (MSU/AMSU).
Yves Pelletier (#12),
Le smothing à 1200 Km pour les stations les plus au nord implique qu’il se fait avec des stations nettement plus au Sud… donc réchauffement.
Abitbol (#14),
À ma connaissance, rien ne mesure à grande échelle LA température de LA surface du sol.
Ce qui est toujours relevé c’est la température de l’air plus ou moins proche de la surface. C’est fait par des stations fixes dont on connaît la qualité calamiteuse ou par des mesures par satellites.
Exceptionnellement, la température de LA surface peut être grossièrement estimée par un radiomètre placé le plus près possible d’une surface. Encore faut-il faire la correction due à l’effet de convection. Ce sont des mesures ponctuelles.
Pour les difficultés intrinsèques à ce type de mesure, voir ici.
En mer, la situation est totalement différente.
On utilisait des thermomètres immergés ou des relevés faits dans des seaux d’eau, aujourd’hui, les bouées Argo y pourvoient.
Le GHCN n’est pas la seule source de données. Il existe une base alternative valide depuis les années 70, le GSOD, (non-homogénéisée).
Voilà la couverture arctique de ses stations au delà de 70N (244):
Les résultats (données non interpolées)
tendance 1979-2009: + 0.13/décennie
En comparaison, les stations GHCN (47 stations) montrent un réchauffement de 0.10/décennie
http://moyhu.blogspot.com/2010.....ature.html
Plus de stations => plus de réchauffement (et ce, sans interpolation)
Encore une fois, confusion entre température brute et anomalie de température. Rien ne dit qu’une station plus au sud aura une anomalie plus grande que celle plus au nord: c’est même le plus souvent le contraire…
Warm (#19),
Mais, warm, vous devriez avoir compris qu’ici tout le monde a compris, depuis longtemps déjà, que les « anomalies » de température ne se calculent pas à partir des températures ?
Votre contribution à cette compréhension n’a pas été négligeable. Ce n’est plus nécessaire d’insister et je pense qu’il faudra créer, pour le prochain trollissime, un « warm d’honneur ».
PapyJako ô éclaireur des intellects(#20)
Je n’avais pas vraiment compris que les « anomalies » n’ont aucun rapport avec les températures.
Ouf, maintenant je sais et moi aussi je l’en remercie.
O warm, O désespoir, O vieillesse ennemie!
Le ministère de l’écologie, de l’énergie, du développement durable et de la mer lance une consultation publique. c’est le moment de donner son avis !
http://consultations-publiques.....38;lang=fr
Larrel (#23), une consultation publique ?
Et si je vote en estimant qu’il n’y a pas de réchauffement, est-ce qu’on en tiendra compte ?
J’ai également idée de voter pour supprimer « le ministère de l’écologie, de l’énergie, du développement durable » et ne garder que les « affaires maritimes »…
Blague à part, il me faudra une ou plusieurs soirées pour lire ce billet de Mc Kitrick revenir poser des questions…
Larrel #23
Merci.
Le questionnaire est bâti sur l’idée que la RC est une évidence maintenant et demain.
A la première question :
Je répondrais quelque chose comme :
« Je m’achèterai des vêtements chauds, des moufles et des bottes fourrées… »
Ah, ces politiques ….
Amusant, je trouve.
Décidément, warm n’est pas à une contradiction près.
Il vient de vous prouver (et c’est exact) que seul l’hémisphère Nord se réchauffe notablement, avec de beau graphique (du RSS MSU):
Or, warm n’a-t-il pas constamment balayé d’un revers de main (comme la totalité de ses coreligionnaires réchauffistes) nos remarques sur l’optimum médiéval parce que justement, ce dernier ne concernait (selon lui) QUE l’hémisphère Nord (en niant les preuves contraire, d’ailleurs) ?
De ce point de vue là, L’Optimum Médiéval ressemblerait dont très fort à ce qu’il se passe en ce moment.
Autrement dit, warm s’arrange avec les arguments, selon les opportunités.
Bob (#26),
Cette histoire d’hémisphère nord qui et que est la négation du « climat global » et la preuve que la moyenne mondiale des températures est une sottise.
Non, l’hémisphère sud se réchauffe aussi
Warm (#18),
tu sais même pas lire un graphique, 0.13 c’est l’incertitude… en plus il est écrit +/- mais tu es tellement obsédé par voir des hausse de températures… que tu en voit partout…
mica (#29),
hehé, autant pour moi… en fait c’est 0.91, bien plus !
Moi qui croyait avoir pris des précautions littérales pour mon post n°14… (pardon de m’autociter)
Où je n’écris ABSOLUMENT PAS que les satellites MESURENT la température de surface…
Mais je me demande, si, ils sont opérants pour CALCULER la température, ce qui ne veut pas dire la même chose (enfin, je crois)… donc, s’ils peuvent CALCULER la température (donc faire des opérations/conversions et non des mesures) pour estimer la température au dessus de la surface des pôles, des surfaces neigeuses et des glaciers ?
Ah oui, je sais que les thermomètres ne sont pas plantés dans le sol, mais qu’ils mesurent (cette fois) la température de l’atmosphère au dessus de la surface…
Après avoir fait un cours de sémantique… quelqu’un peut-il me dire si les satellites sont opérants au dessus des surfaces polaires, neigeuses et glacées ?
Murps (#24),
Garde tes forces !… ici, ce n’est que la section 1. J’ai déjè livré les sections 2 et 3, j’attaque la section 4.
Murps (#24),
Vous n’y êtes pas dutout…Le vrai nom du Ministère de Jean Louis-j’me ferais bien un p’tit apéro Borloo est :
Ministre d’Etat, ministre de l’Ecologie, de l’Energie, du Développement durable et de la Mer, en charge des Technologies vertes et des Négociations sur le climat
Je crois qu’il doit détenir le record du plus long intitumlé ministériel de la Vème République
Astre Noir (#33),
Il court la folle rumeur que ce très long intitulé pourrait être considérablement raccourci en novembre et remplacé par « 1er ministre » tout simplement.
Mais où ont-ils la tête?
Oui. Les sondeurs MSU (et AMSU) utilsent certaines propriétés d’émission de l’oxygène dans les mico-onde (si mes souvenir sont bons, à vérifier, autour de 60GHz). Peu d’influence des nuage ou de l’état de la surface, qui n’émettent quasiment rien dans cette bande de fréquence.
Warm (#35),
certaines propriétés ?
Peu d’influence … de l’état de la surface, qui n’émettent quasiment rien
Bref RIEN
Marot (#36),
Bah Marot, faites nous un résumé. Pour une fois, vous posteriez quelque chose d’utile !
Warm (#37),
Comme distributeur de boulot fermez-là et ne postez plus n’importe quoi.
On avance sans vous.
Contribuez au site au moins UNE SEULE fois par un texte construit ou traduit, ce sera un progrès et on pourra enfin dire que Warm n’est pas totalement inutile.
Marot (#38),
venant de warm, c’est presqu’un compliment
Warm (#35),
Il ne vaudrait mieux pas utiliser la bande de 57.5 à 64 GHz et sûrement pas 60 GHz car cette fréquence correspond à un pic d’absorption de l’oxygène.
C’est pourquoi, entre autre, on utilise cette bande pour des communications à très courtes distances (en indoor principalement).
La faible portée permet une relative « discrétion » et évite d’aller perturber d’autres systèmes au voisinage.
Laurent pourrait sans doute mieux expliquer.
Flo (#40),
SPECTRE D’ABSORPTION. DE L’OXYGÈNE SOLIDE ENTRE 2000 ET 1500 Å.
Ce n’est pas plutôt dans les 6MHZ?
pecqror (#41),
Je parlais de la raie d’absorption de O2. Regardez là (désolé je ne sais pas coller une image):
http://www.rfcafe.com/referenc.....rption.htm
Je corrige ce que j’ai écrit ci-dessus (en 40):
Si on utilise des fréquences voisines de 60 GHz dans certains radiomètres c’est certainement plus en utilisant les propriétés d’aborption d’O2 que ses propriété « d’émission » comme l’écrivait Warm.
Désolé pour la confusion.
La loi du rayonnement de Kirchoff, ça vous dit quelque chose ?
http://fr.wikipedia.org/wiki/L....._Kirchhoff
Et lisez la source ci-dessus:
Warm (#44),
Désolé pour ça. L’association des mots « oxygène » « émission » et « 60 GHz » m’a fait réagir trop vite et susciter un mini-débat sans objet où je n’aurais vraiment pas ma place.
Je ne recommencerai pas promis juré.
Pour la loi du rayonnement de Kirchoff j’ai dû sécher les cours de physique où on en parle (en plus de ceux des deux ou trois années avant :-)!).
Sinon de liens en liens j’ai essayé de regarder un peu MSU, AMSU…
Pas simple non plus. On utilise des finesses mathématiques qui permettent des réajustements conduisant à des recalibrations d’instruments similaires mais pas identiques pour aboutir selon les méthodes statistiques utilisées à des estimations de variations de T° pas si proches les unes des autres que ça (mais données au millième de °C près).
Ce qui précède n’est pas une logomachie mais la traduction résumée presque fidèle d’un lien trouvé sur Real Climate à propos de MSU.
On a quand même une drôle de sensation.
En continuant les lectures (je ne dispose pas des connaissances pour l’affirmer) on dirait que plus on s’approche de la surface où nous vivons plus ça se complique et plus on procède à des calculs statistiques, ajustements, recalibrations, pour aboutir à des estimations de variations de T° pas forcément concordantes qui il est vrai ne sont plus fournies (en général) qu’au centième de degré près.
Tout à fait, ce n’est pas si simple d’obtenir une température de la troposphère. De plus, Spencer et Christy n’ont jamais voulu divulguer leur code pour UAH (alors qu’on a les codes complet du GISTEMP de Hansen).
Les mesures de température sont-elles mortes ?
C’est ce qu’on pourrait penser à voir la position périlleuse de la station de Hanksville …
… au dessus d’une pierre tombale … 😆 😆 😆 dans un parking.
La station fait partie des stations de Nasa-Giss. Voici sa courbe de température Hansennisée :
D’ailleurs, cette courbe de température Hansennisée est exactement la même que celle non Hansenisée, intitulée, « raw GHCN data+USCHN corrections » .
Cela est parfaitement « normal ». En effet, dans les enregistrements de données GISS :
Oui !, vous avez bien lu (c’est écrit en petit), la station est classée RURALE !…, ce qui veut dire
1) Qu’elle échappe à la Hansennisation,
2) Que ses enregistrements de température n’ont donc pas besoin d’être corrigés pour l’évolution de l’environnement. Cela tombe très bien puisque, de fait, la température y monte suffisament pour coller à la thèse d’Hansen, sans nécessiter de correction.
3) Que la pierre tombale, le parking, les voitures, les maisons, les détritus … qui l’entourent … sont réputés avoir toujours été là depuis 1915, et que tout cela n’a rien à voir avec le réchauffement mesuré
Il serait passionnant de savoir ce que pense warm de ce cas.
Mais ce serait faire l’hypothèse que warm pense,
ce qui est loin d’être établi scientifiquement.
Énorme.
ps : les parkings sont toujours construit sur les cimetières, c’est bien connu ! 😈
PapyJako (#47),
(##### Les) réchauffo-serial-catastrophistes, ils ne respectent même pas les morts alors bon, les données scientifiques…
Clem (#48),
je note, je note,….(#####) ? c'est pas une insulte ça?
Sorry, the comment form is closed at this time.