Examen critique des données mondiales de température de surface /1

Voici la première partie de la traduction de Manu95 et de Papyjako du dernier article de Ross MacKitrik ….(SOURCE) Pour les francophones stricts, son entretien sur Climat sceptique ici.

NB : le résumé sera fourni à la fin …

• • • • •

 

Ross McKitrikExamen critique des données mondiales de température de surface

Ross McKitrick, Ph.D., professeur d'économie, université de Guelph, Guelph Ontario Canada

26 juillet 2010

Ceci est une version préliminaire d'un rapport qui sera publié à l'automne 2010 par la Global Warming Policy Foundation (http://thegwpf.org/) Londres, Royaume-Uni.

Les commentaires et corrections sont les bienvenus : merci de les envoyer à rmckitri@uoguelph.ca.

 

 

 

Table des matières (1ière partie)

1. Sources de données terrestres

1.1. Le réseau mondial GHCN de climatologie historique

1.1.1. Historique des versions

1.1.2. Description des archives GHCN v2 et mises à jour des séries

1.2. Nombre d'échantillons GHCN et leur baisse après 1990

1.2.1. La perte de données par région

1.2.2. Un biais croissant en faveur de sources aéroportuaires

1.2.3. Un biais croissant vers des latitudes plus basses

1.2.4. Un biais croissant vers des sites de plaine

1.3. Ampleur croissante des ajustements employés pour tenter de résoudre les problèmes de discontinuités d'échantillonnage

1.4. Résumé: Les problèmes d'échantillonnage du GHCN

 

1. Sources des données terrrestres

Il existe trois principales séries historiques pour la température mondiale: l’enregistrement combiné CRU-Hadley (HADCRU), l’enregistrement NASA GISS-(GISTEMP), et l’enregistrement de la NOAA.

Le but de ce rapport est d'aider les utilisateurs de données climatiques à mieux comprendre comment ces graphiques de températures moyennes globales sont créés. L'accent est mis sur la construction des séries de données terrestres et maritimes qui entrent dans de tels graphes. L'objectif est qu’ils comprennent les incertitudes, les problèmes d'échantillonnage, les discontinuités et les autres problèmes de qualité, connus de nombreux praticiens, mais généralement pas expliqués au public. La conclusion générale de ce rapport est qu'il y a des problèmes graves de qualité dans les ensembles de données de température de surface qui remettent en question le fait de savoir si l'histoire de la température mondiale, en particulier sur les terres , peut être considérée comme suffisamment continue et précise pour servir de base à l'importance des conclusions qui en sont généralement tirées.

Cette section donne un aperçu de la base de données terrestres utilisée pour les archives de la température mondiale.

1.1. Le réseau mondial de climatologie historique (GHCN : The Global Historical Climatology Network).

1.1.1. Historique des versions

Tous les séries de données pour la température globale s'appuient fortement sur les archives des stations météorologiques connu sous le nom de GHCN – le Global Historical Climatology Network. [1] Le GHCN a débuté par une collaboration au début des années 1990 entre le Carbon Dioxide Information and Analysis Center (CDIAC) et le National Climatic Data Center (NCDC). Son objectif était de réunir un ensemble d'archives de données de température plus complet que ce qui était alors disponible à partir du CRU ou d'autres unités de recherche. La première version a été publiée en 1992 (Vose et al. 1992).

Les données ont été publiées telles quelles, sans corrections des incohérences. [2] La deuxième version (GHCN v2) a été publiée en 1997. La construction de GHCN v2 est décrite dans Peterson et Vose (1997) et les méthodes de contrôle qualité sont décrites dans Peterson et al. (1998). (1998). Pendant la préparation de GHCN v2, les auteurs ont appliqué des corrections plus systématiques des incohérences et ajouté des métadonnées telles que la population à proximité et une information précise sur l'emplacement de chaque station afin que les utilisateurs puissent mieux apprécier la qualité de la source.

1.1.2. Description de l'archive GHCN v2 et mises à jour des séries.

Le GHCN v2 a compilé 31 sources différentes de données, chacune avec une couverture différente dans le temps. Le GHCN a tenté d'obtenir des données originales

nonhomogénéis ées, préférant donner aux utilisateurs l'accès aux [$ Page 6] données brutes, tout en développant et en appliquant ses propres corrections d'homogénéité.

Le GHCN publie les données brutes telles que reçues des sources, ainsi qu'une version ajustée pour homogénéité (GHCN-ADJ). Etant donné que le GHCN compile des données provenant de nombreuses bases de données différentess, et qui avaient, dans certains cas, collecté chacune les mêmes données, il s'est retrouvé avec un grand nombre de doublons. Pour produire une version remaniée du GHCN, les doublons ont été fusionnés. Parfois, les doublons ont des codes ID différents [NDT : ID = identification], ainsi, des méthodes de recherche numériques sont nécessaires pour les identifier et les combiner en données parstation. Le processus d'ajustement complet comporte trois étapes :

(i) Évaluation de la qualité de la source. La source doit fournir des données d’origine visiblement brutes, qui soient exemptes d'erreurs manifestes de collection.

(ii) Examen de chaque série manuellement.

Chaque station a été localisée sur des graphiques de navigation opérationnels (NDT : Operational Navigation Charts) pour en vérifier l’altitude , puis la série a été comparée aux valeurs attendues au regard de la climatologie locale connue. Les erreurs découvertes à ce stade, généralement une mauvaise localisation de la station, ont été corrigées , sinon l’enregistrement était écarté. Les données ont été également testées en recherchant les discontinuités se manifestant par  des changements abrupts dans la moyenne et l'écart-type.

(iii) Comparaison de chaque série à une série régionale de référence. Pour les stations avec au moins 20 ans de données, la construction d'une série de référence régionale pour chaque station a été faite comme suit.

* Pour chaque station, calcul des « différences premières » des moyennes annuelles, en d'autres termes, les changements d'une année à l'autre dans la moyenne annuelle.

* Pour la station sélectionnée ( dite «candidate»), sélection de cinq stations voisines dont les « différences premières » sont les plus fortement corrélées avec celles de la station « candidate », sous réserve de la disponibilité des données.

* Prendre la moyenne de trois des cinq stations voisines (NDT : il n’est pas dit comment sont choisies les 3 parmi les 5) pour former la série des « différences premières » de référence.

* À partir de zéro pour la première année, former une série finale de référence en cumulant la « différence première » de référence année par année. Un ajustement peut être également appliqué pour garantir que la valeur finale de l'année corresponde à celle de la série candidate.

La série de référence ainsi construite est supposée représenter le climat de la région autour de la station. La série candidate est ensuite comparée à l'aide de méthodes de régression pour vérifier les ruptures structurelles (points où la tendance linéaire change clairement) et d'autres divergences.

Si une station n'a pu être ajustée en utilisant la méthode ci-dessus, soit parce qu'il y avait trop peu de voisines ou moins de 20 ans de données, elle n'a pas été incluse dans le groupe des stations homogénéisées, à moins que les données brutes n’aient quand même été jugées homogènes. Dans le cas de stations avec des enregistrements complets (y compris moyenne quotidienne, la température maximum et minimum), cela a conduit à une réduction du nombre total d'enregistrements initiaux de 8.000 environ à un peu moins de 5.000.

1.  pastilleverte | 15/09/2010 @ 20:14 Répondre à ce commentaire

et d’abord M Mac Kitrik, ne peut être qu’un suppôt d’Exxon, un anti alramiste primaire, un « négationniste », un non aligné du GIEC, une poupée de chiffons salie par les rejets des centrales au charbon, un…
Comment ? c’est un économiste, féru de statistique ? mais alors c’est pas un « Klimatomancien » ?
OUF !

2.  PapyJako | 15/09/2010 @ 20:19 Répondre à ce commentaire

Merci de noter que mon pseudo n’est pas

Papyjacko

3.  PapyJako | 15/09/2010 @ 20:20 Répondre à ce commentaire

[suite] …

mais PapyJako, sans ‘c’ avant le ‘k’

4.  Patrick Bousquet de Rouvex | 15/09/2010 @ 20:31 Répondre à ce commentaire

Le GHCN a progressivement perdu de plus en plus de stations aux latitudes élevées (c’est à dire vers les pôles) en faveur de sites aux latitudes inférieures

Rien que ça, déjà, ça suffirait pour expliquer la montée des t°…. sur les relevés ! Alors, le reste en plus…. Merci Messieurs Manu 95 et PapyJako sans c . Ca sera utile pour instruire le peuple !

5.  jdrien | 15/09/2010 @ 22:04 Répondre à ce commentaire

Ceci est déjà inquiétant en lui-même, mais on ne parle jamais des thermomètres. Une mesure, ce n’est pas seulement une nombre dans un tableau, mais aussi un capteur, un étalonnage, une procédure. Quelles sont la précision, la résolution, la fidélité (dérive dans le temps) des thermomètres utilisés dans les stations météo ? Comment est étalonné un thermomètre ? Quelle peut être l’influence du prélèvement (mini/maxi ou moyenne) sur le résultat attendu ? etc…

6.  phi | 15/09/2010 @ 22:44 Répondre à ce commentaire

jdrien (#5),
A ma connaissance, il n’y a pas trop de problème de ce côté là avec les instruments modernes. Par contre, les anciens thermomètres à mercure étaient affectés par une contraction du verre en vieillissant. Cette contraction provoquait une montée du mercure (et donc des températures relevées) et une brusque chute des valeurs au moment du changement d’instrument. Ce phénomène est intéressant car il offre une analogie avec le problème plus important de l’urbanisation et des changements d’emplacements. Comme dans le cas des thermomètres à mercure, une station subit au cours du temps un réchauffement au caractère plus ou moins continu dû aux perturbations par l’urbanisation et une chute brusque de température quand la station est déplacée dans un endroit moins perturbé. Dans ces deux cas l’homogénéisation aboutit à des résultats analogues. Le réchauffement artificiel n’est pas repéré car trop continu et donc pas corrigé alors que le refroidissement brusque est identifié, quantifié et corrigé en ajustant les valeurs postérieures à la hausse. Dans ces deux cas, les discontinuités disparaissent mais une tendance totalement artificielle au réchauffement est ajoutée.

7.  Araucan | 15/09/2010 @ 22:52 Répondre à ce commentaire

PapyJako (#3),

😳
Corrigé

8.  Araucan | 15/09/2010 @ 23:00 Répondre à ce commentaire

jdrien (#5),

http://www1.ncdc.noaa.gov/pub/.....mentD0.pdf

ou comment faire une station de référence …

Autre référence
http://www.wmo.int/pages/prog/.....-home.html

9.  lemiere | 15/09/2010 @ 23:42 Répondre à ce commentaire

moi ce que je ne comprends pas c’est l’accord de modeles censés reposer sur de la physique seulement avec des courbes de temperatures dont l’information semble etre plus qualitative que quantititative.. et sans les mains…. pfff faut pas prendre les gens pour des idiots les 3/4 des gens qui sont convaincus que la hausse des températures observées est due au CO2 le sont ma foi.. car sinon… quoi d’autre…et comme en plus justement on possède une explication possible…..c’est d’ailleurs la base de la rhetorique de la refutation de toute autre hypothèse pour le moment.. ouais coco tu vois des corrélations mais t’as pas de modeles qui donnent des grandeurs…ma foi c’est une debat possible…mais on est loin de science is settled….merci de donner des données et du grain à moudre!!! c’est quand mem surprenant….cette diminution de la qualité des données….

10.  Warm | 16/09/2010 @ 0:09 Répondre à ce commentaire

Le GHCN a progressivement perdu de plus en plus de stations aux latitudes élevées (c’est à dire vers les pôles) en faveur de sites aux latitudes inférieures

Rien que ça, déjà, ça suffirait pour expliquer la montée des t°…. sur les relevés ! Alors, le reste en plus…. Merci Messieurs Manu 95 et PapyJako sans c . Ca sera utile pour instruire le peuple !

Absolument pas, vous n’avez rien compris au problème… c’est même le contraire !

C’est la région proche du pôle nord qui se réchauffe le plus vite, et ce sont les relevés satellites qui l’indiquent

Source RSS

« Perdre » des stations en arctique aurait donc plutôt tendance à donner des anomalies plus faibles. N’oubliez pas que tous les instituts qui donnent des estimations globales travaillent en anomalie, justement pour éviter le problème de fluctuation du nombre de station…

11.  Pecqror | 16/09/2010 @ 0:58 Répondre à ce commentaire

Warm (#10),

“Perdre” des stations en arctique aurait donc plutôt tendance à donner des anomalies plus faibles. N’oubliez pas que tous les instituts qui donnent des estimations globales travaillent en anomalie, justement pour éviter le problème de fluctuation du nombre de station…

Et en antarctique? Il y a deux pôles sur terre !

12.  Yves Pelletier | 16/09/2010 @ 3:00 Répondre à ce commentaire

@Warm
Moins de stations = plus d’impact sur chaque erreur de relevé. Le GISS fait du smoothing à 1200km, et obtient un réchauffement pour pratiquement tout l’Arctique. Le DMI (qui combine avec des mesures de satelittes, ballons sondes…) conclue pour sa part à un refroidissement des températures au nord du 80e parallèle (http://wattsupwiththat.com/201.....ince-1958/).

Donc c’est pas uniforme.

Quand on sait qu’il ne reste qu’une station au Canada au nord du 65e, toute erreur de lecture a des répercussions énormes. Les thermomètres sont dans les aéroports, et influencés par l’asphalte, les avions et véhicules d’entretien… Ils ne représentent en rien la région avoisinante, et on l’utilise pour faire de l’interpolation sur de grandes distances, donc on réchauffe artificiellement toute la région.

Rappelez-vous aussi l’histoire de M (http://www.rechauffementmediat.....oire-de-m/)…

En gros, les données des thermomètres, et les calculs du GISS sont bon pour la poubelle.

13.  PapyJako | 16/09/2010 @ 8:07 Répondre à ce commentaire

Yves Pelletier (#12),

En gros, les données des thermomètres, et les calculs du GISS sont bon pour la poubelle.

Je n’ai pas le temps de m’étendre, car je suis mangé par la traduction de la suite de McKitrick … Mais je ne peux dire que :

« Bravo Yves » !… 😉

… et inviter tous ceux qui ne le font pas encore à consulter régulièrement ses excellents billets.

Mon préféré, parmi les récents, est celui sur Yamal. :roll:

14.  Abitbol | 16/09/2010 @ 8:41 Répondre à ce commentaire

C’est la région proche du pôle nord qui se réchauffe le plus vite, et ce sont les relevés satellites qui l’indiquent

Je croyais naïvement que les satellites étaient inopérants pour calculer la température aux pôles, sur les surfaces neigeuses et les glaciers ??

15.  Warm | 16/09/2010 @ 11:15 Répondre à ce commentaire

Je croyais naïvement que les satellites étaient inopérants pour calculer la température aux pôles, sur les surfaces neigeuses et les glaciers ??

Les satellites en question mesurent directement la température de l’atmosphère, pas de la surface (MSU/AMSU).

16.  Curieux | 16/09/2010 @ 11:21 Répondre à ce commentaire

Yves Pelletier (#12),
Le smothing à 1200 Km pour les stations les plus au nord implique qu’il se fait avec des stations nettement plus au Sud… donc réchauffement.

17.  Marot | 16/09/2010 @ 11:44 Répondre à ce commentaire

Abitbol (#14),
À ma connaissance, rien ne mesure à grande échelle LA température de LA surface du sol.

Ce qui est toujours relevé c’est la température de l’air plus ou moins proche de la surface. C’est fait par des stations fixes dont on connaît la qualité calamiteuse ou par des mesures par satellites.

Exceptionnellement, la température de LA surface peut être grossièrement estimée par un radiomètre placé le plus près possible d’une surface. Encore faut-il faire la correction due à l’effet de convection. Ce sont des mesures ponctuelles.
Pour les difficultés intrinsèques à ce type de mesure, voir ici.

En mer, la situation est totalement différente.

On utilisait des thermomètres immergés ou des relevés faits dans des seaux d’eau, aujourd’hui, les bouées Argo y pourvoient.

18.  Warm | 16/09/2010 @ 12:02 Répondre à ce commentaire

Quand on sait qu’il ne reste qu’une station au Canada au nord du 65e, toute erreur de lecture a des répercussions énormes. Les thermomètres sont dans les aéroports, et influencés par l’asphalte, les avions et véhicules d’entretien… Ils ne représentent en rien la région avoisinante, et on l’utilise pour faire de l’interpolation sur de grandes distances, donc on réchauffe artificiellement toute la région.

Le GHCN n’est pas la seule source de données. Il existe une base alternative valide depuis les années 70, le GSOD, (non-homogénéisée).

Voilà la couverture arctique de ses stations au delà de 70N (244):


Les résultats (données non interpolées)


tendance 1979-2009: + 0.13/décennie

En comparaison, les stations GHCN (47 stations) montrent un réchauffement de 0.10/décennie

http://moyhu.blogspot.com/2010.....ature.html

Plus de stations => plus de réchauffement (et ce, sans interpolation)

19.  Warm | 16/09/2010 @ 12:04 Répondre à ce commentaire

Le smothing à 1200 Km pour les stations les plus au nord implique qu’il se fait avec des stations nettement plus au Sud… donc réchauffement.

Encore une fois, confusion entre température brute et anomalie de température. Rien ne dit qu’une station plus au sud aura une anomalie plus grande que celle plus au nord: c’est même le plus souvent le contraire…

20.  PapyJako | 16/09/2010 @ 12:46 Répondre à ce commentaire

Warm (#19),

Encore une fois, confusion entre température brute et anomalie de température.

Mais, warm, vous devriez avoir compris qu’ici tout le monde a compris, depuis longtemps déjà, que les « anomalies » de température ne se calculent pas à partir des températures ?

Votre contribution à cette compréhension n’a pas été négligeable. Ce n’est plus nécessaire d’insister et je pense qu’il faudra créer, pour le prochain trollissime, un « warm d’honneur ».

21.  Marot | 16/09/2010 @ 13:50 Répondre à ce commentaire

PapyJako ô éclaireur des intellects(#20)

Je n’avais pas vraiment compris que les « anomalies » n’ont aucun rapport avec les températures.

Ouf, maintenant je sais et moi aussi je l’en remercie.

22.  Antonio San | 16/09/2010 @ 16:47 Répondre à ce commentaire

O warm, O désespoir, O vieillesse ennemie!

23.  Larrel | 16/09/2010 @ 17:45 Répondre à ce commentaire

Le ministère de l’écologie, de l’énergie, du développement durable et de la mer lance une consultation publique. c’est le moment de donner son avis !
http://consultations-publiques.....38;lang=fr

24.  Murps | 16/09/2010 @ 17:51 Répondre à ce commentaire

Larrel (#23), une consultation publique ?
Et si je vote en estimant qu’il n’y a pas de réchauffement, est-ce qu’on en tiendra compte ?

J’ai également idée de voter pour supprimer « le ministère de l’écologie, de l’énergie, du développement durable » et ne garder que les « affaires maritimes »…

Blague à part, il me faudra une ou plusieurs soirées pour lire ce billet de Mc Kitrick revenir poser des questions…

25.  Bob | 16/09/2010 @ 19:11 Répondre à ce commentaire

Larrel #23

Merci.
Le questionnaire est bâti sur l’idée que la RC est une évidence maintenant et demain.

A la première question :

Dans votre vie de tous les jours, que seriez vous prêts à faire pour vous adapter au changement climatique ? (exemple : équipement de stockage d’eau de pluie, travaux d’isolation, déménagement,…)

Je répondrais quelque chose comme :

« Je m’achèterai des vêtements chauds, des moufles et des bottes fourrées… »

Ah, ces politiques ….

26.  Bob | 16/09/2010 @ 19:47 Répondre à ce commentaire

Amusant, je trouve.
Décidément, warm n’est pas à une contradiction près.

Il vient de vous prouver (et c’est exact) que seul l’hémisphère Nord se réchauffe notablement, avec de beau graphique (du RSS MSU):

Or, warm n’a-t-il pas constamment balayé d’un revers de main (comme la totalité de ses coreligionnaires réchauffistes) nos remarques sur l’optimum médiéval parce que justement, ce dernier ne concernait (selon lui) QUE l’hémisphère Nord (en niant les preuves contraire, d’ailleurs) ?

De ce point de vue là, L’Optimum Médiéval ressemblerait dont très fort à ce qu’il se passe en ce moment.

Autrement dit, warm s’arrange avec les arguments, selon les opportunités.

27.  Marot | 16/09/2010 @ 20:33 Répondre à ce commentaire

Bob (#26),

Cette histoire d’hémisphère nord qui et que est la négation du « climat global » et la preuve que la moyenne mondiale des températures est une sottise.

28.  Warm | 16/09/2010 @ 20:41 Répondre à ce commentaire

Il vient de vous prouver (et c’est exact) que seul l’hémisphère Nord se réchauffe notablement, avec de beau graphique (du RSS MSU):

Non, l’hémisphère sud se réchauffe aussi

29.  mica | 16/09/2010 @ 23:25 Répondre à ce commentaire

Warm (#18),

tu sais même pas lire un graphique, 0.13 c’est l’incertitude… en plus il est écrit +/- mais tu es tellement obsédé par voir des hausse de températures… que tu en voit partout…

tendance 1979-2009: + 0.13/décennie

30.  Warm | 16/09/2010 @ 23:29 Répondre à ce commentaire

mica (#29),

hehé, autant pour moi… en fait c’est 0.91, bien plus !

31.  Abitbol | 17/09/2010 @ 0:48 Répondre à ce commentaire

Moi qui croyait avoir pris des précautions littérales pour mon post n°14… (pardon de m’autociter)

Je croyais naïvement que les satellites étaient inopérants pour calculer la température aux pôles, sur les surfaces neigeuses et les glaciers ??

Où je n’écris ABSOLUMENT PAS que les satellites MESURENT la température de surface…
Mais je me demande, si, ils sont opérants pour CALCULER la température, ce qui ne veut pas dire la même chose (enfin, je crois)… donc, s’ils peuvent CALCULER la température (donc faire des opérations/conversions et non des mesures) pour estimer la température au dessus de la surface des pôles, des surfaces neigeuses et des glaciers ?
Ah oui, je sais que les thermomètres ne sont pas plantés dans le sol, mais qu’ils mesurent (cette fois) la température de l’atmosphère au dessus de la surface…
Après avoir fait un cours de sémantique… quelqu’un peut-il me dire si les satellites sont opérants au dessus des surfaces polaires, neigeuses et glacées ?

32.  PapyJako | 17/09/2010 @ 1:06 Répondre à ce commentaire

Murps (#24),

Blague à part, il me faudra une ou plusieurs soirées pour lire ce billet de Mc Kitrick revenir poser des questions…

Garde tes forces !… ici, ce n’est que la section 1. J’ai déjè livré les sections 2 et 3, j’attaque la section 4.

33.  Astre Noir | 17/09/2010 @ 8:27 Répondre à ce commentaire

Murps (#24),

’ai également idée de voter pour supprimer “le ministère de l’écologie, de l’énergie, du développement durable” et ne garder que les “affaires maritimes”…

Vous n’y êtes pas dutout…Le vrai nom du Ministère de Jean Louis-j’me ferais bien un p’tit apéro Borloo est :

Ministre d’Etat, ministre de l’Ecologie, de l’Energie, du Développement durable et de la Mer, en charge des Technologies vertes et des Négociations sur le climat

Je crois qu’il doit détenir le record du plus long intitumlé ministériel de la Vème République

34.  Flo | 17/09/2010 @ 13:00 Répondre à ce commentaire

Astre Noir (#33),

Il court la folle rumeur que ce très long intitulé pourrait être considérablement raccourci en novembre et remplacé par « 1er ministre » tout simplement.
Mais où ont-ils la tête?

35.  Warm | 17/09/2010 @ 13:36 Répondre à ce commentaire

Après avoir fait un cours de sémantique… quelqu’un peut-il me dire si les satellites sont opérants au dessus des surfaces polaires, neigeuses et glacées ?

Oui. Les sondeurs MSU (et AMSU) utilsent certaines propriétés d’émission de l’oxygène dans les mico-onde (si mes souvenir sont bons, à vérifier, autour de 60GHz). Peu d’influence des nuage ou de l’état de la surface, qui n’émettent quasiment rien dans cette bande de fréquence.

36.  Marot | 17/09/2010 @ 14:20 Répondre à ce commentaire

Warm (#35),
certaines propriétés ?
Peu d’influence … de l’état de la surface, qui n’émettent quasiment rien

Bref RIEN

37.  Warm | 17/09/2010 @ 14:50 Répondre à ce commentaire

Marot (#36),

Bah Marot, faites nous un résumé. Pour une fois, vous posteriez quelque chose d’utile !

38.  Marot | 17/09/2010 @ 15:20 Répondre à ce commentaire

Warm (#37),

Comme distributeur de boulot fermez-là et ne postez plus n’importe quoi.
On avance sans vous.

Contribuez au site au moins UNE SEULE fois par un texte construit ou traduit, ce sera un progrès et on pourra enfin dire que Warm n’est pas totalement inutile.

39.  joletaxi | 17/09/2010 @ 16:25 Répondre à ce commentaire

Marot (#38),
venant de warm, c’est presqu’un compliment

40.  Flo | 17/09/2010 @ 21:08 Répondre à ce commentaire

Warm (#35),

Il ne vaudrait mieux pas utiliser la bande de 57.5 à 64 GHz et sûrement pas 60 GHz car cette fréquence correspond à un pic d’absorption de l’oxygène.
C’est pourquoi, entre autre, on utilise cette bande pour des communications à très courtes distances (en indoor principalement).
La faible portée permet une relative « discrétion » et évite d’aller perturber d’autres systèmes au voisinage.
Laurent pourrait sans doute mieux expliquer.

41.  pecqror | 17/09/2010 @ 21:22 Répondre à ce commentaire

Flo (#40),

60 GHz car cette fréquence correspond à un pic d’absorption de l’oxygène.

SPECTRE D’ABSORPTION. DE L’OXYGÈNE SOLIDE ENTRE 2000 ET 1500 Å.
Ce n’est pas plutôt dans les 6MHZ?

42.  Flo | 17/09/2010 @ 21:43 Répondre à ce commentaire

pecqror (#41),

Je parlais de la raie d’absorption de O2. Regardez là (désolé je ne sais pas coller une image):

http://www.rfcafe.com/referenc.....rption.htm

43.  Flo | 17/09/2010 @ 22:01 Répondre à ce commentaire

Je corrige ce que j’ai écrit ci-dessus (en 40):
Si on utilise des fréquences voisines de 60 GHz dans certains radiomètres c’est certainement plus en utilisant les propriétés d’aborption d’O2 que ses propriété « d’émission » comme l’écrivait Warm.
Désolé pour la confusion.

44.  Warm | 17/09/2010 @ 23:17 Répondre à ce commentaire

Il ne vaudrait mieux pas utiliser la bande de 57.5 à 64 GHz et sûrement pas 60 GHz car cette fréquence correspond à un pic d’absorption de l’oxygène.
C’est pourquoi, entre autre, on utilise cette bande pour des communications à très courtes distances (en indoor principalement).
La faible portée permet une relative “discrétion” et évite d’aller perturber d’autres systèmes au voisinage.
Laurent pourrait sans doute mieux expliquer.

La loi du rayonnement de Kirchoff, ça vous dit quelque chose ?

http://fr.wikipedia.org/wiki/L....._Kirchhoff

Et lisez la source ci-dessus:

The Microwave Sounding Units (MSU) were built by the Jet Propulsion Laboratory for NOAA to fly as part of the TIROS Operational Vertical Sounder (TOVS) instrument complement aboard the TIROS-N series of sun-synchronous polar orbiting satellites. The MSU is a four-channel Dicke-type scanning passive microwave radiometer measuring radiation at 50.3, 53.74, 54.96, and 57.95 GHz, which are frequencies in the 50 to 60 GHz oxygen absorption complex.

45.  Flo | 18/09/2010 @ 18:21 Répondre à ce commentaire

Warm (#44),

Désolé pour ça. L’association des mots « oxygène » « émission » et « 60 GHz » m’a fait réagir trop vite et susciter un mini-débat sans objet où je n’aurais vraiment pas ma place.
Je ne recommencerai pas promis juré.
Pour la loi du rayonnement de Kirchoff j’ai dû sécher les cours de physique où on en parle (en plus de ceux des deux ou trois années avant :-)!).
Sinon de liens en liens j’ai essayé de regarder un peu MSU, AMSU…
Pas simple non plus. On utilise des finesses mathématiques qui permettent des réajustements conduisant à des recalibrations d’instruments similaires mais pas identiques pour aboutir selon les méthodes statistiques utilisées à des estimations de variations de T° pas si proches les unes des autres que ça (mais données au millième de °C près).
Ce qui précède n’est pas une logomachie mais la traduction résumée presque fidèle d’un lien trouvé sur Real Climate à propos de MSU.
On a quand même une drôle de sensation.
En continuant les lectures (je ne dispose pas des connaissances pour l’affirmer) on dirait que plus on s’approche de la surface où nous vivons plus ça se complique et plus on procède à des calculs statistiques, ajustements, recalibrations, pour aboutir à des estimations de variations de T° pas forcément concordantes qui il est vrai ne sont plus fournies (en général) qu’au centième de degré près.

46.  Warm | 19/09/2010 @ 17:55 Répondre à ce commentaire

En continuant les lectures (je ne dispose pas des connaissances pour l’affirmer) on dirait que plus on s’approche de la surface où nous vivons plus ça se complique et plus on procède à des calculs statistiques, ajustements, recalibrations, pour aboutir à des estimations de variations de T° pas forcément concordantes qui il est vrai ne sont plus fournies (en général) qu’au centième de degré près.

Tout à fait, ce n’est pas si simple d’obtenir une température de la troposphère. De plus, Spencer et Christy n’ont jamais voulu divulguer leur code pour UAH (alors qu’on a les codes complet du GISTEMP de Hansen).

47.  PapyJako | 21/09/2010 @ 12:42 Répondre à ce commentaire

Les mesures de température sont-elles mortes ?

C’est ce qu’on pourrait penser à voir la position périlleuse de la station de Hanksville

… au dessus d’une pierre tombale … 😆 😆 😆 dans un parking.

La station fait partie des stations de Nasa-Giss. Voici sa courbe de température Hansennisée :

D’ailleurs, cette courbe de température Hansennisée est exactement la même que celle non Hansenisée, intitulée, « raw GHCN data+USCHN corrections » .

Cela est parfaitement « normal ». En effet, dans les enregistrements de données GISS :

Oui !, vous avez bien lu (c’est écrit en petit), la station est classée RURALE !…, ce qui veut dire

1) Qu’elle échappe à la Hansennisation,

2) Que ses enregistrements de température n’ont donc pas besoin d’être corrigés pour l’évolution de l’environnement. Cela tombe très bien puisque, de fait, la température y monte suffisament pour coller à la thèse d’Hansen, sans nécessiter de correction.

3) Que la pierre tombale, le parking, les voitures, les maisons, les détritus … qui l’entourent … sont réputés avoir toujours été là depuis 1915, et que tout cela n’a rien à voir avec le réchauffement mesuré

Il serait passionnant de savoir ce que pense warm de ce cas.

Mais ce serait faire l’hypothèse que warm pense,

ce qui est loin d’être établi scientifiquement.

48.  Clem | 21/09/2010 @ 12:53 Répondre à ce commentaire

Énorme.

ps : les parkings sont toujours construit sur les cimetières, c’est bien connu ! 😈

49.  miniTAX | 21/09/2010 @ 18:18 Répondre à ce commentaire

… au dessus d’une pierre tombale … 😆 😆 😆 dans un parking.

PapyJako (#47),
(##### Les) réchauffo-serial-catastrophistes, ils ne respectent même pas les morts alors bon, les données scientifiques…

50.  joletaxi | 21/09/2010 @ 18:57 Répondre à ce commentaire

Clem (#48),

je note, je note,….(#####) ? c'est pas une insulte ça?

Sorry, the comment form is closed at this time.