Flagrant délit à Darwin Zéro.

(Grand merci à Ben pour cette traduction express).

Par Willis Eschenbach (sur WUWT).

Certains persistent à dire « Oui, d’accord, les scientifiques impliqués dans le Climategate se sont mal conduits. Mais ça n’implique pas que les données soient mauvaises, ni que la Terre ne se réchauffe pas ». Commençons par ce dernier point.

La Terre s’est, d’une manière générale, réchauffée depuis le petit âge glaciaire, à partir de 1850. L’accord est général pour parler de réchauffement sur cette période (voir par exemple ce qu’en dit ici Syun Akasofu). Le Climategate ne remet pas cet aspect en question.

Pour le premier point en revanche, sur la qualité des données, c’est différent. Des gens disent que « oui, ils ont détruit des courriers électroniques et dissimulé des documents pour contourner la loi sur la liberté de l’information, fait un peu n’importe quoi avec leurs  marqueurs de température, tenté d’éliminer les papiers scientifiques de leurs adversaires… mais ça n’a rien à voir avec les données, les données sont toujours là. » Ce qui a l’air raisonnable.

Il y a trois bases de données globales principales. L’une est au CRU, l’unité de recherches climatiques de l’université d’Angleterre Orientale, chez laquelle nous avions essayé d’avoir accès aux valeurs brutes. La seconde est à la NOAA/GHCN, le réseau historique climatique global. La troisième est à la NASA/GISS, l’institut Goddard pour les études spatiales. Ces trois groupes prennent les données brutes, qu’ils « homogénéisent » pour en supprimer les problèmes qui se posent par exemple quand une station météo a été déplacée en un lieu plus chaud et que cela se traduit par un brusque saut de 2 °C . Les trois archives de températures globales sont généralement appelées CRU, GISS et GHCN. Pourtant, aussi bien le GISS que le CRU tirent pratiquement toutes leurs données brutes du GHCN. Les trois produisent des archives historiques de températures globales très similaires à partir des données brutes.

Je suis en quête depuis plusieurs années pour comprendre les données climatiques. Et l'on ne peut jamais savoir où cette quête peut vous mener. Cette fois-ci, elle m’a conduit en Australie. J’ai songé à ce que disait le professeur Wibjorn Karlen à propos de l’Australie (voir mes remarques ici) :

Un autre exemple est l’Australie. La NASA [le GHCN] ne montre que 3 stations qui couvrent la période 1897-1992. Sur quel type de données le diagramme du GIEC sur l’Australie est-il fondé ?

S’il y a une tendance, elle est en légère baisse. En revanche, si l’on utilise une période plus courte (1949-2005), les températures augmentent de  façon substantielle. Les Australiens ont beaucoup de stations et ont publié des cartes plus détaillées des changements et des tendances.

Extrait de la figure 9.12 du 4Ième rapport du GIEC.Les types du CRU répondirent à Wibjorn qu’il avait tout faux. Voici, selon eux, ce qui était juste au sujet des archives dont Wibjorn parlait : la figure 9.12 du quatrième rapport du GIEC, qui montre le nord de l’Australie.

Figure 1 : (Extrait de la figure 9.12 du quatrième rapport du GIEC.) Tendances des températures et résultat des modèles pour le nord de l’Australie. La zone couverte s’étend de 110°E à 155°E, et de 30°S à 11°S. Le trait noir correspond aux observations. Les données viennent du CRU.

L’une des choses qui ont été révélées lors de la divulgation des courriers électroniques du CRU est que le CRU, pour l’essentiel, utilise les données du GHCN comme données brutes. J’ai donc regardé la base de données du GHCN. J’y ai trouvé trois stations dans le nord de l’Australie couvrant la période 1900-2000, comme l’avait dit Wibjorn, et neuf stations dans toute l’Australie couvrant cette même période. Voici la moyenne des données du GHCN, non-ajustées, pour ces trois stations (d’après AIS) :

Moyenne des trois stations, Nord AustralieFigure 2 (->) : Moyenne des données brutes du GHCN, pour les trois stations concernées par la zone de la figure 1 sur la période 1900-2000.

Une nouvelle fois, donc, Wibjorn a raison : le résultat n’a rien à voir avec ce qu’indique le GIEC pour l’Australie. Mais c’est encore un peu tôt pour conclure. Le professeur Karlen ne regardait que 3 stations. Trois, c’est peu, même si c’est tout ce que nous avons comme stations couvrant un siècle entier pour la zone qui nous intéresse.
Bon, on a vu les enregistrements les plus longs, regardons maintenant avec d’autres. Voici ce que ça donne en prenant toutes les stations de la zone qui fournissent des enregistrements de température allant jusqu’à l’an 2000, sans tenir compte du moment où chaque enregistrement
commence. Ça fait 30 stations.

Courbe moyenne à partir de trente stations, Nord Australie.
Figure 3 (<-): Résultat avec les données brutes du GHCN de toutes les stations de la zone (figure 1)  allant jusqu'à l’an 2000.

Toujours aucun rapport avec ce que dit le GIEC. Du coup, j’ai regardé avec toutes les stations de la zone. Il y en a 222. Voici le résultat.

Moyenne des 222 stations, Nord Australie.

Figure 4 (->) : Résultat avec les données brutes du GHCN pour toutes les stations de la zone.
Vous voyez donc pourquoi Wibjorn se posait des questions : rien de tout cela ne ressemble aux données du GIEC, elles-mêmes tirées du CRU, qui lui-même se fonde sur les données du GHCN. Pourquoi une telle différence ?
Réponse : ces courbes utilisent toutes les données brutes du GHCN, alors que le GIEC utilise les données ajustées. Le GHCN ajuste les données pour en supprimer ce qu’il appelle des « inhomogénéités ». Sur un coup de tête, je me suis décidé à aller jeter un coup d’œil sur la première station de la liste, l’aéroport de Darwin, histoire de voir à quoi pouvait bien ressembler une inhomogénéité. Et j’ai ainsi pu découvrir à quel point les ajustements du GHCN pour traiter les inhomogénéités de Darwin étaient énormes.

D’abord, qu’est-ce qu’une « inhomogénéité » ? Je ne peux pas faire mieux que de citer le GHCN :

La plupart des stations climatiques de long terme ont subi des modifications qui rendent leurs observations inhomogènes au fil du temps. Beaucoup de facteurs peuvent causer ces discontinuités, parmi lesquelles un changement d’instruments ou d’abri, l’environnement autour de la station, l’heure des observations et la méthode de calcul de la température moyenne. Souvent, plusieurs facteurs sont modifiés en même temps, c’est par exemple souvent le cas lors de l’introduction de stations météo automatiques dans beaucoup de parties du monde. Avant de pouvoir utiliser ces données climatiques en confiance pour l’analyse du changement climatique à long terme, des ajustements sont nécessaires pour corriger les discontinuités non-climatiques.

Ça se tient. Les données vont faire des bonds lorsque la station est déplacée, par exemple. Il n’est pas question de se mettre à penser que ça se réchauffe simplement parce qu’on a bougé le thermomètre à un endroit plus chaud. Ça n’a peut-être pas l’air très plaisant, mais il faut quand même ajuster les données, du mieux que l’on peut.
Je préfère toujours partir des données les plus brutes possibles,comme ça je peux comprendre les ajustements. À Darwin, il y a cinq enregistrements distincts, qui sont combinés pour construire l’enregistrement final. Voici ce que donnent ces enregistrements, numérotés de zéro à quatre :

(Source : http://data.giss.nasa.gov/cgi-…..ame=darwin)

Série d'enregistrement sur Darwin.Figure 5 (<-) : Cinq enregistrements de température à Darwin, plus le décompte des stations (ligne verte). Ces données brutes ont été téléchargées du GISS, sachant que le GISS utilise les données brutes du GHCN comme point de départ de ses analyses.

Darwin dispose de quelques avantages sur d’autres sites avec plusieurs enregistrements. D’abord, nous y disposons d’un enregistrement ininterrompu depuis 1941 (Station 1). Ensuite, nous y avons un enregistrement continu sur un siècle entier. Enfin, ces enregistrements sont en très bon accord entre eux sur toute la période d’enregistrement. En fait, quand il y en a plusieurs en même temps, ils donnent des résultats si proches qu’il est impossible de lire les enregistrements derrière la station Zéro.
Ce cas est idéal, parce qu’il illustre beaucoup des problèmes avec les données brutes des stations de température :

• il n’y a pas de série qui couvre toute la période ;
• la série la plus courte n’est que de neuf ans ;
• il y a des trous d’un mois et plus dans presque toutes les séries ;
• il semble y avoir des problèmes avec les données autour de 1941 ;
• la plupart des bases de données ont des mois qui manquent ;
• pour l’essentiel de la période, il y a peu de stations voisines ;
• aucune année n’est couverte par les cinq enregistrements ;
• la température chute sur une période de six ans, d’un maximum en 1936 à un minimum en 1941. La station a bougé en 1941… mais que s’est-il passé durant les six années précédentes ?

Travailler les enregistrements est affaire de jugement. Avant tout, vous devez décider si ce que vous regardez mérite un traitement ou pas. Dans le cas de Darwin, il semble se passer quelque chose autour de 1941, mais pas l’année du déplacement. Par ailleurs, alors que le saut de température en 1941 a l’air important, on voit un saut comparable de 1992 à 1999. Quand je regarde l’ensemble, je préfère que l’on ne touche à rien. C’est toujours ce qu’il y a de mieux à faire quand vous n’avez pas plus de renseignements. D’abord ne pas nuire.

Malgré tout, on peut défendre l’idée d’un ajustement, étant donné le déplacement de la station en 1941. Si je voulais ajuster Darwin, je ferais comme ça :

Ajustement possible pour Darwin

Figure 6 (<-): Ajustement possible pour Darwin. La ligne noire montre la quantité totale d’ajustement (échelle de droite), et montre son déroulement temporel.
Dans cette figure, j’ai décalé les données d’avant 1941 en les abaissant de 0,6 °C, puis diminué le décalage près de 1941 pour faire coller les courbes. Avec ces données « ajustées » (en rouge), il n’y a ni réchauffement ni refroidissement. Toutefois, cela réduit le refroidissement apparent des données brutes. Après 1941, les autres enregistrements se recouvrent en étant très proches les uns des autres, et donc je n’y touche pas. Pourquoi les ajuster, vu qu’ils sont en accord les uns avec les autres !

Bon, voilà donc comment j’homogénéiserais les données si je devais le faire, mais en vérité, je suis contre tout ajustement. Çela ne modifie qu’un seul enregistrement (celui de Darwin Zéro), sans toucher au reste.

Ensuite, je suis allé regarder ce qui se passe lorsque le GHCN enlève des « inhomogénéités » pour « ajuster » les données. Sur les cinq séries de données, le GHCN en élimine deux, probablement parce qu’elles sont courtes et reproduisent des enregistrements plus longs. Les trois enregistrements restants sont d’abord « homogénéisés », et ensuite moyennés pour donner l’enregistrement de température « ajusté GHCN » de Darwin.

À ma grande surprise, voici ce que j’ai trouvé. Pour expliquer l’effet dans son entier, je montre les deux bases de données en commençant par le même point (plutôt qu’en finissant par le même point, comme on les montre plus souvent).

Ajustements du GHCN, aéroport de Darwin.

Figure 7 (->):Ajustements du GHCN pour homogénéiser l’enregistrement combiné de l’aéroport de Darwin .

GLUPS ! Avant homogénéisation, les températures à Darwin chutaient de 0,7 °C par siècle… et après homogénéisation, elles augmentent de 1,2 °C par siècle. Et l’ajustement qu’ils ont fait est de plus de deux degrés par siècle… quand ces types « ajustent », ils n’y vont pas avec le dos de la cuillère. Sans compter la drôle d’allure de l’ajustement, avec d’abord une montée en escaliers, puis plus erratique, pour atteindre 2,4 °C.
Évidemment, ça m’a conduit à regarder de plus près comment le GHCN « ajuste » les données de température.

Voici ce qu’ils disent dans leur « Présentation de la base de données du GHCN » :

Les données de température du GHCN incluent deux bases de données : les données originales, et une base de données homogènes ajustées. Tous les tests d’homogénéité ont été faits sur des séries annuelles. La technique d’ajustement d’homogénéité s’effectue en deux étapes.

La première étape créé une série homogène de référence pour chaque station (Peterson et Easterling, 1994). Construire une série de référence complètement homogène à partir de données dont les inhomogénéités sont inconnues est sans doute impossible, mais nous utilisons plusieurs techniques pour minimiser toute inhomogénéité dans la série de référence.
(…)
Pour créer la série annuelle de référence des différences premières, nous retenons les cinq stations voisines de la station à étudier qui ont suffisamment de données et sont le mieux corrélées avec elle pour modéliser cette station.
(…)
La technique finale que nous utilisons pour minimiser les inhomogénéités dans la série de référence utilise la moyenne des trois valeurs centrales (parmi les cinq des stations voisines) pour créer la série de référence des différences premières.
Pour être honnête, tout ça a l’air correct. Ils prennent cinq stations voisines, et en font la moyenne. Ensuite, ils comparent cette moyenne à la station en question. Si ça a l’air bizarre comparé aux cinq stations de référence, ils recherchent des archives mentionnant un éventuel changement, et si nécessaire, ils homogénéisent sans pitié les mauvaises données. J’ai quelques doutes concernant ce qu’ils leur font subir, mais bon, voilà comment ils repèrent les stations inhomogènes.
Mouais…. Vu le manque de stations en Australie, je me suis quand même demandé comment ils trouvaient cinq stations « voisines » en 1941…
J'ai donc vérifié. La station la plus proche pour 1941 est à 500 km de Darwin. Non seulement elle est à 500 km, mais en plus c’est la seule station à moins de 750 km de Darwin qui couvre l’année 1941. (En l’occurrence, elle se trouve près d’un pub. Daly Waters Pub pour être précis – les gars, vous z’êtes en Australie, souvenez-vous-en). Donc, tout simplement, il n’existe pas les cinq stations pour faire la « série de référence » et vérifier le saut de 1936 à 1941 à Darwin.

Intrigué par la curieuse forme de la moyenne des enregistrements homogénéisés de Darwin, je suis alors allé voir comment ils avaient homogénéisé chacun des enregistrements de la station. Qu’est-ce qui pouvait bien avoir donné naissance à cette étrange moyenne de la figure 7 ? J’ai commencé avec Zéro, avec l’enregistrement le plus ancien.
Voici Station Zéro, à Darwin, dans ses versions brutes et homogénéisées.Ajustements d’homogénéité à Darwin Zéro.

Figure 8 (->): Ajustements d’homogénéité à Darwin Zéro. Le trait noir montre la quantité et le timing des ajustements.

GASP et re-GASP ! Qu’est-ce qui peut bien justifier un tel ajustement ? Comment s’y prennent-ils ? Il y a cinq enregistrements différents pour Darwin depuis 1941. Tous quasiment d’accord. Alors pourquoi les ajuster ? Ils ont ajouté une énorme tendance artificielle et totalement imaginaire à la seconde partie des données brutes ! Là, pour le coup, c’est vrai : ça ressemble à la figure du GIEC… Mais hé ! Une tendance de +6 °C par siècle ? Et avec la forme du mur d’une pyramide montant au ciel ? Mais c’est quoi, ce truc ?
Tout ça, les gars, sont les signes bizarres qui montrent que quelqu’un a tripatouillé les données dans un style architectural tout égyptien… C'est la preuve indiscutable que les données « homogénéisées » ont été arrangées pour coller à des idées préconçues sur le réchauffement de la Terre.
Voici ce qui ressort clairement de tout ça. Ceux qui disent que « le Climategate ne concerne qu’un comportement pas très propre de scientifiques, mais que les données, elles, sont propres » se trompent. Au moins une partie des données n’est pas propre non plus. La preuve qui tue se trouve à Darwin Zéro.
Une fois de plus,j'affronte un mystère : comment, et pourquoi, le GHCN a-t-il « ajusté » l’historique des températures de Darwin pour afficher un tel réchauffement ? Pourquoi ajustent-ils par paliers ? Phil Jones et les autres types du CRU utilisent-ils la base de données brutes ou la base de données « ajustées » du GHCN ? Mon petit doigt me dit qu’ils prennent les données ajustées, puisqu’elles montrent un réchauffement, mais bien sûr, nous le savons pas encore… vu que, malgré tout ce qui se passe, le CRU n’a toujours pas divulgué la liste des données utilisées, mais uniquement la liste des stations.
Autre fait curieux : le GHCN a ajusté la Station 1 pour coller à l’étrange ajustement de Darwin Zéro, mais a laissé la Station 2 (qui couvre une bonne part de la même période, et qui, comme l’indique la figure 5, est en excellent accord avec les stations Zéro et 1) intacte. Ils ont homogénéisé deux stations sur les trois. Puis ils les ont moyennées.

Comme ça, vous obtenez une moyenne qui a l’air vraie, je suppose : cela « cache le déclin ».

Oh, et au point où on en est, ça vous intéresserait-il de savoir comment le GISS traite la question ? Eh bien… ils n’utilisent les données de Darwin qu’après 1963, un moyen commode pour se débarrasser de la question, justement… et aussi un moyen commode pour retirer toutes les données fâcheusement froides avant 1941. C’est sans doute un meilleur choix que la monstruosité dont a accouché le GHCN, mais c’est quand même un choix difficile à défendre.
Maintenant, soyons clair. L’ajustement manifestement faux du GHCN pour cette station précise n’implique PAS que la Terre ne se réchauffe pas.
Et il ne dit PAS que les trois archives (CRU, GISS et GHCN) sont entièrement fausses. Nous pourrions avoir à faire à un incident isolé, nous n’en savons rien. Cela dit, le GISS fait ses propres ajustements et, comme ils persistent à le dire, ils obtiennent les mêmes résultats que le GHCN… ce qui rend leurs résultats suspects eux aussi.

Et le CRU ? Qui sait ce qu’ils utilisent ? On attend encore. Toujours pas de données…

Ce que tout cela montre, c’est qu’il y a au moins une station de températures dont la tendance a été artificiellement augmentée pour donner un faux réchauffement, alors que les données brutes indiquent un refroidissement. De plus, les moyennes brutes pour le nord de l’Australie sont assez différentes des moyennes ajustées, donc il doit y avoir pas mal d’ajustements… hum… disons « intéressants » dans le nord de l’Australie, à part Darwin.
Et en vertu du proverbe latin « Falsus in uno, falsus in omnibus » (faux sur un point, faux sur tous les points), tant que tous les « ajustements » des stations n’auront pas été examinés, aussi bien ceux du CRU, du GHCN ou du GISS, nous ne pourront pas donner notre confiance à quiconque utilise des valeurs homogénéisées.

Amitiées à vous tous, continuons ce combat pour la vérité,
W.

Source

 • • • • •

Et voici ce que dit le CNRS (source) :

Les dangers d’utiliser les données brutes


Il faut tout d’abord insister sur le fait que l’estimation de tendances à long terme est une opération délicate, qui ne peut être conduite à partir des données brutes d’observation sans de grandes précautions. Les techniques d’homogénéisation ont pour objectif d’identifier les ruptures d’homogénéité des longues séries de données climatologiques (générées par les changements de capteurs ou de pratiques d’observation, par le déplacement des sites d’observation, ou par les modifications de leur environnement) et de les corriger. Elles permettent donc d’extraire le signal climatique en supprimant au mieux les effets de poste.

Météo-France utilise des méthodes mises au point récemment par Olivier Mestre (2 000). Le traitement des données de la station de Pau-Uzein illustre extrêmement bien les performances de l’algorithme. La figure 2 présente l’évolution des données brutes de moyennes annuelles des températures maximales quotidiennes sur le XXème siècle. Une estimation de tendance linéaire sur le siècle conduit à un refroidissement important : près de 1,2°C par siècle.

05_02_evolution.jpg


La même opération réalisée après identification des ruptures d’homogénéité et correction de celles-ci (figure 3) conduit à un réchauffement de 0,7°C sur le siècle, tout à fait cohérent avec la tendance globale au réchauffement, et les données environnantes. A noter qu’on retrouve bien sur cette série chronologique les trois phases généralement observées : une croissance modérée de la température jusqu’au début des années 50, une stagnation ou une diminution jusque vers 1970, et ensuite une forte croissance.


05_03_evolution.jpg

 

Autres références : Mestre O., 2000: Méthodes statistiques pour l’homogénéisation de longues séries climatiques.

et une présentation sur le même sujet de Driss Bari (Office météo du Maroc) .

 • • • • •

 

Share on FacebookTweet about this on TwitterEmail this to someone
151.  yvedemars | 18/12/2009 @ 4:32 Répondre à ce commentaire

jipébé (#149),

les 300.000 morts par an sont ceux qui sont victime des phénomènes météorologiques violents : cyclones, inondations, etc.
Ils sont imputés d’autorité au RCA.
Notons que cette statistique ne prend pas en compte semble-t-il quand même les victimes du froid … mais il faudrait vérifier si les sdf victimes de l’hiver n’y sont pas inclus …

Il me semble qu’une étude a montrée que le bilan humain d’un refroidissement était sans commune mesure avec celui d’un réchauffement.

152.  jmr | 18/12/2009 @ 8:04 Répondre à ce commentaire

jipébé (#149),

La vérité finira par émerger, et alors, les défenseurs du paradigme auront perdu toute crédibilité…

Non, comme Phil Jones, Jean-Marie Cavada ne se souviendra plus, ses paroles auront été « sorties de leur contexte » et il n’aura jamais dit de choses pareilles. La crédibilité n’est pas une vertu intéressante, la repentance ne se pratique pas, elle parle du passé. Les journalistes pour la plupart n’en ont cure, il sont dans la prédiction du catastrophisme présent et à venir qui rapporte beaucoup plus (de lecteurs, du moins l’espèrent-ils). Sinon il y a longtemps que leur population aurait été décimée 🙁

Nous avons constaté ICI MÊME un exemple de la conduite souhaitable pour ceux qui ont raconté des énormités comme Spectrosciences :

Nous vous informons que nous avons changé notre opinion à l’égard de votre
article : http://skyfal.free.fr/?p=405
Conformément au droit sur Internet, nous demandons désormais la suppression
de toute url pointant vers notre nom de domaine « spectrosciences.com » de votre
site web.

Cavada ira donc tout simplement à l’INA demander à ses copains de supprimer les enregistrements.

153.  JG2433 | 18/12/2009 @ 11:39 Répondre à ce commentaire

yvedemars (#150),

Puis-je me permettre cet humour un peu décalé et… froid ?

Je cite Hubert Lucot.– Grands mots d’ordre et petites phrases (P.O.L. éditeur, 2007) :
« Certaines nuits glaciales, les SDF sentent un frémissement : la croissance va reprendre. »

154.  antoniosan | 21/12/2009 @ 21:37 Répondre à ce commentaire

Willis Eschenbach fait le point et nous apprenon que The Economist auteur et editeur se sont excuses pour leur premier article.
http://wattsupwiththat.com/200.....ent-269060

A suivre mais pour le moment willis a toujours une longueur d’avance…

155.  Marot | 3/01/2010 @ 12:10 Répondre à ce commentaire

Après la Nouvelle-Zélande, Darwin zéro et Pau Uzen, regardons ce que fournit la météo suisse

Le texte référencé ci-dessus donne les justifications des « homgénéisations ». La plus éclairante à mon avis est :

L’homogénéisation a pour objectif d’éliminer ces changements engendrés artificiellement dans les séries de mesures. Les mesures historiques sont adaptées aux conditions de mesures actuelles.

C’est là que j’ai un premier doute. Les effets d’îlot de chaleur urbain sont actuels et non passés. Je pense que statistiquement il y a plus de stations affectées par ce biais que par un biais inverse bien que la météo suisse donne UN exemple : le déplacement de la station de Genève du centre ville vers l’aéroport de Cointrin en 1960. C’est le même argument unique que celui donné il y a peu pour la station de Pau ici même en 1920 ou 21.

Voici la station météo de Cointrin de classe 5 par son installation sur un toit de bâtiment occupé. Je rappelle que dans ces conditions l’erreur selon l’OMM est supérieure à 5°C !
Vous trouverez ici dans http://www.20min.ch/ro/news/ge.....6872511que

les spécialistes se disent très contents de cet environnement qui offre une meilleure visibilité sur la piste.

Pour des météos c’est normal, pour de la climato c’est une horreur.

Je déduis que l’affirmation par la météo suisse que dans le passé les stations étaient quasiment toujours « mal placées » dans des villes, alors qu’aujourd’hui elles sont « bien placées » est un pur mensonge.
L’inventaire presque exhaustif des stations américaines : http://www.surfacestations.org/ montre à l’évidence que c’est faux. L’examen de la situation actuelle de la station de Pau et celle de Cointrin disent la même chose.

Vous trouverez la totalité des fausses « homogénéisations » dans le texte :
http://www.meteoschweiz.admin......mogene.pdf

P. S. 1 La météo suisse est d’une rare honnêteté, elle propose les données brutes !
P. S. 2 Je pense qu’il faut bien se mettre en tête que les stations sont météorologiques et non climatologiques. C’est par un abus systématique que l’on utilise des données météo en climatologie. À Cointrin les météos sont ravis d’être en bord de piste. Ceci ne pardonne pas la catastrophique homogénéisation.

156.  chria | 3/01/2010 @ 14:25 Répondre à ce commentaire

Marot (#154),
Notons que Météo-Suisse ne fournit pas les données de température de Genève en version homogénéisée…
Les seuls homog sont basel, chateau d’oex et chaumont.
http://www.meteoschweiz.admin......isees.html

157.  chria | 3/01/2010 @ 14:34 Répondre à ce commentaire

Ce qui est moche par contre c’est qu’ils mettent la série pour la suisse faite à partir de séries homogénéisées alors qu’ils expliquent plus haut qu’ils ont réussi à en homogénéiser que 3 sur 12…

158.  Marot | 3/01/2010 @ 14:55 Répondre à ce commentaire

chria (#155),
Elles sont dans http://www.meteoschweiz.admin......mogene.pdf
Voir Genève Cointrin page 3.

159.  chria | 3/01/2010 @ 18:42 Répondre à ce commentaire

Marot (#157),
Ok, et bien d’accord avec votre ps2, et le dernier paragraphe du pdf est assez ambiguë.

160.  chria | 3/01/2010 @ 19:05 Répondre à ce commentaire

Marot (#157),
Il n’empêche que si vous prenez les données du Säntis en txt vous obtenez le même graphique que dans le pdf pour les données homogénéisées ; sauf que dans le txt il est marqué yes et que donc le travail d’homogénéisation n’a pas pu être mené à bien. On ne sait qui croire : le pdf ou le site internet… ? Ou alors il n’ont pas actualisé le site, ou bien un truc m’échappe.

161.  Ben | 3/01/2010 @ 19:27 Répondre à ce commentaire

Marot (#154), voilà une référence éloquente. C’est vraiment impressionnant comme la Suisse se réchauffe dans le passé : Bâle, Chaumont, Davos, Genève… et surtout Sion, qui en profite pour se réchauffer dans le présent.

Je trouve par ailleurs bizarre ce passage du document :

Les séries originales montrent une évolution de la température sur la Suisse extrêmement incohérente
qui n’est d’ailleurs physiquement pas possible.

Pour les données brutes, à part Sion, toutes les stations montrent un réchauffement entre 0,5°C et 1°C (avec Château d’Oex un poil au dessus quand même, à 1,16°C).
Pour les données homogénéisées, les tendances sont à peu près aussi disparates, entre +0,8°C (Lugano, Segl-Maria) et +1,6°C (Château d’Oex).

Pour en avoir le cœur net, j’ai calculé l’écart-type (sur les 12 stations) des tendances : pour les données brutes, il est de 0,26, tandis que pour les tendances homogénéisées il est de 0,23. S’il s’agissait de rendre cohérentes entre elles les tendances des différentes stations, il me semble qu’il n’y a guère là de quoi pavoiser…

162.  Ben | 3/01/2010 @ 19:28 Répondre à ce commentaire

Ben (#160), pardon : se refroidit dans le passé, bien sûr.

163.  miniTAX | 3/01/2010 @ 20:21 Répondre à ce commentaire

Ben (#161), oui, refroidir le passé ou réchauffer le présent conduit au même résultat qui va dans le sens de la FARCE : un réchauffement tendanciel (le singulier de tendancieux). Et comme les données récentes sont plus difficiles à traffiquer car elles peuvent être confrontées aux tendances données par les satellites, la FARCE préfère refroidir le passé : on en a la PREUVE avec la température globale du GIEC (officiellement fournie par la bande d’escrocs du CRU) : cf le billet prémonitoire de skyfal intitulé « Alerte, la planète se refroidit dans le passé »

A noter aussi sur la comparaison données avant et après « homogéinisation » en Suisse que normalement, je dis bien normalement, quand on corrige de l’effet de la bulle de chaleur urbaine, les valeurs récentes devraient être MOINS chaudes. Eh bah non, elles sont PLUS chaudes, pour TOUTES les stations suisses. Quelle honte de voir des données d’une nation réputée scrupuleuse en matière d’instrumentations & mesures fichées en l’air par une bande « d’homogéinisateurs » post-modernes qui se soucient de la vérité scientifique comme d’une guigne !
Mais hé, c’est la « science » climatique…

164.  miniTAX | 7/04/2010 @ 15:38 Répondre à ce commentaire

J’ai découvert entretemps qu’Olivier Mestre, qui venait doctement nous en raconter sur comment il torture les données des stations françaises jusqu’à ce qu’elles avouent (et qui est reparti aussitôt la queue entre les jambes), est membre … d’Europe Ecologie.
Eh oui, c’est le même Mestre, ingénieur Météo France, chargé de trouver un réchauffement catastrophique en France, à partir de séries qui ne montrent aucun réchauffement comme Pau Uzein (lièvre levé par Marot). Dracula nommé gardien de la Banque du sang quoi…
Mon Dieu, avec la FARCE, on aurait tout vu, même l’inconcevable.

165.  douar | 7/04/2010 @ 16:37 Répondre à ce commentaire

Moi, je me suis accroché avec qq’un de l’ADEME … que j’ai retrouvé sur la liste d’Europe Ecologie aux régionales. Supayr non?

166.  Argus | 7/04/2010 @ 17:13 Répondre à ce commentaire

L’ADEME ?
Ils pilotent aussi infoclimat.
Quand je pense que c’est une agence d’état payé avec nos impôts….

Vous croyez que les modos de Futura Sciences et Infoclimat, comme tous les réchauffistes, ont voté pour autre chose que pour EE, voire y ont candidaté ? Aucun doute là dessus.

Quand il y a des choix délicats à faire entre diverses données et paramètres, et Dieu sait s’il y en a en climatologie, la rigueur scientifique perd pied devant les arrières pensées politiques, philosophiques ou plus prosaïques.. C’est humain, certes, mais les politiques ne semblent pas le savoir et prennent tout pour argent comptant.
on a vu aussi ça pour la gestion de la grippe A.

167.  Argus | 7/04/2010 @ 17:14 Répondre à ce commentaire

L’ADEME ?
Ils pilotent aussi infoclimat.
Quand je pense que c’est une agence d’état payé avec nos impôts….

Vous croyez que les modos de Futura Sciences et Infoclimat, comme tous les réchauffistes, ont voté pour autre chose que pour EE, voire y ont candidaté ? Aucun doute là dessus.

Quand il y a des choix délicats à faire entre diverses données et paramètres, et Dieu sait s’il y en a en climatologie, la rigueur scientifique perd pied devant les arrières pensées politiques, philosophiques ou plus prosaïques.. C’est humain, certes, mais les politiques ne semblent pas le savoir et prennent tout pour argent comptant.
on a vu aussi ça pour la gestion de la grippe A.
« Science avec conscience (politique) n’est que ruine de l’âme » !

168.  Marot | 8/04/2010 @ 10:18 Répondre à ce commentaire

miniTAX (#163),
Bel article ici
http://chiefio.wordpress.com/2.....e-decline/
sur les relevés de températures en France et les conséquences de la prédominance des aéroports.

169.  pecqror | 8/04/2010 @ 10:27 Répondre à ce commentaire

Olivier Mestre, le meilleur magicien de météo france qui transforme ça

en çà

http://www.dossiersdunet.com/spip.php?article400

171.  yvesdemars | 8/04/2010 @ 10:42 Répondre à ce commentaire

désolé perdu la main depuis janvier

172.  yvesdemars | 8/04/2010 @ 10:43 Répondre à ce commentaire

zut !!
http://www.washingtontimes.com.....ic-method/

173.  Marot | 8/04/2010 @ 10:57 Répondre à ce commentaire

pecqror (#168),
La conclusion de l’article est ébouriffante :

1) les données brutes sont dangereuses !

2) après correction « c’est tout à fait cohérent avec la tendance globale au réchauffement, » ben voyons !

Où est la correction à la baisse pour tenir compte de la mauvaise implantation de la station et en plus dans un aéroport ?

Il n’y en a pas mon bon monsieur, on fait comme les ricains, on en rajoute en alignant les stations rurales sur les stations urbaines.

174.  Marot | 8/04/2010 @ 17:09 Répondre à ce commentaire

P. S. La dernière ligne ci-dessus fait référence à la fraude organisée de la NCDC qui est analysée ici

175.  Araucan | 8/04/2010 @ 21:39 Répondre à ce commentaire

@pecquor

Vous remettez les mêmes articles qu’à la fin de l’article ci-dessus …. 😉

176.  pecqror | 8/04/2010 @ 21:56 Répondre à ce commentaire

Araucan (#174),
Pas vu, désolé!!! Pour une fois que je trouvais quelque chose d’intéressant, c’était déjà trouvé!

177.  Araucan | 8/04/2010 @ 23:11 Répondre à ce commentaire

Juste 10 ans à attendre pour avoir un début de tendance pour l’épaisseur des glaces arctiques

http://www.esa.int/esaCP/SEMU3A0OK7G_France_0.html

178.  Myke | 9/04/2010 @ 8:58 Répondre à ce commentaire

Araucan (#176),
Espérons que le ballon de JL Etienne ne va pas fausser les mesures. Au fait, la mesure de l’épaisseur des glaces était bien un des objets de sa « mission » ?

179.  miniTAX | 9/04/2010 @ 9:37 Répondre à ce commentaire

Araucan (#176), dans 10 ans, si ça se trouve, la FARCE serait passée à une autre panique planétaire et l’étude de l’épaisseur de la glace arctique serait aussi popularisée que celle des hormones du criquet.
A noter que Cryosat 2 ne mesure pas non plus vraiment l’épaisseur de la banquise, malgré les annonces tonitruantes de ses promoteurs (faut bien faire mousser le bouzin quand ça coûte des millions !). Cette épaisseur est juste estimée à partir de la hauteur des bords des banquises par rapport à la mer libre (après une multitude de traitement du signal d’interférométrie d’effet Doppler), comme le système actuel, mais avec plus de précision, c’est tout. C’est comme si nos climatologues ont trouvé le moyen de dire combien vous mesurez juste en regardant vos mains, magic ! De la science playstation dans toute sa splendeur quoi. Si Laurent, notre expert télémétrie maison, passait dans le coin, il peut sûrement en dire plus.
La vraie mesure d’épaisseur, c’est dans le style Bird, de l’institut Wegener. Mais comme ça montre que l’Arctique… s’épaissit, c’est mal barré pour son financement.

180.  pecqror | 9/04/2010 @ 9:38 Répondre à ce commentaire

Myke (#177),
Celle de l’épaisseur de glace est terminé, le ballon à l’époque c’est scratché c’était celui de total, actuellement c’est la mesure du CO2 +le magnétique terrestre… et tout cela en moins de 10 jours.
http://www.lepost.fr/article/2.....ecolo.html

181.  Araucan | 9/04/2010 @ 14:55 Répondre à ce commentaire

miniTAX (#178),

Je voulais essayer de faire justement un point sur ce satellite ce WE pour au moins lister les appareils embarqués et ce qu’il peut effectivement mesurer en grattant un peu plus d’info que ce qu’il y a dans le communiqué de presse … car on n’envoie pas un satellite dans l’espace juste pour mesurer l’épaisseur de la glace !

182.  Araucan | 10/04/2010 @ 16:58 Répondre à ce commentaire

Un lien intéressant sur les températures en France

http://chiefio.wordpress.com/2.....mment-4234

http://chiefio.files.wordpress.....ir_seg.png

(Source des données GHCN)

184.  Patrick Bousquet de Rouvex | 10/04/2010 @ 22:28 Répondre à ce commentaire

Extraordinaire ! Quelle précision ! C’est des données brutes ou revues et corrigées par Jones et al. ?

185.  Araucan | 11/04/2010 @ 0:23 Répondre à ce commentaire

Patrick Bousquet de Rouvex (#183),

Toutes les précisions là
http://www.ncdc.noaa.gov/oa/cl...../index.php

« Data Coverage

GHCN-Monthly contains mean temperature data for 7,280 stations (Figure 1) and maximum/minimum temperature data for 4,966 stations (Figure 2). All have at least 10 years of data. The archive also contains homogeneity-adjusted data for a subset of this network (5,206 mean temperature stations and 3,647 maximum/minimum temperature stations). The homogeneity-adjusted network is somewhat smaller because at least 20 years of data were required to compute reliable discontinuity adjustments and the homogeneity of some isolated stations could not be adequately assessed. Precipitation data are available for 20,590 stations (Figure 3) and sea level pressure data for 2,668 stations (Figure 4). In general, the best spatial coverage is evident in North America, Europe, Australia, and parts of Asia. Likewise, coverage in the Northern Hemisphere is better than the Southern Hemisphere. « 

186.  pecqror | 11/04/2010 @ 0:55 Répondre à ce commentaire

pecqror (#168),
Je me suis planté de post c’était ici
Et une vu sur google earth pour avoir une vu plus “global”
http://1.bp.blogspot.com/_HwFH…..roport.JPG

187.  Patrick Bousquet de Rouvex | 11/04/2010 @ 10:43 Répondre à ce commentaire

Merci Araucan, mais je n’ai pas tout compris ! Si j’avais bien compris, mais ce n’est pas sûr, je dirais que les chevelus mensuels sont les relevés bruts et les grosses courbes qui montrent une augmentation en fin de siècle sont les résumés corrigés de Jones et al ?? Cela mérite une page entière, en traduisant les commentaires originaux du site chiefio. La ligne count correspond-elle aux nombre de stations ? Sur chifio, on voit que beaucoup de pays ont une temp en légère baisse depuis deux siècles et que seule la fin du 20° remonte : soit c’est trafiqué (?), soit c’est l’effet d’ilôt urbain et l’emplacement des stations qui est en cause, soit il y a un réchauffement dont l’attribution est problématique…. Ca me paraît très important !

188.  Patrick Bousquet de Rouvex | 11/04/2010 @ 10:48 Répondre à ce commentaire

En tout cas, sur la plupart des pays, on ne voit pas du tout les marches et les paliers dans le réchauffement (dis-)continu depuis le petit âge glaciaire que l’on connaît sur les célèbres graphes de températures « globales ». Ce qui voudrait dire que nos pays de l’hémisphère nord ne se sont pas réchauffés depuis le 18° siècle ? Et que seuls ls océans et les continents australs se sont réchauffé ?? A creuser

189.  Araucan | 11/04/2010 @ 12:27 Répondre à ce commentaire

Patrick Bousquet de Rouvex (#187),

Les « counts » sont le nombre de stations.
Pour le GHCN, sous réserve de précisions, je les prendrais comme des températures homogénéisées. Mais il faut vérifier aussi qu’il n’y a pas aussi des moyennes mensuelles de tmax-tmin

Ces courbes montrent en tout cas que le phénomène est très variable selon les zones et qu’il y a l’air d’y avoir un effet nombre de stations dans un certain nombre de cas …

Sorry, the comment form is closed at this time.