Flagrant délit à Darwin Zéro.

(Grand merci à Ben pour cette traduction express).

Par Willis Eschenbach (sur WUWT).

Certains persistent à dire « Oui, d’accord, les scientifiques impliqués dans le Climategate se sont mal conduits. Mais ça n’implique pas que les données soient mauvaises, ni que la Terre ne se réchauffe pas ». Commençons par ce dernier point.

La Terre s’est, d’une manière générale, réchauffée depuis le petit âge glaciaire, à partir de 1850. L’accord est général pour parler de réchauffement sur cette période (voir par exemple ce qu’en dit ici Syun Akasofu). Le Climategate ne remet pas cet aspect en question.

Pour le premier point en revanche, sur la qualité des données, c’est différent. Des gens disent que « oui, ils ont détruit des courriers électroniques et dissimulé des documents pour contourner la loi sur la liberté de l’information, fait un peu n’importe quoi avec leurs  marqueurs de température, tenté d’éliminer les papiers scientifiques de leurs adversaires… mais ça n’a rien à voir avec les données, les données sont toujours là. » Ce qui a l’air raisonnable.

Il y a trois bases de données globales principales. L’une est au CRU, l’unité de recherches climatiques de l’université d’Angleterre Orientale, chez laquelle nous avions essayé d’avoir accès aux valeurs brutes. La seconde est à la NOAA/GHCN, le réseau historique climatique global. La troisième est à la NASA/GISS, l’institut Goddard pour les études spatiales. Ces trois groupes prennent les données brutes, qu’ils « homogénéisent » pour en supprimer les problèmes qui se posent par exemple quand une station météo a été déplacée en un lieu plus chaud et que cela se traduit par un brusque saut de 2 °C . Les trois archives de températures globales sont généralement appelées CRU, GISS et GHCN. Pourtant, aussi bien le GISS que le CRU tirent pratiquement toutes leurs données brutes du GHCN. Les trois produisent des archives historiques de températures globales très similaires à partir des données brutes.

Je suis en quête depuis plusieurs années pour comprendre les données climatiques. Et l'on ne peut jamais savoir où cette quête peut vous mener. Cette fois-ci, elle m’a conduit en Australie. J’ai songé à ce que disait le professeur Wibjorn Karlen à propos de l’Australie (voir mes remarques ici) :

Un autre exemple est l’Australie. La NASA [le GHCN] ne montre que 3 stations qui couvrent la période 1897-1992. Sur quel type de données le diagramme du GIEC sur l’Australie est-il fondé ?

S’il y a une tendance, elle est en légère baisse. En revanche, si l’on utilise une période plus courte (1949-2005), les températures augmentent de  façon substantielle. Les Australiens ont beaucoup de stations et ont publié des cartes plus détaillées des changements et des tendances.

Extrait de la figure 9.12 du 4Ième rapport du GIEC.Les types du CRU répondirent à Wibjorn qu’il avait tout faux. Voici, selon eux, ce qui était juste au sujet des archives dont Wibjorn parlait : la figure 9.12 du quatrième rapport du GIEC, qui montre le nord de l’Australie.

Figure 1 : (Extrait de la figure 9.12 du quatrième rapport du GIEC.) Tendances des températures et résultat des modèles pour le nord de l’Australie. La zone couverte s’étend de 110°E à 155°E, et de 30°S à 11°S. Le trait noir correspond aux observations. Les données viennent du CRU.

L’une des choses qui ont été révélées lors de la divulgation des courriers électroniques du CRU est que le CRU, pour l’essentiel, utilise les données du GHCN comme données brutes. J’ai donc regardé la base de données du GHCN. J’y ai trouvé trois stations dans le nord de l’Australie couvrant la période 1900-2000, comme l’avait dit Wibjorn, et neuf stations dans toute l’Australie couvrant cette même période. Voici la moyenne des données du GHCN, non-ajustées, pour ces trois stations (d’après AIS) :

Moyenne des trois stations, Nord AustralieFigure 2 (->) : Moyenne des données brutes du GHCN, pour les trois stations concernées par la zone de la figure 1 sur la période 1900-2000.

Une nouvelle fois, donc, Wibjorn a raison : le résultat n’a rien à voir avec ce qu’indique le GIEC pour l’Australie. Mais c’est encore un peu tôt pour conclure. Le professeur Karlen ne regardait que 3 stations. Trois, c’est peu, même si c’est tout ce que nous avons comme stations couvrant un siècle entier pour la zone qui nous intéresse.
Bon, on a vu les enregistrements les plus longs, regardons maintenant avec d’autres. Voici ce que ça donne en prenant toutes les stations de la zone qui fournissent des enregistrements de température allant jusqu’à l’an 2000, sans tenir compte du moment où chaque enregistrement
commence. Ça fait 30 stations.

Courbe moyenne à partir de trente stations, Nord Australie.
Figure 3 (<-): Résultat avec les données brutes du GHCN de toutes les stations de la zone (figure 1)  allant jusqu'à l’an 2000.

Toujours aucun rapport avec ce que dit le GIEC. Du coup, j’ai regardé avec toutes les stations de la zone. Il y en a 222. Voici le résultat.

Moyenne des 222 stations, Nord Australie.

Figure 4 (->) : Résultat avec les données brutes du GHCN pour toutes les stations de la zone.
Vous voyez donc pourquoi Wibjorn se posait des questions : rien de tout cela ne ressemble aux données du GIEC, elles-mêmes tirées du CRU, qui lui-même se fonde sur les données du GHCN. Pourquoi une telle différence ?
Réponse : ces courbes utilisent toutes les données brutes du GHCN, alors que le GIEC utilise les données ajustées. Le GHCN ajuste les données pour en supprimer ce qu’il appelle des « inhomogénéités ». Sur un coup de tête, je me suis décidé à aller jeter un coup d’œil sur la première station de la liste, l’aéroport de Darwin, histoire de voir à quoi pouvait bien ressembler une inhomogénéité. Et j’ai ainsi pu découvrir à quel point les ajustements du GHCN pour traiter les inhomogénéités de Darwin étaient énormes.

D’abord, qu’est-ce qu’une « inhomogénéité » ? Je ne peux pas faire mieux que de citer le GHCN :

La plupart des stations climatiques de long terme ont subi des modifications qui rendent leurs observations inhomogènes au fil du temps. Beaucoup de facteurs peuvent causer ces discontinuités, parmi lesquelles un changement d’instruments ou d’abri, l’environnement autour de la station, l’heure des observations et la méthode de calcul de la température moyenne. Souvent, plusieurs facteurs sont modifiés en même temps, c’est par exemple souvent le cas lors de l’introduction de stations météo automatiques dans beaucoup de parties du monde. Avant de pouvoir utiliser ces données climatiques en confiance pour l’analyse du changement climatique à long terme, des ajustements sont nécessaires pour corriger les discontinuités non-climatiques.

Ça se tient. Les données vont faire des bonds lorsque la station est déplacée, par exemple. Il n’est pas question de se mettre à penser que ça se réchauffe simplement parce qu’on a bougé le thermomètre à un endroit plus chaud. Ça n’a peut-être pas l’air très plaisant, mais il faut quand même ajuster les données, du mieux que l’on peut.
Je préfère toujours partir des données les plus brutes possibles,comme ça je peux comprendre les ajustements. À Darwin, il y a cinq enregistrements distincts, qui sont combinés pour construire l’enregistrement final. Voici ce que donnent ces enregistrements, numérotés de zéro à quatre :

(Source : http://data.giss.nasa.gov/cgi-…..ame=darwin)

Série d'enregistrement sur Darwin.Figure 5 (<-) : Cinq enregistrements de température à Darwin, plus le décompte des stations (ligne verte). Ces données brutes ont été téléchargées du GISS, sachant que le GISS utilise les données brutes du GHCN comme point de départ de ses analyses.

Darwin dispose de quelques avantages sur d’autres sites avec plusieurs enregistrements. D’abord, nous y disposons d’un enregistrement ininterrompu depuis 1941 (Station 1). Ensuite, nous y avons un enregistrement continu sur un siècle entier. Enfin, ces enregistrements sont en très bon accord entre eux sur toute la période d’enregistrement. En fait, quand il y en a plusieurs en même temps, ils donnent des résultats si proches qu’il est impossible de lire les enregistrements derrière la station Zéro.
Ce cas est idéal, parce qu’il illustre beaucoup des problèmes avec les données brutes des stations de température :

• il n’y a pas de série qui couvre toute la période ;
• la série la plus courte n’est que de neuf ans ;
• il y a des trous d’un mois et plus dans presque toutes les séries ;
• il semble y avoir des problèmes avec les données autour de 1941 ;
• la plupart des bases de données ont des mois qui manquent ;
• pour l’essentiel de la période, il y a peu de stations voisines ;
• aucune année n’est couverte par les cinq enregistrements ;
• la température chute sur une période de six ans, d’un maximum en 1936 à un minimum en 1941. La station a bougé en 1941… mais que s’est-il passé durant les six années précédentes ?

Travailler les enregistrements est affaire de jugement. Avant tout, vous devez décider si ce que vous regardez mérite un traitement ou pas. Dans le cas de Darwin, il semble se passer quelque chose autour de 1941, mais pas l’année du déplacement. Par ailleurs, alors que le saut de température en 1941 a l’air important, on voit un saut comparable de 1992 à 1999. Quand je regarde l’ensemble, je préfère que l’on ne touche à rien. C’est toujours ce qu’il y a de mieux à faire quand vous n’avez pas plus de renseignements. D’abord ne pas nuire.

Malgré tout, on peut défendre l’idée d’un ajustement, étant donné le déplacement de la station en 1941. Si je voulais ajuster Darwin, je ferais comme ça :

Ajustement possible pour Darwin

Figure 6 (<-): Ajustement possible pour Darwin. La ligne noire montre la quantité totale d’ajustement (échelle de droite), et montre son déroulement temporel.
Dans cette figure, j’ai décalé les données d’avant 1941 en les abaissant de 0,6 °C, puis diminué le décalage près de 1941 pour faire coller les courbes. Avec ces données « ajustées » (en rouge), il n’y a ni réchauffement ni refroidissement. Toutefois, cela réduit le refroidissement apparent des données brutes. Après 1941, les autres enregistrements se recouvrent en étant très proches les uns des autres, et donc je n’y touche pas. Pourquoi les ajuster, vu qu’ils sont en accord les uns avec les autres !

Bon, voilà donc comment j’homogénéiserais les données si je devais le faire, mais en vérité, je suis contre tout ajustement. Çela ne modifie qu’un seul enregistrement (celui de Darwin Zéro), sans toucher au reste.

Ensuite, je suis allé regarder ce qui se passe lorsque le GHCN enlève des « inhomogénéités » pour « ajuster » les données. Sur les cinq séries de données, le GHCN en élimine deux, probablement parce qu’elles sont courtes et reproduisent des enregistrements plus longs. Les trois enregistrements restants sont d’abord « homogénéisés », et ensuite moyennés pour donner l’enregistrement de température « ajusté GHCN » de Darwin.

À ma grande surprise, voici ce que j’ai trouvé. Pour expliquer l’effet dans son entier, je montre les deux bases de données en commençant par le même point (plutôt qu’en finissant par le même point, comme on les montre plus souvent).

Ajustements du GHCN, aéroport de Darwin.

Figure 7 (->):Ajustements du GHCN pour homogénéiser l’enregistrement combiné de l’aéroport de Darwin .

GLUPS ! Avant homogénéisation, les températures à Darwin chutaient de 0,7 °C par siècle… et après homogénéisation, elles augmentent de 1,2 °C par siècle. Et l’ajustement qu’ils ont fait est de plus de deux degrés par siècle… quand ces types « ajustent », ils n’y vont pas avec le dos de la cuillère. Sans compter la drôle d’allure de l’ajustement, avec d’abord une montée en escaliers, puis plus erratique, pour atteindre 2,4 °C.
Évidemment, ça m’a conduit à regarder de plus près comment le GHCN « ajuste » les données de température.

Voici ce qu’ils disent dans leur « Présentation de la base de données du GHCN » :

Les données de température du GHCN incluent deux bases de données : les données originales, et une base de données homogènes ajustées. Tous les tests d’homogénéité ont été faits sur des séries annuelles. La technique d’ajustement d’homogénéité s’effectue en deux étapes.

La première étape créé une série homogène de référence pour chaque station (Peterson et Easterling, 1994). Construire une série de référence complètement homogène à partir de données dont les inhomogénéités sont inconnues est sans doute impossible, mais nous utilisons plusieurs techniques pour minimiser toute inhomogénéité dans la série de référence.
(…)
Pour créer la série annuelle de référence des différences premières, nous retenons les cinq stations voisines de la station à étudier qui ont suffisamment de données et sont le mieux corrélées avec elle pour modéliser cette station.
(…)
La technique finale que nous utilisons pour minimiser les inhomogénéités dans la série de référence utilise la moyenne des trois valeurs centrales (parmi les cinq des stations voisines) pour créer la série de référence des différences premières.
Pour être honnête, tout ça a l’air correct. Ils prennent cinq stations voisines, et en font la moyenne. Ensuite, ils comparent cette moyenne à la station en question. Si ça a l’air bizarre comparé aux cinq stations de référence, ils recherchent des archives mentionnant un éventuel changement, et si nécessaire, ils homogénéisent sans pitié les mauvaises données. J’ai quelques doutes concernant ce qu’ils leur font subir, mais bon, voilà comment ils repèrent les stations inhomogènes.
Mouais…. Vu le manque de stations en Australie, je me suis quand même demandé comment ils trouvaient cinq stations « voisines » en 1941…
J'ai donc vérifié. La station la plus proche pour 1941 est à 500 km de Darwin. Non seulement elle est à 500 km, mais en plus c’est la seule station à moins de 750 km de Darwin qui couvre l’année 1941. (En l’occurrence, elle se trouve près d’un pub. Daly Waters Pub pour être précis – les gars, vous z’êtes en Australie, souvenez-vous-en). Donc, tout simplement, il n’existe pas les cinq stations pour faire la « série de référence » et vérifier le saut de 1936 à 1941 à Darwin.

Intrigué par la curieuse forme de la moyenne des enregistrements homogénéisés de Darwin, je suis alors allé voir comment ils avaient homogénéisé chacun des enregistrements de la station. Qu’est-ce qui pouvait bien avoir donné naissance à cette étrange moyenne de la figure 7 ? J’ai commencé avec Zéro, avec l’enregistrement le plus ancien.
Voici Station Zéro, à Darwin, dans ses versions brutes et homogénéisées.Ajustements d’homogénéité à Darwin Zéro.

Figure 8 (->): Ajustements d’homogénéité à Darwin Zéro. Le trait noir montre la quantité et le timing des ajustements.

GASP et re-GASP ! Qu’est-ce qui peut bien justifier un tel ajustement ? Comment s’y prennent-ils ? Il y a cinq enregistrements différents pour Darwin depuis 1941. Tous quasiment d’accord. Alors pourquoi les ajuster ? Ils ont ajouté une énorme tendance artificielle et totalement imaginaire à la seconde partie des données brutes ! Là, pour le coup, c’est vrai : ça ressemble à la figure du GIEC… Mais hé ! Une tendance de +6 °C par siècle ? Et avec la forme du mur d’une pyramide montant au ciel ? Mais c’est quoi, ce truc ?
Tout ça, les gars, sont les signes bizarres qui montrent que quelqu’un a tripatouillé les données dans un style architectural tout égyptien… C'est la preuve indiscutable que les données « homogénéisées » ont été arrangées pour coller à des idées préconçues sur le réchauffement de la Terre.
Voici ce qui ressort clairement de tout ça. Ceux qui disent que « le Climategate ne concerne qu’un comportement pas très propre de scientifiques, mais que les données, elles, sont propres » se trompent. Au moins une partie des données n’est pas propre non plus. La preuve qui tue se trouve à Darwin Zéro.
Une fois de plus,j'affronte un mystère : comment, et pourquoi, le GHCN a-t-il « ajusté » l’historique des températures de Darwin pour afficher un tel réchauffement ? Pourquoi ajustent-ils par paliers ? Phil Jones et les autres types du CRU utilisent-ils la base de données brutes ou la base de données « ajustées » du GHCN ? Mon petit doigt me dit qu’ils prennent les données ajustées, puisqu’elles montrent un réchauffement, mais bien sûr, nous le savons pas encore… vu que, malgré tout ce qui se passe, le CRU n’a toujours pas divulgué la liste des données utilisées, mais uniquement la liste des stations.
Autre fait curieux : le GHCN a ajusté la Station 1 pour coller à l’étrange ajustement de Darwin Zéro, mais a laissé la Station 2 (qui couvre une bonne part de la même période, et qui, comme l’indique la figure 5, est en excellent accord avec les stations Zéro et 1) intacte. Ils ont homogénéisé deux stations sur les trois. Puis ils les ont moyennées.

Comme ça, vous obtenez une moyenne qui a l’air vraie, je suppose : cela « cache le déclin ».

Oh, et au point où on en est, ça vous intéresserait-il de savoir comment le GISS traite la question ? Eh bien… ils n’utilisent les données de Darwin qu’après 1963, un moyen commode pour se débarrasser de la question, justement… et aussi un moyen commode pour retirer toutes les données fâcheusement froides avant 1941. C’est sans doute un meilleur choix que la monstruosité dont a accouché le GHCN, mais c’est quand même un choix difficile à défendre.
Maintenant, soyons clair. L’ajustement manifestement faux du GHCN pour cette station précise n’implique PAS que la Terre ne se réchauffe pas.
Et il ne dit PAS que les trois archives (CRU, GISS et GHCN) sont entièrement fausses. Nous pourrions avoir à faire à un incident isolé, nous n’en savons rien. Cela dit, le GISS fait ses propres ajustements et, comme ils persistent à le dire, ils obtiennent les mêmes résultats que le GHCN… ce qui rend leurs résultats suspects eux aussi.

Et le CRU ? Qui sait ce qu’ils utilisent ? On attend encore. Toujours pas de données…

Ce que tout cela montre, c’est qu’il y a au moins une station de températures dont la tendance a été artificiellement augmentée pour donner un faux réchauffement, alors que les données brutes indiquent un refroidissement. De plus, les moyennes brutes pour le nord de l’Australie sont assez différentes des moyennes ajustées, donc il doit y avoir pas mal d’ajustements… hum… disons « intéressants » dans le nord de l’Australie, à part Darwin.
Et en vertu du proverbe latin « Falsus in uno, falsus in omnibus » (faux sur un point, faux sur tous les points), tant que tous les « ajustements » des stations n’auront pas été examinés, aussi bien ceux du CRU, du GHCN ou du GISS, nous ne pourront pas donner notre confiance à quiconque utilise des valeurs homogénéisées.

Amitiées à vous tous, continuons ce combat pour la vérité,
W.

Source

 • • • • •

Et voici ce que dit le CNRS (source) :

Les dangers d’utiliser les données brutes


Il faut tout d’abord insister sur le fait que l’estimation de tendances à long terme est une opération délicate, qui ne peut être conduite à partir des données brutes d’observation sans de grandes précautions. Les techniques d’homogénéisation ont pour objectif d’identifier les ruptures d’homogénéité des longues séries de données climatologiques (générées par les changements de capteurs ou de pratiques d’observation, par le déplacement des sites d’observation, ou par les modifications de leur environnement) et de les corriger. Elles permettent donc d’extraire le signal climatique en supprimant au mieux les effets de poste.

Météo-France utilise des méthodes mises au point récemment par Olivier Mestre (2 000). Le traitement des données de la station de Pau-Uzein illustre extrêmement bien les performances de l’algorithme. La figure 2 présente l’évolution des données brutes de moyennes annuelles des températures maximales quotidiennes sur le XXème siècle. Une estimation de tendance linéaire sur le siècle conduit à un refroidissement important : près de 1,2°C par siècle.

05_02_evolution.jpg


La même opération réalisée après identification des ruptures d’homogénéité et correction de celles-ci (figure 3) conduit à un réchauffement de 0,7°C sur le siècle, tout à fait cohérent avec la tendance globale au réchauffement, et les données environnantes. A noter qu’on retrouve bien sur cette série chronologique les trois phases généralement observées : une croissance modérée de la température jusqu’au début des années 50, une stagnation ou une diminution jusque vers 1970, et ensuite une forte croissance.


05_03_evolution.jpg

 

Autres références : Mestre O., 2000: Méthodes statistiques pour l’homogénéisation de longues séries climatiques.

et une présentation sur le même sujet de Driss Bari (Office météo du Maroc) .

 • • • • •

 

51.  chria | 9/12/2009 @ 16:34 Répondre à ce commentaire

MESTRE (#46),
Merci de votre réponse, on essaye juste d’être moins cons.

Je ne trouve malheureusement pas mon bonheur dans le graphique. Il est inexploitable parce qu’on ne connaît pas les référence temporelles de chaque ajustement. On ne peut donc pas savoir s’il y a eu des périodes plus diminuées ou augmentées, etc. Je sais que je suis chiant mais vous connaissez St Thomas et sa sale manie. D’autant plus qu’on voit bien qu’il y a eu plus de diminution que d’augmentation pour l’ajustement. Quand on sait que les séries homogénéisées ont été calé sur les mesures au sol dès 2000…
Et je suis toujours dubitatif sur les séries de référence (ou séries de comparaison). Quelles sont leur degré de validité ?
je ne sais bien qu’on est pas là pour remettre en cause vos travaux mais on aimerait comprendre.

52.  miniTAX | 9/12/2009 @ 16:34 Répondre à ce commentaire

@ Monsieur Mestre,
Désolé mais vous ne répondez pas du tout aux questions. Du reste je n’ai jamais dit que vous n’utilisez pas les méta-données. J’ai dit que les métas données n’existent pas pour les séries qui servent à construire la température globale, qui change en permanence d’une version à l’autre (dans le sens d’un réchauffement), ce qui rend perplexe quand on vous entend dire que votre station présente une évolution « cohérente » avec celle du réchauffement global.

MESTRE (#46),

Pour ce qui est des grandes bases de données type GHCN, GISS, je n’ai pas le temps de m’y intéresser actuellement, et cela ne fait pas partie de mes attributions.
Je ne suis pas surpris que certaines séries soient moins bien corrigées, et il y a déjà eu des publications de collègues comme Moberg, qui ne sont pas des “climate skeptics” sur le sujet.

Pour info, le GISS n’entretient aucune base de données. Il ne fait que dupliquer avec quelques jours de décalage la base GHCN gérée par la NOAA et il n’y a pas plus 1/4 homme au GISS dédié à la compilation de Tg ce qui par le passé récent, depuis que le code a été divulgué pour permettre la réplication par des tiers, a généré qqs incidents comiques (cf par ex . le calcul d’anomalie d’octobre 2008).

Quant à dire que « certaines séries soient moins bien corrigées », j’ai bien peur que votre affirmation ne relève que de la simple opinion.
La base GHCN est un FOUTOIR complet. Et la manière de l’utiliser par le GISS est encore pire. Vous en avez la preuve dans ce billet ci-dessus (que vous n’avez pas lu visiblement). Mais la démonstration la plus parlante, c’est l’exemple de la France même. Regardez la liste des stations du GISS pour notre beau pays. Consulter la courbe du Mont-Aigoual: les données ne démarrent que dans les années 50 et il y a un trou béant ces dernières décennies. Et c’est une station de réf. de MF ! Autre exemple, consultez les données ascii de température (lien « Download monthly data as text » en bas de chaque page de station). Vous ne trouverez pas une seule station française, PAS UNE qui dispose de température pour JFM 1991 ! Vous y croyez vous ? Eh ben le GISS l’a fait.
Et ce désastre, on l’a pour notre pays, inventeur du système métrique. Alors je vous laisse imaginer l’état des données pour la Mongolie intérieure, le Soudan (5x la taille de la France) ou la Papouasie.
Donc, non, le problème de la compilation température globale n’est pas que dans la « correction pas bien » des données. Il dépasse l’entendement scientifique et l’ignorer ne le fera pas disparaître.

Si vous voulez vous amuser : générez moi quelques séries “pseudo climatiques”, dans lesquelles vous insérez des ruptures, et je vous renvoie les séries corrigées.

D’accord, en voici une, pouvez-vous svp la « corriger » ? (série de 59 températures annuelles)

[1] 13.5 13.3 11.8 13.0 12.0
[6] 11.9 12.7 12.2 12.0 12.3
[11] 12.9 12.6 13.0 12.3 11.5
[16] 12.4 11.9 12.8 13.1 12.2
[21] 12.3 12.5 11.9 12.2 12.5
[26] 12.1 12.7 12.6 12.5 12.2
[31] 12.3 11.9 12.4 13.7 13.1
[36] 12.2 12.1 12.6 12.7 13.3
[41] 13.6 14.5 12.7 12.8 12.4
[46] 14.1 13.9 13.3 14.5 13.5
[51] 13.7 13.6 14.0 13.4 14.9
[56] 13.6 13.5 14.2 13.4

53.  Marot | 9/12/2009 @ 16:52 Répondre à ce commentaire

joletaxi (#49), Merci d’avoir mieux dit que je ne l’aurais fait mes remerciements à M. Mestre.

Un ajout qui va mieux en le disant.

Mes observations précédentes sur la station d’Uzein, ne mettent pas en cause son utilité en météorologie mais sa pertinence en tant que station « climatique ».

Ce que j’ai fait ici existe en vraie grandeur pour les É.-U. ici, où l’on constate que pour 1022 sur 1221 stations USHCN, 69% sont de classe 4 ou 5. Que dire de toutes les autres dans le monde ?

Comment prendre en compte de telles erreurs non systématiques sur les mesures brutes ?

Les ajustements par densité de population, par recalage sur une station rurale ne peuvent pas fonctionner car c’est l’environnement immédiat qui est en cause et non la région et une station rurale au bord d’une route ou proche d’un bâtiment perd sa qualité.

54.  chria | 9/12/2009 @ 16:58 Répondre à ce commentaire

sans série de comparaison ? Y’a un truc qui m’échappe.

55.  joletaxi | 9/12/2009 @ 17:03 Répondre à ce commentaire

@52 Marot
c’est pourquoi je pense, que dans une pareille usine à gaz,notre approche doit être différente.
Etablir par les moyens de la statistique une courbe pour un ensemble de données brutes aussi disparates,mais aussi nombreuse est peut-être une solution?
En imaginant que cela soit possible, vous éliminez du même coup toute polémique sur des cas particuliers.

56.  miniTAX | 9/12/2009 @ 17:13 Répondre à ce commentaire

chria (#53), à moi aussi ça m’échappe mais peut-être que j’ai mal compris.

57.  Bob Chidie | 9/12/2009 @ 18:00 Répondre à ce commentaire

Et, heu, quid des mesures satellite?

58.  antoniosan | 9/12/2009 @ 18:30 Répondre à ce commentaire

Les familiers de climateaudit.org et wattsupwiththat reconnaitront la contribution de mr Mestre pour ce qu’elle est. « Ne croyez pas vos yeux, la temperature que vous lisez n’est pas celle que vous devriez saisir. Croyez-nous, fermer les yeux, sentez comme il fait chaud… et maintenant sans les mains… ».

Quant a invoquer Chrichton pour vous justifier, c’est comme invoquer Gore pour vous dementir…

59.  chria | 9/12/2009 @ 19:17 Répondre à ce commentaire

miniTAX (#55),
Je reconnais dans ta série les températures depuis 1950 que tu as du bidouiller (enfin peut-être). Sa tendance est de +1,6. C’est beaucoup, mais il suffirait de la comparer/tester avec une série française de référence, et hop elle devrait rentrer dans les normes (1°C je pense).
Les techniques d’homogénéisation sont très intéressantes mais quand c’est fait à la chaîne sans connaissance du terrain, et puis qu’à la fin on nous sert une moyenne mondiale, on peut avoir des doutes sur sa représentativité. Il me semble de toute façon que le nerf de la guerre, ce sont les séries de référence. Sans elles, rien. Leurs influences sur la moyenne mondiale sont donc primordiales. Et forcément, que le poids de celles qui ont servi à homogénéiser le plus de séries secondaires est plus important. Pourtant, il semblerait qu’au final le réchauffement sur la période soit une réalité. Mais avec tout ce que l’on vient d’apprendre, cela me rend encore plus sceptique sur la représentativité de cette moyenne mondiale, qui avec les incertitudes ne constituent en soi pas du tout une preuve tangible que ce réchauffement n’est pas naturel.

60.  Ben | 9/12/2009 @ 19:34 Répondre à ce commentaire

chria (#58)
Il est en effet toujours un peu difficile pour les sceptiques de ne pas se laisser entraîner au-delà de ce qu’ils pensent. Comme le dit Willis Eschenbach, personne ne nie que la Terre s’est (un peu) réchauffée lors du dernier siècle. Trois points cruciaux sont :
– la stagnation observée au XXIè siècle ;
– l’ampleur réelle du réchauffement du XXè (sans doute surestimée, car très mal mesurée) ;
– et le point le plus crucial : l’origine de ce réchauffement (lequel, donc, fait peut-être désormais partie du passé).
Dans le feu de la discussion, il ne faut jamais oublier ces éléments qui, malgré la variété des opinions au sein du camp sceptique, constituent à mon sens une colonne vertébrale commune.

61.  Mestre | 9/12/2009 @ 19:40 Répondre à ce commentaire

Bonsoir,

Bon, je vais consacrer un peu de temps supplémentaire à votre blog. Mais avant tout, j’aimerais en savoir plus sur mes interlocuteurs. Je suis le seul ici à parler à visage découvert, et c’est agaçant. Donc, si vous pouvez me donner votre profession (voir votre petit nom – rêvons), ce serait plus agréable que le m’adresser à des pseudos.

1. Le lien qui est donné pour « mestre 2000 » est en fait un projet d’article – non encore paru, qui concerne encore d’autres techniques non-linéaires appliquables aux données quotidiennes.

2. Minitax : pour les données GISS, GHCN, j’ai déjà dit que je ne m’y intéressais pas. Pas de problème pour me prendre en défaut sur le sujet. Lorsque je travaille avec des données étrangères, c’est à partir des données brutes fournies par les services météos nationaux, et autant que possible les métadonnées qui vont avec.
Et bien entendu, nous travaillons sur la France avec notre base de données. Il m’est arivé une fois de contrôler la série GHCN de Lyon, après avoir été « interpellé » par un retraité passionné de météo, nous disant qu’on avait tout faux parce qu’on avait pas comme le GHCN. Après contrôle, les manques dans la série du GHCN (de mémoire, celle de l’observatoire) avaient été comblées avec les données d’une autre série (jardin botanique? toujours de mémoire, car c’était il y a 7 ou 8 ans). La réaction de cette sympathique personne vient confirmer l’adage : nul n’est prophète en son pays. smile

Après, j’interviens sur ce blog car j’ai été interpellé directement, et mis en cause sur le sujet de l’homogénéisation. Soyons clairs, vous pouvez raconter ce que vous voulez sur le GHCN, ce n’est pas mon problème, je n’utilise pas ces données, je ne les connais pas, je réponds uniquement sur les méthodes et l’utilisation que j’en fais.

Ensuite, si vous aviez lu un minimum de biblio sur le sujet,
vous sauriez que l’on ne travaille pas à partir d’une seule série. Dans ce cas, il est impossible de distinguer ce qui est artificiel de ce qui est climatique. On procède toujours par différences (sauf pour quelques méthodes que l’on ne recommande pas). Pour répondre à d’autres posts, çà marche très bien par comparaison de séries non homogènes, sauf dans le cas de ruptures simultanées sur tout le réseau, ce qui peut arriver. Dans ce cas, en l’absence de mesures en doubles, c’est… cuit.

Donc je vous suggère de créer plusieurs séries, mettons 5, bien corrélées, et d’ajouter des ruptures au hasard sur ces séries, en nombre et en amplitude.

3. pour antoniosan : désolé, vous ne m’avez pas opposé d’argument… Moi, oui.

Admettons. Pouvez-vous m’expliquer pourquoi il y a une chute aussi brusque des températures sur Pau en 1921? Et surtout, pourquoi on ne les observe pas sur les autres séries? C’est le climat qui explique çà?

Climat local? Ya quelqu’un qui a mis la clim? Et laissé la fenêtre ouverte? La clim n’est pas inventée à l’époque? Cà doit être autre chose alors.

Je vous ai fourni des histogrammes de corrections. je pense qu’ils sont suffisamment éloquents. Les corrections sont autant à la hausse qu’à la baisse.

4. Je prendrai un peu de temps supplémentaire pour vous fournir les corrections appliquées aux TX de Pau, ainsi qu’aux TN. Mais demain, car je n’ai pas ces données à la maison.

5. Pour la qualité des sites : très bonnes remarques (joeletaxi).

Effectivement, dans certains cas c’est pas terrible, mais on se heurte aux contraintes d’installation, etc…

Ce qui nous intéresse, c’est la cohérence TEMPORELLE des séries, car ce que l’on cherche, c’est la tendance à long terme.

Que la série soit décalée par exemple, de +1°C sur toute sa période, ce n’est pas génant, si l’on cherche à retrouver l’évolution temporelle, et c’est ce qui vous intéresse ici.

Bonne soirée,

Olivier Mestre

Cordialement à vous

62.  Bof | 9/12/2009 @ 19:44 Répondre à ce commentaire

Voilà un débat intéressant, merci à Mr Mestre de sa participation et de ses éclaircissements.

63.  Domi | 9/12/2009 @ 21:13 Répondre à ce commentaire

Bonjour Monsieur Mestre,

Je m’intéresse aux sujets liés au réchauffement climatique.

Je n’ai pas fait d’études scientifiques.

Vous affirmez qu’il n’y a pas de doutes concernant les températures des 100 dernières années et que ce sont les températures des 1000 dernières années qui sont en question.

Néanmoins, sans contester que le XXième siècle a été caractérisé par un réchauffement (peu de sceptiques le nient), l’allure générale de la courbe n’est pas indifférente concernant l’interprétation des causes du réchauffement climatique.

Il me semble par exemple (mais sur ce point je ne peux vous fournir de références précises), que les anciennes courbes produites, par exemple pour la période 1910 – 1975 montraient une forte hausse entre 1910 et le début des années 1940 et une baisse à peine moins forte que la hausse précédente jusqu’au début des années 1970. La hausse des années 1910 – 1940 était tout à fait comparable à celle que nous connaissons en tendance et en durée.

Toutefois dans les courbes les plus récentes, la hausse de la première moitié du siècle a presque diminué en intensité et la baisse du début des années 1940 à 1970 est maintenant plate.

Ces modifications, même si elles ne conduisent pas à douter de la tendance au réchauffement, présente dans les deux cas, ont de grandes incidences au moment de décider si le CO2 est responsable du réchauffement climatique. Dans le premier cas, il semble assez probable que la variabilité naturelle est forte, car même si l’on peut tenter d’attribuer la baisse aux aérosols, il est plus difficile d’attribuer à l’homme la hausse de la première partie du siècle. En cas de variabilité naturelle forte, en effet, il semble plus risqué d’attribuer automatiquement à l’homme la hausse des températures des trente dernières années. Allons même plus loin : on pourrait avoir tendance à voir dans l’évolution de la température mondiale des phases de hausse et de baisse d’un peu plus de 30 ans se succédant. En ce cas, la thèse d’une évolution naturelle dominerait celle du CO2 !

Néanmoins, avec la forme des dernières courbes publiées, l’hypothèse « CO2 » apparait bien plus plausible.

Donc des changements de tendance, même modestes dans les températures du dernier siècle peuvent modifier les conclusions !

Or, le fait que les courbes aient changé récemment ne prouve-t-il pas que les choses ne sont pas si assurées que ça ? Ce qui laisserait ouvert la voie à d’autres interprétations.

Sommes-nous réellement en mesure d’affirmer que l’allure des courbes les plus récemment fournies est plus plausible que celles qui étaient plus anciennes ? (voilà la question à laquelle vous pourriez répondre) ?

( pour être un peu plus précis, il y avait sur Sky fal un article sur les changements apportés aux courbes prises en compte par le GIEC où il était annoncé que le réchauffement avait augmenté dans le passé, mais je ne peux pas être plus précis car je ne retrouve plus l’article.)

Une dernière chose : que pensez-vous de la suggestion faite par Mr Winsgley à Monsieur Jones dans un e-mail où il semble lui proposer de corriger la température des océans des années 1940 (je ne peux vous donner le lien car il y a un problème pour accéder à l’e-mail en question depuis skyfal) et ce non pas pour des motifs scientifiques mais en raison des avantages que présenteraient cette modification ?

Ce qui me met mal à l’aise est que cela semble correspondre à une modification des températures qui a réellement été opérée par la suite.

64.  antoniosan | 9/12/2009 @ 21:22 Répondre à ce commentaire

Mr. Mestre,

3. pour antoniosan : désolé, vous ne m’avez pas opposé d’argument… Moi, oui.

Votre colonne n’infirme en rien le travail de Dr Eschenbach.

Admettons. Pouvez-vous m’expliquer pourquoi il y a une chute aussi brusque des températures sur Pau en 1921? Et surtout, pourquoi on ne les observe pas sur les autres séries? C’est le climat qui explique çà?

C’est une question de recherche bibliographique et historique avant tout. La un changement de lieu. Et alors? Surface Station aux USA a montre combien de ces changements affectent les courbes de NOAA, GISS etc…

Climat local? Ya quelqu’un qui a mis la clim? Et laissé la fenêtre ouverte? La clim n’est pas inventée à l’époque? Cà doit être autre chose alors.

C’est du meme niveau que la reference a Michael Chrichton…

Je vous ai fourni des histogrammes de corrections. je pense qu’ils sont suffisamment éloquents. Les corrections sont autant à la hausse qu’à la baisse.

Et alors? Vous essayez de noyer le poisson: comme les corrections sont aussi bien a la hausse qu’a la baisse, tout est cense etre « objectif »… c’est assez primaire ne croyez-vous pas?

Ce qui nous intéresse, c’est la cohérence TEMPORELLE des séries, car ce que l’on cherche, c’est la tendance à long terme.

Que la série soit décalée par exemple, de +1°C sur toute sa période, ce n’est pas génant, si l’on cherche à retrouver l’évolution temporelle, et c’est ce qui vous intéresse ici.

Je vous cite encore:

« Après avoir corrigé des séries francaises, espagnoles, portugaises, slovakes, albanaises, marocaines, chiliennes, indiennes (le mois dernier) etc… je puis vous affirmer que le signal est a peu près le même sur tout le globe, à deux exceptions près : sud du Chili, et grandes plaines aux usa (source sur ce dernier point : mon “homologue” de la NOAA), sur lesquelles les températures sont relativement stationnaires. »

Voila bien la base du probleme: la recherche d’une coherence supposee refleter LE signal climatique: la temperature moyenne du globe. Mais voila, c’est la diversite des phenomenes et leur relation physique, meteorologiques que vous gommez par vos artifices. En fait vous créez un signal qui peut etre entré dans les modeles et qui doit apporter la confirmation de la qualite du modele. Enfin, vous allez nous faire croire que la temperature evolue systematiquement de la meme maniere en presque tous points du globe? C’est une negation pure et simple de la realite meteorologique et par consequent de la realite climatique!

Voila pourquoi vous vous interessez a la « coherence » et non aux dissemblances qui sont l’empreinte des processus physiques a l’oeuvre.
Il est quand meme incroyable que lorsque des travaux independants re-examinent les donnees brutes -en prenant soin de controler les problemes de base tels que changement d »instrument ou de situation-, en Australie, En Nouvelle Zelande, aux Etats Unis, en Europe (Le Mouel et al. 2008), les resulats refletent au contraire la realite physique des phenomenes meteorologiques qui ont influences le climat de ces regions et sont systematiquement differents de ceux du GIEC.

Enfin la prise en compte d’autres effets tels que ceux decrits par les travaux de Pielke Sr et al. 2009 montrent le cote aleatoire de ce genre de reconstructions et le biais ainsi cree.

Mr Eric Steig fit la couverture de Nature en Janvier dernier… et pourtant son elevation de temperature sur le continent antarctique a ete prouvee etre un artefact des methodes statistiques employees. Mann et compagnie ont recu le meme dementi cinglant. Briffa et Yamal sont un autre exemple.

Bonne nuit!

65.  yvesdemars | 9/12/2009 @ 21:39 Répondre à ce commentaire

chria (#58),
à noter que sur les stations d’altitude (Mt Ventoux ou Puy de Dôme) on peut chercher le réchauffement.
En ce qui concerne la station de Bordeaux Mérignac, son environnement a été bouleversé depuis les années 60/70 par une urbanisation effrénée. Y a-t-il correction en conséquence (augmenter les années anciennes / baisser les récentes)?
M Mestre qu’on peut remercier pour sa participation n’est qu’un salarié de MF, à ce titre je peux parfaitement comprendre un devoir de réserve, eu égard à la politique éditoriale (engagée) de son employeur …

66.  Frédéric, admin skyfall | 9/12/2009 @ 22:08 Répondre à ce commentaire

!
S'il vous plaît à tous, restreignez-vous si possible aux discussions techniques sur l'homogéinisation et les problèmes de qualité de données en France avec Monsieur Mestre et ne débordez pas sur la crosse de hockey et autres considérations climato-sceptiques dont il ne souhaite visiblement pas discuter et c'est tout à son honneur.
Et à un débat sans antagonisme et sans animosité inutile qui n'en sera que plus intéressant. Merci.

67.  mica | 9/12/2009 @ 22:30 Répondre à ce commentaire

Mestre (#60),

« Bon, je vais consacrer un peu de temps supplémentaire à votre blog. Mais avant tout, j’aimerais en savoir plus sur mes interlocuteurs. Je suis le seul ici à parler à visage découvert, et c’est agaçant. Donc, si vous pouvez me donner votre profession (voir votre petit nom – rêvons), ce serait plus agréable que le m’adresser à des pseudos. »

Personnellement je me fout de savoir qui vous êtes et d’ailleurs je n’en ai pas la moindre idée, et vos diplomes n’ont pas spcécialement d’importance … seuls vos arguments m’intéressent, j’ose espérer que pour vous en tant que scientifique vous ne vous soucierez que des arguments…

68.  Araucan | 9/12/2009 @ 23:32 Répondre à ce commentaire

Mestre (#60),

Sur qui est qui et qui pense quoi, il a été ouvert une page spéciale sur le blog : vous aurez ainsi une idée de qui intervient ici. http://skyfal.free.fr/?p=437
Sinon, désolé ici, c’est la règle du pseudo et aussi la règle (on essaye mais on n’est pas toujours parfaits) de ce qui est dit et non de qui le dit.

Merci encore de votre intervention. Les statistiques sont un art difficile et contre intuitif, mais central dans la question qui nous passionne.

69.  antoniosan | 10/12/2009 @ 0:34 Répondre à ce commentaire

Si le petit Thomas 8 ans de l’affiche du forum meteo 2007 se presentait comme un refugie climatique potentiel avec l’assentiment gluant de tous ces gentils sponsors, un autre jeune garcon, Peter grade 6th, lui ne s’en laisse pas compter quand il s’agit des courbes de temperatures, toutes pareilles nous dit-on:

http://wattsupwiththat.com/200.....more-13925

Et l’article de Parker 2006 dans le « Journal of Climate » apparait vraiment amusant. Bien sur climateaudit.org lui avait reserve une critique de choix.

P.S.: Cher Frederic, ce n’etaient que quelques exemples de statistiques devoyees Don Climato… 😉

70.  xavdr | 10/12/2009 @ 3:13 Répondre à ce commentaire

@ Olivier MESTRE

Bonjour,

En guise de présentation, voici mon témoignage:
http://blog.turgot.org/index.p.....Driancourt

J’ai eu l’occasion de travailler dans plusieurs domaines sur pas mal de séries couplées à des métadonnées avec des « capteurs » (physiques ou commerciaux) déficients, dérivants, des événements extérieurs ponctuels, durables, avec des profils évolutifs etc.

Ce que j’en ai retiré comme expérience :

1- il est très difficile d’éviter que les pressions « politiques » (au sens de ce qui est attendu par le management) n’aient pas une forte influence sur le résultat : aucune méthode n’étant parfaite, il est très tentant de consentir à utiliser celle qui réduit les frictions, surtout lorsqu’on est en phase exploratoire. Plus une méthode est mature, moins les pressions politiques auront d’impact, mais moins les remises en questions radicales seront faciles à faire passer. En conséquence les attentes « politiques » (au sens managérial) « initiales » (au sens d’un projet fondateur OU de reingeniring) ont une influence déterminante ; en comparaison les attentes politiques en phase de perfectionnement n’ont d’influence que si la méthodologie mise au point en phase « initiale » est très laxiste ou arbitraire ou le management domine psychologiquement les opérateurs au point de leur imposer de bousculer les procédures normales.

2- Certaines personnes ayant une bonne culture statistique savent fort bien suggérer des méthodes discrètement biaisées. Ne pas tomber dans le piège fait partie du métier … ou pour certains ne fait pas partie de leurs exigence déontologique.

3- Avec des données naturellement bruitées où se mêlent de multiples phénomènes il est faisable mais risqué et approximatif de déceler et quantifier des ruptures. Si on dispose de séries supposées très fortement corrélées (capteurs géographiquement proches) alors on peut espérer obtenir une bonne fiabilité … mais on ne sera pas plus avancé lorsqu’il s’agira d’éliminer certains facteurs perturbants portant sur les capteurs de toutes une zone. Par exemple si une zone avec 3 thermomètres se trouve sous l’influence d’un nébulosité due à des aérosols produits par des cheminées industrielles situées à 2 km vous aurez le plus grand mal à corriger quoique ce soit surtout si la montée en puissance des émissions est progressive.

4- Il est très difficile de défaire les tendances mêlées de phénomènes perturbateurs avec le phénomène observé. Par exemple on peut facilement déceler et corriger les migrations vers les aéroports, mais difficilement déceler et corriger la lente montée des ilots de chaleur urbains autour desdits aéroports.

Voici deux séries à traiter pour x de 0 à 100 avec un pas 1 :

Y = sin(x/10) + if(x

71.  xavdr | 10/12/2009 @ 3:17 Répondre à ce commentaire

( suite de mon précédent message qui a été automatiquement tronqué vu sa longueur semble-t-il )

Voici deux séries à traiter pour x de 0 à 100 avec un pas 1 :

Y = sin(x/10) + if(x

72.  xavdr | 10/12/2009 @ 3:19 Répondre à ce commentaire

( hum ! apparement c’est le symbole « inférieur » qui passe mal… j’essaye une nouvelle fois )

Voici deux séries à traiter pour x de 0 à 100 avec un pas 1 :

Y = sin(x/10) + if(x inf 10 : 1 : x/100) + 0,01 random_uniforme(0 à 1)
Z = sin(x/10) + if(x inf 20 : 1 : x/100) + 0,01 random_uniforme(0 à 1)
T = sin(x/10) + if(x inf 30 : 1 : x/100) + 0,01 random_uniforme(0 à 1)

Ces séries simulent le déménagement de chaque thermomètre à un aéroport puis la lente remontée de l’ilot de chaleur urbain autour de l’aéroport, en quantité comparable à celui qu’ils avaient quitté en ville.

5- Les objectifs et les contraintes des traitements à échelle fine (météo) et à échelle épaisse (climat) ne sont pas les mêmes. Cela incite parfois à traiter les séries avec des processus distincts aboutissant à des résultats significativement dissemblables. L’un évitera les grosses erreurs à échelle fines ; l’autre évitera les biais ; les deux objectifs sont parfois inconciliables. En lisant la littérature climatologique on a parfois l’impression que ces concepts sont absents. Par exemple la correction des ruptures est ponctuellement correcte mais elle est peut-être biaisée car ignorante des lentes remontées de températures dues aux ilots de chaleur urbains.

Etant donné l’heure je n’ai pas pris le temps de lire votre document méthodologique. Je vous prie de bien vouloir m’en excuser. Je le lirai à tête reposéedans quelques heures.

73.  xavdr | 10/12/2009 @ 4:00 Répondre à ce commentaire

@ Minitax et al.

Concernant l’affreux couac du GHCM en Australie, j’ai une interprétation intuitive (à vérifier évidemment) :
1- le contrôle qualité du GHCN est déficient, par manque de moyen ou par biais
2- des métadonnées documentent les événements propres à chaque capteur
3- des procédures statistiques endogènes attribuent les sauts aux événements quand ceux-ci sont alignés, indépendamment de tout réalisme.

@ Tous une intéressante analyse de certains biais :
http://www.john-daly.com/graytemp/surftemp.htm
Dixit Vincent GRAY :
« Although most of these changes cause an increase in measured temperature, some changes, such as the removal to an airport site, would cause a fall in temperature. But this would be temporary, as the airport traffic increases, as found by Duchon (1986). »

74.  Blanc Cassis | 10/12/2009 @ 6:39 Répondre à ce commentaire

J’ai constaté, en tant que simple pékin, que depuis que Météo France, a mis en place le système d’alerte, les alertes étaient très souvent exagérées par rapport à ce que je vivais localement. Bien sur je n’ai jamais noté les différences constatées, mais depuis l’institution du principe de précaution et depuis l’histoire de la canicule, l’Etat et ses organismes ont tendance à se sur-protéger.
Quand j’étais étudiant, on nous bassinait, à juste titre, sur la qualité des données et sur leurs degrés d’incertitude.
Je suis donc assez stupéfait quand je vois la précision des prévisions du GIEC qui extrapole des données dont on ne connait pas la qualité scientifique.
Je ne sais pas si cela a été signalé, mais j’ai lu un excellent article à ce sujet :
http://bit.ly/5fl4Cy
Questions de Mme Soleil :
pourquoi que depuis que j’ai déplacé mon frigo qui était à côté de ma cuisinière à bois et que je l’ai mis dans la cave, il consomme moins de courant électrique ?

75.  Ben | 10/12/2009 @ 6:42 Répondre à ce commentaire

(xavdr (#72), ‘bien content que vous nous rappeliez ce que disait John Daly. Moi qui disais plus haut que les homogénéisations, pour être honnêtes, devaient aller aussi souvent vers le froid que vers le chaud… ‘aurais mieux fait d’tourner ma langue avant d’parler. Le rapport d’étape de SurfaceStations montre lui aussi que les corrections à appliquer devraient majoritairement aller vers le froid.)

76.  Blanc Cassis | 10/12/2009 @ 6:55 Répondre à ce commentaire

Souvenez vous des années 70, ou on annonçait la glaciation de la planète :
http://en.wikipedia.org/wiki/Global_cooling
En 70, ils fumaient des joints.
En 2010, se font ils des lignes ?

77.  Blanc Cassis | 10/12/2009 @ 7:02 Répondre à ce commentaire

Une interview très surprenante de la part d’un membre du Giec
http://bit.ly/6svwDz
« Les travaux des scientifiques sceptiques sont cités dans le rapport du GIEC. Nous nous sommes posé des questions, nous avons eu des doutes. Tout est dans le rapport du GIEC, il suffit de lire le chapitre 6 :
http://bit.ly/6niyOk

78.  Blanc Cassis | 10/12/2009 @ 7:18 Répondre à ce commentaire

SVP Pouvez vous l’aider :
http://bit.ly/4E7eRB

79.  rageous | 10/12/2009 @ 7:59 Répondre à ce commentaire

Blanc Cassis (#76),
Le chapitre 6 qu’elle a traduit pour les francophones n’est pas issus du rapport concocté à l’attention des décideurs, celui-ci « raccourci » par des non-scientifiques a écarté tout scepticisme, cette « anomalie » a été relevée par Vincent Courtillot il me semble.

80.  Marot | 10/12/2009 @ 8:15 Répondre à ce commentaire

Mestre (#60),

Merci pour ces réponses détaillées.

J’ai mis en lumière, grâce à vous, que la station d’enregistrement de Pau-Uzein est affectée d’un biais que l’OMM évalue de l’ordre de 2°C.

Avez-vous apporté aux enregistrements la correction correspondante ?

Je connais l’historique de l’aérogare mais pas celui des installations de MF.

81.  miniTAX | 10/12/2009 @ 8:25 Répondre à ce commentaire

Après, j’interviens sur ce blog car j’ai été interpellé directement, et mis en cause sur le sujet de l’homogénéisation. Soyons clairs, vous pouvez raconter ce que vous voulez sur le GHCN, ce n’est pas mon problème, je n’utilise pas ces données, je ne les connais pas, je réponds uniquement sur les méthodes et l’utilisation que j’en fais.

Mestre (#60),

Monsieur Mestre,
OK, pas de problème, je vous remercie de votre franchise. Mais si vous ne savez pas comment est gérée la base GHCN donc comment est faite la température mondiale, faut pas nous asséner que Crichton fait de la désinformation en parlant de réchauffement inventé, ou que le réchauffement français se retrouve « à peu près le même partout sur le globe » en citant juste quelques pays que vous avez étudiés, parce qu’on sait très bien que ce n’est pas vrai. L’hémisphère Sud s’est réchauffé environ moitié à 1/3 de moins que l’hémisphère Nord,
il n’y a pas de réchauffement à l’équateur, si tant est que le peu de stations de qualité qu’on y trouve représentent qq chose,
il n’y a quasiment pas de réchauffement sur le 20e siècle sur tout le territoire des USA 48 et non seulement dans ses plaines centrales, pays qui comme par hasard concentre plus de 70% de toutes les stations terrestres alors que ça fait à peine 3% de la surface de la terre,
il n’y a pas de réchauffement du Groenland et comme aux USA, les années les plus chaudes sont autour de 1930 (c’est simple, il y a en tout et pour tout 5 stations au Groenland),
Diego Garcia n’a aucune autre station proche à plus de 1000 km à la ronde et n’est même pas intégrée correctement dans la base du GISS,
l’homogéinisation de la Chine a été faite de manière frauduleuse par Wang & Jones qui ont « perdu » les méta-données (qui ont résisté à l’occupation japonaise, aux guerres civiles, à la révolution culturelle mais pas à nos climatologues modernes, cf Doug Keenan),
quasiment toutes les stations du Nord de l’Australie montrent un refroidissement si on remonte jusqu’aux années 1900, refroidissement qui par magie devient réchauffement après homogéinésation, etc, etc.
Bref, l’impression de certitude que vous donniez sur un réchauffement « à peu près le même partout sur le globe » est basée sur une simple opinion et est contredit par les faits.

Pour mes séries pseudo-climatiques corrélées à « corriger », j’en ai refait 4 corrélées (4×50 températures annuelles) que je soumets à la sagacité de votre algo, voir ci-après. D’avance merci.

P.S. Quant à mon nom, j’ai écrit à Frédéric l’admin et lui autorise, s’il le souhaite, à vous le communiquer. Pour ma profession : je suis astronaute et dompteur de lion à mes heures perdues, quand je ne m’occupe pas à trouver des petites bêtes dans les séries de Jones et de Hansen. Mais je vous en prie, continuez à m’appeler miniTAX.

1 12.72 12.42 15.65 10.62
2 12.18 11.83 14.28 10.24
3 11.99 12.18 15.01 10.42
4 12.28 12.02 15.18 10.30
5 12.91 12.91 15.47 11.20
6 12.57 12.52 15.35 10.72
7 12.98 12.72 15.74 10.96
8 12.31 11.87 15.17 10.10
9 11.48 11.01 14.28 9.41
10 12.43 11.67 15.18 10.15
11 11.92 11.37 14.49 9.79
12 12.83 12.55 15.39 10.76
13 13.12 12.42 15.68 10.80
14 12.20 12.14 14.88 10.08
15 12.33 12.31 14.79 10.38
16 12.47 12.23 15.07 10.16
17 11.94 11.62 14.72 9.96
18 12.20 11.57 14.47 9.92
19 12.47 11.87 14.92 10.28
20 12.09 11.97 14.58 9.82
21 12.74 12.75 15.21 10.47
22 12.56 12.35 14.98 10.50
23 12.47 12.13 14.75 10.13
24 12.16 11.96 14.56 9.97
25 12.31 12.10 14.89 10.17
26 11.93 11.93 14.47 9.90
27 12.40 12.50 14.78 10.26
28 13.70 13.21 15.87 11.34
29 13.10 12.87 15.70 11.03
30 12.17 12.21 14.58 10.35
31 12.11 11.72 14.69 9.94
32 12.62 11.92 15.31 10.22
33 12.72 12.08 15.07 9.80
34 13.28 13.26 15.43 10.72
35 13.61 13.70 15.91 11.83
36 14.48 14.48 16.20 12.14
37 12.69 12.87 15.05 10.54
38 12.79 12.76 14.83 10.77
39 12.44 12.51 14.62 10.12
40 14.12 14.15 16.18 11.57
41 13.89 14.11 15.95 11.64
42 13.26 13.32 15.27 10.71
43 14.49 14.72 16.24 12.50
44 13.53 13.54 15.67 11.10
45 13.65 13.81 15.63 11.33
46 13.63 13.81 15.66 11.20
47 14.03 14.02 16.24 11.39
48 13.39 13.48 15.53 11.04
49 14.91 14.64 16.28 12.33
50 13.55 13.55 15.63 11.01

82.  miniTAX | 10/12/2009 @ 8:46 Répondre à ce commentaire

Ben (#74), effectivement, bien vu !
C’est ce à quoi j’avais pensé en regardant la distribution des corrections d’O. Mestre http://img7.xooimage.com/files.....63b9cd.png
Donc la question est : avec autant de bulles de chaleur urbaines (la majorité des stations françaises pour les grandes villes sont dans des aéroports), il devrait y avoir bien bien plus de correction froide. Pourquoi on n’en trouve pas plus que les corrections chaudes ?

83.  Fabge02 | 10/12/2009 @ 9:14 Répondre à ce commentaire

A propos de l’anonymat :

Comme l’a dit l’un des posters, il permet de distinguer la parole de la personnalité de l’intervenant.
De plus, certains des posters (quel horrible mot) sont engagés dans des activités professionnelles où il n’est pas forcément bien vu d’être un sceptique encore que… bien souvent, lorsque vous faites votre coming out dans un cercle restreint, c’est comme si vous apportiez un souffle d’air vis-à-vis de la pensée unique. Mieux vaut être un type sympa dans ces cas-là
Enfin, c’est un petit jeu de se demander qui est qui et de se retrouver, dans certaines occasions officielles, face à face avec l’un des intervenants réguliers de Skyfal et de se reconnaître, un peu comme les couples qui croient, chacun de leur côté, avoir trouvé l’âme soeur sur Internet et de se rendre compte qu’ils sont mariés avec depuis dix ans.

A propos de considérations peu amènes sur Météo-France un peu plus en amont de ce fil :
J’ai l’occasion de rencontrer des gens de Météo-France assez régulièrement, cet organisme est un nid de sceptiques, non sur le réchauffement, mais sur sa quantification, sur la notion de dérèglement. Ce sont en général les « vieux météos » de terrain qui sont les plus sceptiques, les jeunes (mais oui, il y en a) sont plus modelés par les modèles.

84.  chria | 10/12/2009 @ 10:21 Répondre à ce commentaire

miniTAX (#81),
Si on regarde bien il y a un peu plus de corrections froides. Mais n’oublions pas que ces corrections concernent d’après ce que j’ai vu plutôt la première moitié du siècle. C’est pourquoi il nous faudrait une graphe qui nous montrent quand sont faites chaque correction (un nuage).
Enfin quelqu’un sait si l’effet de chaleur urbaine est pris en compte dans les corrections ? j’en doute. C’est la série de référence qui doit servir de modèle.

85.  Marot | 10/12/2009 @ 11:32 Répondre à ce commentaire

miniTAX (#81), chria (#83),

D’après ce que j’inventorie, il y a quatre types de corrections possibles.

1) Les corrections dues à un changement d’implantation mesuré en km. Exemple celui mentionné pour Pau-Uzein dans les années 20.

2) Les changements d’implantation locale, déplacement de l’ordre de 100 m, qui modifie l’environnement immédiat. La station est déplacée.

3) Les changements d’environnement matériel, construction de route, de cheminements, de bâtiments.

4) Les changements lents du genre dérive, accroissement de la circulation, du trafic d’aéroport, îlot urbain.

Les 2) et 3) me paraissent avoir des incidences comparables.

Pour l’instant seul le 1) me paraît pris en compte par les techniques de M. Mestre, peut-être 2)-3) si la modification est statistiquement décelable. Si elle ne l’est pas assez, on est ramené au cas 4).

Ils peuvent donner des corrections en + et en -. Mais pour 2)-3) il y a plus d’ajouts que de retraits d’ouvrages donc plus de corrections – à prévoir.

Il faut noter que selon l’OMM toute modification de l’état idéal en végétation, éloignement de sources chaudes, etc. entraine une erreur en +.

86.  xavdr | 10/12/2009 @ 13:01 Répondre à ce commentaire

@ Olivier MESTRE, Minitax etc.

J’ai quelques questions de plus haut niveau que celles pos(t)ées cette nuit.

– Quelles sont à votre connaissance les [bases de] données thermométriques produites par les administrations françaises susceptibles d’être utilisées par les décideurs politiques dans l’affaire du réchauffement climatique ?

– Serait-il possible d’avoir concernant ces données publication sur internet des données brutes (avec données géographiquement proches si celles-ci sont utilisées pour les traitements statistiques), données ajustées résultantes, métadonnées (coordonnées GPS, événements liés au capteur ou à son environnement, etc.), documents méthologiques et code des programmes logiciels utilisés pour l’ajustement, de façon à en permettre l’audit bénévole ? Je crois comprendre qu’une partie de ces informations est déjà publiée, mais seulement une partie. Que reste-t-il à publier ? Auprès de qui faudrait-il effectuer les démarches pour en demander publication ?

87.  Volauvent | 10/12/2009 @ 13:13 Répondre à ce commentaire

Marot (#84),

Il y a aussi les changements d’instrumentation elle même: type de senseur, peinture de l’abri, changement d’opérateur losque la mesure était manuelle…

88.  Marot | 10/12/2009 @ 13:21 Répondre à ce commentaire

Volauvent (#86),

Vous avez raison.
Peut-être pourrait-on les rattacher à 2).
Sinon il faut faire une 5e catégorie.

89.  xavdr | 10/12/2009 @ 13:44 Répondre à ce commentaire

Puisque le cas d’école est l’aéroport de Pau, voici deux images aériennes. Problème : je ne parviens pas à localiser le batiment et le parking près duquels se trouve le thermomètre à en croire la photé (datant des années 1980 à en croire les voitures) posté yvesdemars selon un PDF d’Olivier Mestre.

Agrandir le plan

Agrandir le plan

90.  MESTRE | 10/12/2009 @ 14:26 Répondre à ce commentaire

Alors, quelques minutes à vous consacrer… Désolé, je ne réponds pas à tous en détail.
Je prends ceci sur ma pause repas.

C’est un blog, je me suis exprimé rapidement : lorsque je dis c’est un signal global, c’est la forme du signal, pas l’amplitude. Evidement, elle diffère suivant les latitudes, il y a des différences continent/océan, etc.. Et je vous ai dit qu’on pouvait avoir des trous : Patagonie, et centre des USA. De la même manière sur la France, il y a des gradients, le réchauffement n’est pas uniforme, et il n’est pas synchrone sur les régions. Mais je ne vais pas passer mon temps à faire des tableaux de tendances…

Le profil classique, c’est une augmentation régulière depuis 1880 jusqu’aux années 50, une
légère baisse jusque vers la fin des années 70, et une augmentation forte à partir de la fin des années 80. Raisons de cette évolution : je ne suis pas physicien, j’en sais rien.

Ensuite, réponse à Xavier Driancourt.

Tssst, vous vous gardez bien de m’incriminer de quoi que ce soit… mais…
en quoi serais-je si différent de ce qu’il a constaté si souvent? Comment ne serais-je pas tenter de biaiser subtilement mes données, soumis à une forte pression politique? assez pernicieux comme raisonnement, non? Je vais quand même y répondre…

1- il est très difficile d’éviter que les pressions “politiques” (au sens de ce qui est attendu par le management) n’aient pas une forte influence sur le résultat (etc…).

Je suis soumis a de terribles pressions politiques, effectivement. Au moment où je vous écris, j’ai d’ailleurs le canon d’un revolver sur la nuque. Plus sérieusement je suis enseignant-chercheur à l’Ecole Nationale de la Météorologie, spécialisé en statistiques (et le seul dans ce domaine). Le chef de mon Département (Enseignements Généraux en Météorologie) est professeur de Météorologie Dynamique (et par ailleurs représentant CGT au CA de Météo-France): en gros il fait de la Mécaflu et du syndicalisme, Il se contrefout de ce que je peux faire dans mon coin. A ce titre, j’ai des conditions de travail enviables.
Je ne fais pas partie d’équipe de recherche du CNRM (ce qui, de toute manière, ne changerait rien : il n’y a pas de pressions politiques). Je développe des outils statistiques. Les financements que je demande au CNRM concernent … la prévision de production d’énergie éolienne (autre de mes occupations). Vous aurez du mal à trouver mon petit nom dans les publications du GIEC. Ou alors prévenez moi, que j’aille chercher mon prix Nobel smile . Je dois avoir 2 publis sur les tendances observées (France -GRL- et… Luxembourg, -TAC- en co-auteur).

Maintenant que dire des scientifiques directement financés par l’industrie pétrolière?

« 2- Certaines personnes ayant une bonne culture statistique savent fort bien suggérer des méthodes discrètement biaisées. Ne pas tomber dans le piège fait partie du métier … ou pour certains ne fait pas partie de leurs exigence déontologique. »

C’est sûr. Notre publi de référence sur le sujet a été écrite avec Henri Caussinus, Président de la Société Française de Statistique – autant dire un maître dans l’art de biaiser subtilement les données.

Caussinus & Mestre, 2004, Detection and correction of artificial shifts in climate
series. Appl. Statist. 53, Part 3, pp. 405–425 – je la fournirai à toute personne me contactant par mail. Vous noterez que c’est une revue de statistique, pas de climat.

Justement, sur les personnes qui s’arrangent pour biaiser – mais pas subtilement, pour le coup – les données, veuillez consulter cette page.

http://sciences.blogs.liberati.....clima.html

Je comprends que ce genre de pratique jette la suspicion sur la communauté scientifique.
Tout comme certains échanges de mails de la CRU sont dérangeants.

3. pt n°3 : la question ne se pose pas, on n’a pas assez de crédits pour mettre 3 capteurs
dans un rayon de 2km, sauf pour des compagnes de mesures ponctuelles, d’étude de l’effet d’urbanisation.

Ceci étant dit, le problème de l’effet d’urbanisation peut se révéler difficile à traiter.
Il y a plusieurs posts sur le sujet, et c’est compréhensible.

Attention aux idées reçues. Parler de « bulles de chaleur » pour les aéroports c’est faux… La plupart sont situés dans la « pampa ». Je me souviens avoir été à Nancy en avion… Ceci étant dit, le problème de l’urbanisation commence sérieusement à se poser, comme à Toulouse-Blagnac par exemple.

La méthode « à l’ancienne » consiste à séparer postes ruraux et urbains, homogénéiser à part, et comparer les résultats. J’ai fait çà sur Toulouse (c’est un chapitre de ma thèse), et… on trouve pareil. Le fait est que s’il y a une tendance « parasite », elle va se trouver compensée mécaniquement lors de la correction des ruptures : lors de la correction des sauts, on va « surcompenser » les corrections en les biaisant (subtilement, bien sûr).

Ceci étant dit, c’est pas satisfaisant intellectuellement. Par rapport au modèle standard, j’ai développé un modèle permettant de prendre en compte des ruptures ET les tendances parasites. Cela a été présenté cette année à l’EGU, sur les séries de Vienne en Autriche
(avec les scientifiques du ZAMG qui m’ont fourni données et métadonnées).
On compte refaire çà sur Lyon et Paris, l’an prochain.

meetingorganizer.copernicus.org/EGU2009/EGU2009-7198.pdf

13 séries, 3 parfaitement rurales, 2 périurbaines, 8 « centrales ».
On impose aux séries rurales de ne pas avoir de tendance urbaine.
Pour les autres, on estime les tendances.

Encore une fois, pour miniTax, pour la méthode que j’utilise, il n’y
a pas de série considérée comme référence homogène.

Sur cette étude, contrairement à une idée répandue, les séries centrales ne montrent
pas de tendance urbaine significative. Pour une région logique, si vous y réfléchissez: déjà urbanisées au début des mesures, leur environnement n’a pas changé. En revanche, pour les séries péri-urbaines, on a effectivement une tendance parasite. Après correction (tendance urbaine et ruptures), la tendance moyenne sur cette période est de 0.2°C par décade, valeur élevée qui s’explique par la dernière phase du réchauffement (ne pas extrapoler sur le siècle). Il a fallu corriger un effet d’urbanisation d’environ 0.08°C par décade – sur les séries périurbaines.

Ce que j’essaie de faire, c’est justement de mieux quantifier les incertitudes qui résultent de l’homogénéisation. Je vous suggère d’aller faire un tour sur la page de Victor Venema :

http://www.meteo.uni-bonn.de/m.....enisation/

Gràce au support de notre projet Européen, Victor a généré des séries  » surrogate  »
de températures et précipitations. Ces séries – non perturbées au départ – sont
générées pour avoir les mêmes caractéristiques (spectrales, corrélations croisées, etc)
que des séries réelles.

Pourquoi Victor?
1ere raison : c’est une bête en traitement du signal.
2eme raison : il fait… de la physique des nuages – il est donc neutre vis à vis des méthodes.

Il s’est amusé comme un petit fou à générer 40 réseaux de mesures,
dans lesquels il a glissé tout un tas de ruptures et de tendances parasites.
Sur la page, vous avez le cahier des charges.

Il est le seul à connaître la vérité, et nous sommes une quarantaine à tester (presque)
toutes les méthodes d’homogénéisation existantes sur ces séries.

Il est le seul à avoir les séries non perturbées, et il est chargé, lorsque toutes les
contributions seront finies (la semaine prochaine normalement) de dépouiller les
résultats, et de comparer séries corrigées et séries non-perturbées. Réponse en janvier.

Ce sujet m’intéresse, les méthodes peuvent toujours être améliorées, pour prendre
en compte des artefacts plus compliqués. Par exemple, sur l’effet d’urbanisation, il
est actuellement modélisé comme une fonction linéaire, ce qui peut être réducteur.
J’ai prévu l’an prochain de faire des modèles semi-paramétriques (désolé pour le
jargon) oû l’on utilise des fonctions splines, plus flexibles, donc.

Maintenant, croyez-vous que si j’étais un allumé du changement climatique,
en train de truquer (subtilement, bien sûr) mes résultats, j’organiserais tout ce bastingue?

Pour revenir à la série de Pau, qui est notre point de départ :

Corrections sur les TN (températures minimales)

AN 1879->1921 0.83
AN 1922->1973 0.54
AN 1974->1985 0.07
AN 1986->1991 0.21

Corrections sur les TX (températures maximales)

AN 1879->1895 -1.84
AN 1896->1911 -1.45
AN 1912->1921 -1.70
AN 1922->1932 -0.29
AN 1933->1934 0.38
AN 1986->1991 0.31

Quelques remarques supplémentaires, sur les questions qui vont se poser : les ruptures ne sont pas toujours les mêmes sur TN et TX : il faut bien comprendre que ce ne sont pas les mêmes paramètres. L’un est observé en fin de nuit, l’autre plutôt en début d’après midi, donc les perturbations dues au rayonnement ne sont pas prises en compte sur les TN par exemple. Les changements peuvent très bien impacter les TX mais pas les TN et inversement.

Il y a deux ruptures très rapprochées (1932-1934 années sur les TX). Raison: on ne le saura jamais. J’aurais peut-être mieux fait de les mettre à manque et de reconstituer. Notez que toutes les corrections sur TN sont positives.

Pour conclure sur ce post :

1. Lorsqu’on fait de l’homogénéisation, on enlève les principaux biais – on ne prétend pas
corriger parfaitement la série. De plus, on utilise des méthodes statistiques.
La correction est donc entachée d’une incertitude. Rien à voir, ceci étant dit, par rapport aux incertitudes sur les proxies.

2. La communauté essaie d’améliorer les méthodes, justement pour réduire ces incertitudes. La principale incertitude repose sur la précision de la détection des sauts. Si les ruptures sont bien détectées, la correction est facile. La prise en compte de l’effet d’urbanisation peut se révéler importante dans certains cas. Mais ce n’est pas l’effet d’urbanisation qui explique le réchauffement observé.

3. Les incertitudes sont petites devant l’amplitude du changement que l’on observe depuis le début de l’ère industrielle. Ce changement est avéré. Le débat actuel porte sur les proxies et leur reconstitution de la variabilité sur les derniers 1000 ans.

4. La modélisation du changement climatique conduit à retenir l’augmentation des gaz à effet de serre comme cause principale du changement. C’est ce que je pense également – sans être spécialiste du sujet. C’est un consensus très large dans la communauté scientifique. D’autres vous expliqueront que c’est le champ géomagnétique terrestre. Personnellement, je suis moins convaincu par le mécanisme. Et comme précisé plus haut, les honorables membres de cet institut ne sont pas à l’abri d’une erreur.

J’ai passé finalement plus de temps que prévu à vous répondre. En ce qui me concerne, je pense avoir fait le tour de la question. J’ai essayé de dissiper quelques malentendus. Il est normal que des citoyens s’interrogent sur des questions aussi importantes. Je jetterai un oeil sur votre forum de temps en temps. Si certains mettent en cause malgré ce que j’ai écrit mon honnêteté intellectuelle, grand bien leur fasse, je ne vais pas me rouler par terre en les suppliant de me croire. Il y a toujours un pourcentage incompressible de sceptiques.

Pour finir : dans 30 ans, vous saurez si les prévisions sur le changement climatique étaient bonnes ou non. Patience, donc.

Cordialement à vous,

Olivier Mestre

P.S. Il y a blogs – et blogs…. Tout n’est pas bon à prendre sur internet. Et rien ne remplace une bonne biblio.

Cf quelques exemples ci-après. Je suis sûr qu’il y en a qui vont faire des cauchemars cette nuit.

http://www.mondialisation.ca/i.....8;aid=9181
http://www.lepouvoirmondial.co.....limat.html
http://www.bariumblues.com/

91.  Volauvent | 10/12/2009 @ 15:31 Répondre à ce commentaire

MESTRE (#89),

Merci d’avoir complété votre exposé. Il me laisse dans une situation contradictoire. D’un coté, on voit bien que nos discussions de non spécialistes se perdent parfois en conjectures qu’un spécialiste peut détruire en quelques mots. D’un autre coté, on se demande si votre recherche ne vous enferme pas dans un système un peu fermé dangereux à terme. Je suis ingénieur ayant fait de la maintenance et de la production, donc fatalement très pragmatique. Ici aussi les stats sont primordiales. Mais une série pourrie sera toujours une série pourrie, c’est un peu trivial je m’en excuse. Et donc je considère comme un non indicateur toute série de températures sur une longue période, même si je suis convaincu que nous sommes dans une phase de réchauffement. Ces courbes ne peuvent pas, pour moi , être une base quantitative permettant de vérifier un modèle. Elles indiquent vaguement des tendances.
Enfin, permettez moi de vous dire que le sérieux de votre intervention et votre démonstration d’impartialité sont gravement perturbés par votre dernière phrase qui renvoie à des sites complotistes, sous entendant par là que la critique sur internet ne peut être que le fait d’individus pas clairs.( Sauf si, comme je l’espère, il faut le prendre au second degré.)

92.  MESTRE | 10/12/2009 @ 16:00 Répondre à ce commentaire

Bonjour Volauvent,

C’était bien entendu du second degré smile.

Je n’aurais pas passé plus d’une heure à poster une
réponse sur un site complotiste – ce qui ne veut évidement
pas dire que je cautionne tout ce qui se trouve sur ce blog.

Je comprends vos réserves. Pour la qualité des séries :
encore une fois, l’exemple de Pau est choisi car il est
particulièrement caricatural. Après correction, on reteste
les séries, pour voir s’il reste des problèmes, et au final
on corrige relativement bien les séries.

Et bien entendu, je ne rentre pas dans tous les détails,
mais lorsqu’une série s’avère trop problématique… on
la jette. Mais je préfère nettement 2 ruptures
franches que 7 ou huit ruptures mal identifiées.

Cordialement,

Olivier Mestre

93.  xavdr | 10/12/2009 @ 16:02 Répondre à ce commentaire

Olivier MESTRE, je lis dans votre réponse :

– d’une part des éléments techniques que je lirai avec attention ce soir et pour lesquels je vous remercie,

– d’autre part des éléments qui à la demande de l’administrateur de Skyfall n’ont pas leur place dans le présent échange qui porte sur les données thermométriques.
Vous citez un article d’une partialité hilarante (made in gang du Climategate) publié du coté de Libération dont la rubrique climatologie n’est plus très crédible s’agissant de la partialité ahurissante de Sylvestre HUET (Climategate, etc.), vous semblez ne pas renier la page du CNRS qui porte votre nom et la présence scandaleuse d’un hockey stick (MBH99~=MBH99), vous affirmez que le consensus est très large dans la communauté scientifique ce qui est fallacieux (les spécialistes remettent souvent en question leur morceau du puzzle sans prétendre remettre en question le schéma d’ensemble, les généralistes médiatisés sont souvent des alarmistes budgétisés mais les autres comportent pas mal de sceptiques, les sondages formels ou informels menés chez les géologues, les météorologues, les statisticiens, etc. aux USA, ou à l’international, montrent que le réchauffisme est en chute libre et parfois minoritaire. Vous citez le lobby pétrolier mais taisez le fait que le contributeur français le plus présent au GIEC est JOUZEL travaille pour le lobby du nucléaire au CEA qui, peu de gens le savent, est un nid de militants écologistes depuis les années 1970. Cela ne me dérange pas de dialoguer avec vous sur ces sujets, mais par politesse pour Skyfal, faisons le en commentaire d’un autre article ou alors dans un autre forum (essayez par exemple celui de Liberaux.org). En outre si vous débattez de façon aussi partisanne sur des domaines connexes à votre foncion professionelle cela entâchera de fait votre neutralité et cela ne me semble pas une bonne chose.

Pourriez-vous répondre à la question que j’ai posé sur les institutions et personnes à contacter pour obtenir publication sur internet des données brutes, métadonnées, traitements, données tgraitées, etc. des données thermométriques produites par météo-france et utilisées directement ou indirectement (alimentaion de modèles climatiques « prévisionnels ») par les « responsables » politiques ?

94.  Marot | 10/12/2009 @ 16:55 Répondre à ce commentaire

Marot (#84), MESTRE (#89),
J’espérai avoir quelque ouverture sur les éventuelles corrections des biais 2), 3) et 4) que j’ai cités dans le post en référence.

Sans réponse, je conclus qu’ils ne relèvent pas de l’activité de M. Mestre.

Attendons la venue d’un autre spécialiste pour nous en dire plus.

Ceci ne retire rien à mon Merci pour vos réponses sur les autres sujets.

95.  chria | 10/12/2009 @ 17:12 Répondre à ce commentaire

xavdr (#92),
Je crains que cela est impossible à avoir. Le travail que cela nécessiterait dépasse le cadre des attributions des employés de MF. Il faudrait les payer mais en plus ils ont sûrement d’autres missions.
Je doute qu’à part M. Mestre et encore quelqu’un ait toutes ces données dans un dossier de son ordinateur.
Vous voulez refaire le boulot de Courtillot ou bien ?

MESTRE (#89),
Si on devait tout cautionner pour s’exprimer, on ne le fera pas souvent.

Sinon, si j’ai bien compris, vous n’utilisez pas de série de référence. Ainsi chaque biais doit avoir sa correction standard.
Ex, changement de capteur X pour Y = ajustement de tant.
Etc…

Quand je regarde la série Tx de Pau, à vue de nez les abris devaient chauffer au début donc on a diminué les Tx.
La période 1986/1991 étant primordiale, qu’est-ce qui a entraîné un réhaussement des Tx ?

Quels facteurs entraînent une minimisation des Tn ?

j’écris pas cela pour chercher la petite bête mais c’est juste par curiosité.

96.  chria | 10/12/2009 @ 17:13 Répondre à ce commentaire

Marot (#93),
effectivement c’est aussi ce qui m’intéresse

97.  MESTRE | 10/12/2009 @ 17:42 Répondre à ce commentaire

Bonjour,

Demandez un accès à la climathèque à Gilbert Gayraud (gilbert.gayraud@meteo.fr).

Attention, l’accès à la climathèque est octroyé à des fins de recherche uniquement. Elle n’est pas accessibles au grand public – ce n’est pas moi qui fait les règles commerciales de Météo-France, et je le déplore. Je suppose que cette dernière phrase va faire déverser un flot de bile.

Si vous essuyez un refus, ce qui est fort possible pour un particulier, je suis tout à fait disposé à vous rencontrer et à vous montrer les données, ainsi qu’à vous faire manipuler mes programmes.

« d’autre part des éléments qui à la demande de l’administrateur de Skyfall n’ont pas leur place dans le présent échange qui porte sur les données thermométriques »

1. Je suppose que ces mises en causes dont vous êtes l’auteur font partie des éléments acceptables par skyfal sur les « données thermométriques ». Je ne résiste pas au plaisir de vous reciter.

« il est très difficile d’éviter que les pressions “politiques” (au sens de ce qui est attendu par le management) n’aient pas une forte influence sur le résultat – Certaines personnes ayant une bonne culture statistique savent fort bien suggérer des méthodes discrètement biaisées. Ne pas tomber dans le piège fait partie du métier … ou pour certains ne fait pas partie de leurs exigence déontologique »

On ne s’en lasse pas smile. Mille excuses, mais c’est vous qui êtes venus me chercher, et je ne vois pas à quel moment j’ai dévié des données thermométriques.

Il m’arrive de participer à la grand messe de l’EGU, grand rendez-vous des géophysiciens européens, qui doit rassembler qque chose comme 8000 scientifiques, et je n’ai pas constaté une lame de fond emportant les certitudes des personnes qui pensent à la réalité du changement climatique. J’ai du louper les sessions des climate skeptics.

Mais je suis sûr que les nombreux géologues américains que vous avez personnellement rencontrés vous auront affirmé le contraire.

« En outre si vous débattez de façon aussi partisane sur des domaines connexes à votre foncion professionelle cela entâchera de fait votre neutralité et cela ne me semble pas une bonne chose. »

Bon, vu l’ambiance, et que j’en ai un peu marre d’être pris à partie, je me casse de votre forum. J’espère avoir apporté des éléments de réflexion à certains d’entre-vous.

Je vous laisse le dernier mot, j’ai préféré fuir le débat, je repars la queue entre les jambes, etc… (barrez la mention inutile).

Cordialement,

Olivier Mestre

98.  Marot | 10/12/2009 @ 18:10 Répondre à ce commentaire

MESTRE (#96),
Je regrette votre départ et encore plus les conditions que vous avez perçues.

99.  Curieux | 10/12/2009 @ 18:35 Répondre à ce commentaire

MESTRE (#96),

Votre réaction est assez curieuse.

Vous apparaissez plutôt chatouilleux parce que quelque personne vous ont – légèrement – pris à parties alors que vous n’êtes pas obligé d’en tenir en compte. N’oubliez pas que vous êtes sur un… blog, et celui-ci est particulièrement retenu, allez voir infoclimat.

Et vous êtes bien peu disert sur vos techniques statistiques.
Nous retrouvons là cette belle et noble pudeur de nos « sachants » français quand il s’agit de transférer leur savoir.

100.  chria | 10/12/2009 @ 18:37 Répondre à ce commentaire

Oui quel dommage. Beaucoup de questions restent sans réponse. M. Mestre a pris la mouche.

Sorry, the comment form is closed at this time.