Que les vraies températures lèvent le doigt !


par Benoît Rittaud.

Après l’IPSL, voici qu’un autre site laisse en accès libre depuis des mois des données de températures estampillées Météo France (données que Météo France m’a refusées) : celui du Ministère de l’écologie, comme l’a repéré Araucan (bravo à lui). Au vu des divergences entre les données de MF que j’ai reconstituées à partir du graphique de son Bilan climatique 2011 et celles du fichier de l’IPSL (y compris pour les années les plus récentes), il était clair qu’une petite vérification s’imposait sur ce nouveau fichier. Et là encore, il y a des surprises…

Le fichier du ministère donne lui aussi des températures par rapport à une température de référence calculée comme une moyenne des indices annuelles sur une période de 30 ans. Comme les données vont jusqu’en 2012, on pouvait se demander si la période en question serait 1971-2000 comme dans le graphique du Bilan 2011, ou bien 1981-2010 comme pour les anomalies 2011-2013 que m’avait communiquées MF. La réponse est : ni l’une ni l’autre, la période de référence est cette fois 1961-1990. Décidément, il y en a vraiment chez MF qui aiment se compliquer la vie.

À tout seigneur tout honneur : le ministère dispose d’une donnée dont l’IPSL ne dispose pas et que MF ne signale pas non plus dans le graphique de son Bilan 2011 : l’année 1900. Celle-ci est plutôt chaude pour l’époque : 12,1°C en valeur absolue selon le fichier du ministère. Cela prouve au moins que MF sait que le xxe siècle commence en 1901 et non en 1900, ce qui tombe plutôt bien pour le graphique du Bilan 2011 (si celui-ci avait commencé par une année moins froide que les autres, l’effet visuel aurait peut-être suggéré des années plus chaudes avant 1900). En revanche, pourquoi le Bilan 2011 a-t-il choisi de commencer en 1901 et non pas à la plus ancienne année pour laquelle une température moyenne est calculée ? Encore un mystère signé MF.

Comment se comparent les données du ministère avec celles du graphique (reconstitué) de MF et celle de l’IPSL ? Eh bien… pas bien du tout. Là encore, il y a des écarts considérables (avec un pic en 2012 si impressionnant que, pour éviter une crosse de hockey écrasant tout le reste, il vaut mieux ne pas le représenter sur le graphique).

EcMFMinistere

EcIPSLMinistere

Précisons que la valeur absolue des écarts de température n’ont pas d’importance ici : ce qui est signifiant est le fait que les courbes sont loin d’être des lignes horizontales et que les oscillations ne restent pas, comme il se devrait, à l’intérieur d’une bande horizontale de 0,1°C de hauteur.

Nous voilà donc à présent avec trois fichiers différents de température, les trois issus de Météo France, et sans qu’aucun accord n’existe entre eux. La question est donc : qui a modifié quoi, et pour quelle raison ? À suivre…


35 réponses à “Que les vraies températures lèvent le doigt !”

  1. C’est pour justifier les budgets des chercheurs (autorisés) ?

  2. Le but de tout cela n’est-il pas que rien ne soit vérifiable?
    Comment penser que MF, auteur présumé des falsifications, va avouer avoir manipulé les températures sans justifications crédibles?

    Il me semble qu’il faut faire les mêmes travaux que ceux réalisés en Australie et en NZ en étant attentif à avoir des températures brutes qui correspondent réellement à la réalité passée

  3. comme l’a souligné Chria, les modèles n’ont pas de valeur prédictive.

    http://sciences.blogs.liberati…..-giec.html

    La boucle est bouclée , je ne sais pas qui leur a insufflé ceci , mais alors les 6°C de plus en 2100 c’est du doigt mouillé, et les 98% de certitude du vent

  4. Que voila une démonstration supplémentaire, éclatante, de l’absence totale de signification de ces courbes de températures.

    Comme le fait remarquer Ben, la différence des deux courbes devrait tenir dans une petite bande de un dixième de °C puisque la précision revendiquée est de l’ordre de cinq centièmes.
    Ce n’est pas le cas, et de loin !

    Cela signifie
    – que ces moyennes n’ont pas la précision et la représentativité qu’elles sont sensées avoir
    – qu’elles ne représentent que du bruit statistique.
    – que les hausses ou les baisses que l’on « voit » avec forces droites de régression ne sont que le jeu de l’imagination et de la volonté de certains ; à partir d’un paquet de données dispersé aléatoirement, on trouve ce que l’on veut. En ce moment, c’est une courbe qui monte, c’est une mode, une obligation politique, une foi.

    Sans être un spécialiste en stats’, on voit bien qu’il n’est pas difficile de monter une moyenne.
    Si vous avez 18 jours d’une année avec 1 °C en plus cela fait statistiquement 0.05 °C de plus sur l’année. Une « erreur » de 1°C, c’est peanuts compte tenu de la précision des thermomètres.
    Comme les terrrrrifiantes augmentations sont de l’ordre du dixième de degré par décennies justement, il n’y a rien de plus simple que d’effectuer un « recalibrage » des données au dixième et en choisissant des « vieilles » séries plus froides et en écartant quelques unes plus chaudes…
    On obtient une petite courbe vaguement montante et ensuite hop, on change d’échelle, on peint le tout en rouge et le tour est joué.
    Je ne dois pas être très loin de la vérité.
    Mais c’est pas de la physique et je ne pense pas que cela comme ça que Ben voit les stats’.

    Le lien cité plus haut qui compare les effectifs et les moyens financiers de MF avec le met office est « amusant », il relève de la même problématique : 3500 individus qui compileraient du bruit statistique n’ont pas plus de chance d’en extraire une information que 1800.
    Comme la longueur du nez de l’empereur de Chine…

  5. chercheur (#2), Murps (#5), il et à mon sens beaucoup trop tôt pour parler de falsification, d’autant que je n’en voit pas l’intérêt. Ce n’est tout de même pas comme si l’une des courbes montrait un réchauffement et pas les autres, par exemple.
    Pour l’instant, je penche plutôt pour de l’amateurisme dans la gestion des bases de données (le cas de la normale annuelle dont la moyenne est calculée sur 1971-2000 ou sur 1981-2010 à moins que ce ne soit 1961-1990 est typique). Il est possible, mais seulement possible, que les divergences entre fichiers provienne de ré-homogénéisations faites a posteriori par MF : l’IPSL aurait pu avoir les données homogénéisées à la mode de 2008 et le MEDD à la mode de 2012.

  6. Ben (#6), de l’amateurisme ?

    Ca ressemble plutôt à du cherry-picking. On prend la moyenne qui arrange les affaires. On peut le faire « à l’arrache », à partir des bases à disposition, ou avec plus de soin, mais remarquez que s’il n’y avait pas tout ce barnum autour du « réchauffement » on verrait probablement des courbes qui montent mais aussi des courbes qui descendent… Ce n’est pas le cas.

    Si l’augmentation de température se faisait au-delà de la précision des thermomètres le problème ne se poserait pas non plus… ce n’est pas le cas.

    Je trouve quand même sidérant qu’il n’existe -apparemment – pas de méthode de normalisation standard sur un tel sujet.
    Par exemple en astronomie, on prend J2000.0 (1er janvier 2000)comme référence pour les calculs de coordonnées équatoriales, à cause de la précession des équinoxes.
    Il est vrai que l’astronomie de position est un modèle de prédictibilité et de rigueur, mais on pourrait parfaitement définir un calcul « normalisé » qui servirait de référence. Laisser le choix de la « moyenne » au climatologue est la porte ouverte à tous les débordements, la preuve.

  7. Ben (#6), enfin nous sommes d’accord!

    Cependant quand vous parlez d’amateurisme (et vous avez raison dans ce cas pour MF) attention de ne pas tomber dans ce travers (bon je sais, je prêche dans le désert, mais fallait que ça sorte) ; pareil pour le cherry-picking mentionné par Murps…

    Ah! la paille et la poutre…

  8. Mano (#8),

    Qui êtes vous pour sous entendre qu’un mathématicien maître de conférence est un amateur dans le traitement de données?

  9. Pour l’instant, je penche plutôt pour de l’amateurisme dans la gestion des bases de données

    Ben (#6), le problème est plus profond que l’incompétence, c’est quelque chose que ceux qui suivent cette affaire de près savent très bien mais qui est tellement extravagante que les profanes auront beaucoup de mal à croire sans avoir plongé dans les données.

    C’est que les séries de température n’avaient jamais été destinées à un suivi climatologique, pour surveiller des variations de l’ordre du dixième de °C. Elles étaient et sont utilisées pour la météo mais pas pour la climatologie, ce n’est pas pour rien que l’immense majorité des stations sont dans des aéroports. Et c’est très bien ainsi avant que l’hystérie climatique de ces 30 dernières années, donc très récente par rapport à l’histoire de la météo, ne les enrôle pour donner un semblant de caution scientifique à ce qui n’est qu’une propagande catastrophiste. Lamb, ancien directeur du CRU et un des piliers de la climatologie moderne, avait déjà mis en garde sur l’absence de séries climatologique fiables dès les années 70, ce qui prouve que ces séries fiables n’ont jamais existé. Des données qui n’existent pas, ce n’est certainement pas le CAO (le catastrophisme assisté par ordinateur) qui va les inventer.

    Les températures d’il y a 30 ans et plus par exemple, avant la généralisation des capteurs électroniques MMTS (qui ont par ailleurs de gros problèmes bien connus de dérive et de calibrage dès qu’on cherche des précisions de l’ordre du 1/10°C) viennent de thermomètres en tube de verre avec lecture manuelle. Il ne faut pas être grand clerc pour deviner que la prétention à la précision (un trait caractéristique de la science pathologique) au 5/100 °C faite par la FARCE est d’une stupidité inouïe.

    Or si les données historiques sont imprécises, vous avez beau les torturer avec les superordinateurs les plus chers, tout ce que vous aurez sera des données précisément fausses. Déjà, des données sans intervalle de confiance, peut-être pour vous, mathématiciens, ça ne vous parle pas, mais pour n’importe quel ingénieur, il y a le détecteur de foutage de gueule qui sonnent.

  10. À « Mano-fallait-que-ça-sorte » : si vous avez une critique précise à m’adresser, elle est la bienvenue. Dans le cas contraire, merci de ne pas considérer ce fil comme l’endroit où faire vos besoins.

  11. miniTAX (#10), je suis en accord complet avec ce que vous dites, mais le sujet n’est pas celui-là : il s’agit de comprendre pourquoi trois séries en principe issues de la même source (MF) peuvent être aussi différentes.

  12. Ben (#6),

    Il me semble utile de préciser que quand je parle de falsification, je parle des méthodes d’homogénéisation des températures brutes passées.

    Il me semble utile de résumer mon analyse sur ce sujet, sachant que je ne doute pas que vous l’avez également réalisée. Mais les informations qu’elle révèlent ne sont peut-être pas connues par tout le monde ici.

    Les conditions d’environnement des stations ont changé dans le temps, et il est tout à fait normal de chercher à les corriger pour les comparer avec les températures actuelles.
    Or, pour la très grande majorité de ces stations, les températures passées doivent être augmentées essentiellement à cause de l’effet « ilot de chaleur ». La question est de savoir quelle doit en être la valeur.
    J’ai constaté que ces températures anciennes ont systématiquement été non pas augmentées pour pouvoir être comparées avec les températures actuelles, mais baissées de manière importante.

    Un exemple représentatif de toutes les stations est fourni par le CNRS:

    http://www.cnrs.fr/cw/dossiers…..fement.htm

    Il s’agit de la station de l’aéroport de Pau-Uzein. On peut admettre compte tenu de son activité de service météo pour l’aéroport, que les températures brutes passées ne sont pas entachées d’erreurs susceptibles de mettre en cause la validité des résultats. Il est donc écrit que les températures brutes montrent une baisse de 1,2°C sur un siècle. Je ne doute pas de la fiabilité de ces informations, même au dixième de degré. L’aéronautique a toujours eu besoin de données précises et régulière.

    Par contre, il est clair que l’environnement de cette station depuis un siècle a fortement changé provoquant une augmentation de température locale indépendante des conditions météo. Si on veut comparer les températures actuelles avec les anciennes à environnement équivalent afin de mesurer le réel effet de l’évolution du climat local, il est nécessaire de relever de manière importante les températures les plus anciennes et ce de manière dégressive plus on se rapproche des températures actuelles.

    Le résultat final aurait donc du montrer que sur un siècle la température à Pau-Uzein a baissé de beaucoup plus d’1,2°C. La conclusion aurait donc dû être que l’évolution climatique sur un siècle autour de cette station a provoqué une baisse importante de température.

    Or, on constate que le résultat officiel ne montre nullement cette baisse importante de température, mais au contraire une hausse de 0,7°C, annoncée comme « cohérente avec la tendance globale ». Quel hasard!!!

    C’est à ce sujet que je parle de falsification et je trouve même le mot faible.
    Je constate aussi que cette falsification a été pratiquée partout en France, mais aussi dans le monde, comme l’indiquent les analyses effectuées en Australie et en NZ.

    Dans cette affaire, il n’est pas question de techniques sophistiquées qui pourrait induire des erreurs de décimales. Le sujet est beaucoup plus grave et personnellement, je vois tout à fait l’intérêt de parler de falsification, tout simplement parce que c’est la réalité.

  13. Ben (#12), elles sont différentes parce que ce sont trois groupes différents de personnes qui ont traité le sujet.
    Le seul point commun de ces courbes, c’est qu’elles montent en température, parce qu’elles DOIVENT monter.

    Elles sont différentes car il n’y a pas de méthode standard de traitement ou plutôt de « présentation » des données.

    Donc on présente cela à la manière d’une propagande et non d’un travail scientifique rigoureux.
    Ce sont des courbes qui montent en flèche sur une courte période, assorties de couleurs qui pètent, de termes qui font peur (« anomalie », « forçage », « au dessus des normales »…), le tout enjolivé par des considérations politiques qui n’ont rien à faire dans un article scientifique.

    La question que je me pose est plutôt de savoir si les gens qui pratiquent ces méthodes sont conscients de leur erreur ou de leur malhonnêteté.

  14. chercheur (#13), il y a eu un retraitement par MF sur cette station était autrefois située à Lescar à quelques km à l’Ouest vers la vallée du Gave alors que l’aéroport a été créé vers le milieu du XXème siècle sur le plateau plus froid notamment en hiver.
    Un retraitement en soi n’était pas anormal mais:
    1 il est entaché d’erreurs même pour un traitement de bonne foi
    2 on n’a pas tenu compte de l’extension de l’Aéroport dans les années 70 ou 80 qui ont conduit à mettre un parking goudronné à quelques m de la station …

  15. yvesdemars (#15),

    Avez-vous des infos à ce sujet?
    L’aérodrome date de 1908. Les pilotes ont toujours eu besoin de la température au sol. Je m’étonne qu’il n’y ai pas eu de station météo avant le milieu du XX ème quand on lit cette histoire:

    http://www.pau.aeroport.fr/aeroport/histoire

    J’ai beaucoup fréquenté cet aéroport tant comme pilote que passager à partir du début des années 70. Son environnement a considérablement changé et son trafic aérien aussi. En plus faut-il rappeler qu’un avion au décollage ou à l’atterrissage dégage une quantité de chaleur loin d’être négligeable qui participe à l’ilot de chaleur.
    Il est totalement impensable de considérer qu’à environnement égal, les températures anciennes devraient être baissées par rapport aux températures actuelles.
    Quel est l’historique de Pau lescar qui se trouve à 5 Kms de Pau-Uzein et au maximum à 15 mètres d’altitude en-dessous, soit 0,1°C de moins du à l’altitude. A combien estimez-vous la différence de température entre ces stations? J’ai du mal à imaginer que la température à Lescar est beaucoup plus élevée à cause de la chaleur dégagée par le Gave de Pau en hiver…
    Je rappelle que MF a baissé les températures anciennes de plus de 2°C alors qu’il aurait dû les augmenter d’au moins 1°.
    Le problème ne se pose pas sur quelques dixièmes de degré, mais de plusieurs degrés.

  16. Murps (#14),

    La question que je me pose est plutôt de savoir si les gens qui pratiquent ces méthodes sont conscients de leur erreur ou de leur malhonnêteté

    Cette question est effectivement importante. Pour moi la réponse se trouve dans l’époque où ont été réalisées ces modifications. C’est à partir du milieu des années 90, c’est à dire quand il a été nécessaire de montrer une forte élévation des températures, qu’elles ont eu lieu.
    Il fallait justifier tout ce qui était raconté avant, avec toutes les catastrophes annoncées pour la fin du siècle et qui n’arrivaient pas.

  17. chercheur (#17), J’abonde dans ce sens.
    Tant que la climatologie était un boulot de « petit archiviste » on se contentait de moyenner et de présenter les données de la manière la plus neutre qu’il soit, sans arrière pensées, le travail s’adressant probablement essentiellement à des géographes ou des historiens.

    Mais lorsque la théorie du RCA a pointé son nez, ce travail de mise en forme des données a vite offert des moyens de manipulation statistiques à bons comptes à des fins politiques : opacité et présentation pseudo-scientifique par des « experts ».

  18. chercheur (#16),
    ceci résulte d’une ancienne discussion (>3 ans) avec un cadre de MF sur ce blog. En ce qui concerne Lescar ce n’est pas tant l’altitude que l’exposition du coteau vers le SO qui devait expliquer le retraitement. Enfin l’Aéroport a été créé à Pont Long cad la plaine marécageuse au nord de Pau http://fr.wikipedia.org/wiki/A…..9n%C3%A9es, la piste d’uzein et l’exploitation en trafic voyageurs datent de 1948

  19. yvesdemars (#19),

    Merci de l’info. J’ai pu la retrouver. Elle date de fin 2009. Pour ceux que ça intéresse elle est là:

    http://www.skyfall.fr/?p=446&cp=1#comments

    C’est très intéressant. Le cadre de MF n’est pas n’importe qui, c’est l’expert français de l’homogénéisation. On est donc face à la vérité.

    On y apprend que les relevés de Pau Uzein ont commencé en 1921. La série brute de température concerne donc Pau Uzein depuis cette date.
    Cette expert nous donne les corrections qui ont été apportées sur les Tmax:

    AN 1922->1932 -0.29
    AN 1933->1934 0.38
    AN 1986->1991 0.31

    Quand on vérifie sur les graphiques, le moins que l’on puisse dire est que cela ne correspond pas du tout à ce qu’il donne comme correction.

    J’ai beaucoup aimé sa remarque:

    « Parler de “bulles de chaleur” pour les aéroports c’est faux. »

    J’ai aussi été étonné d’apprendre qu’il était membre d’Europe Ecologie…

    Il est aussi intéressant de constater qu’il était déjà question des manipulations de températures en Australie et en NZ qui sont aujourd’hui confirmées.

    J’attends avec impatience cette confirmation en France.

    Pour Ben, j’ai lu que cet expert proposait d’avoir toutes les données de températures:
    « Demandez un accès à la climathèque à Gilbert Gayraud (gilbert.gayraud@meteo.fr). »

    Je ne sais pas si ça peut servir.

  20. J’ai oublié ce monument:

    « Maintenant, croyez-vous que si j’étais un allumé du changement climatique, en train de truquer (subtilement, bien sûr) mes résultats, j’organiserais tout ce bastingue? »

    Toute comparaison avec les politiques fraudeurs est naturellement impossible.

  21. chercheur (#20),

    Un cadre d’une organisation à caractère hautement technique ou scientifique appartenant à EELV devrait être viré ou, pour le moins, mis dans un placard. Il ne peut que décrédibiliser sont institution, celle qui le nourrit.

  22. Laurent Berthod (#22), c’est plus subtil et retors que cela.

    J’ai aussi été étonné d’apprendre qu’il était membre d’Europe Ecologie…

    Dans le cadre de la liberté d’expression, de manifester, d’adhérer à un parti politique, on ne peut pas éviter ce genre de situation.
    Par contre, il devrait le signaler comme « conflit d’intérêt ».

    Bravo pour le déterrage de ce magnifique fil de discussion de 2009 sur l’aéroport de Pau. Relu avec intérêt.

  23. Un élément me turlupine et je ne sais si le sujet a déjà été abordé ici.

    Quand on regarde les températures données par MF comme indiqué là:

    http://www.skyfall.fr/?p=1353

    On constate dans la série de température moyenne annuelle une rupture très nette à partir de 1988 de plus d’1°C.
    Si elle correspondait à des températures brutes d’une station, on se poserait la question d’un changement de localisation ou de matériel.
    Là quelle est l’explication? Un changement de localisation du pays? Un changement de méthode de mesures?
    Il paraît difficile d’attribuer cette rupture au CO2 qui aurait eu un effet brutal en une année. Quel en est le motif officiel? Je n’imagine pas que c’est pour célébrer la date de création du GIEC.
    Face à une telle rupture, si je me rappelle ce que j’ai lu de notre expert national en homogénéisation, Mr Mestre, des corrections auraient dû être appliquées. Il n’en a rien été. Pourquoi? D’autant plus que cette rupture doit se trouver dans les séries de températures des stations.

  24. je voyais plutôt ce step après 89 et j’avais pensé à la chute du mur smile

  25. miniTAX (#10),

    bien dit….

    il me semble que le SEUL » indice que les mesures modernes soient pas » trop décontenances  » est l’apparition de mesure d’un « machin similaire » comme les températures données par les satellites… avant ça…c’est de la poésie.

  26. chercheur (#24), d’après la file de discussion de 2009, M. Mestre disait (corrigez moi…) qu’il ne tenait pas compte des valeurs brutes ou des décrochages, il cherchait une « tendance » sur des séries longues.

    Donc si vous mesurez avec tel thermomètre à tel endroit selon tel protocole pendant tant de temps, puis vous modifiez tout ou partie de ces éléments, cela induit évidemment un « décrochage » des valeurs numériques, par exemple une hausse brutale de la série avec changement de précision.
    Mais le traitement ne tiendrait compte QUE de l’évolution à long terme, pas des valeurs brutes.

    En clair, la température brute, le changement de matériel et d’environnement n’influeraient pas sur les tendances longues.

    Voire…

  27. Murps (#27),

    Mestre a écrit avoir appliqué les corrections suivantes au températures brutes:

    Corrections sur les TN (températures minimales)

    AN 1879->1921 0.83
    AN 1922->1973 0.54
    AN 1974->1985 0.07
    AN 1986->1991 0.21

    Corrections sur les TX (températures maximales)

    AN 1879->1895 -1.84
    AN 1896->1911 -1.45
    AN 1912->1921 -1.70
    AN 1922->1932 -0.29
    AN 1933->1934 0.38
    AN 1986->1991 0.31

    ces données montrent qu’ils ont tenu du changement de station entre 1921 et 1922 et les corrections ont été appliquées aux valeurs brutes. Le problème, pour moi, est qu’il n’a pas tout dit, puisque que la valeur de ces corrections ne correspondent pas aux graphes.

  28. Sylvestre (#29),

    les médias racontent n’importe quoi

    Comme d’hab.
    Ils ne parlent que des mesures mensuelles NOOA, NASA etc, toutes issues de la même base de données thermométrique estropiée, le GHCN. Et il ne s’agit que de quelques centièmes de degré.

    Mais ils ne citent jamais les données indépendantes entre elles et indépendantes du GHCN, des satellites RSS-MSU et UAH qui ne montrent rien de particulier pour les mois écoulés.
    Et il faudra plus d’une année plus changer le plateau, quoiqu’il arrive.
    Tout cela vient de la même dépêche de l’AFP dont on connaît bien les compétences, notamment pour avoir inventé, entre autres, « les rayons cosmétiques ».
    Pouah ! De la propagande en prévision de COP21 à Paris.

  29. comment savoir quelles sont les bonnes mesures « brutes »?

  30. Le rechauffage a l’heure siberienne…
    http://rt.com/news/208967-russ…..assengers/

    The temperatures in Igarka, in the Krasnoyarsk region, hit a low of about 52C. Locals, living some 163 km north of the Arctic Circle, are quite used to cold weather, but machines turn out to be more delicate. Having spent over 24 hours on the tarmac, the airplane’s wheels simply froze to the ground.

  31. Dans le registre météo rigolote (pour Skyf, moins pour les autres)
    C'est le Thanksgiving day aux USA. Il doit neiger à New Tork (ou tout près) en ce moment (New York est encore chaud) et ce n'est que la deuxième fois, en cette occasion, depuis 75 ans. La dernière était en 1989, il y a 25 ans.

    La météo a prévu de la pluie pluie suivie de neige à NY.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *