(Grand merci à Ben pour cette traduction express).
Par Willis Eschenbach (sur WUWT).
Certains persistent à dire « Oui, d’accord, les scientifiques impliqués dans le Climategate se sont mal conduits. Mais ça n’implique pas que les données soient mauvaises, ni que la Terre ne se réchauffe pas ». Commençons par ce dernier point.
La Terre s’est, d’une manière générale, réchauffée depuis le petit âge glaciaire, à partir de 1850. L’accord est général pour parler de réchauffement sur cette période (voir par exemple ce qu’en dit ici
Syun Akasofu). Le Climategate ne remet pas cet aspect en question.
Pour le premier point en revanche, sur la qualité des données, c’est différent. Des gens disent que « oui, ils ont détruit des courriers électroniques et dissimulé des documents pour contourner la loi sur la liberté de l’information, fait un peu n’importe quoi avec leurs marqueurs de température, tenté d’éliminer les papiers scientifiques de leurs adversaires… mais ça n’a rien à voir avec les données, les données sont toujours là. » Ce qui a l’air raisonnable.
Il y a trois bases de données globales principales. L’une est au CRU, l’unité de recherches climatiques de l’université d’Angleterre Orientale, chez laquelle nous avions essayé d’avoir accès aux valeurs brutes. La seconde est à la NOAA/GHCN, le réseau historique climatique global. La troisième est à la NASA/GISS, l’institut Goddard pour les études spatiales. Ces trois groupes prennent les données brutes, qu’ils « homogénéisent » pour en supprimer les problèmes qui se posent par exemple quand une station météo a été déplacée en un lieu plus chaud et que cela se traduit par un brusque saut de 2 °C . Les trois archives de températures globales sont généralement appelées CRU, GISS et GHCN. Pourtant, aussi bien le GISS que le CRU tirent pratiquement toutes leurs données brutes du GHCN. Les trois produisent des archives historiques de températures globales très similaires à partir des données brutes.
Je suis en quête depuis plusieurs années pour comprendre les données climatiques. Et l'on ne peut jamais savoir où cette quête peut vous mener. Cette fois-ci, elle m’a conduit en Australie. J’ai songé à ce que disait le professeur Wibjorn Karlen à propos de l’Australie (voir mes remarques ici) :
Un autre exemple est l’Australie. La NASA [le GHCN] ne montre que 3 stations qui couvrent la période 1897-1992. Sur quel type de données le diagramme du GIEC sur l’Australie est-il fondé ?
S’il y a une tendance, elle est en légère baisse. En revanche, si l’on utilise une période plus courte (1949-2005), les températures augmentent de façon substantielle. Les Australiens ont beaucoup de stations et ont publié des cartes plus détaillées des changements et des tendances.
Les types du CRU répondirent à Wibjorn qu’il avait tout faux. Voici, selon eux, ce qui était juste au sujet des archives dont Wibjorn parlait : la figure 9.12 du quatrième rapport du GIEC, qui montre le nord de l’Australie.
Figure 1 : (Extrait de la figure 9.12 du quatrième rapport du GIEC.) Tendances des températures et résultat des modèles pour le nord de l’Australie. La zone couverte s’étend de 110°E à 155°E, et de 30°S à 11°S. Le trait noir correspond aux observations. Les données viennent du CRU.
L’une des choses qui ont été révélées lors de la divulgation des courriers électroniques du CRU est que le CRU, pour l’essentiel, utilise les données du GHCN comme données brutes. J’ai donc regardé la base de données du GHCN. J’y ai trouvé trois stations dans le nord de l’Australie couvrant la période 1900-2000, comme l’avait dit Wibjorn, et neuf stations dans toute l’Australie couvrant cette même période. Voici la moyenne des données du GHCN, non-ajustées, pour ces trois stations (d’après AIS) :
Figure 2 (->) : Moyenne des données brutes du GHCN, pour les trois stations concernées par la zone de la figure 1 sur la période 1900-2000.
Une nouvelle fois, donc, Wibjorn a raison : le résultat n’a rien à voir avec ce qu’indique le GIEC pour l’Australie. Mais c’est encore un peu tôt pour conclure. Le professeur Karlen ne regardait que 3 stations. Trois, c’est peu, même si c’est tout ce que nous avons comme stations couvrant un siècle entier pour la zone qui nous intéresse.
Bon, on a vu les enregistrements les plus longs, regardons maintenant avec d’autres. Voici ce que ça donne en prenant toutes les stations de la zone qui fournissent des enregistrements de température allant jusqu’à l’an 2000, sans tenir compte du moment où chaque enregistrement
commence. Ça fait 30 stations.
Figure 3 (<-): Résultat avec les données brutes du GHCN de toutes les stations de la zone (figure 1) allant jusqu'à l’an 2000.
Toujours aucun rapport avec ce que dit le GIEC. Du coup, j’ai regardé avec toutes les stations de la zone. Il y en a 222. Voici le résultat.
Figure 4 (->) : Résultat avec les données brutes du GHCN pour toutes les stations de la zone.
Vous voyez donc pourquoi Wibjorn se posait des questions : rien de tout cela ne ressemble aux données du GIEC, elles-mêmes tirées du CRU, qui lui-même se fonde sur les données du GHCN. Pourquoi une telle différence ?
Réponse : ces courbes utilisent toutes les données brutes du GHCN, alors que le GIEC utilise les données ajustées. Le GHCN ajuste les données pour en supprimer ce qu’il appelle des « inhomogénéités ». Sur un coup de tête, je me suis décidé à aller jeter un coup d’œil sur la première station de la liste, l’aéroport de Darwin, histoire de voir à quoi pouvait bien ressembler une inhomogénéité. Et j’ai ainsi pu découvrir à quel point les ajustements du GHCN pour traiter les inhomogénéités de Darwin étaient énormes.
D’abord, qu’est-ce qu’une « inhomogénéité » ? Je ne peux pas faire mieux que de citer le GHCN :
La plupart des stations climatiques de long terme ont subi des modifications qui rendent leurs observations inhomogènes au fil du temps. Beaucoup de facteurs peuvent causer ces discontinuités, parmi lesquelles un changement d’instruments ou d’abri, l’environnement autour de la station, l’heure des observations et la méthode de calcul de la température moyenne. Souvent, plusieurs facteurs sont modifiés en même temps, c’est par exemple souvent le cas lors de l’introduction de stations météo automatiques dans beaucoup de parties du monde. Avant de pouvoir utiliser ces données climatiques en confiance pour l’analyse du changement climatique à long terme, des ajustements sont nécessaires pour corriger les discontinuités non-climatiques.
Ça se tient. Les données vont faire des bonds lorsque la station est déplacée, par exemple. Il n’est pas question de se mettre à penser que ça se réchauffe simplement parce qu’on a bougé le thermomètre à un endroit plus chaud. Ça n’a peut-être pas l’air très plaisant, mais il faut quand même ajuster les données, du mieux que l’on peut.
Je préfère toujours partir des données les plus brutes possibles,comme ça je peux comprendre les ajustements. À Darwin, il y a cinq enregistrements distincts, qui sont combinés pour construire l’enregistrement final. Voici ce que donnent ces enregistrements, numérotés de zéro à quatre :
(Source : http://data.giss.nasa.gov/cgi-…..ame=darwin)
Figure 5 (<-) : Cinq enregistrements de température à Darwin, plus le décompte des stations (ligne verte). Ces données brutes ont été téléchargées du GISS, sachant que le GISS utilise les données brutes du GHCN comme point de départ de ses analyses.
Darwin dispose de quelques avantages sur d’autres sites avec plusieurs enregistrements. D’abord, nous y disposons d’un enregistrement ininterrompu depuis 1941 (Station 1). Ensuite, nous y avons un enregistrement continu sur un siècle entier. Enfin, ces enregistrements sont en très bon accord entre eux sur toute la période d’enregistrement. En fait, quand il y en a plusieurs en même temps, ils donnent des résultats si proches qu’il est impossible de lire les enregistrements derrière la station Zéro.
Ce cas est idéal, parce qu’il illustre beaucoup des problèmes avec les données brutes des stations de température :
• il n’y a pas de série qui couvre toute la période ;
• la série la plus courte n’est que de neuf ans ;
• il y a des trous d’un mois et plus dans presque toutes les séries ;
• il semble y avoir des problèmes avec les données autour de 1941 ;
• la plupart des bases de données ont des mois qui manquent ;
• pour l’essentiel de la période, il y a peu de stations voisines ;
• aucune année n’est couverte par les cinq enregistrements ;
• la température chute sur une période de six ans, d’un maximum en 1936 à un minimum en 1941. La station a bougé en 1941… mais que s’est-il passé durant les six années précédentes ?
Travailler les enregistrements est affaire de jugement. Avant tout, vous devez décider si ce que vous regardez mérite un traitement ou pas. Dans le cas de Darwin, il semble se passer quelque chose autour de 1941, mais pas l’année du déplacement. Par ailleurs, alors que le saut de température en 1941 a l’air important, on voit un saut comparable de 1992 à 1999. Quand je regarde l’ensemble, je préfère que l’on ne touche à rien. C’est toujours ce qu’il y a de mieux à faire quand vous n’avez pas plus de renseignements. D’abord ne pas nuire.
Malgré tout, on peut défendre l’idée d’un ajustement, étant donné le déplacement de la station en 1941. Si je voulais ajuster Darwin, je ferais comme ça :
Figure 6 (<-): Ajustement possible pour Darwin. La ligne noire montre la quantité totale d’ajustement (échelle de droite), et montre son déroulement temporel.
Dans cette figure, j’ai décalé les données d’avant 1941 en les abaissant de 0,6 °C, puis diminué le décalage près de 1941 pour faire coller les courbes. Avec ces données « ajustées » (en rouge), il n’y a ni réchauffement ni refroidissement. Toutefois, cela réduit le refroidissement apparent des données brutes. Après 1941, les autres enregistrements se recouvrent en étant très proches les uns des autres, et donc je n’y touche pas. Pourquoi les ajuster, vu qu’ils sont en accord les uns avec les autres !
Bon, voilà donc comment j’homogénéiserais les données si je devais le faire, mais en vérité, je suis contre tout ajustement. Çela ne modifie qu’un seul enregistrement (celui de Darwin Zéro), sans toucher au reste.
Ensuite, je suis allé regarder ce qui se passe lorsque le GHCN enlève des « inhomogénéités » pour « ajuster » les données. Sur les cinq séries de données, le GHCN en élimine deux, probablement parce qu’elles sont courtes et reproduisent des enregistrements plus longs. Les trois enregistrements restants sont d’abord « homogénéisés », et ensuite moyennés pour donner l’enregistrement de température « ajusté GHCN » de Darwin.
À ma grande surprise, voici ce que j’ai trouvé. Pour expliquer l’effet dans son entier, je montre les deux bases de données en commençant par le même point (plutôt qu’en finissant par le même point, comme on les montre plus souvent).
Figure 7 (->):Ajustements du GHCN pour homogénéiser l’enregistrement combiné de l’aéroport de Darwin .
GLUPS ! Avant homogénéisation, les températures à Darwin chutaient de 0,7 °C par siècle… et après homogénéisation, elles augmentent de 1,2 °C par siècle. Et l’ajustement qu’ils ont fait est de plus de deux degrés par siècle… quand ces types « ajustent », ils n’y vont pas avec le dos de la cuillère. Sans compter la drôle d’allure de l’ajustement, avec d’abord une montée en escaliers, puis plus erratique, pour atteindre 2,4 °C.
Évidemment, ça m’a conduit à regarder de plus près comment le GHCN « ajuste » les données de température.
Voici ce qu’ils disent dans leur « Présentation de la base de données du GHCN » :
Les données de température du GHCN incluent deux bases de données : les données originales, et une base de données homogènes ajustées. Tous les tests d’homogénéité ont été faits sur des séries annuelles. La technique d’ajustement d’homogénéité s’effectue en deux étapes.
La première étape créé une série homogène de référence pour chaque station (Peterson et Easterling, 1994). Construire une série de référence complètement homogène à partir de données dont les inhomogénéités sont inconnues est sans doute impossible, mais nous utilisons plusieurs techniques pour minimiser toute inhomogénéité dans la série de référence.
(…)
Pour créer la série annuelle de référence des différences premières, nous retenons les cinq stations voisines de la station à étudier qui ont suffisamment de données et sont le mieux corrélées avec elle pour modéliser cette station.
(…)
La technique finale que nous utilisons pour minimiser les inhomogénéités dans la série de référence utilise la moyenne des trois valeurs centrales (parmi les cinq des stations voisines) pour créer la série de référence des différences premières.
Pour être honnête, tout ça a l’air correct. Ils prennent cinq stations voisines, et en font la moyenne. Ensuite, ils comparent cette moyenne à la station en question. Si ça a l’air bizarre comparé aux cinq stations de référence, ils recherchent des archives mentionnant un éventuel changement, et si nécessaire, ils homogénéisent sans pitié les mauvaises données. J’ai quelques doutes concernant ce qu’ils leur font subir, mais bon, voilà comment ils repèrent les stations inhomogènes.
Mouais…. Vu le manque de stations en Australie, je me suis quand même demandé comment ils trouvaient cinq stations « voisines » en 1941…
J'ai donc vérifié. La station la plus proche pour 1941 est à 500 km de Darwin. Non seulement elle est à 500 km, mais en plus c’est la seule station à moins de 750 km de Darwin qui couvre l’année 1941. (En l’occurrence, elle se trouve près d’un pub.
Daly Waters Pub pour être précis – les gars, vous z’êtes en Australie, souvenez-vous-en). Donc, tout simplement, il n’existe pas les cinq stations pour faire la « série de référence » et vérifier le saut de 1936 à 1941 à Darwin.
Intrigué par la curieuse forme de la moyenne des enregistrements homogénéisés de Darwin, je suis alors allé voir comment ils avaient homogénéisé chacun des enregistrements de la station. Qu’est-ce qui pouvait bien avoir donné naissance à cette étrange moyenne de la figure 7 ? J’ai commencé avec Zéro, avec l’enregistrement le plus ancien.
Voici Station Zéro, à Darwin, dans ses versions brutes et homogénéisées.
Figure 8 (->): Ajustements d’homogénéité à Darwin Zéro. Le trait noir montre la quantité et le timing des ajustements.
GASP et re-GASP ! Qu’est-ce qui peut bien justifier un tel ajustement ? Comment s’y prennent-ils ? Il y a cinq enregistrements différents pour Darwin depuis 1941. Tous quasiment d’accord. Alors pourquoi les ajuster ? Ils ont ajouté une énorme tendance artificielle et totalement imaginaire à la seconde partie des données brutes ! Là, pour le coup, c’est vrai : ça ressemble à la figure du GIEC… Mais hé ! Une tendance de +6 °C par siècle ? Et avec la forme du mur d’une pyramide montant au ciel ? Mais c’est quoi, ce truc ?
Tout ça, les gars, sont les signes bizarres qui montrent que quelqu’un a tripatouillé les données dans un style architectural tout égyptien… C'est la preuve indiscutable que les données « homogénéisées » ont été arrangées pour coller à des idées préconçues sur le réchauffement de la Terre.
Voici ce qui ressort clairement de tout ça. Ceux qui disent que « le Climategate ne concerne qu’un comportement pas très propre de scientifiques, mais que les données, elles, sont propres » se trompent. Au moins une partie des données n’est pas propre non plus. La preuve qui tue se trouve à Darwin Zéro.
Une fois de plus,j'affronte un mystère : comment, et pourquoi, le GHCN a-t-il « ajusté » l’historique des températures de Darwin pour afficher un tel réchauffement ? Pourquoi ajustent-ils par paliers ? Phil Jones et les autres types du CRU utilisent-ils la base de données brutes ou la base de données « ajustées » du GHCN ? Mon petit doigt me dit qu’ils prennent les données ajustées, puisqu’elles montrent un réchauffement, mais bien sûr, nous le savons pas encore… vu que, malgré tout ce qui se passe, le CRU n’a toujours pas divulgué la liste des données utilisées, mais uniquement la liste des stations.
Autre fait curieux : le GHCN a ajusté la Station 1 pour coller à l’étrange ajustement de Darwin Zéro, mais a laissé la Station 2 (qui couvre une bonne part de la même période, et qui, comme l’indique la figure 5, est en excellent accord avec les stations Zéro et 1) intacte. Ils ont homogénéisé deux stations sur les trois. Puis ils les ont moyennées.
Comme ça, vous obtenez une moyenne qui a l’air vraie, je suppose : cela « cache le déclin ».
Oh, et au point où on en est, ça vous intéresserait-il de savoir comment le GISS traite la question ? Eh bien… ils n’utilisent les données de Darwin qu’après 1963, un moyen commode pour se débarrasser de la question, justement… et aussi un moyen commode pour retirer toutes les données fâcheusement froides avant 1941. C’est sans doute un meilleur choix que la monstruosité dont a accouché le GHCN, mais c’est quand même un choix difficile à défendre.
Maintenant, soyons clair. L’ajustement manifestement faux du GHCN pour cette station précise n’implique PAS que la Terre ne se réchauffe pas.
Et il ne dit PAS que les trois archives (CRU, GISS et GHCN) sont entièrement fausses. Nous pourrions avoir à faire à un incident isolé, nous n’en savons rien. Cela dit, le GISS fait ses propres ajustements et, comme ils persistent à le dire, ils obtiennent les mêmes résultats que le GHCN… ce qui rend leurs résultats suspects eux aussi.
Et le CRU ? Qui sait ce qu’ils utilisent ? On attend encore. Toujours pas de données…
Ce que tout cela montre, c’est qu’il y a au moins une station de températures dont la tendance a été artificiellement augmentée pour donner un faux réchauffement, alors que les données brutes indiquent un refroidissement. De plus, les moyennes brutes pour le nord de l’Australie sont assez différentes des moyennes ajustées, donc il doit y avoir pas mal d’ajustements… hum… disons « intéressants » dans le nord de l’Australie, à part Darwin.
Et en vertu du proverbe latin « Falsus in uno, falsus in omnibus » (faux sur un point, faux sur tous les points), tant que tous les « ajustements » des stations n’auront pas été examinés, aussi bien ceux du CRU, du GHCN ou du GISS, nous ne pourront pas donner notre confiance à quiconque utilise des valeurs homogénéisées.
Amitiées à vous tous, continuons ce combat pour la vérité,
W.
Source
• • • • •
Et voici ce que dit le CNRS (source) :
Les dangers d’utiliser les données brutes
Il faut tout d’abord insister sur le fait que l’estimation de tendances à long terme est une opération délicate, qui ne peut être conduite à partir des données brutes d’observation sans de grandes précautions. Les techniques d’homogénéisation ont pour objectif d’identifier les ruptures d’homogénéité des longues séries de données climatologiques (générées par les changements de capteurs ou de pratiques d’observation, par le déplacement des sites d’observation, ou par les modifications de leur environnement) et de les corriger. Elles permettent donc d’extraire le signal climatique en supprimant au mieux les effets de poste.
Météo-France utilise des méthodes mises au point récemment par Olivier Mestre (2 000). Le traitement des données de la station de Pau-Uzein illustre extrêmement bien les performances de l’algorithme. La figure 2 présente l’évolution des données brutes de moyennes annuelles des températures maximales quotidiennes sur le XXème siècle. Une estimation de tendance linéaire sur le siècle conduit à un refroidissement important : près de 1,2°C par siècle.
La même opération réalisée après identification des ruptures d’homogénéité et correction de celles-ci (figure 3) conduit à un réchauffement de 0,7°C sur le siècle, tout à fait cohérent avec la tendance globale au réchauffement, et les données environnantes. A noter qu’on retrouve bien sur cette série chronologique les trois phases généralement observées : une croissance modérée de la température jusqu’au début des années 50, une stagnation ou une diminution jusque vers 1970, et ensuite une forte croissance.
Autres références : Mestre O., 2000: Méthodes statistiques pour l’homogénéisation de longues séries climatiques.
et une présentation sur le même sujet de Driss Bari (Office météo du Maroc) .
• • • • •
181 réponses à “Flagrant délit à Darwin Zéro.”
Je ne suis pas spécialiste de la question débattue, ni même scientifique.
Néanmoins, en lisant l’échange qui précède – fort intéressant – je peux tout de même faire l’observation suivante, en tant que citoyen lambda. Les mesures de température sont ajustées, visiblement pour d’excellentes raisons; Il existe plusieurs méthodes d’ajustements qui n’aboutissent pas forcément aux mêmes tendances; le fait que ces températures soient ajustées selon une méthode choisie permet d’homogénéiser des données qui montrent au départ des tendances variées. Le fait même que les températures soient ajustées permet donc une sorte de généralisation ou de globalisation des tendances, et donc une manipulation plus facile des données, ce qui dans le cadre du RCA, et des milliers de milliards qui sont en jeu derrière, pose forcément des questions. Il est donc légitime de poser des questions sur les méthodes et de pouvoir accéder aux données brutes, quand ceux qui ont la compétence pour les analyser les demandent. C’est bien pourquoi la position de Mr Jones du CRU est insoutenable, pour ne pas dire plus. Et ce serait le cas de tout organisme type CRU qui refuserait ce droit élémentaire aux chercheurs extérieurs. Or, c’est bien ce qui semble se passer depuis quelques années dans le domaine de la climatologie, et non, par exemple, dans l’astronomie. Curieux, non ?
@chria
Mr. Mestre est venu sur ce blog,et c’est en soi un succès,pour éclaircir un cas particulier,et tenter de nous expliquer la méthodologie employée qui conduit au résultat qui nous laissait perplexe.
Pour ma part je le reste perplexe.Non pas que je ne sois pas persuadé qu’il y aie réchauffement,et cela me conforte dans ma théorie,mais sur la façon d’aborder le problème.Inévitablement,cette approche conduit à une véritable »usine à gaz » et ne peut que conduire à prêter le flanc à toutes les critiques?je ne parviens pas à comprendre cette obnubilation de vouloir reconstruire des séries climatiques sur des stations.On ne fait pas ici de la météo à rebours, mais on cherche un signal climatique de t°.
Mais peu importe.Je reste sur ma faim, car si la méthode est déjà très complexe sur la partie émergée de la terre,je me demande comment on intègre ces résultats de t° atmosphériques,avec des t° océanes?
J’ai été très déçu de percevoir,comme sans doute Mr. Mestre, une certaine animosité de la part d’intervenants,lorsque celui-ci défend sa thèse.Il le fait en toute franchise,et en toute honnêteté,et je le comprends quand il refuse d’entrer dans un débat qui est sans objet.
Mr. Mestre nous a en tout cas donné la démonstration d’une belle ouverture d’esprit.
Puissions-nous toujours en faire autant.
Olivier MESTRE, contrairement à ce que vous semblez écrire je ne vous ai pas pris à partie en évoquant les biais qui parfois résultent des pressions du management (que celui-ci soit excessivement pressé ou qu’il soit lui-même biaisé). J’ai souhaité porter à la connaissance des lecteurs de Skyfall mon expérience de terrain et je l’ai fait sans malignité : quand on commence un audit, autant avoir en tête les sources potentielles de biais. Il n’y a rien de personnel à votre intention là dedans.
Ensuite, oui, puisque l’administrateur nous a gentiment demandé de cibler notre discussion sur les aspects thermométrique, je vous ai proposer de porter dans une autre discussion ou forum ladite discussion. Je vous ai recommandé de ne pas le faire d’une façon aussi partisanne que vous l’aviez amorcé (du moins pas sous votre nom) pour ne point rompre la sérénité de vos tâches professionnelles. Je vous prie d’y voir de la bienveilance, plutot que rétrospectivement vous ne vous sentiez « piégé » par des une succession de déclarations partisannes qui ensuite encombreraient votre vie professionnelle.
Enfin, oui, le hockey stick sur la page CNRS qui porte votre nom c’est quelque peu infâmant pour un statisticien. Je connais des enseignants en statistique qui utilisent l’exemple du hockey stick pour enseigner les bugs de débutants ou d’escrocs à ne jamais faire. Je vous demande donc de la retirer ou la faire retirer de votre page CNRS.
Pour finir, je vous remercie pour les coordonnées de la climathèque et je ne manquerai pas de vous recontacter quand nous serons prêt à mener un audit. Actuellement certains de mes amis et moi-même sommes en phase de montage d’une structure destinée à avoir une présence publique forte. J’y verrai plus clair dans quelques semaines sur la répartition des tâches. Si des personnes de Skyfall veulent s’organiser sans attendre, j’y suis favorable, je leur apporterai s’ils le souhaitent mon soutien et mon expérience en matière statistique et de milieu de la recherche.
Cordialement,
Xavier DRIANCOURT
Merci M. Mestre pour votre contribution experte et bienveillante.
Vous nous dîtes : « Vous aurez du mal à trouver mon petit nom dans les publications du GIEC. Ou alors prévenez moi, que j’aille chercher mon prix Nobel »
Trouvé !
Là sur ce document de l’IPCC intitulé : « TECHNICAL PAPER ON CLIMATE CHANGE AND WATER » (Format pdf, 6 Mo) à la page 184 :
« Auer, I., Böhm, R., Jurkovic, A., Lipa, W., Orlik, A., Potzmann, R., Schöner, W., Ungersböck, M., Matulla, Ch., Briffa, K., Jones, P., Efthymiadis, D., Brunetti, M., Nanni, T., Maugeri, M., Mercalli, L., Mestre, O., Moisselin, J-M., Begert, M., Müllerwestermeier, G., Kveton, V., Bochnicek, O., Stastny, P., Lapin, M., Szalai, S., Szentimrey, T., Cegnar, T., Dolinar, M., Gajic-Capka, M., Zaninovic, K., Majstorovic, Z. and Nieplova, E., 2007: Histalp – Historical Instrumental Climatological Surface Time Series of the Greater Alpine Region 1760-2003. Int. J. Climatol., 27, 17-46. Published online 6 July 2006 in Wiley InterScience (www.interscience.wiley.com) DOI: 10.1002/joc.1377″
Woody (#103),
Les rédacteurs sont indiqués dans une annexe non jointe à votre document.
Bon techniquement, le nom figure dans ce document, mais dans une référence biblio …
NB : c’est un article pour Chria … en fait.
xavdr (#102),
Effectivement. Je connais même un certain Mike Mann* qui a dit qu’il ne faut PAS accoller des données instrumentales aux proxies. On aurait greffé sur le dos de Mr Mestre, désormais officiellement co-Nobel de la paix, cette infamante crosse que l’éminent statisticien Wegman a qualifiée de « bad science » (et que je qualifie de bouse), à l’insu de son plein gré ?
Quand on pense que nos chers polytechniciens sous la houlette du Jean-Marc ressortaient la courbe de Mann devant les etudiants de Sup Aero en 2006… avec la caution de representants de la delegation francaise du GIEC comme Planton et Le Treut!
http://personnel.supaero.fr/bo…..naire.html
D’ailleurs l’expose de Mr Terray ou la courbe apparait est un fichier de Mann…
Affligeant, excepte l’expose tres interessant de Mr. Garnier de l’ONERA.
Araucan (#104),
Votre ingratitude me choque.
Lui refuser le Nobel pour une broutille de mise en page …
Il va être super déçu.
MESTRE (#96),
Tout d’abord , je tiens à exprimer mes regrets quant à votre décision de ne plus intervenir sur ce forum. Sur skyfal votre position est pour le moins inconfortable et je comprend parfaitement votre volonté de quitter ce débat pour éviter de tomber dans des polémiques stériles. D’un autre côté, je ne vois pas (en français du moins) d’autre site où un telle confrontation puisse avoir lieu. A mon avis, ce n’est pas un vain mot de dire que les climato-sceptiques sont victimes d’un d’ostracisme de fait . Ceci s’explique peut-être par la force du consensus sur le RCA qui peut faire passer ses contradicteurs pour d’aimables hurluberlus « terreplatistes » . Mais, dans ce cas, je suis tout de même étonné de la place réservée par les médias à moultes autres croyance qui sont pourtant en flagrante contradiction avec la science académique: créationisme, efficacité de diverses médecines alternatives… Le moins que l’on puisse dire, c’est qu’avant la toute récente affaire du climategate, le climato-scepticisme n’était pas vendeur! Réelle ou apparente, cette injustice peut expliquer (mais peut-être pas toujours excuser) la véhémence du ton de certains intervenants sur ce site, moi-même y compris 😉
Pour en revenir au sujet de cet échange, j’avoue être tombé des nues, en découvrant qu’une partie significative des températures ayant valeur de preuves pour le réchauffement climatique semblent avoir subi des corrections avant d’être communiquées. Je suis conscient de la difficulté de votre métier surtout quand il s’agit de rapprocher des mesures effectuées dans des lieux différents et des conditions parfois incertaines. Compte tenu de l’enjeu planétaire des résultats, l’homogénéisation de ces valeurs nécessite tout à la fois de grandes compétences doublées d’une intégrité irréprochable . A contrario, vous conviendrez avec moi qu’il n’y a pas besoin d’être un sceptique forcené pour en venir à demander la communication des données originales et de la méthode d’homogénéisation.
Sans entrer dans des considérations trop pointues sur la validité des méthodes statistiques employées, je me demande si la position la plus réaliste ne serait pas un simple aveu d’impuissance: compte tenu de l’incohérence de certaines mesures, nous ne connaissons pas exactement la valeur de la température moyenne de telle période … Au minimum, il me semblerait conforme à la rigueur scientifique que ces résultats soient assortis d’une note précisant le pourcentage des données modifiées et la nature des modifications (période,moyenne, écart-type,…)
Je vous remercie de vos éclaircissements et j’espère avoir l’occasion de vous relire sur skyfal
Les statistiques brutes pour homogénéiser des mesures n’ont aucun sens dés le début!
Si on doit faire ce genre de chose c’est que les mesures ne valent rien.
(On ne peut pas reconstituer une photo floue sauf s’il elle a été flouté par un procédé connu et combinatoire=cryptage) Pourtant il existe une méthode mathématique utilisée pour prévoir les marées, celle de Fourrier.
Il faut adopter la these que les variations de températures sont cycliques. Quand on veut corriger des mesures on adopte un point de vue. (Son, vidéo, bourse, ce n’est pas la meme chose)
En determinant les diverses ondes issues des mesures, surtout celles à basse période (50, 20 ans=porteuses) on pourrait à la limite recoller les morceaux. Mais c’est un point de vue.
Le recollage statistique me semble pas du tout pertinent et peut trés bien aboutir à n’importe quoi en faisant varier les coefficients.
Une méthode ondulatoire semberait plus propice.
Je ne vois pas au nom de quoi scientifiquement on touche a des mesures sans avoir testé et vérifié en premier lieu les capteurs pour évaluer leurs dérives. C’est du simple bon sens scientifique.
Les statistiques employée a tord et a travers ce n’est pas de la science c’est n’importe quoi.
Il faut bien connaitre son instrument avant de vouloir le corriger. On moins on sait de quoi on parle.
Et si les lieux ont changé et bien, il faut jeter les mesures…
On fait de la science ou on fait de l’astrologie,faut choisir…
Il y a d’ENORMES problemes de méthodologie scientifique dans cette affaire!
En italique les affirmations de Mr Mestre
La modélisation du changement climatique conduit à retenir l’augmentation des gaz à effet de serre comme cause principale du changement. C’est ce que je pense également – sans être spécialiste du sujet.
Ce qui me désole , c’est que O Mestre n’aura pas de mal à se faire passer pour un climatologue auprès de journalistes ou du public, alors qu’il avoue lui-même qu’il est statisticien et non physicien et que l’effet de serre en fin de compte c’est pas sa spécialité ; ceci ne l’empêche pas de nous narguer avec le consensus et de donner un avis sur les thèses de Courtillot concernant le géomagnétisme et les rayons cosmiques
C’est un consensus très large dans la communauté scientifique. D’autres vous expliqueront que c’est le champ géomagnétique terrestre. Personnellement, je suis moins convaincu par le mécanisme
Je le remercie néanmoins pour ses contributions parce que j’ai découvert que le travail de la récolte des données et de leur traitement est encore bien plus contestable que je ne le pensais
the fritz (#110),
Je ne vois pas grand chose de contestable dans les méthodes statistiques utilisées par L. Mestre pour corriger les séries de données.
Ce sont des techniques assez classiques de corrections de sauts et de débruitage de séries utilisant la similitudes de séries voisines.
Les seules remarques que je pourrais faire concernent l’hypothèse gaussienne (mais tout le monde le fait dans des cas similaires, en absence de modélisation physique des erreurs… ) et une absence de filtrage des corrections (je doute que les corrections de faible module puissent avoir une vraie utilité, hormis lisser le résultat)…. mais c’est du chipotage de ma part….
Le problème n’est pas là, mais dans l’utilisation au niveau mondial de ces mesures, alors que de nombreux territoires disposent de réseaux de mesure très peu spatialement représentatifs et très bruités.
… et même ceci n’est qu’un problème annexe. Le vrai problème est l’identification des mécanismes physiques du climat… pas la mesure de ce dernier.
Un modèle en français !
http://www.ifremer.fr/climatol…../index.php
Excusez moi si je suis décalé mais aucune personne diplômée d’université et doté du meilleur sens de l’inférence du monde, ne saurait donner un sens à un tel verbiage, je cite:
Bien sûr, on a affaire ici à de la science « post-moderne ». Pas étonnant donc que certains soient mêlés et finissent par se foutre qu’ils le soient, cela est aussi « post-moderne ». Soit n’importe quoi (et son contraire)…
Suite. Bien sûr, je ne suis pas idiot. Je comprend qu’il s’agit seulement d’inférer ce qui aurait été mesuré s’il n’y a avait pas eu, et je site:
Question: sur quelle base déduire ce qui aurait dû être mesuré dans les faits? Réponse évidente: la théorie. Conséquence: on ne fait que corriger les mesures obtenues dans les faits (monde sensible) de manière à ce que ces mesures correspondent à la théorie (monde intelligible). Fallait y penser…
Si Olivier MESTRE repasse dans les parages, j’aimerai savoir si son changement de ton et de thématique inexpliqué entre le 9 et le 10 ne serait pas du à une mauvaise humeur engendrée (chez lui ou ses collègues) par un reportage de propagande haineuse de Paul Moreiradiffusé sur France 4 le 9 au soir…
http://www.liberaux.org/index……8;p=599888
Je suis surpris des réactions de quelques uns de mes camarades sceptiques.
Les techniques de O. Mestre sont classiques (cf Laurent) et utilisées dans tout les domaines statistiques, c’est à dire partout dans notre monde moderne (sauf le GHCN semble-t-il !).
Elles ont fait la démonstration de leur efficacité.
Personne ne conteste que nous sortons d’un petit âge glacière et que le climat c’est bien réchauffé.
Le problème lié au réchauffisme n’est pas là.
Il est sur l’établissement d’une « bien hypothétique température moyenne » précise 😉 basée sur l’utilisation abusive de T° locales peu nombreuses et incertaines pour beaucoup d’entre elles.
Il est sur le « refroidissement » du passé.
Il est sur les manipulations des proxys et de leur mélanges sans justification et sans documentation.
Il est sur la manipulation mensongère des données, i.e. faire croire que le CO2->hausse des T° alors que les mesures indiquent l’inverse.
Il est sur le masquage de la baisse des T° sur les dix dernières années.
En une deux mots le problème c’est la « hockey stick ». Elle est essentielle pour « prouver » que c’est bien le CO2 qui pilote les T°. Elle permet aussi de montrer une « explosions » des T° corréler à l’augmentation importante du CO2 qui est sans contestation possible en partie humaine.
Mann, Jones et consorts ont raison de tout faire pour conserver cette « hockey stick ». Sans elle tout s’effondre.
Ils se battent pour ça. Mais c’est aussi leur talon d’Achille.
Curieux (#116),
Psst, glaciaire, pas glacière … 😉
Araucan (#117),
Hé, je l’avais juste sorti du frigo, pour le réchauffer 😉 .
^^
Curieux, je suis d’acord avec ton analyse sur le plan conceptuel mais pas sur le lan quantitatif. Par principe il ne faut négliger l’audit d’aucune des étapes des thèses réchauffistes. Les réchauffistes disent le CO2 dangereux parceque putativement susceptible d’engendrer une augmentation des températures qu’ils disent excessive, d’après leurs calculs qui pous simplifier sont le *produit* de :
* la production putative de CO2,
* la durée présumée de son sur-stock dans l’atmosphère,
* son taux résiduel d’absorpotion des IR,
* la rétroaction « positive » supputée du cycle de l’eau,
* la sensibilité estimée du climat,
aboutirait à une augmentation fantasmagorique des températures qui, si les alarmismes :
+ épidémiologique,
+ ouragantique,
+ glaciologique,
+ agricole,
+ écologique,
étaient vrai, poserait de graves problèmes.
Les deux derniers faceteurs du produit sont issus d’évaluations sur la base des températures observées. S’il s’avérait que l’augmentation des températures au 20ème sicèle avait été surévalué d’un facteur 2 (ce qui est loin d’être impossible vu les usines à gaz que nous a décrit MESTRE et à plus forte raison vu les négligences gravissimes constatées chez HANSEN/GSITEMP & JONES/HADCRU) on réduirait probablement d’un facteur plus que 2 le résultat final.
Ceci étant précisé, je suis d’accord avec toi que le plus gros combat porte sur les rétroactions et la sensibilité. Les mesures satellitaires directes de la rétroaction montrent qu’elle est en fait négative (cf. LINDZEN), ce qu’on savait depuis longtemps par des moyens indirects que les réchauffistes refusaient de voir. En outre la sensibilité du climat est per se largement surévaluée (cf. blog de SHAVIV sur son évaluation à l’occasion des éruptions volcanique http://www.sciencebits.com/FittingElephants).
Araucan (#104),
C’est ce que je me suis dis avant d’avoir lu votre commentaire… Je ne connaissais pas ce papier mais il ne m’a rien appris de plus. A savoir que pour cette étude il n’y a pas de stations dans les Alpes françaises, qu’on mélange des stations en Autriche et Marseille par exemple, et qu’au final on obitient en gros le même signal que les stations suisses.
Notons aussi vers 1800-1840 on avait vraiment de grosses alternances périodes chaudes et froides (on en avait déjà un peu parlé).
Bref c’est surtout le travail d’homogénéisation qui est intéressant, ainsi que ses limites quand on essaye de moyenner des tendances à une échelle spatiale aussi importante et sur un substrat aussi complexe.
laurent (#111),
Je crois que c’est le moment de resortir un graphique qui a figuré ici sur je ne sais quel fil et qui montrait les corrections sur les récoltes de températures , graph portant la marque NOAA , mais ayant pu transiter ailleurs; si quelqu’un peut le retrouver merci de le mettre en ligne ; on y voit l’effet d’ilot de chaleur urbaine et celui des transferts des sites ,changements de thermomètre et remplissage des trous suites aux économies de sites ; le résultat 0,3°C de plus, c’est toujours cela de gagné
Comment le transfert de sites peut-il depasser d’autant l’effet de chaleur urbaine, et comment intègre -t-on l’abandon de toutes les station rurales?
Je viens de lire « Le réchauffement climatique » de Robert KANDEL, Que sais-je, PUF, 3ème édition, mars 2009. Robert KANDEL est directeur de recherche émérite au CNRS.
J’en extraie ceci, p 76 :
« Tout en reconnaissant les difficultés multiples à déterminer la température moyenne à la surface du globe à partir d’observations d’un échantillon inégalement réparti de points sur cette surface, avec des effets perturbateurs et des biais qui ont changé au cours des années, et avec des techniques de mesures qui ont évolué, les climatologues dans leur grande majorité conviennent de la réalité du réchauffement global du XXème siècle »
Mais bien sûr ce qui est en cause c’est la part de l’homme dans tout cela.
J’ai lu l’ouvrage de M. Kandel attentivement, je crois que sa synthèse est honnête. Pour ma part, j’étais dubitatif, après la lecture attentive, je penche vers un scepticisme et la légitime et rationnelle prudence bien traduite dans la lettre ouverte au secrétaire général des nations unies.
La recherche est largement ouverte, nous n’avons pas de certitude globale… L’essentiel du travail de recherche est encore devant nous.
En tous cas merci pour votre article…
chria (#120),
Je reconnais n’avoir lu que le titre…
En y réfléchissant (un peu), on retombe sur la question de savoir quelles sont les zones « homogènes » au point de vue climat, accessoirement température, et sur quelles bases (et variations) le détermine-t-on ?
Oh il y a eu beaucoup de travaux qu’on trouvera sur wiki pour faire des cartes climatiques. Elles sont généralement de bon sens, et puis elles servent pour les étudiants et pas pour le giec…
En France par exemple on a quatres climats qui se chevauchent ce qui est assez exceptionnel et qui fait la diversité de ce pays. Par ex en Rhône-Alpes on est influencé par le climat océanique, continental, méditerranéen et montagnard. Or lorsque l’on reprend ces déclinaisons avec les données et leurs variations spatiales, cela se retrouve bien, surtout au niveau saisonnier : + sec en été, plus froid en hiver lors des anticyclones, plus humide grâce aux perturbations océaniques, etc, plus l’effet de l’altitude, voir de l’isolement alpin (massif interne).
Maintenant le climat en Autriche est bien différent de celui de Rhône-Alpes. Il est surtout continental et évidemment montagnard (qui n’est d’ailleurs pas forcément un « climat », mais plutôt un effet du relief sur le climat, donc surtout altitude).
Toutefois, sur le long terme, toutes ces déclinaisons quasi-météo se lissent. Seules quelques particularités locales subsistent, surtout liées au relief et au limite entre zones climatiques (mais où situer la limite, la frontière, cela n’a pas sens au niveau géographique). Toutefois, considérer l’Autriche et Rhône-Alpes comme une zone climatique homogène c’est un peu fort de reblochon.
Document simple sur les séries françaises et homogénéisation
http://www.ccrom.org/documents…..ition1.pdf
Ou là plusieurs docs :
http://www.ccrom.org/Thematiques/2007.htm
xavdr (#119),
apparemment c’est aussi evident que çà pour les rétroactions négatives de Lindzen…
cfr R. Spencer, qqn a t’il plus d’explication??
Bonjour
Je viens régulièrement vous lire sur ce site.
Je ne suis pas un spécialiste des questions de climatologie, mais suis malgré tout depuis longtemps sceptique sur cette histoire de RCA.
En juin 2007 j’ai assisté à une conférence de Jean Jouzel.
Toute sa démonstration s’appuyait sur un postulat.
Il n’a jamais fait aussi chaud depuis 1000 ans, (coube de Mann)
Jamais nous n’avons connu une telle concentration de co2 depuis 1000 ans.
Ces 2 courbes sont parfaitement corrélées et l’accélération coïncide avec l’industrialisation.
A cette conférence je pose 2 questions a Jouzel
1 concernant les incertitudes sur les cernes d’arbres , leurs transpositions en températures, l’ignorance de l’optimum médiéval, de l’âge glaciaire et surtout pourquoi cette courbe largement mise en avant dans les précédents rapports du GIEC ne figure plus dans le dernier (AR4).
Réponse l’optimum médiéval et l’âge glacière sont des événements locaux a l’échelle de la planète qui ne ressortent pas dans une moyenne. Quand à la courbe de Man elle figure TOUJOURS dans AR4 !!!!
2 concernant sa courbe de co2 je luis parle des travaux de Ernest Georg Beck (lui aussi prix Nobel) et de sa compilation de 90000 mesures qui aboutit à une courbe largement différente. On y découvre dans le passé des taux de co2 largement supérieur à ceux d’aujourd’hui.
Réponse Beck n’est pas sérieux !!!
Depuis 2 ans on en sait un peu plus sur la courbe de Mann, et le débat pourrait être définitivement clos en 2010. Cette courbe est une escroquerie.il me semble donc inutile de pinailler sur une les températures depuis 1900.
Reste la courbe co2 qui perdure et sera même utilisée par quelques ex sceptiques du RCA pour justifier une séquestration du co2 et autres taxations.
Ma question est donc quel institut fournit au GIEC les chiffres co2 qui ont permis cette autre courbe en crosse de hockey ?
Ou en sont les travaux de Beck sur le sujet ?
Apres les températures il me semble essentiel de vérifier la crédibilité des chiffres CO2
Cordialement
Très bon point!
Une recherche sur Ernest Georg Beck montre que la mesure du CO2 est aussi potentiellement une source de scandale scientifique.
Voir par exemple:
http://www.larouchepub.com/eiw/public/2007…711_science.pdf
Lautre pierre///J’ai lu sur le site Pensée Unique que les données brutes pour le CO2 viennent des carottages de glace… Et complétées depuis 1958 par les mesures directes à Mauna Loa .Les courbes, celle du GIec et celle de Beck, n’ont strictement rien à voir (en tous cas de 1810 à 1970).
Nouvelles du Front:
Visiblement le travail de Willis Eschenbach n’a pas plu.
The Economist, dans un article non-signe a releve quelques erreurs mais aussi a demontre sa partialite en commettant des fautes impardonables bien pires…
Willis Eschenbach leur a repondu: http://wattsupwiththat.com/200…..rwin-zero/
Aussi l’Associated Press se declare maintenant experte en climatologie… en declarant que rien dans les emails de climategate ne remet en cause l’AGW d’apres eux…
Une recherche des emails montrent que l’auteur principal de l’AP Seth Borenstein est un familier de l’equipe de realclimate:
http://wattsupwiththat.com/200…..-about-it/
l’autre pierre (#128), Denis (#130),
Je conseille d’aller voir comment sont réalisées les courbes, par exemple à Vostok, qui mettent prétendument en parallèle la température (teneur en Deutérium de chaque m carotté) et la teneur en CO2. Données obtenues sur NOAA (Petit et al 1999 pour D et Barnola Raynaud Lorius Barkov 2003 pour CO2).
Vous verrez tout de suite que pour 3304 m de carottes donc 3304 mesures de teneur en D, vous avez 363 points de CO2. et que dans les deux tableaux il n’y a qu’une seule mesure, soit D soit CO2, intrigant non ? Donc si vous voulez comparer les 363 mesures de CO2 avec les mesures correspondantes de D, vous prenez la mesure du m correspondant et c’est là que vous vous apercevez que le m de glace peut correspondre à 50 ans il y a 10000 ans, à 100 ans il y a 60000 ans puis à nouveau à 50 ans il y a #110000 ans période chaude Eémienne), plus bas, dans la glaciation précédente on passe à #125 ans il y a #130000 ans, pour finir autour de 500 par m vers 450000ans.
Il y a bien sûr une raison principale, c’est le tassement, mais ce n’est pas la seule puisque, à chaque période interglaciaire, il y a une forte diminution du nombre d’années par mètre de carotte. L’enneigement est toujours plus fort quand il fait chaud, mais alors ! la progression de la sécheresse en période de réchauffement climatique, que devient-elle ? C’est à mon avis un leurre. La surface de la banquise diminue probablement mais l’épaisseur des calottes continentales s’accroît à cause d’un enneigement annuel plus important provoqué par l’évaporation plus importante. D’ailleurs le déficit en Deutérium (« température ») suit exactement toutes les fluctuations de l’enneigement, quelle que soit l’intensité du tassement.
Mais ce dont vous discutez, c’est de la pertinence de la mesure. Ce que j’ai constaté c’est qu’à aucun moment ces deux paramètres, tassement et enneigement, ne sont pris en compte pour réaliser la courbe dite temporelle de CO2 ou celle de Deutérium.
Je ne comprend pas comment des mathématiciens beaucoup plus instruits que moi, pauvre biologiste, n’ont jamais remis en cause ces deux séries temporelles, qui n’en sont pas, puisque les deux séries de mesures comparées concernent des mesures caratérisant des m et pas des années. Ce sont des paramètres attributs de chaque unité de profondeur pas des dates du passé.
D’autant que, en plus, le CO2 a un age moyen qui est plus jeune que celui de la glace où il se trouve. La différence d’âge varie de #2000 ans en période chaude à plus de 6000 ans en période glaciaire. Actuellement, à 173 m, la glace a 6828 ans et l’air 3634 ans. Ces deux séries ne seraient éventuellement comparables que si c’étaient de vraies mesures temporelles.
De ces réalités, il n’est tenu aucun compte à ma connaissance et pourtant, si la fermeture des bulles met 3 fois plus de temps pour se réaliser, la moyenne des teneurs en CO2, de même d’ailleurs que celle de la glace en Deutérium, doivent avoir considérablement atténué les différences éventuelles entre les années ou les siècles.
Les teneurs en CO2 sont parfois effectuées sur le même m (ou des m très voisins), et dans ce cas varient très peu. Ceci milite à mon sens pour une période longue de fermeture et donc explique pourquoi en deça de 1850 et sur plusieurs milliers d’années la teneur est tenue comme uniforme.
Je persiste à considérer que la seule paléomesure à peu près correcte en moyenne sur quelques années de la teneur atmosphérique en CO2, est celle de l’épaisseur ou croissance des cernes des arbres, [pas la mesure de densité qui elle, voir GRUDD (Courtillot), est bien corélée à la T°].
La croissance étant en volume, cette épaisseur est , grosso modo, un paramètre lié à la racine cubique de la moitié de la masse sèche du bois, car constituée à #50% de C provenant du CO2 atmosphérique. C’est un proxy barométrique, valable sur quelques milliers d’années, comparable, si on avait des résultats, à des mesures faites en Antarctique à Low Dome, là où les chutes de neige d’1.5 m par an font fermer les réseaux d’air en environ 50 ans.
Je vous prie d’excuser ma longueur et la nature peut-être inappropriée du fil mais c’est une question qui me tient à coeur et dont la solution ne peut venir que de matheux qui se penchent un peu sur ces mathématiques qui me paraissent, peut-être à tort, un peu curieuses. Il y a sur ce site beaucoup d’excellents spécialistes des sciences un peu dures, aidez-moi à comprendre.
Une thèse dans le vent ; si vous avez encore des neurones
http://tel.archives-ouvertes.fr/tel-00439861/fr/
chria (#133),
A base de Giec
On apprend des choses intéressantes dans le premier chapitre : que les séries homogénéisées par MF et hadcrut sont utilisées dans la thèse ; et surtout, chose incroyable (p.10), que les indicateurs indirects (fonte des glaciers, fonte de la couverture neigeuse, etc, ne sont pas malgré leur cohérence des preuves que le CC est d’origine anthropique, et que cela peut très bien des variations naturelles… Et que le seul moyen de déterminer si le CC est d’origine anthropique, c’est de faire des stats…
Enfin à la lecture de la conclusion et bien… J’ai pas trouvé de réponse à la problématique, c’est même pire : je vous conseille la lecture du dernier paragraphe de la conclusion. Je n’arrive pas à faire de copier-coller.
J’ai l’impression qu’on est vraiment dans la science en marche, et c’est bien le contraire de ce que certains voudraient nous faire croire.
chria (#135), Le voici :
Marot (#136),
oui merci, et entre autres…
Après celles de la Nouvelle Zélande et du nord de l’Australie, voici le dernier traficotage de températures, celles de l’Antarctique.
On y apprend que GHCN retient comme significatives les seules stations montrant une élévation de température, spécialement celles de la péninsule et encore plus précisément celles d’une station devenue pourrie par le tourisme, les aménagements immobiliers, l’aérodrome, etc.
Cette information a été reprise en au moins deux blogs avec des commentaires additionnels.
noconsensus.wordpress.com/2009/12/13/ghcn-antarctic-warming-
eight-times-actual/
wattsupwiththat.com/2009/12/13/frigid-folly-uhi-siting-issues-and-adjustments-in-antarctic-ghcn-data/#more-14107
Marot (#138), Merci Marot pour les liens; j’avais posé la question suivante à O Mestre
le signal (rechauffement)
est a peu près le même sur tout le globe, à deux exceptions près : sud du Chili, et grandes
plaines aux usa
Avez vous une explication concernant la différence de tendance entre la pointe du Chili et la péninsule antarctique pourtant située à seulement 500 km et pour laquelle on nous annonce régulièrement la montée des températures et la fonte catastrophique des volcans
Je n’avais reçu de réponse de sa part, mais voila pourquoi sans doute
the fritz (#139),
À ajouter :
les températures en Europe, comparaison Courtillot-Jouzel.
les températures aux États-Unis.
Le Climategate continue.
Lu sur le Telegraph:
Ce mardi, l’Institut d’analyse économique (IEA) basé à Moscou en Russie, a publié un rapport affirmant que le Centre Hadley pour le changement climatique installé au siège du Bureau Météorologique Britannique à Exeter (Devon, Angleterre) avait probablement maquillé des données climatiques russes.
L’IEA estime que les données de la station météorologique russe n’a pas fourni des preuves soutenant la théorie anthropique du réchauffement climatique planétaire.
Les analystes ajoutent que les stations météorologiques russes couvrent la plupart du territoire russe et que le Centre Hadley a utilisé dans ses rapports, des données fournies par seulement 25% de ces stations. Plus de 40% du territoire russe n’auraient ainsi pas été inclus dans le calcul global de température pour d’autres raisons, plutôt que par le manque de stations météorologiques ou d’observations.
Les données des stations localisées dans les régions non prises en compte par l’étude de l’Unité de Recherche Climatique de Hadley (HadCRUT) ne montreraient pas, le plus souvent, de réchauffement substantiel au cours de la fin du 20ème siècle et au début du 21ème siècle.
source:http://blogs.telegraph.co.uk/n…..l-warming/
Je ne débattrai pas de technique, mais je voudrais mettre en lumière pourquoi les travaux du GIEC aboutissent au paradigme de RCA.
Pour cela, je vous rappelle le rattachement du GIEC à l’ONEP, sous-esemble du Grad Machin Onusien, ainsi que les missions confiées au GIEC par l’ONEP.
Le GIEC est une sous branche du « UN Environmental Program » (UNEP, le Programme pour l’Environnement de l’ONU). Ce vaste organisme international qui chapaute le GIEC, s’est ouvertement orienté vers les thèses les plus intégristes de l’écologie planétaire. On comprendrait qu’il est de son devoir de veiller à l’intégrité du globe et de lutter contre toutes les formes de pollution. Néanmoins, et toutes proportions gardées, certaines de ses démarches se rapprochent beaucoup d’une sorte de religion de la planète.
Voici le paragraphe introductif des statuts officiels du GIEC. Il en définit la mission :
« Le rôle du GIEC (IPCC) est d’évaluer, sur des bases scientifiques, techniques et socio-économiques, les informations relatives à la compréhension des bases scientifiques du risque résultant du changement climatique ANTHROPIQUE, de ses impacts potentiels et des options pour l’adaptation ou l’atténuation. »
Dès lors, il ne faut s’étonner que le GIEC s’efforce, à tout prix, quelles que soient les difficultés, de démontrer l’importance de l’action humaine sur le climat en négligeant toutes les causes naturelles. Ce faisant, il ne fait rien d’autre que de remplir la mission qui lui a été attribuée, et il fait tout pour justifier ce qui lui a été demandé au départ.
Ceci explique fort bien les zones d’ombre (refus de communiquer les données brutes), la défense bec et ongles du paradigme du RCA, l’aspect quasi-religieux des thèses du GIEC.
Par ailleurs, il faut savoir que le GIEC a sorti un rapport de 1000 pages, avec des nuances, et que ce rapport a été synthétisé en 10 pages pour les politiques, avec disparition totale des nuances et des incertitudes. Ce condensé, avec la crosse de hockey de Mann, est devenu la bible des politiques de tous bords, et également celle des écolos intégristes (trop contents de faire passer leurs messages politiques) . Les médias, qui ont perdu toute déontologie et tout sens critique, et qui ont coutume de ne présenter que les catastrophes et les cataclysmes, ont emboîté le pas et ils pratiquent, tout particulièrment en France, la désinformation et l’omerta….
Voici un petit texte humoristique sur le virus Copenhagus, qui montre que l’on marche sur la tête et que les pays riches vont dépenser des sommes folles pour une chimère….
Notre belle planète est victime d’une épidémie bien plus grave que la grippe A : le virus Copenhagus.
Ce virus s’attaque aux esprits des humains et leur fait perdre tout bon sens.
Il leur ôte tout esprit critique et les persuade que le prétendu Réchauffement Climatique est à 100% d’origine anthropogénique. Il les amène à clouer au pilori toute personne qui oserait émettre le moindre doute sur le RCA, sans toutefois aller jusqu’à la brûler en place publique (pour le moment…).
Ce virus a des effets modulés en fonction des catégories d’individus. Il est particulièrement nocif pour les hommes politiques de tout pays, et tout particulièrement au pays du siècle des Lumières, notre doux pays de France. Nous avons pu y constater plusieurs mutations particulièrement graves : le Copenhagus Sarkozus, le Copenhagus Borloosus, le Copenhagus ecologicus (avec ses variantes Copenhagus Cohnus Benditus et Copenhagus Hulotus), et le Copenhagus mediatus, ainsi que, aux USA, le Copenhagus Algorius….
L’action du virus Copenhagus est durable dans le temps, mais nous ignorons toutefois quelle pourrait être la durée de ses effets. Il semblerait toutefois, selon les derniers travaux menés par des personnes non encore contaminées, que cette épidémie pourrait se résorber dans les prochaines années, la résorption étant de la forme e^λ∆T , ∆T étant la diminution prévisible des températures, et λ étant un facteur correctif positif en corrélation avec l’épaisseur des glaces aux pôles. Mais nous devrons rester vigilants, car si ∆T devait évoluer positivement, nous risquerions un emballement incontrôlé de l’épidémie et de sa gravité, avec des conséquences cataclysmiques pour l’humanité….
Affaire à suivre ….
Oups! J’ai dû faire un mauvais copier-coller. Voici donc la petite fable.
Variante de l’histoire du mur présentée par M. Ronan DANTEC (vice-Président de Nantes Métropole, Environnement et Agenda 21) lors de la conférence de V. Courtillot à Nantes
Il était une fois un groupe de plusieurs milliers de mécaniciens. Ils travaillaient dur et leur compétences étaient reconnues par le peuple, les princes et les rois. Or, un jour un « mécanicien gourou », avec quelques acolytes qui lui étaient entièrement dévoués, lancèrent une nouvelle religion, qui fut, grâce à divers artifices et à l’habileté du gourou, adoptée sans réserve par le groupe de mécaniciens.
Cette religion prônait que, sur la route se trouvait un grand Mur, et elle prit le nom de Religion du Mur.
Toutefois, quelques mécaniciens, après réflexion, refusèrent d’adhérer à la religion du Mur et, en utilisant leurs instruments, ils purent vérifier que le Mur n’avait aucune existence réelle. Ils furent en conséquence injuriés et traînés dans la boue par les fidèles, par les hérauts publics, par les princes et par les rois.
Or donc, un jour, les fidèles et leur gourou se trouvaient au bord de la route menant au Mur. Conditionnés par les bons soins du gourou et de ses acolytes, les braves mécaniciens « voyaient » le Mur, même si ce dernier était fort éloigné. De l’autre côté de la route se trouvaient les misérables réfractaires, et ils furent, une fois de plus, invectivés par la foule des mécaniciens croyants.
Un car bondé arriva à ce moment à cet endroit, se dirigeant droit sur le Mur (selon les fidèles) ou droit sur le « non-Mur » (selon les incroyants). Les fidèles et le gourou supplièrent le chauffeur de s’arrêter, car, disaient-ils, il allait à la mort avec tous ses passagers. Les incroyants, quant à eux, expliquèrent au chauffeur que le Mur était une chimère et que sa réalité n’était pas validée par leurs instruments de mesure.
Le chauffeur, qui était un homme plein de bon sens, fut effaré par le dogmatisme des croyants, et il fit confiance aux incroyants : il continua sa route et arriva sans encombre au terme de son voyage …..
Le scandale Climategate du jour :
Le CRU aurait bidonné le réchauffement du territoire russe :
http://climateaudit.org/2009/12/16/iearuss…n-climate-data/
75% des stations ont été écartées alors que leurs données, généralement de meilleure qualité, montraient une absence de réchauffement.
En 2004 Phil JONES avait personnellement, en tant que relecteur (anonymisé) de revues scientifiques rejeté des articles indiquant que le CRU aurait mal représenté les températures sibériennes. Il était également « allé en ville » [allé exercer son influence] au sein des deux [comités de ?] relectures.
http://www.eastangliaemails.com/emails.php…=1080742144.txt
Le caractère peu crédible de l’énorme hausse affichée sur la Sibérie avait déjà été signalée par Vincent GRAY (ancien rédacteur du GIEC, démissionnaire face à la mauvaise fois du GIEC) dans un article de 1999 dont voici une version mise à jour en 2003, publiée sur le merveilleux site de John DALY (celui dont Phil JONES se réjouissait de la mort) .
http://www.john-daly.com/guests/regional.htm
La Sibérie compte pour 12% des terres émergées
Amaury (#9),
Je suis coiffé sur le poteau. Bravo Amaury.
Le texte original de RIA Novosty est ici. en bas de page.
La Russie touchée par Climategate
Une discussion sur la révélation en novembre 2009 , évoquée par certaines sources comme « Climategate », se poursuit dans le contexte de la Conférence ONU sur le climat avortée à Copenhague (COP 15) pour discuter d’accords de substitution pour remplacer le protocole de Kyoto de 1997 qui visent à lutter contre le réchauffement climatique.
L’incident a impliqué un serveur de messagerie utilisé par le Climatic Research Unit (CRU) de l’Université d’East Anglia (UEA), à Norwich, Est de l’Angleterre. Des inconnus ont volé et anonymement diffusé des milliers d’e-mails et autres documents traitant de la question de réchauffement global, réalisés au cours des 13 ans.
La controverse a surgi après que diverses allégations ont été faites, notamment que les scientifiques du climat se sont entendus pour retenir des preuves scientifiques et des données manipulées pour que le réchauffement mondial semble plus fort.
Le Climategate a déjà affecté la Russie. Mardi, l’Institut d’analyse économique (AIE) de Moscou a publié un rapport affirmant que le Centre Hadley pour le changement climatique basés au siège de l’Office météorologique britannique, à Exeter (Devon, Angleterre) a probablement altéré les données climatiques russe.
L’AIE estime les données de stations météorologiques russes n’étayent pas la théorie d’origine anthropique au réchauffement planétaire.
Les analystes disent que les stations météorologiques de Russie couvrent la plupart du territoire du pays, et que le Centre Hadley a utilisé les données fournies par seulement 25% de ces stations dans ses rapports.
Plus de 40% du territoire russe n’a pas été inclus dans le calcul global de température pour d’autres raisons, plutôt que le manque de stations météorologiques et observations.
Les données de stations situées dans des régions ne figurant pas dans la base du Hadley, Royaume-Uni (HadCRUT) souvent ne présentent pas de réchauffement très important dans la fin du 20e siècle et le début du 21e siècle.
La base de données comprend des stations de HadCRUT spécifiques fournissant des données incomplètes et mettant en relief le processus de réchauffement global, plutôt que les stations d’observations ininterrompues.
Dans l’ensemble, les climatologues utilisent des résultats incomplets de stations météorologiques beaucoup plus souvent que celles qui fournissent des observations complètes.
Les analystes de l’AIE disent que les climatologues utilisent les données de stations situées dans les grands centres de population qui sont influencés par l’effet du réchauffement urbain plus fréquemment que les données correctes de stations éloignées.
L’ampleur du réchauffement climatique a été exagérée en raison des distorsions de températures comptabilisées en Russie qui compte pour 12,5% de la masse terrestre du monde. L’AIE a déclaré qu’il était nécessaire de recalculer toutes les données de la température mondiale en vue d’évaluer l’ampleur de telle exagération.
Les données des températures globales devront être modifiées si des procédures similaires sont mises à jour ont été utilisés à partir d’autres données nationales parce que les calculs utilisés par les analystes de la COP15, y compris les calculs financiers, sont basés sur la recherche HadCRUT.
Marot (#21),
Premier complément.
Le papier original en russe de l’Institut d’analyse économique de Moscou est accessible ici.
Il est organisé comme suit :
1. Introduction
2. Baseline
3. Critères de sélection des stations météorologiques
4. L’uniformité de la distribution de certaines stations météorologiques à travers le pays
5. Durée de la période météorologique
6. Complétude (continuité) météorologique
7. La stabilité de l’emplacement des stations météorologiques
8. L’effet du réchauffement urbain
9. Résultats
L’analyse est très fouillée avec plusieurs exemples de stations et des courbes globales.
Extraits du § Résultats :
En d’autres termes, les employés HadCRUT ont fait une sélection systématique des données météorologiques, préférant une qualité moindre des données… En outre, ils semblent avoir délibérément refusé de décrire la température d’environ 40% du territoire de notre pays…
Compte tenu de l’écart négatif de la série de températures jusqu’au milieu des années 1950 (jusqu’à 0,56 ° C) et un écart positif de la série de températures dans le milieu des années 1990 (jusqu’à 0,08 ° C) l’exagération de l’ampleur du réchauffement par le personnel du HadCRUT, pour le territoire de la Russie de 1870 à 1990 peut être estimée à au moins 0,64 ° C.
Cette estimation est elle-même, très conservatrice, puisque nos calculs de la température sur le territoire de la Russie ont été faits par tous les moyens à la base de données Hydromet sans procéder à aucune sélection, et sans les corrections nécessaires, par exemple, l’effet de l’effet de chaleur urbaine.
Afin de clarifier l’étendue de cette surestimation, et raffiner les données sur les changements de la température mondiale, il est nécessaire de recalculer le tableau global de l’ensemble de données de température.
Si la procédure de traitement des données climatiques disponibles sur l’exemple de la Russie sont également applicables aux données relatives aux autres régions du monde, la correction inévitable du calcul de la température de la planète et de ses changements dans le siècle 20, peuvent être importantes.
Marot (#23), Deuxième complément et conclusion très provisoire.
1) Il faut se rappeler que Jones s’est vanté que GRL et JGR n’aient pas publié deux papiers embarrassants pour lui.
2) Le directeur de NIWA (Nouvelle Zélande) qui a obstinément refusé de livrer les données brutes de ses stations était un ancien du CRU.
3) Nous en sommes donc, pour les tripatouillages et truandages avérés à
Nouvelle Zélande,
Nord de l’Australie,
Russie.
Troisième complément a/s de la Russie.
1) Lisez Realclimate, bidonnant ou bidonné allez savoir.
C’est ce que Eric Steig a asséné dans Realclimate !. La méthode Coué a de beaux jours.
Note : Steig est l’inventeur avec Mann-de-la-crosse-de-hockey, du réchauffement de l’Antarctique par un choix « judicieux » de l’année de début. Leur prétendue mesure est de 0,1°/décennie pour un continent à huit stations périphériques. C’est de la précision mon bon monsieur, mais tous les réchauffistes ont repris la sottise.
2) Jones du CRU avait eu chaud en 2004. Deux papiers avaient été soumis à GRL et JGR disant que le CRU était dans l’erreur pour les températures en Sibérie.
Il écrivit alors à Mann-de-la-… en style abrégé :
Récemment rejeté deux papiers (un pour JGR et un pour GRL) de gens qui disent que le CRU a tout faux sur la Sibérie. J’ai bossé dur dans ces deux révisions, j’espère avec succès. Si un est publié je serai très surpris, mais on ne sait jamais avec GRL. Salut
Où l’on apprend incidemment que GRL et JGR font confiance à celui qui est critiqué pour décider si un papier est publiable.
Paradigme du changement climatique anthropique
1° Arguments du GIEC concernant l’influence de l’activité des taches solaire sur le climat
Il y a eu, il y a quelque temps, un débat organisé sur LCP sur le RCA (Réchauffement Climatique Anthropique), avec comme participants Jean Jouzel et Vincent Courtillot. Le scientifique « réchauffiste » présent Jean JOUZEL n’a sorti qu’un seul argument scientifique en disant que le fait que les couches supérieures de l’atmosphère se refroidissaient alors que les couches inférieures se réchauffaient était une preuve que le soleil n’avait pas de responsabilité dans le réchauffement.
Ceci contredit la prévision du GIEC qui prévoyait un réchauffement de la troposphère vers 10 -15 km au moins dans la zone équatorio-tropicale (ce que malheureusement aucun sceptique n’a relevé). Par honnêteté intellectuelle, Vincent Courtillot n’a pas contredit Jean Jouzel sur cette affirmation qui demanderait à être prouvée par de solides arguments scientifiques.
En fait, les données sur la haute stratosphère sont très clairsemées. La basse stratosphère s’est un peu refroidie par paliers (la température est stable depuis 15 ans maintenant) lors de chacune des éruptions volcaniques. Quand on voit les graphes il est hors de question d’attribuer ce refroidissement au CO2 mais plutôt aux résidus volcaniques.
Sans doute Jouzel parlait-il de la haute stratosphère où on a vaguement observé un refroidissement (données fragmentaires) il y a quelques années vers 50km d’altitude. Cette couche est à la limite de la mésosphère qui débute justement à cet endroit-là et la physico-chimie de cette région est très mal connue, et l’affirmation de Jouzel est donc très sujette à caution. Encore une affirmation sans preuve tangible…
Les mesures dans cette zone sont difficiles parce que les molécules y sont rares et rayonnent très peu.
Alors qu’il y a encore des batailles acharnées pour expliquer l’évolution du trou de l’ozone (rayons cosmiques ou pas ?) à 25 km d’altitude et que la théorie de Crutzen (pourtant Prix Nobel pour cela) est sérieusement remise en question…Il y a de multiples raisons pour que la température varie là haut et de plus, la température n’y est jamais constante et varie en fonction de la longitude.
Bref, c’est un argument que Jouzel sort régulièrement comme un fait acquis et non contestable , et c’est ce qu’il a ressorti lorsqu’il a été interviewé.
Quant à la haute troposphère, elle ne se réchauffe que très peu, beaucoup moins que les modèles le prévoient. Et ce ne sont pas les bricolages des pro-GIEC qui y changeront quelque chose…
Le chemin de la compréhension des mécanismes climatiques est parsemé d’embûches, surtout quand les dés sont parfois quelque peu pipés …
2° Scandale des experts du GIEC au CRU (Climate Research Unit – Université d’East Anglia)
Les données du CRU sont utilisées par le Hadley Center pour élaborer des rapports de travaux pour le GIEC.
Des extraits intéressants (cités par Watts, Motls, The Examiner, et bien d’autres) ont été traduits par « domip » sur lepost. fr :
From : Phil Jones To : ray bradley ,mann@virginia.edu, mhughes@ltrr.arizona.edu Subject : Diagram for WMO Statement Date : Tue, 16 Nov 1999 13:31:15 +0000 Cc : k.briffa@uea.ac.uk,t.osborn@uea.ac.uk Dear Ray, Mike and Malcolm,
Once Tim’s got a diagram here we’ll send that either later today or first thing tomorrow. I’ve just completed Mike’s Nature trick of adding in the real temps to each series for the last 20 years (ie from 1981 onwards) and from 1961 for Keith’s to hide the decline. Mike’s series got the annual land and marine values while the other two got April-Sept for NH land N of 20N. The latter two are real for 1999, while the estimate for 1999 for NH combined is +0.44C wrt 61-90. The Global estimate for 1999 with data through Oct is +0.35C cf. 0.57 for 1998. Thanks for the comments, Ray. Cheers Phil Prof. Phil Jones Climatic Research Unit Telephone +44 (0) 1603 592090 School of Environmental Sciences Fax +44 (0) 1603 507784 University of East Anglia Norwich Email p.jones@uea.ac.uk NR4 7TJ UK
(….) Je viens de terminer d’utiliser l’astuce Nature (ndt : la revue scientifique) de Mike (ndt : Michael Mann ??) qui consiste à incorporer les vraies températures à chaque série depuis les 20 dernières années (c. à .d. depuis 1981) et depuis 1961 pour celles de Keith’s (ndt : probablement Briffa) afin de masquer le déclin ( …)
A noter que le déclin dont il est question est probablement celui des températures, mais Phil Jones affirme que ce n’est sûrement pas cela mais qu’il ne se souvient plus de quoi il parlait à l’époque, ce qui n’a rien d’étonnant d’ailleurs. L’astuce « Nature » est décrite ici par St. McIntyre, qui est statisticien de formation.
D’autres font part de leurs propres doutes quant à la réalité du réchauffement :
The fact is that we can’t account for the lack of warming at the moment and it is a travesty that we can’t. The CERES data published in the August BAMS 09 supplement on 2008 shows there should be even more warming : but the data are surely wrong. Our observing system is inadequate.
Le fait est que nous ne savons pas expliquer l’absence de réchauffement actuellement et c’est ridicule. Les données du CERES publiées dans le supplément d’Août BAMS 09 en 2008 montre qu’il devrait y avoir encore plus de réchauffement : mais les données sont certainement fausses. Notre système d’observation est déficient.
D’autres évoquent la suppression de preuves, au moment de l’affaire du Freedom of Information Act qui exigeait que leurs données brutes et leurs algorithmes soient révélés :
Can you delete any emails you may have had with Keith re AR4 ? Keith will do likewise. He’s not in at the moment – minor family crisis. Can you also email Gene and get him to do the same ? I don’t have his new email address. We will be getting Caspar to do likewise.
Peux-tu effacer tous les emails que tu as échangés avec Keith re AR4 ? Keith fera pareil (…) Peux-tu également écrire à Gene et lui dire de faire de même ? (…) On va demander à Caspar de faire pareil.
Ici est évoquée la tentative de masquer la période de l’Optimum Médiéval (période médiévale pendant laquelle il faisait plus chaud qu’actuellement) :
I think that trying to adopt a timeframe of 2K, rather than the usual 1K, addresses a good earlier point that Peck made w/ regard to the memo, that it would be nice to try to “contain” the putative “MWP”,
(…) Je pense que le fait d’utiliser une période de 2000 ans plutôt que 1000 répond au problème soulevé précédemment par Peck par rapport au mémo, et que ce serait bien pour essayer de « contenir » le soi-disant « OM » (ndt : Optimum Médiéval)
On y apprend également les pressions exercées sur les revues scientifiques afin que les études réfutant le réchauffement climatique ne soient pas publiées…
I think we have to stop considering “Climate Research” as a legitimate peer-reviewed journal. Perhaps we should encourage our colleagues in the climate research community to no longer submit to, or cite papers in, this journal. We would also need to consider what we tell or request of our more reasonable colleagues who currently sit on the editorial board…What do others think ?
Je pense qu’il va falloir cesser de considérer « Climate Research » comme une revue à comité de lecture légitime. Peut-être devrions-nous encourager nos collègues de la communauté de la recherche climatique de ne plus soumettre d’article à ce journal ni citer d’articles de ce journal. Nous devrions aussi penser à en parler à nos collègues plus raisonnables qui siègent au comité éditorial… Qu’en pensez-vous ?
3° Commentaires sur un article de Ouest France (samedi 21 novembre 2009)
J’ai lu avec attention votre article de samedi sur le réchauffement climatique.
Voici mes principaux commentaires
a) Le titre de la page 1 est réducteur et laisse entendre que les dés sont jetés : il n’y a plus à discuter, les faits sont indiscutables et c’est bien l’homme qui est responsable du changement climatique (c’est aussi ce que proclame Al Gore, dont les compétences scientifiques en la matière sont aussi minimalistes que celles de Nicolas Hulot). Inquisition, quand tu nous tiens ….
b) J’ai toutefois apprécié l’article de Bernard Le Solleu qui laisse la porte très très légèrement entrouverte sur des interrogations quant aux influences du soleil et des variations orbitales de la Terre.
c) Jean Jouzel (vice-Président du Groupe 1 du GIEC) utilise les données du GIEC fournies par le CRU et ses conclusions vont donc logiquement dans le sens du réchauffement climatique anthropique…..
Or, ces données ont une histoire étrange: quand le géophysicien Vincent Courtillot a demandé à les recevoir pour analyse, sa demande a été rejetée sine die …Puis, peu de temps après, le CRU a déclaré qu’elle avaient été perdues suite à un bogue informatique….
Enfin, récemment, un hacker a récupéré (cela n’est pas bien, mais enfin cela nous donne des informations précieuses sur les manipulations de données par certains membres du GIEC) sur le site du CRU/Hadley Center divers courriels échangés par les scientifiques « grands prêtres du GIEC ». Ces courriels ont été diffusés sur le Net, et le directeur du Hadley Center a confirmé leur authenticité. Je vous joins ceux que j’ai pu récupérer sur le NET: c’est édifiant, et cela confirme qu’il y a la volonté de manipuler les données pour qu’elles soient conformes aux idées des « intégristes climatiques ». C’est de la pseudo-science.
L’hypothèse du hacker est maintenue par le CRU et les gens impliqués, mais ne serait-il pas absurde de penser que cela provient de l’interne (un employé du CRU qui n’en pouvait plus) ? En tout cas, un hacker n’aurait pas pu faire un tel tri, aussi rapidement, sans être lui même scientifique.
Vincent Courtillot est un géophysicien reconnu et, comme tout scientifique digne de ce nom, il n’affirme pas péremptoirement comme Jean Jouzel mais fait part de ses travaux et de ses conclusions, sachant qu’elles peuvent être soumises au feu de la critique par ses pairs. Cela est une vraie démarche scientifique et non pas un comportement de pseudo-scientifique.
Sachez par ailleurs qu’une expérience très importante est prévue débute 2010 avec utilisation du nouvel accélérateur du CERN : il s’agit du projet CLOUD, qui doit vérifier si les rayons cosmiques solaires génèrent des nuages, donc du refroidissement de la planète. Une première expérimentation d’une équipe scientifique danoise semble montrer que cela correspond à la réalité, mais CLOUD sera une expérience cruciale. Wait and see …
d) Ferenc Miskolczi est un physicien de l’atmosphère spécialisé dans les transferts radiatifs. Il a longtemps travaillé au sein de la NASA en tant que directeur de recherches, sur plusieurs projets de mesures à distance (remote sensing) dans l’atmosphère et sur l’évaluation du budget radiatif de la terre (Source site « Pensée Unique » ). Ses travaux remettent en cause le modèle standard utilisé par le GIEC. Cela mérite au moins que l’on s’intéresse à ces travaux et que l’on s’interroge sur la pertinence du modèle du GIEC….
J’espère que ces informations vous éclairerons sur le débat contradictoire en cours et qui fait énormément de bruit « behind the channel » et dans les pays anglo-saxons, contrairement à la France qui pratique presque toujours l’omerta et la désinformation.
En tout état de cause, je pense que nous devons faire preuve d’humilité et nous garder d’affirmer péremptoirement le paradigme du changement climatique anthropique. Nous progressons dans la compréhension des mécanismes du climat, mais nous sommes toujours en « terra incognita ».
4° Emission de France 5 du mercredi 25 novembre 2009 (Jean-Marie Cavada)
Cette émission, qui est un terrible exemple de désinformation , a, à l’évidence, trois objectifs :
– il y a réchauffement climatique, ceci n’est plus à discuter
– l’homme, par ses émissions de CO2, est seul responsable de ce réchauffement climatique
– faire peur et nous culpabiliser en montrant exclusivement des catastrophes climatiques (montées des eaux océaniques, assèchement des lacs (lac Tchad), désertification, augmentation des fréquences et des forces des cyclones et ouragans, triste sort des réfugiés climatiques sans statut juridique, …)
Concernant la désertification, rappelons-nous que l’Espagne, qui était un pays verdoyant, est devenu aride à la suite de déforestation massive. Le CO2 n’y est pour rien.
On peut s’interroger sur les causes réelles des problèmes du Bengladesh, qui sont présentées comme conséquence de la destruction des côtes par l’océan. Or il s’avère que le Bengladesh regagne du terrain depuis une bonne trentaine d’années, grâce aux apports de sédiments en provenance de la chaîne himalayenne, véhiculés pendant la mousson par le Gange et le Brahmapoutre. C’est pendant la mousson que des milliers de personnes se noient à cause des inondations générées par les pluies torrentielles, et c’est pour cela que de nombreuses personnes tentent de quitter cette région.
Katrina a été présenté avec force détails, mais le présentateur s’est bien gardé de rappeler que ces inondations catastrophiques ont pour origine la réduction drastique des zones tampon, ce que les scientifiques américains n’ont pas manqué de souligner. Mais, dans notre beau pays, ce point très important a été occulté. Bel exemple d’omerta médiatique, qui fait la honte de nos chaînes nationales….(entre autres…)
La fonte des glaciers du Groenland, ce pays-continent qui fut vert quand les Vikings l’ont découvert, a commencé à partir des années 1860. Or, à cette époque, il n’y avait point, que je sache, de dégagement massif de CO2 anthropique… Concernant la fonte des neiges du Kilimandjaro, l’origine principale en est le déboisement massif dans la région, ce qui a fortement réduit l’enneigement et les fontes d’été n’ont pu être compensées.
Les projections de montée des eaux océaniques, faites sur ordinateur, en utilisant les modèles du GIEC, semblent effectivement cataclysmiques et génèrent un climat (oui ! …) de peur et de culpabilité . Mais les modèles du GIEC sont-ils corrects ? S’ils l’étaient, leur utilisation sur la période 2000-2009 devrait être en phase avec les relevés de température satellitaires. Or il ne le sont pas, donc leur projections ne sont pas crédibles. Il serait donc souhaitable que le GIEC revoie ses modèles et vérifie leur pertinence sur une période passée dont les températures sont connues grâce aux satellites d’observation.
Les dirigeants de l’archipel de Tuvalu ont bien compris comment exploiter cette peur, en demandant aux affreux pollueurs occidentaux de les aider financièrement et d’accueillir chez eux les pauvres réfugiés climatiques qui ne manqueront pas d’affluer….Or, depuis la fin des années 70, aucune augmentation de niveau de l’océan aux Maldives n’a été constatée par les mesures.
Les « très bonnes études du Grand Machin Onusien» affirment qu’il y a actuellement 300 000 morts par an à cause des catastrophes climatiques. J’ignore si ce chiffre que l’on nous assène est correct ou non, mais je souhaiterais en connaître le détail précis, car je suis très dubitatif ….Le réchauffement observé à la fin du vingtième siècle s’est fait majoritairement par moins de froid (hivers moins froids alors que les étés sont à peine plus chauds, et nuits moins fraîches alors que les journées sont à peine plus chaudes). Cela revient à dire que le réchauffement qui a été observé était plutôt positif : peu de changement quand il faisait déjà chaud, et moins froid là ou il faisait froid.
Il est pour le moins curieux que, dans cette émission, aucun contradicteur n’ait pu exprimer un avis différent… Sont intervenus : Chr. Cournil (juriste), Fr. Gemenne (doctorant au Centre d’Etudes de l’ethnicité et des migrations), P. Neleson (ambassadeur de Tuvalu auprès du royaume de Belgique), Hélène Flautre (Europe Ecologie), H. Le Treut (climatologue, membre du groupe d’experts intergouvernementaux sur l’évolution du climat) , Atik Rahman, Président du GIEC, Hervé Le Bras (démographe) et Michel Serres (philosophe).
Pensée Unique, quand tu nous tiens….C’est effarant, et ceci au 21ème siècle. Mais où sont passées les idées du siècle des Lumières ? Noyées dans la montée des eaux ? Carbonisées par le réchauffement climatique ?
J’ai honte de cette omerta (encore une exception française ! …) et j’ai honte de cette pseudo-science véhiculée par les media, les écologiques intégristes et les politiques de tout bord.
Monsieur Cavada, il fut un temps où j’avais pour vous une certaine estime, mais cette estime se situe à présent bien bas, à quelques kilomètres sous nos pieds, en un lieu où, selon M. Al Gore (expert en matière scientifique et en climatologie), la température est de plusieurs millions de degrés (°C, °K ou °F, cela importe peu…).
La vérité finira par émerger, et alors, les défenseurs du paradigme auront perdu toute crédibilité…