Un Cadeau de Noël

source
Le Docteur Bill Gray CSU (Colorado State University) est un bon ami, un prévisionniste en ouragan mondialement reconnu, et le doyen des sceptiques du réchauffement global. Il a reconnu les problèmes de la théorie du réchauffement global des décennies avant la plupart des vrais croyants comme moi-même. En 1996 Bill Gray prédit correctement un léger refroidissement pour les 20-30 prochaines années.

Écrit par Bill Gray en 1996


gray1.jpg gray2.jpg

(Traduction) Nous nous attendons à ce que ces changements de la circulation thermohaline amène une augmentation d’activité d’ouragans intenses (ou majeurs) et à un petit refroidissement de la température globale de surface. Il est probable que la température moyenne globale de surface dans les 20-30 prochaines années sera plus conditionnée par la nature que par des influences anthropiques et ira vers un léger refroidissement, non un réchauffement.

Comme cadeau de Noël spécial, le Dr. Gray nous a donné un article contenant un peu de sa connaissance atmosphérique qu’il a accumulée les sept décennies passées. Mieux qu’un cours universitaire, et beaucoup moins cher ! Et on peut ouvrir ce cadeau un jour à l’avance.


L’élévation du taux de CO2 ne causera qu’un réchauffement minime
Par William M. Gray
Professeur émérite
Université de l’État du Colorado
24 décembre 2014

Résumé

Le mouvement international du réchauffement global massivement financé a grossièrement exagéré la menace de l’augmentation du CO2. Cette peur du réchauffement a été conduite par une cabale de politiciens internationaux et de groupes environnementaux utilisant des prédictions de modèles climatiques erronés pour laver le cerveau d’un public mondial désinformé. Leur but était d’effrayer le public pour lui faire accepter un gouvernement mondial et des restrictions de leurs libertés et de leur style de vie afin de prévenir une catastrophe climatique prochaine inventée. Peu importait la véracité de leurs assertions sur le réchauffement par le CO2. Ce qui importait était le niveau auquel le public pouvait être endoctriné pour croire à la menace. Les nombreuses grandes anticipations de réchauffement ne se produisent pas et ne se produiront pas dans les années à venir. La science sous tendant ces prévisions de réchauffement par le CO2 est gravement déficiente et doit être révélée au public. Nous ne verrons qu’un réchauffement global négligeable induit par le CO2 dans les décennies à venir. Les changements de température futurs qui se produiront effectivement seront naturels et résulteront principalement de changements dans les modes de circulation de l’océan profond et dont le moteur primaire est la variation de salinité. Nous ne pouvons et ne devrions rien faire à propos du changement climatique naturel mais nous y adapter.

Le progrès économique nécessite que les Etats Unis et le monde continuent avec les combustibles fossiles et augmentent leur utilisation. Aucun changement important vers les énergies éoliennes et solaires infiniment plus coûteuses ne doit être entrepris. Un tel changement abaisserait grandement le niveau de vie aux Etats-Unis et dans le monde et n’aurait aucun effet sur le climat global. Cette comédie du réchauffement global doit s’arrêter. Le temps et la vérité sont du côté des sceptiques du réchauffement.

Les Conditions actuelles

L’accroissement des quantités de CO2 dans l’atmosphère ces 18 dernières années n’ont causé aucune augmentation de la température moyenne globale. En dépit de copieuses déclarations médiatiques et scientifiques contraires, la température globale, le volume global de glace, les météos, inondations, sécheresses, cyclones tropicaux, tornades sévères, etc. ne montrent aucun des changements prédits par les alarmistes du réchauffement et les nombreux modèles de simulation numérique sur lesquels ces assertions réchauffistes sont scientifiquement basées. Je suis certain que les observations des prochaines années discréditeront plus encore cette hypothèse de réchauffement provoqué par le CO2.
Je recommande fortement le lecteur de consulter régulièrement le blog Real Science de Steve Goddard pour une beaucoup plus ample documentation sur la toujours plus grande faillite des prévisions de réchauffement global par le CO2. Goddard donne aussi de nombreux exemples indiquant comment les agences climatiques et de météo de notre gouvernement et des autres ont artificiellement abaissé les anciennes mesures de température pour donner ainsi l’apparence d’une plus grande tendance au réchauffement que celle qui a réellement eu lieu. Cette falsification des températures apparentes est contraire à toute méthode scientifique et doit être révélée et corrigée par un comité d’investigation indépendant.

Le grand public, n’ayant pas le bagage technique pour juger du sérieux des ces nombreuses et incessantes déclarations alarmistes sur le réchauffement, a subi un lavage de cerveau. Une alliance malsaine s’est développée entre le gouvernement et les scientifiques du climat. Le large niveau apparent de soutien scientifique à l’hypothèse du réchauffement climatique par le CO2 a été obtenu par de massives subventions attribuées à ces scientifiques désireux de soutenir (ou de ne pas critiquer) de telles affirmations de réchauffement climatique à motif politique.
Nous voulons tous avoir confiance dans notre gouvernement et croire que les médias nous donnent des nouvelles objectives. Mais avec les incessantes déclarations alarmistes du gouvernement et des médias sur la capacité croissante du CO2 de provoquer un réchauffement global dangereux dans le futur nous devons tous devenir sceptiques. N’ayant pas la possibilité d’entendre l’argumentation de l’autre bord sur le réchauffement global, le public a été abusé. Les nombreux arguments scientifiques contre l’hypothèse d’un réchauffement global induit par l’homme ont été intentionnellement ignorés par les médias et non discutés par le gouvernement. Lorsque de tels arguments contraires au réchauffement se font occasionnellement connaître, ils sont durement critiqués par des environnementalistes, des célébrités et des officiels du gouvernement qui ne connaissent à peu près rien de la façon dont le système climatique global fonctionne.
Un dialogue scientifique ouvert et honnête sur le problème du réchauffement global reste à établir. L’affirmation selon laquelle l’argument scientifique du fort réchauffement global induit par le CO2 est établit est une totale invention.

Le Cœur de la Science Approximative
(Rétroaction de la vapeur d’eau et refroidissement par évaporation de surface)


Il y a de nombreuses approximations dans les modèles du climat global. Mais l’approximation la plus grande résulte de l‘incapacité des modèles climatiques à prendre en compte de façon réaliste les changements de petite échelle horizontale (et impossible à modéliser) apportés par les milliers d’éléments nuageux (Figure 1) de cumulonimbus (Cb) épais. Un accroissement du total de ces épais éléments Cb convectifs augmente l’assèchement de la troposphère supérieure (Figure 2). Ceci contraste avec les affirmations implicites des simulations des Modèles de Circulation Générale (GCM) qui accroissent la vapeur d’eau de la troposphère supérieure résultant de précipitations et de convection de Cb accrues associées aux niveaux plus élevés de CO2.

gray3.jpg

Figure 1. Illustration montrant que les larges mailles des modèles de GCM ne peuvent résoudre les éléments individuels de nuages convectifs et tout le mouvement local vertical montant et descendant entre les mailles. Cette convection sous l’échelle de la grille peut provoquer une augmentation de l’évasion d’IR vers l’espace et moins de réchauffement que ne le permettent les GCM plus grossiers.

gray4.jpg

Figure 2 Un portrait idéalisé des zones nuageuses et de pluies de cumulus épais. Le schéma gauche illustre la masse descendante de niveau supérieur provenant du cumulonimbus épais pluvieux. Cette descente agit en asséchant et réchauffant la troposphère supérieure. Le schéma de droite montre l’advection de la vapeur d’eau et des particules de nuages des mêmes zones de forte précipitation. Les observations montrent que la descente-assèchement dans la troposphère supérieure est plus importante que le remplacement de la vapeur d’eau et de l’eau du nuage par l’advection et l’évaporation vers l’extérieur de l’air humide. La convection augmentée dans le cumulonimbus amène un assèchement du niveau supérieur et une évasion d’IR vers l’espace.

Les simulations des modèles découlent des concepts physiques irréalistes émanant de la National Academy of Science (NAS) de 1979 (ou rapport Charney). Ce rapport supposait que quand la troposphère s’échauffe du fait de l’accroissement de CO2 ce réchauffement est accompagné (voir la relation de Clausius-Clapeyron entre température et humidité) par une élévation de l’humidité de façon à ce que l’humidité relative (RH) de l’air reste pratiquement constante quand la température augmente. La revendication de cet accroissement d’humidité ajoutant un blocage supplémentaire au rayonnement IR vers l’espace au-delà de ce que le CO2 avait fait lui-même découle implicitement de cette assertion de la NAS sur le réchauffement induit par le CO2. Le blocage net d’IR vers l’espace via l’augmentation du CO2 était donc assumé provenir non seulement du CO2 lui-même mais aussi du gain de vapeur d’eau nécessaire au maintien quasi constant de la RH à mesure de l’élévation de température. Cette vapeur d’eau supplémentaire était montrée par les modèles comme ayant deux fois l’effet de l’accroissement du CO2 lui-même sur la réduction de l’évasion des IR vers l’espace. Donc, chaque accroissement du CO2 d’une unité de rétention des IR vers l’espace amènerait simultanément deux unités de rétention des IR vers l’espace par la vapeur d’eau. Cette humidité additionnelle liée au blocage de l’évasion des IR vers l’espace (associée au réchauffement induit par le CO2) a été appelée ‘rétroaction positive de la vapeur d’eau’. Tous les modèles climatiques CO2 présentent une forte rétroaction positive de la vapeur d’eau.

C’est ce lien large et direct de l’accroissement de vapeur d’eau avec l’accroissement de température induit par le CO2 qui constitue le défaut physique primaire de tous les modèles de simulation GCM de doublement du CO2. C’est la raison pour laquelle tous les GCM ont fortement surévalué l’importance du réchauffement global qui se produirait en cas de doublement du CO2 atmosphérique. Les observations montrent que le réchauffement ou le refroidissement de la troposphère supérieure ne se produit pas avec une RH quasi constante.

La température et la RH tendent à changer de façon inverse l’une de l’autre et non à l’unisson comme le prétendent les modèles. Mes études sur bien des décennies de la convection des cumulus et de la formation des cyclones tropicaux m’ont persuadé que le Rapport NAS 1979 (Charney) d’après lequel une augmentation du taux de CO2 s’accompagnera d’une augmentation de la vapeur d’eau n’est pas une évaluation réaliste de la façon dont ces paramètres se modifient dans la troposphère supérieure.
Les simulations GCM CO2 sont conçues de façon à ce que leurs simulations d’humidité impliquent que les variations de vapeur d’eau s’effectuent uniformément aux niveaux troposphériques supérieurs et inférieurs. Au contraire, les observations des variations d’humidité aux niveaux troposphériques supérieurs et inférieurs montrent qu’elles ont peu de lien entre elles (Figure 3)

gray5.jpg

Figure 3. Corrélation des variations d’humidité entre troposphère inférieure et supérieure. Les modèle GCM simulent les mêmes variations d’humidité à tous les niveaux de la troposphère – corrélation élevée. Cependant, les observations montrent une faible corrélation des variations d’humidité entre les niveaux troposphériques inférieurs et supérieurs.

Notre analyse des observations montre que l’augmentation de la fréquence et de l’intensité dans les cumulonimbus (Cb) apporte une relative baisse de vapeur d’eau dans la troposphère supérieure, et non une humidification comme montré par les simulations de modèles. Plus les Cb sont épais et intenses plus intenses sont les précipitations. Les Cb précipitent la plupart de leur humidité lorsqu’ils dépassent le sommet de leur couche limite de sustentation vers 300 mb (~ 10 km) et pénètrent plus haut dans la troposphère stabilisante en s’affaiblissant et terminant leur ascension. L’affaiblissement de l’ascension verticale des Cb à ces niveaux élevés ne laisse que peu d’humidité au niveau supérieur lorsqu’ils s’affaissent. Leurs courants ascendants déposent leur contenu d’humidité saturé mais minuscule et des cirrus liquides haut dans la troposphère. Ce sont des hauteurs auxquelles les gradients verticaux de saturation sont, en termes de pourcentage, très grands. Toute subsidence de ces froids échantillons d’air saturé du niveau supérieur vers des niveaux inférieurs plus chauds provoque une réduction particulièrement importante de la RH de l’air descendant.

Par exemple un échantillon d’air saturé à 200 mb (altitude 12 km) et une température de -53°C contiendra très peu d’humidité même saturée. Si cet échantillon descend sans se mélanger à 300 mb (~ 10 km) et prend la température de l’air à cette hauteur il verra sa RH passer de 100 à seulement 12% (figure 4). Une telle subsidence, induite par le Cb, de l’air du niveau supérieur vers les niveaux inférieurs provoque un assèchement du niveau supérieur et avec elle un passage accru des IR vers l’espace. Le contraste entre ces deux processus est visible à la Figure 5. Le défaut déterminant des modèles est qu’ils n’ont pas fait un bilan haut-bas du mouvement vertical de la troposphère supérieure qui aurait été pris en compte dans la forte pluviosité de l’air du Cb qui pénètre au-dessus de 300 mb et la subsidence du flux de retour très sec.

gray6.jpg

Figure 4 Illustration du gradient vertical d’air saturé de la troposphère supérieure extrême sous les tropiques. Cette table montre la décroissance de la RH par de l’air saturé descendant de 100 mb entre différents niveaux de pression lorsqu’il prend la température de l’air des niveaux inférieurs. L’humidité résultante aux niveaux inférieurs est donnée à droite. Par exemple, de l’air saturé descendant de 200 à 300 mb sans mélange et conservant son humidité mais prenant la température de l’air à 300 mb aurait une RH de 14 pour cent seulement (cartouche vert).

gray7.jpg

Figure 5 Deux vues contrastées des effets de la convection de cumulus épais. Le schéma du haut met l’accent sur l’assèchement supplémentaire de la subsidence du flux de retour avec la forte convection. Un flux d’IR supplémentaire est émis vers l’espace. Par contraste, le schéma du bas montre comment les modèles climatiques globaux (GCM) typiques interprètent la masse de décharge des cumulus épais comme ajoutant de vapeur d’eau à la troposphère supérieure et diminuant l’évasion d’IR vers l’espace. Le schéma du bas n’est pas réaliste quant à la façon dont la convection de Cb fonctionne dans l’atmosphère.


Exemple. Pour équilibrer l’influence d’un doublement du CO2 par le seul rayonnement il faudrait que la température du globe s’élève de 1°C. Les modèles supposent alors que le réchauffement induit par le CO2 (selon les hypothèses du rapport Charney) causera une augmentation de l’humidité qui réduira encore l’évasion des IR vers l’espace, ce qui fera qu’il y aura un réchauffement supplémentaire du niveau supérieur de 2°C derrière le réchauffement intrinsèque du CO2. La combinaison de ces deux processus est supposé provoquer un réchauffement global du niveau supérieur de 3°C sur l’ensemble des tropiques (30°N-30°S). De ces 3°C de réchauffement, 2°C seraient imputés à un réchauffement par rétroaction positive de la vapeur d’eau. Attendre une augmentation positive si forte et une rétroaction positive de la vapeur d’eau d’un doublement du CO2 est assez irréaliste.
Notre analyse s’étalant sur de nombreuses années d’observations de l’International Satellite Cloud Climatology Project (ISCCP) des pertes d’IR vers l’espace en lien avec une convection et une précipitation de Cb augmentées ne montre pas de réduction des IR vers l’espace (comme les modèles le prévoyaient) mais au contraire une augmentation. Notre analyse des données montre, contrairement aux modèles, une rétroaction négative de la vapeur d’eau – plus la précipitation est importante, moins le taux de vapeur troposphérique est élevé et plus les passages d’IR vers l’espace sont importants (Figure 6)

gray8.jpg

Figure 6. Variations de température humidité spécifique (q – gm/kg) et humidité relative (RH) par zones entre deux ré analyses de données différentielles pour les tropiques. Les moyennes de différences de précipitations sont de 3.9 pour cent pour les 10 plus élevées moins les 10 plus basses mensuelles, et de 1.9 pour cent pour les différences des données (95-04)-(84-94). Les valeurs négatives sont en rouge. Tous les paramètres d’humidité à 300 mb montraient des diminutions de vapeur d’eau et de RH avec l’augmentation des précipitations.


Le réchauffement global réel attendu. Sans variation de vapeur d’eau de la troposphère supérieure et sans augmentation du refroidissement par évaporation de surface avec des précipitations supplémentaires, la pure réponse radiative à un doublement du CO2 indiquerait que nous pourrions attendre un réchauffement global de 1°C. Mais même avec une variation de vapeur d’eau estimée nulle ce réchauffement de 1°C est de deux à trois fois celui qui prendra probablement place. Ceci parce qu’environ 60 pour cent des 3.7Wm IR bloqués par un doublement de CO2 seront contrebalancés par un renforcement de l’évaporation de surface et un accroissement du cycle hydrologique global d’environ 2,5 pour cent. On s’attendrait donc à ce qu’une rétroaction de vapeur d’eau nulle n’apporte qu’une élévation de température d’environ 0.4°C pour un doublement du CO2.
Nous voyons qu’il y a une très modeste rétroaction négative de vapeur d’eau de 0.1 à 0.2°C. Ceci étant nous devrions nous attendre à ce que l’importance du réchauffement global qui résulterait d’un doublement du CO2 soit de seulement 0.2 à 0.3°C soit environ 5-10 pour cent de ce qui est projeté par les divers modèles globaux de 2-4°C. La menace RCA et particulièrement la menace de RCA catastrophique ne peut être une affirmation réaliste de la façon dont fonctionne le système climatique de la planète.

Poursuivre le Progrès Économique
Si cette évaluation est correcte, alors la population du globe n’a pas à s’inquiéter de l’élévation du taux de CO2 pour l’instant. Une utilisation accrue des carburants fossiles l’augmentation des gains économiques devrait continuer. Le monde a besoin de grandement réduire sa préoccupation envers la menace fabriquée d’un réchauffement global par le CO2. Nous devons nous concentrer sur les nombreux, plus légitimes et plus sérieux problèmes mondiaux qui s’imposent à nous.
Nous devrions tous être reconnaissants pour les formidables progrès de la qualité de vie, de la santé et du bien être général que l’utilisation de combustibles fossiles a rendu possibles. L’énergie des combustibles fossiles a été une des plus grandes bénédictions de l’humanité. De plus hauts niveaux de l’usage des combustibles fossiles apportera encore de plus grands bénéfices économiques et sociétaux. Plus de CO2 améliorera la croissance de la végétation, un petit accroissement des précipitations dans le monde, et une très petite élévation de la température globale – tous changements positifs pour l’humanité.
Beaucoup de personnes qui acceptent que les hommes dégradent leur environnement confondent des problèmes d’environnement locaux et réchauffement global induit par le CO2. Il y a une grande différence entre les deux. Nous devons tous lutter pour réduire ou éliminer la pollution locale et les risques sanitaires mais ignorer les faux discours sur le sauvetage de la planète du réchauffement climatique par le CO2 fruit de l’imagination.
La démarche la plus raisonnable pour notre pays et le monde à l’heure actuelle devrait être d’avoir l’anticipation et le courage ‘ne rien faire’ à propos de l’augmentation du taux de CO2 et autres gaz à effet de serre qui sont envoyés dans l’atmosphère. Les prochaines générations seront en meilleure position pour décider si une quelconque réponse humaine à l’élévation du niveau de CO2 pourrait se justifier.

Expérience de l’auteur
L’auteur détient un diplôme de MS (météorologie) et un Ph. D. en géophysique de l’Université de Chicago. Il a occupé les postes de prévisionniste météo, chercheur et professeur d’université durant 60 ans. Il a supervisé 70 étudiants en MS et Ph. D.
Il est à l’origine de, et a été impliqué dans la prévision des ouragans du bassin Atlantique ces 31 dernières années.
Gray n’a jamais reçu de financement de recherche d’aucune source de combustibles fossiles. Sa position sur le problème du réchauffement climatique lui a valu ces dernières décennies de perdre toutes les aides fédérales pour la recherche qu’il recevait auparavant. Il continue ces recherches sur ce sujet sur ses propres fonds. Gray et ses collègues du projet de recherche de l’Université du Colorado ont publié durant de nombreuses années de nombreux articles et de nombreux rapports d’études sur la convection des cumulus et les processus d’humidité atmosphérique. C’est sur ce sujet que les modèles climatiques manquent de réalisme et c’est la principale raison de leurs prévisions grossièrement irréalistes de fort réchauffement. On peut trouver ces articles et ces rapports à http://tropical.atmos.colostate.edu/

Traduction : Scaletrans

Le Soleil a une influence significative sur le Climat

Par Nicola Scafetta

Traduction par Scaletrans.

Introduction

Selon le dernier rapport du GIEC, AR5, l’influence du Soleil sur notre climat depuis l’ère préindustrielle, en termes de forçage radiatif, est très faible comparée à la variation du forçage radiatif due à l’ajout anthropique de de gaz à effet de serre : 0.005 [0.00 à 0.10] W/m² contre 2.29 [1.13 à 3.33] W/m². Donc, le GIEC dit que les changements de l’activité solaire sont pratiquement négligeables comparés à l’influence anthropique. Peut-on avoir confiance dans cette interprétation ?

Lors d’un cours fameux, Feynman nous rappelle que les modèles scientifiques doivent prédire les observations physiques. Si cette condition essentielle n’est pas remplie, un modèle physique ne peut être considéré comme valide ou complet, et la science ne peut être considérée comme « établie ». En fait, il a été démontré qu’il y a des divergences sérieuses entre les prédictions des modèles climatiques de circulation générale (GCM) et les données (c.f. Scafetta 2013b). Donc il est légitime de remettre en cause la science qui sous-tend l’interprétation du GIEC et d’examiner les interprétations alternatives des changements climatiques.

Je résume ici comment la littérature scientifique alternative à la thèse selon laquelle le Soleil ne contribue que peu  au changement climatique a traité  le problème. En réalité, les enregistrements du soleil et de la température globale de surface semblent relativement corrélés aussi bien sur des échelles de temps courtes que longues si l’on adopte les méthodologies et modèles solaires appropriés. Il est nécessaire cependant de clarifier quelques concepts à cause de l’absence de consensus sur la contribution du Soleil aux changements climatiques. Je crois que beaucoup de gens sont quelque peu désorientés à ce sujet. Lire la suite

La question climatique n’est pas une affaire résolue

Traduction Scaletrans.

Nous sommes très loin d’avoir les connaissances nécessaires à une bonne politique du climat écrit l’éminent scientifique Steven E. Koonin.

La question scientifique essentielle n’est pas de savoir s’il y a un changement climatique. Ce qui est sûr c’est que le climat a toujours changé et changera toujours. Mitch Dobrowner

L’idée selon laquelle “la science climatique est une affaire résolue” est courante dans les discussions populaires ou politiques actuelles. Malheureusement, cette assertion est trompeuse. Elle a non seulement faussé nos débats publics et politiques sur les problèmes énergétiques, les émissions de gaz à effet de serre et l’environnement, mais elle a aussi inhibé les discussions scientifiques et politiques que nous devons avoir sur notre climat futur.Mon expérience en physique numérique avec une carrière de 40 ans de recherche scientifique, conseil et management en université, gouvernement et secteur privé m’a donné une intime connaissance de la science du climat. Des discussions techniques approfondies durant les dernières années avec d’éminents scientifiques du climat m’ont donné une compréhension encore meilleure de ce que nous savons et ne savons pas à propos du climat. J’en suis venu à comprendre l’intimidant défi de la réponse à donner aux questions des décideurs politiques et du public. Lire la suite

Allemagne : le rêve d’un parc éolien offshore géant tourne au cauchemar

Par Pierre Gosselin, traduction Scaletrans.

Le numéro 35/2014 de Spiegel Magazine attire l’attention sur l’échec grandissant du premier projet ambitieux d’énergie éolienne offshore, BARD Offshore 1, qui vise à devenir un modèle pour le monde en fournissant sur une large échelle une énergie verte et propre.

Le parc éolien BARD 1, miné par des problèmes techniques majeurs et sans solution visible, effraye toute l’industrie Allemande de l’offshore.

Pour l’instant, les choses auraient difficilement pu aller plus mal sur le plan technique, et maintenant sur les plans financiers et juridiques. Pour l’Allemagne, une nation hautement estimée en science, ingénierie et prouesses techniques, le projet d’énergie à grande échelle menace de tourner en  déconfiture monumentale. Voir le contexte ici et ici.

Filtres électriques grillés

Le problème concerne le parc éolien offshore BARD 1 en Mer du Nord. Initialement le parc fut officiellement ouvert en Août de l’an dernier, mais a du être coupé immédiatement en raison de problèmes techniques.

Puis en mars 2014, les ingénieurs tentèrent à nouveau de mettre en ligne l’énorme parc éolien, et ils échouèrent de nouveau car un court-circuit (wild current) grilla les filtres d’un transformateur électrique au large après juste quelques heures.

A l’heure actuelle, 6 mois plus tard, il semble que les ingénieurs ne soient pas près de trouver une solution.

Energie perdue évaluée à 340 millions d’euros

L’édition papier du Spiegel note que les ingénieurs s’efforcent de solutionner les problèmes techniques en question pour amener la production de 80 éoliennes 100 km au large jusqu’au rivage via un transformateur et sur le marché. Le projet a maintenant pris plus d’un an de retard et Spiegel estime que le manque à gagner en énergie non produite pourrait atteindre 340 millions d’euros.

Maintenant les avocats s’y mettent

Comme les retards et les pertes financières s’accumulent, les investisseurs et les banques, qui ont versé des milliards dans le projet, deviennent de plus en plus nerveux. Spiegel écrit que non seulement l’origine des problèmes techniques est fiévreusement recherchée, mais c’est aussi la chasse aux responsables. Spiegel écrit :

En fait, non seulement les ingénieurs travaillent fiévreusement aux réparations, mais les avocats sont aussi impliqués. En même temps tout se résume à la question de la responsabilité du fiasco – et des coûts.

Spiegel : « un problème pour toute l’industrie verte »

Les problèmes à BARD 1 sont si graves que Spiegel dit que c’est « un problème pour l’ensemble de l’industrie de l’énergie verte« . Le Trianel Windpark Borkum, le deuxième projet éolien Allemand en importance, est prévu d’entrer en production ce mois-ci, mais personne n’est sûr que le parc fonctionnera en douceur rapporte Spiegel.

« 
C’est un système presque totalement défectueux« 

Le problème, écrit Spiegel, est que le parc éolien est loin au large, ce qui fait qu’il est impossible d’amener la puissance à la côte avec une technologie conventionnelle. Le courant ne peut pas être acheminé à la côte en alternatif mais doit être transmis comme courant continu. Malheureusement, cette fonction n’est pas facile à gérer.

Spiegel cite un expert pour savoir s’il sera possible de résoudre les gros problèmes. Hans Günter Eckel, Professeur d’Electronique de Puissance à l’Université de Rostock :

« Il est fort probable qu’il ne s’agisse pas que d’un seul élément responsable, mais plutôt d’un système totalement défectueux. Il va falloir de la patience. C’est une technologie entièrement nouvelle et complexe. »

Spiegel résume cela :

L’industrie est nerveuse. Chez Trianel, ils ont décidé de suspendre la décision de construire un parc éolien supplémentaire de 200 MW jusqu’à plus ample informé.

Tout à coup chacun joue la prudence – attendant de voir si BARD 1 fonctionne. Au fond ils commencent à se demander si l’ensemble du projet est faisable ou non, question qui aurait du être posée il y a des années.

Une chose devient très claire : dans la ruée folle vers l’énergie verte, investisseurs et politiciens ont mis la charrue avant les bœufs. Les mises en garde furent nombreuses, mais furent simplement rejetées comme désinvoltes. Maintenant les investisseurs et avocats gémissent bruyamment sur le dur atterrissage qui arrive vite.

Source.

Le grand minimum de l’irradiance solaire totale conduit à un petit âge glaciaire

Par  Habibullo Abdussamatov

Des variations climatiques significatives durant les 7,5 derniers millénaires indiquent que les variations bicentenaires quasi périodiques de TSI (Irradiance Solaire Totale) déterminent un mécanisme cyclique correspondant de changements climatiques entre réchauffements globaux et Petits Âges Glaciaires issus pratiquement des processus physiques intervenant dans le système Soleil-Terre. Les variations cycliques quasi bicentenaires de la TSI pénétrant dans l’atmosphère terrestre supérieure sont les principales causes fondamentales des variations climatiques alternées. Dans le même temps, des variations à plus long terme de la moyenne annuelle de TSI due à des changements dans la forme de l’orbite terrestre, l’inclinaison de l’axe de la Terre par rapport au plan de son orbite, et la précession, connues comme les cycles astronomiques de Milankovitch, de concert avec les effets rétroactifs subséquents, amènent les Grands Âges Glaciaires (d’une période d’environ 100.000 ans).La différence de moyenne annuelle entre l’énergie du rayonnement solaire pénétrant dans la haute atmosphère terrestre, le rayonnement solaire réfléchi et l’énergie radiative de grande longueur d’onde sortant dans l’espace détermine l’équilibre du bilan énergétique du système atmosphérique de la Terre. La différence entre le rayonnement entrant Ein et sortant Eout est donné par l’équation :

Ici, Sο est la TSI, ΔSο l’incrément de TSI, A est l’albédo de la Terre en tant que planète (albédo de Bond), ΔA est l’incrément de l’albédo de Bond, ε est l’émissivité du système Terre-atmosphère, σ la constante de Stefan-Boltzman, Tp la température dynamique planétaire, E la puissance spécifique du changement d’état (enthalpie) de la couche active de l’océan et de l’atmosphère (Wm²) qui peut être considéré comme l’équilibre énergétique du bilan moyen annuel (balance de la puissance thermique de la planète).

La variation quasi bicentenaire du rayonnement solaire absorbé par la Terre n’est pas entièrement compensée par l’émission d’énergie vers l’espace dans le laps de temps déterminé par l’inertie thermique de l’océan mondial (20 ans ±8). C’est parce que les éléments de crédit et de débit du bilan énergétique moyen annuel du globe terrestre avec son enveloppe d’air et d’eau est toujours en déséquilibre (E≠0), ce qui est l’état de base du système climatique. L’équilibre annuel moyen du bilan thermique du système Terre-atmosphère sur de longues périodes déterminera de façon sûre le sens et la valeur aussi bien de l’excès ou du déficit d’énergie accumulé par la Terre dans le bilan thermique, lequel, en tenant compte des données des 3 variations de TSI prévues dans le futur, peut définir et prédire bien à l’avance le sens et l’amplitude des changements climatiques à venir. Si la TSI augmente durant de longues périodes de temps, le changement moyen annuel dans l’enthalpie Terre-atmosphère est positif (E>0) ; à l’inverse, si la TSI décroît sur une longue période de temps, ce changement est négatif (E<0). Il en résultera que la température effective de la Terre augmentera ou décroîtra respectivement. La formule de l’incrément de la température effective de la Terre du aux incréments de la TSI et de l’albédo de Bond est obtenue à partir de :

Les variations quasi bicentenaires de la TSI sont relativement faibles (valeur maximale 6,3 wm², soit moins de 0,5% (d’après les dernières données de reconstruction, Shapiro A.I. et al. A new approach to the long-term reconstruction of the solar irradiance leads to large historical solar forcing. Astron. Astrophys. 2011; 529: A67). Cependant, l’impact direct des variations de TSI sur les changements du climat global sera en outre renforcé (avec quelque décalage temporel) en raison d’effets secondaires de rétroaction : des modifications naturelles non linéaires de l’albédo global de la Terre en tant que planète (modifications supplémentaires de la fraction de TSI absorbée) et modifications de la concentration de gaz à effet de serre dans l’atmosphère (vapeur d’eau comme dioxyde de carbone et autres gaz) – modifications supplémentaires de l’influence de l’effet de serre.

L’albédo de Bond augmente jusqu’au niveau maximum durant un refroidissement profond et décroît jusqu’à un minimum durant un réchauffement, alors que la concentration de gaz à effet de serre dans l’atmosphère varie en sens contraire et dépend principalement de la température globale des Océans. Les variations des paramètres de la surface et de l’atmosphère terrestre, qui sont dues aux variations de TSI quasi bicentenaires, génèrent des modifications supplémentaires de température en raison de répétitions multiples de tels cycles causals des effets secondaires de rétroaction, même si la TSI reste par la suite inchangée sur une certaine période de temps. Ainsi, la variation quasi bicentenaire de la TSI conduit toujours au déséquilibre du bilan énergétique moyen annuel du système Terre-atmosphère, pendant que le prochain Grand Minimum de la TSI entraîne un déficit du bilan énergétique moyen annuel de la Terre et le Petit Âge Glaciaire.

Depuis le début des années 90, on a observé une diminution de la TSI et donc de la portion d’énergie absorbée par la Terre (Figure 1). Le Soleil étant dans la phase descendante de la variation quasi bicentenaire, la valeur moyenne de la valeur absolue lissée de la TSI est en décroissance sur les cycles  22, 23 et 24 : le rythme moyen annuel de décroissance du cycle 22 était de ~0.007 wm²/an, alors que durant le cycle 23 il était déjà passé à ~0.02 Wm²/an. La TSI moyenne du cycle 23 était inférieure de ~0.15Wm² à celle du cycle 22. La valeur de la TSI au minimum entre les cycles 23 et 24 était inférieure de ~0.23 et ~0.30 Wm² par rapport aux minimas entre les cycles 22/23 et 21/22 respectivement. L’augmentation actuelle du rythme moyen annuel de la décroissance de la TSI (en tenant compte d’une brusque chute de sa composante de 11 ans) atteint presque 0.1 Wm²/an (Figure 1) et continuera à augmenter lors du cycle 25. La tendance observée d’une augmentation du rythme de décroissance moyen annuel de la valeur absolue de TSI nous permet de suggérer que ce déclin en tant que tel est analogue au déclin de la période du Minimum de Maunder selon sa reconstruction la plus fiable (Shapiro A.I. et al.). A noter que le niveau maximum  de la composante de 11 ans de la TSI a décru de ~0.7 Wm² en cinq ans de cycle 24 par rapport au niveau maximal du cycle 23.

Figure 1. Variation de la TSI et de l’activité solaire en 1978-2013 et prévisions de ces variations pour les cycles 24 à 27 jusqu’en 2045. La flèche indique le début de l’époque du nouveau Petit Âge Glaciaire après le maximum du cycle 24.

La Terre en tant que planète aura également un solde négatif du bilan énergétique dans le futur car le Soleil est entré dans la phase déclinante du cycle quasi bicentenaire des variations de TSI. Ceci amènera une chute de température et au début d’un Petit Âge Glaciaire vers la fin du maximum du cycle solaire n° 24 au début de 2014. L’accroissement de l’albédo de Bond et la diminution de la concentration de gaz à effet de serre dans l’atmosphère due au refroidissement provoquera une réduction supplémentaire de l’énergie solaire absorbée et réduira l’influence de l’effet de serre. Les effets de la chaîne consécutive de rétroactions provoqueront une chute supplémentaire de température qui pourrait surpasser l’influence de la décroissance quasi bicentenaire de la TSI. Le début du Grand Minimum de type Maunder de la TSI du cycle quasi bicentenaire est attendu lors du cycle 27±1 vers l’année 2043±11 et le début de la phase de fort refroidissement du 19° Petit Âge Glaciaire des 7.500 dernières années vers 2060±11 (Figure 1, 2). Maintenant nous assistons à la période de transition du réchauffement au refroidissement profond caractérisé par des changements climatiques lorsque la température globale oscille (approximativement jusqu’en 2014) autour du maximum atteint entre 1998-2005. Ces pronostics sont confirmés par le Soleil lui-même et la tendance des changements de température globale ainsi que par les niveaux des Océans pour les 16 dernières années.

En général, par analogie avec les saisons terrestres il y a aussi une alternance similaire des conditions climatiques dans le Système Solaire, alternance dictée par le cycle quasi bicentenaire de la variation de TSI. Ainsi, actuellement l’ensemble de notre Système Solaire passe de l’ été solaire à l’automne solaire puis passera à la saison de l’hiver solaire du cycle solaire quasi bicentenaire. Il y a un réchauffement simultané sur la Terre, Mars et tout le Système Solaire. Ceci a une origine solaire naturelle et confirme l’effet d’un été solaire et l’alternance des conditions climatiques qui en découlent.

Le contenu en gaz à effet de serre dans l’atmosphère dépend en grande partie des Océans, et le contenu en poussières dépend de l’activité volcanique et de la hausse des aérosols provenant du sol. Les quantités de flux naturels (dioxyde de carbone, vapeur d’eau et poussière) issus des Océans et des sols vers l’atmosphère (Min) et allant de l’atmosphère (Mout) vers les Océans excèdent de plusieurs ordres de grandeurs les décharges anthropiques de ces substances vers l’atmosphère (Mant) (Nigmatulin R.I. The Ocean: climate, resources, and natural disasters. Herald of the Russian Academy of Sciences. 2010; 80(4): 338-349). Le contenu total de dioxyde de carbone dans les Océans est 50 fois plus élevé que dans l’atmosphère, et même une « respiration » des Océans peut changer dramatiquement ne niveau de dioxyde de carbone dans l’atmosphère. Les causes naturelles jouent un rôle nettement plus important dans les variations climatiques que l’activité humaine car les facteurs naturels sont substantiellement plus puissants.

Figure 2. Prévision des changements climatiques naturels pour les cent prochaines années.

Les carottes de glace de l’Antarctique donnent des preuves claires de la relation étroite entre les variations de température et la concentration atmosphérique de dioxyde de carbone durant les cycles glaciaires/interglaciaires, au moins durant les 800 mille dernières années. L’analyse des carottes de glace montre que la concentration de dioxyde de carbone suit très précisément les augmentations de température avec un décalage de 800±400 ans. Durant les cycles glaciaires/interglaciaires les pointes de concentration de dioxyde de carbone n’ont jamais précédé les réchauffements. Par conséquent il n’existe pas de preuve que le dioxyde de carbone constitue un facteur majeur du réchauffement actuel de la Terre. Les changements importants de la concentration atmosphérique de dioxyde de carbone sont toujours déterminés par des fluctuations correspondantes de la température des Océans.

Ainsi, les variations quasi bicentenaires de la TSI (avec leurs impacts direct et secondaire, ce dernier étant dû aux effets secondaires de rétroaction) sont les causes majeures et essentielles des changements climatiques. Le Soleil est le principal facteur contrôlant le système climatique et même des variations de long terme de faible amplitude de la TSI peuvent avoir des effets importants sur le climat de la Terre et d’autres planètes du Système Solaire. Les cycles solaires quasi bicentenaires sont la clé de la compréhension des changements cycliques à la fois dans la nature et dans la société. Le signe et la valeur du déséquilibre énergétique du système Terre-atmosphère sur une longue échelle de temps (excès ou déficit de TSI accumulé par les Océans) déterminent un changement correspondant du statut énergétique du système, d’où une variation climatique et son amplitude en corrélation.

C’est pourquoi le climat de la Terre change tous les 200±70 ans ; et c’est le résultat de la variation cyclique bicentenaire de la TSI. Le déclin de long terme observé de la TSI et le profond refroidissement consécutif influence en conséquence et tout d’abord les ressources naturelles dépendantes du climat et l’économie étroitement  liée au climat. La façon la plus raisonnable de lutter contre le Petit Âge Glaciaire à venir est un ensemble de dispositions spéciales ayant pour but de soutenir le développement économique et une production économe en énergie en vue d’adapter l’humanité à la période de refroidissement sévère à venir qui durera probablement jusqu’au début du XXII° siècle. Une rapide prise de conscience de la réalité du refroidissement global à venir et des mécanismes physiques qui le provoquent déterminent directement le choix de mesures adéquates et fiables devant permettre à l’humanité, et en particulier aux populations de pays éloignés de l’équateur de s’adapter au futur refroidissement global.

Source, traduction Scaletrans.

Une critique des Modèles de Circulation Générale

Publié le 7 mai 2014 chez Anthony Watts

Extrait de commentaires de blog, en réponse à une intervention.

 Par le Dr Robert G. Brown, de l'Université de Duke

Traduit par Volauvent

Frank K: vous êtes dans le vrai avec votre évaluation des Modèles de Circulation Générale (MCG). Malheureusement, ceux qui croient en leur capacité à prédire le climat futur ne veulent vraiment pas parler des équations différentielles, méthodes numériques ou conditions initiales et aux limites que comprennent ces codes. C'est là que sont les vrais problèmes …

RGB : Eh bien, attention à votre façon de le dire. Ceux qui croient en leur capacité à prédire le climat futur et qui ne sont pas dans le métier ne veulent pas parler de tout cela, et ceux qui ne sont pas experts en modélisation prédictive et statistiques en général préfèrent dans de nombreux cas ne pas avoir une discussion détaillée sur la difficulté de bien valider un modèle prédictif – un processus qui, fondamentalement, ne se termine jamais tant que de nouvelles données entrent en jeu.

Cependant, la plupart des MCG sont bien, et assez publiquement, documentés. C'est juste que, à moins d’avoir un doctorat (par exemple) en physique, une connaissance des mathématiques générales, des statistiques, de l'informatique et du calcul numérique qui suffirait à vous faire gagner au moins un diplôme de maîtrise dans chacun de ces sujets si elle est acquise dans le cadre d'un programme d'études, ainsi que des spécialisations importantes dans les domaines généraux de la dynamique des fluides et la science du climat, vous n’en savez pas assez pour commenter intelligemment ​​le code du modèle lui-même. Vous ne pouvez le commenter que comme une boîte noire, ou faire un commentaire sur un minuscule aspect  de code, ou de physique, ou d'initialisation, ou de méthodes, ou de résolution, ou de moteurs dynamiques, ou sur la moyenne, ou sur la résolution spatio-temporelle, ou …

Tenez : j'ai fait un doctorat en physique théorique. J'ai terminé quelque chose comme six classes de niveau d'études supérieures de mathématiques (pour la plupart en premier cycle, mais deux fois comme étudiant diplômé en physique). J'ai enseigné en études supérieures l'électrodynamique (et écrit un livre sur) et c’était essentiellement un cours à peine dissimulé sur les équations aux dérivées partielles elliptiques et hyperboliques. J'ai écrit un livre sur le calcul informatique à grande échelle en « clusters » que les gens utilisent encore lors de l’établissement de clusters, et j’ai plusieurs giga-octets de code sous Subversion [Ndt : un logiciel collaboratif utilisé en développement informatique]. Je ne compte pas le nombre de langages que soit je connais bien ou ai écrit dans au moins un programme (même datant du temps où on écrivait les codes sur ​​une bande de papier). J'ai cofondé deux sociétés sur la modélisation prédictive de pointe sur la base de codes que j'ai écrit et sur un processus pour faire de l'inférence bayésienne indirecte sur des sujets comme  la vie privée ou d'autres données aux limites qui a été longtemps un brevet en attente de licence, avant que d'essayer de défendre ce brevet ne me devienne trop coûteux et envahissant ; la deuxième société existe encore et si elle fait encore des progrès substantiels, peut être un jour me fera-t-elle riche. J'ai conduit des simulations Monte Carlo avancées à partir d’échantillonnages importants, c’est ce qui a constitué mes recherches initiales pendant environ 15 ans avant que je passe à autre chose. J'ai appris un bon bout de science du climat. Je ne manque fondamentalement de connaissance approfondie et d'expérience qu’en dynamique des fluides calculée par ordinateur par rapport à la liste ci-dessus (et je comprends les concepts assez bien, mais ce n'est pas la même chose que l'expérience directe ) et j'ai encore du mal à naviguer dans, par exemple, la documentation 3.1 CAM, et encore plus de mal à travailler dans le code open source, en partie parce que le code est terriblement mal organisé et mal documenté en interne au point que d'essayer juste de l'installer nécessite de s’y consacrer avec ardeur et une ou deux semaines d'effort.

Oh, et ai-je mentionné que je suis aussi un programmeur et administrateur de systèmes de réseaux expérimenté ? Donc, je comprends effectivement assez bien les outils sous-jacents nécessaires à la construction de MCG…

Si j’ai du mal à pouvoir – par exemple – tout simplement reconstruire une base de code publié en open source et l'exécuter sur un système personnel pour regarder le tout fonctionner et arriver à une conclusion, et encore moins commencer à réorganiser le code, remplacer les composants sous-jacents tels que leur absurde maillage en latitude et longitude sur la surface d'une sphère par des pavages symétriques modifiables pour rendre le code adaptatif, isoler les différents sous domaines de la physique qui contribuent de sorte qu'ils peuvent être facilement modifiés ou remplacés sans affecter d'autres parties du calcul, et ainsi de suite, vous pouvez parier qu'il n'y a qu’une poignée de personnes dans le monde qui vont être en mesure de le faire et disposés à le faire sans un salaire et un soutien substantiel. Comment peut-on obtenir le salaire, le soutien, l'accès aux ressources de supercalculateurs à l’échelle des besoins du processus ? En demandant des subventions (et avoir assez de temps pour faire le travail, dans un environnement capable de fournir le soutien nécessaire en échange d'argent, avec le soutien implicite du département ou vous travaillez) et obtenir ces subventions pour faire votre projet.

Et qui contrôle qui, de la petite poignée de gens assez largement compétente dans la liste ci-dessus pour avoir une bonne chance d'être en mesure de gérer l'ensemble du projet sur ​​la base de leurs propres connaissances et compétences, et qui a le temps et le soutien indirect etc…, pour obtenir le  financement ? Qui examine les subventions ?

Pourquoi entrer en contradiction avec ceux-là mêmes qui ont tous un certain nombre d'intérêts particuliers dans l'existence d'une situation décrite comme une urgence (catastrophique). En effet, sans une situation d'urgence, le gouvernement américain pourrait financer deux ou même trois efforts distincts pour écrire un modèle climatique qui fonctionne, mais il ne financerait jamais quarante ou cinquante de ces efforts. Il n’est dans les meilleurs intérêts de personne dans ce groupe d'admettre des étrangers – tous ces groupes ont des étudiants diplômés qu’ils doivent placer, des perspectives d’emploi à concrétiser pour ceux qui ne seront pas maintenus dans la recherche, et cela requiert de ne pas contrarier leurs amis et collègues. Comme il est noté dans le cinquième rapport d'évaluation [RE5] – des plus ou moins 36 modèles pris en compte par le CMIP5 du GIEC, ce n’est pas comme si il y avait 36 modèles indépendants – les modèles, les données, les méthodes, le code sont toutes les variantes d'une poignée de lignes de code " mémétiques " (Ndt : algorithmes évolutifs). Ils sont différenciés dans leurs détails par des étudiants diplômés sur la base de leur propre version du code qu'ils ont utilisé à l'école et  présentés comme un nouveau programme financé dans une nouvelle école ou institution.

A mon avis, résoudre le problème des MCG c’est tenter de résoudre un problème qui est un défi considérable en informatique. Il n'est pas du tout surprenant que les solutions à ce jour ne fonctionnent pas très bien. Ce serait plutôt surprenant si elles le faisaient. Nous n'avons même pas les données nécessaires pour initialiser intelligemment les modèles que nous avons construits, et ces modèles ont quasi certainement une résolution spatio-temporelle totalement inadéquate, sur un maillage incroyablement stupide, non adaptable, pour une sphère. Ainsi, les programmes ne peuvent carrément pas être configurés pour fonctionner à une résolution plus fine sans qu’il faille réécrire fondamentalement le tout, et une telle réécriture ne ferait qu’aggraver le problème au niveau des pôles – la quadrature sur une surface sphérique en utilisant une grille latitude/longitude est connue depuis longtemps pour être extrêmement difficile et pour donner lieu à des artefacts et des erreurs d’estimations à peu près incontrôlables.

Mais jusqu'à ce que les gens qui font des «statistiques» sur les résultats des MCG reviennent à la raison et cessent de considérer chaque MCG comme si il était une partie d’un échantillon indépendant et identiquement distribué, tiré d'une distribution de codes de MCG parfaitement écrits, avec des erreurs inconnues mais sans biais, et ce qui est précisément ce que le RE5 du GIEC  considère,  le public sera « protégé » en toute sécurité de toute connaissance « dangereuse » de l'impossibilité actuelle des MCG à faire de la prévision ou de la simulation rétrospective qui soient  particulièrement précises en dehors de l’intervalle de référence.

Et pourtant c’est explicitement reconnu dans l'article 9.2 du rapport du GIEC par précisément deux paragraphes cachés soigneusement dans la masse. Ils signifient en gros que les estimations et les "intervalles de confiance" figurant au début du chapitre 9 sont essentiellement des foutaises d’opinions de personnes humaines, pas quelque chose qui peut être soutenu par une quelconque analyse statistique relevant d’une axiomatique correcte.

Source.

Les scientifiques du climat sont-ils contraints de rester dans la ligne ?

Par Axel Bojanowski

Après avoir rejoint un groupe de lobbying controversé critiquant le changement climatique, le météorologiste Lennart Bengtsson se plaint d’avoir été banni par des collègues, l’amenant à démissionner. Certains scientifiques se plaignent que les pressions à se conformer à l’opinion du consensus soient devenues un frein sérieux dans le domaine(1).

La nouvelle de l’adhésion de Lennart Bengtsson, l’ancien directeur respecté de l’Institut de Météorologie Max Planck de Hambourg, à la Global Warming Policy Foundation (GWPF) a fait des vagues au sein de la communauté de la recherche climatique. La GWPF est particulièrement connue pour son scepticisme à propos du changement climatique et ses efforts pour saper la position du GIEC. Le séisme que sa décision a provoqué dans la communauté scientifique a bouleversé Bengtsson.

Le scientifique déclare que des collègues exerçaient tellement de pression sur lui après son adhésion au GWPF qu’il a quitté la fondation par crainte pour sa santé. Bengtsson a ajouté que ce traitement lui avait rappelé les persécutions des personnes soupçonnées de communisme aux Etats Unis à l’époque du Maccarthysme dans les années 50.

Tous ses confrères en climatologie ne sont pas d’accord. Gavin Schmidt, un climatologue et modélisateur de climat à la NASA, qualifie « le parallèle avec McCarthy » de « ridicule ». « Ayant été réellement menacé de sanctions pénales par un Sénateur des Etats Unis simplement pour de la publication scientifique, je ne vois vraiment pas que la totale liberté de Bengtsson de s’associer avec qui il veut – et laissez-moi être clair, il a cette liberté – ait été en aucun cas été compromise. »

Mais Bengtsson maintient que même des collègues proches l’ont fui. Il dit qu’un partenaire de recherche, craignant que sa réputation ne soit compromise, s’est retiré d’une étude qu’ils effectuaient en commun. Bengtsson ne donne pas de détail se bornant à dire que l’incident fut blessant.

Schmidt de la NASA critique aussi cette affirmation. « C’est si vague que ça n’a aucune signification, et sans un exemple concret il est impossible de connaître ce qui est avancé ».

Nuages accumulés avant la tempête

Il apparait maintenant que les nuages de la controverse se sont accumulés avant la tempête actuelle. En février, Bengtsson a subi un revers significatif. Le journal scientifique Environmental Research Letters refusa de publier une de ses études prédisant un effet de serre plus faible. Les réviseurs décrirent les conclusions du rapport comme « peu utiles » et ajoutaient, « en réalité il est nuisible d’ouvrir la porte a des allégations d’ ‘erreurs’ trop simplistes à des médias climato-sceptiques ».

Le respecté climatologue allemand Hans von Storch de l’Institut de Recherche Côtière au Centre Helmholtz, qualifia la justification de « scandaleuse » et accusa le journal de décision à motivation politique non basée sur des normes scientifiques. Dans une déclaration sur le site de IOP Science, l’éditrice Nicola Gulley souligne que l’étude a été rejetée pour des raisons scientifiques. Elle soutient que le travail de Bengtsson ne correspondait pas aux normes élevées du journal.

Les chercheurs du climat sont maintenant engagés dans un débat pour savoir si leur science est handicapée par un conformisme compulsif. Ils se demandent si la pression pour parvenir à un consensus n’est pas trop grande. Ils se demandent si la critique n’est pas en train d’être neutralisée. Ce n’est rien moins que la crédibilité de la recherche sur le changement climatique qui est en jeu, ainsi que la question même de savoir si la recherche climatique est encore fiable.

Bengtsson disait dans un entretien avec Spiegel Online qu’il voulait ouvrir le débat sur le changement climatique en joignant la GWPF. Il disait qu’en raison de grandes lacunes de compréhension, la pression pour parvenir à un consensus dans la recherche climatique « n’avait aucun sens ».

Néanmoins, en rejoignant le groupe de lobbying politique, Bengtsson s’est offert lui-même à la critique selon laquelle il avait pris une position inappropriée pour un scientifique de sa stature.

‘Nous ne sommes pas un lobby’

D’après Eric Steig le climatologue de l’Université de Washington les activités de la GWPF ont plus à voir avec le Maccarthysme que le cas de Bengtsson. Il dit que la GWPF se vante d’enquêter sur les chercheurs du climat. « Ils ont aussi publié des articles d’opinion sur leur site web accusant les principaux chercheurs du climat d’avoir des ‘sociétés secrètes’  » et des agendas politiques conçus avec des buts politiques spécifiquement de gauche sur le changement climatique », il ajoute : « Ils ont accusé les écoles britanniques de ‘laver le cerveau’ des élèves en leur enseignant le changement climatique ». De son côté, la GWPF se décrit elle-même comme un groupe de réflexion qui documente des arguments exposant pourquoi le changement climatique est surestimé en tant que problème.

Reno Knutti de l’université technique ETH de Zurich est également critique. « Des organisations comme la GWPF contribuent à transformer un débat scientifique en guerre de religion », affirme-t-il. « Ils distribuent des rapports pseudo-scientifiques, alors qu’il poursuivent en réalité un but politique », dit Knutti. Jochem Marotzke qui a succédé à Bengtsson à l’Institut de Météorologie Max Planck, dit « la GWPF travaille délibérément de façon sélective. Ils mentionnent seulement les arguments qui appuient leur objectif. Les contre arguments sont mis sous le tapis ».

Le professeur Myles Allen, un chercheur du climat d’Oxford, dit « Le problème est leur agenda anti science, clairement illustré par le fait qu’ils ont refusé sans détour de soumettre leur récent rapport critiquant l’AR5 du GIEC au même système de revue par les pairs auquel le rapport du GIEC fut lui-même soumis »(2).

Le directeur de la GWPF Benny Peiser conteste ce genre d’assertion : « Nous ne sommes pas un lobby ; nos scientifiques n’ont pas d’opinion collective ou officielle sur aucun sujet. S’il n’y avait pas de tabous dans la science du climat ou la politique climatique, la GWPF n’existerait probablement pas ».

Avocats furtifs

Roger Pielke Jr., un scientifique de l’environnement de l’Université du Colorado, professeur depuis longtemps critique de la politisation du débat climatique, dit que le groupe utilise la science pour masquer son agenda politique. Pielke souligne cependant qu’en tant que groupe de lobbying la GWPF « a parfaitement le droit d’avancer tous les arguments qu’il veut. Il se concentre souvent sur un plaidoyer discret – cachant sa politique derrière la science – une stratégie courante dans le débat climatique, rencontrée de tous les ‘côtés’, et assez commune de bien des problèmes ».

Von Storch convient que d’autres groupes politiques, comme les groupes environnementaux, font aussi usage « d’avocats discrets » pour influencer le débat scientifique. Pielke argumente que « dans une démocratie, les gens organisent toutes sortes d’intérêts communs, comme il se doit, et beaucoup ont des valeurs que je ne partage pas. Et alors ? Les raisons de Bengtsson de s’associer avec la GWPF sont parfaitement légitimes. Qu’il ressente une forte pression de la part de ses pairs, avec des sanctions sociales et autres reflète la nature profondément politisée de ce problème ».

 

Il demande à ce que la recherche scientifique soit maintenue à des standards plus élevés que ceux des groupes de lobbying, mais même ces standards doivent doivent faire l’objet d’une attention plus soutenue.Depuis des années bien des climatologues se sont plaint en silence de harcèlement et d’exclusion. Mais la situation de cette discipline scientifique est-elle pire que dans d’autres branches ? Roger Pielke Sr, un chercheur senior scientist de l’Université du Colorado et père de Pielke junior, dit, « Malheureusement, la science du climat est devenue très politisée et les opinions qui diffèrent complètement de celles contrôlées par le processus dévaluation climatique sont, soit ignorées, soit ridiculisées. Je suis d’accord à 100 pour cent avec les allégations du très distingué Lennart Bengtsson ».

Mais quels sont ceux qui politisent ? Knutti dit que c’est facile à voir. « Si vous êtes politiquement de gauche, vous croyez au réchauffement climatique », dit-il « si vous êtes de droite, c’est beaucoup moins probable ». Il ajoute que la limite entre l’opinion et les faits est souvent brouillée, même chez les scientifiques.

Déloyale, dégoûtante, destructive

« Chaque camp dit que l’autre politise le débat », explique Wener Krauss, un ethnologue de l’environnement au Centre Helmholtz pour les Matériaux et la Recherche Côtière de Geesthacht en Allemagne. D’après lui, la recherche climatique est dominée par de « fortes individualités » qui savent comment exploiter les médias chaque fois qu’ils le veulent. Krauss prétend que Bengtsson a géré son adhésion à la GWPF dans les médias et soutient que la recherche climatique est tombée dans les affres de l’équivalent scientifique de la ferveur religieuse. Pour lui, il n’est pas étonnant que Bengtsson ait été pris sous un feu roulant après sa décision.

En même temps, Heinrich Miller de l’Institut Alfred Wegener pour la Recherche Polaire et Maritime dit, « J’ai trouvé que la réaction de ses collègues était choquante. Apparemment il y a une déconvenue générale parce qu’un brillant scientifique a rendu publics ses doutes scientifiques ». Miller ajoute que le cas Bengtsson lui rappelle la façon dont les politiciens utilisent des « combines déloyales » pour museler les opposants.

Pielke Jr. confirme que la recherche climatique est un dur métier. « Nous voyons des politiques agressives », dit-il. « J’ai personnellement expérimenté de très fortes pressions sociales et professionnelles durant des années. Cela inclut des menaces sur mon job, de l’ostracisme professionnel, de fausses représentations de mes recherches et points de vues, des efforts pour m’empêcher de parler en public et des menaces physiques dont beaucoup sont publiquement documentées ». Il prévient que « quiconque souhaite participer au débat public sur le changement climatique doit le faire en sachant comment est la politique de nos jours — « Déloyale, dégoûtante, destructive ».

Le Réchauffement Global est considéré comme un dogme

Le Climatologue Michael Mann parle même de « guerres climatiques ». Il dit que durant des années il a été l’objet d’attaque par des groupes conservateurs sceptiques du changement climatique, spécialement après le scandale du « Climategate », lorsque ses courriels furent publiés illégalement. L’autre camp ne le cède en rien non plus – au moins lorsqu’il s’agit de vitriol. Un professeur Autrichien est allé jusqu’à demander la peine de mort pour les climato-sceptiques.

Miller déclare que les scientifiques furent plus politisés que jamais du fait de la recherche d’un consensus pour le 5° rapport du GIEC. « Le Réchauffement global est à considérer comme un dogme. Quiconque doute pèche », dit le renommé chercheur qui a été étiqueté « climato-sceptique » après avoir émis des doutes sur la validité scientifique des simulations sur ordinateur.

Par contraste Knutti met en garde contre trop d’insistance sur le défaut de certitude des preuves. A son avis la critique sévère de Bengtsson sur les prévisions de changement climatique est trompeuse, expliquant que les modèles ont donné des résultats utilisables qui ont été testés sur des changements climatiques historiques. Le cinquième rapport du GIEC qui a demandé des centaines de milliers d’heures de scientifiques, dit Knutti, documente parfaitement la série de résultats. A son avis, s’asseoir et attendre que toutes les questions soient résolues n’est pas une alternative, et décrit dans une large mesure ce qu’on appelle le scepticisme comme une tromperie délibérée.

Source.

Traduction par Scaletrans

1 Voir cet article de Pensée Unique pour un résumé complet de l’affaire Bengtsson.

2 David Henderson, président du conseil scientifique de la GWPF, a répondu à cette critique sur BH.

Gardons la tête froide

Par Nigel Lawson

(NDLR : Cet article est basé sur le texte d’un discours donné à l’Institut pour l’Energie Durable et l’Environnement de l’Université de Bath.
Nigel Lawson est président du conseil d’administration de la GWPF, un groupe de réflexion (think tank) s’occupant principalement de politique climatique.)

Verdissement

Légende : Effet de fertilisation: durant les trente dernières années, la Terre a visiblement reverdi, et ceci a même affecté la plupart des zones du Sahel

Il y a quelque chose de curieux à propos du débat sur le réchauffement climatique – ou le débat sur le changement climatique, comme nous devons dorénavant l’appeler, car le réchauffement climatique s’est arrêté pour l’instant.

Je n’ai jamais refusé la controverse, ni – lorsque j’étais Chancelier – n’ai reculé devant l’impopularité si je pensais que ce que je disais était dans l’intérêt du public.

Mais je n’avais jamais expérimenté les excès d’hostilité personnelle, vitupérations et calomnies que j’ai – bien sûr en même temps que d’autres hérétiques – reçu à propos de mes opinions sur le réchauffement climatique et les politiques en découlant. *(Ndt en fin de texte)

Par exemple, selon le Secrétaire au Changement Climatique, Ed Davey, les hérétiques du réchauffement climatique sont sans exception des « ignorants volontaires  » et selon le Prince de Galles, nous sommes des « poulets sans tête ». Ils n’utilisent d’ailleurs pas le terme « hérétique ». Nous sommes régulièrement qualifiés de « négationnistes du changement climatique », une phrase délibérément conçue pour faire écho à « négationniste de l’Holocauste » – comme si s’interroger sur les politiques et prévisions actuelles reviendrait à introduire un doute pernicieux sur un fait historique.

L’héritier du trône et le ministre sont des personnages publics de haut rang qui surveillent leur langage. Les mauvais traitements que j’ai reçus après mon apparition sur le programme Today de la BBC furent beaucoup moins modérés. La BBC et moi-même avons reçu un bombardement coordonné de plaintes selon lesquelles il était scandaleux que j’ai été autorisé à discuter du problème dans l’émission. Même le Science and Technology Committee de la Chambre des Communes s’est joint honteusement au chœur de ceux qui veulent supprimer tout débat.

En fait, bien qu’ayant rédigé un ouvrage soigneusement documenté à propos du réchauffement climatique il y a plus de cinq ans, ouvrage qui devint heureusement une sorte de best-seller, et ayant fondé l’année suivante un groupe de réflexion sur le sujet –the Global Warming Policy Foundation- et bien qu’étant fréquemment invité sur Today pour parler de problèmes économiques, c’était la toute première fois qu’on me demandait de discuter changement climatique. Je suspecte fortement que ce sera la dernière.

La BBC a reçu un déluge de protestations bien coordonnées – quelques-unes naturellement de la part de gens ayant un intérêt personnel dans l’énergie renouvelable – m’accusant, entre autres, d’être un politicien sénile en retraite et non un scientifique du climat, et par conséquent incompétent pour discuter du problème.

En passant peut-être pourrais-je répondre aux accusations fréquentes de ceux qui s’opposent violemment à toute contestation de quelque sorte de la doctrine dominante du changement climatique, comme quoi le secret sur les noms des donateurs de la Global Warming Policy Foundation est la preuve que nous sommes une organisation profondément malfaisante et une façade de l’industrie pétrolière.

Comme je l’ai fait remarquer à de nombreuses reprises, le Conseil d’Administration de la Fondation a décidé dès le début que jamais il ne solliciterait ni n’accepterait quelque argent de l’industrie de l’énergie ou de quiconque ayant un intérêt significatif dans l’industrie de l’énergie. Et à ceux qui malheureusement ne sont pas disposés à me croire, je ferai remarquer que parmi nos administrateurs figurent un évêque de l’Eglise d’Angleterre, un ancien secrétaire privé de la Reine et un ancien dirigeant du Service Civil. Ceux qui imaginent que nous sommes tous engagés dans une conspiration de mensonge sont dans un stade avancé de paranoïa.

La raison pour laquelle nous ne révélons pas les noms de nos donateurs qui sont des citoyens privés ayant une disposition philanthropique, est assez évidente. Si nous le faisions ils seraient, eux aussi, les objets des calomnies et insultes mentionnées plus haut. Et on comprendra qu’il peuvent s’en passer.

Ceci dit, je dois admettre que je suis fortement tenté d’être d’accord pour dire que, puisque je ne suis pas un scientifique du climat, je devrais dès maintenant rester silencieux sur le sujet – étant clairement entendu naturellement que tout le monde suive les mêmes règles. Plus de déclarations de Ed Davey, ou même des autres politiciens, y compris Ed Milliband, Lord Deben et Al Gore. Non plus que du Prince de Galles ou de Lord Stern. Quel bonheur !

L’Alarmisme et ses Fondements

Mais cela n’arrivera évidemment pas. Et cela ne devrait pas, car, à la base, ceci n’est pas un problème scientifique. C’est-à-dire que le problème n’est pas le réchauffement climatique, mais l’alarmisme sur le problème climatique et les politiques désastreuses qui sont préconisées, et, dans certains cas, mises en place en son nom. Et l’alarmisme ne fait pas partie du monde de la physique, qui est ce que les scientifiques du climat étudient, mais d’un comportement humain ; en d’autres termes le domaine des économistes, historiens, sociologues, psychologues et – j’ose le dire – des politiciens.

Et, en passant, le problème des politiciens dissidents, et à plus forte raison pour les climatologues dissidents en la matière, lesquels existent certainement, est que cette dissidence peut menacer leur carrière. L’avantage d’être âgé est que ma carrière est derrière moi : il n’y a plus rien à menacer.

Pour en revenir au climat, celui-ci change tout le temps, de façons différentes et imprévisibles (certainement imprévues), et vraiment souvent de façons différentes dans différentes parties du monde. Il en a toujours été et il en sera sans aucun doute toujours ainsi. La question est de savoir si c’est inquiétant. Selon les alarmistes, c’est la plus grande menace à laquelle fait face l’humanité aujourd’hui.

L’alarmisme du changement climatique est une croyance et doit être considérée comme telle. Il y a en réalité une théorie scientifique admise que je ne discute pas et par laquelle les alarmistes prétendent justifier leur croyance et leur inquiétude.

Il s’agit du prétendu effet de serre : le fait que l’atmosphère terrestre contienne du soi-disant gaz à effet de serre (dont la vapeur d’eau est de loin le plus important, mais le dioxyde de carbone en est un autre) qui, en effet, piège la chaleur que nous recevons du soleil et l’empêche de retourner dans l’espace.

Sans l’effet de serre, la planète serait si froide qu’elle serait inhabitable. Mais en brûlant des combustibles fossiles – charbon, pétrole et gaz – nous augmentons la quantité de gaz à effet de serre dans l’atmosphère et donc, toutes choses égales par ailleurs, nous augmentons la température de la Terre.

Mais quatre questions se posent immédiatement, auxquelles nous devons répondre calmement et rationnellement.

Premièrement, toutes choses égales par ailleurs, de combien le CO2 atmosphérique est-il censé réchauffer la Terre? (Les scientifiques appellent cela la sensibilité climatique, ou quelquefois la sensibilité climatique du carbone). Ceci est hautement incertain, principalement parce que les nuages jouent un rôle important, et la science des nuages est très peu connue. Jusqu’à il y a peu, l’opinion majoritaire chez les climatologues était que les nuages amplifiaient grandement l’effet de serre de base. Mais il y a une minorité significative, y compris quelques climatologues parmi les plus éminents qui contestent fortement cela.

Deuxièmement, toutes les choses sont-elles parfaitement égales ? Nous savons que sur des millénaires la température de la Terre a grandement varié, bien avant l’arrivée des combustibles fossiles. En considérant seulement le dernier millénaire, il y a quelques centaines d’années nous avons bénéficié de la fameuse période de l’optimum médiéval, durant laquelle on pense que les températures étaient aussi élevées, sinon plus élevées qu’aujourd’hui. Et à l’époque baroque nous avons souffert du froid durant le fameux Petit Âge Glaciaire, quand la Tamise gelait souvent l’hiver et que d’importantes foires s’y tenaient, ce qui a été immortalisé par des gravures contemporaines.

Troisièmement, même si la Terre devait se réchauffer, loin de constituer une cause d’alarme, est-ce important ? Il serait après tout surprenant que la planète soit dans une fourchette précaire de température autour de laquelle tout changement en plus ou en moins constituerait un désastre majeur. En fait, nous savons que, s’il devait y avoir un réchauffement futur (et pour les raisons précédentes, le « si » est de mise) il devrait y avoir également des avantages et ce que les économistes appellent des inconvénients. Je parlerai plus loin de l’équilibre à trouver.

Et quatrièmement, dans la mesure où il y a un problème, que devrions-nous faire, calmement et raisonnablement à ce propos ?

Températures de Surfaces passées et projetées

Le mieux est de traiter ensemble les deux premières questions.

Selon les enregistrements de température conservés par l’Office Météo Britannique (et les autres séries sont très proches), durant les 150 dernières années (c’est-à-dire depuis le début de la Révolution Industrielle), la température moyenne globale s’est accrue de légèrement moins qu’un degré centigrade,  0.8°C selon le Met Office. Ceci s’est produit avec des à-coups qui ne sont pas pleinement compris. Pour commencer, dans la mesure où tout le monde l’a noté, ce fut regardé comme une sortie naturelle et bienvenue des rigueurs du Petit Âge Glaciaire. Mais la plus grande partie – 0,5°C sur le 0,8°C – est intervenue durant le dernier quart du 20° siècle. Ce fut là qu’est né l’alarmisme du réchauffement global.

Mais depuis lors, et parfaitement à l’inverse des prévisions de l’immense majorité des climatologues qui prédisaient avec confiance que le réchauffement global ne continuerait pas simplement mais s’accélérerait, compte tenu de l’augmentation sans précédent des émissions mondiales de carbone, alors que l’économie chinoise basée sur le charbon a considérablement progressé, il n’y a eu aucun réchauffement supplémentaire. Pour être précis, le dernier rapport du GIEC, groupe profondément déficient dont le président qui n’est pas un scientifique est un alarmiste du climat engagé, reconnaît que le taux de réchauffement global a été de – attendez un peu – 0,05°C par décennie, plus ou moins 0,1°C. Ce sont leurs chiffres, non les miens. En d’autres termes, le taux de réchauffement observé est inférieur à la marge d’erreur.

Et cette marge d’erreur, il faut le dire, est invraisemblablement petite. Après tout, calculer une température moyenne globale à partir des enregistrements des stations météo et des observations maritimes de qualité variable à travers le monde est une tâche vraiment héroïque en premier lieu. Sans parler du fait qu’il y a une différence considérable entre les températures diurnes et nocturnes. En tous cas, produire un chiffre au centième de degré près est évidemment absurde.

Les leçons de l’arrêt imprévu (ou du hiatus comme l’appelle le GIEC) du réchauffement durant 15 ans sont claires. En premier lieu, les dénommés Modèles d’Évaluation Intégrés que la communauté scientifique du climat utilise pour prédire l’augmentation de la température globale supposée intervenir dans les 100 prochaines années sont presque certainement faux car la sensibilité climatique est presque certainement beaucoup moindre que ce qu’ils pensent, et par conséquent les modèles exagèrent l’augmentation probable de température des cents prochaines années.

Mais le besoin d’une mise à jour ne s’arrête pas là. Comme la célèbre climatologue Judith Curry, présidente de la School of Earth and Atmospheric Sciences à l’Institut de Technologie de Géorgie, le faisait observer récemment dans un témoignage écrit au Sénat étasunien :

Le réchauffement global anthropique est une théorie dont le mécanisme de base est bien compris, mais dont la magnitude est hautement incertaine. Il est de plus en plus évident que les modèles climatiques sont trop sensibles au CO2, ce qui a des implications sur la responsabilité de réchauffement de la fin du 20e siècle et les projections sur le climat du 21e. Si le récent hiatus de réchauffement est causé par la variabilité naturelle, ceci pose la question de savoir dans quelle mesure le réchauffement entre 1975 et 2000 ne pourrait pas aussi s’expliquer par la variabilité naturelle du climat.(1)

A propos de la pause actuelle du réchauffement global

Par Syun-Ichi Akasofu,
International Arctic Research Center, University of Alaska Fairbanks, USA
Article original paru dans Climate le 15 avril 2013
Traduit et publié par Scaletrans.

Résumé : La hausse de la température moyenne du globe, durant le siècle dernier, s'est arrêtée aux environs de l'an 2000. Dans cet article, on suggère que cette interruption résulterait de l'arrêt de l'augmentation quasi-linéaire de température (de +0,5°C par siècle ou de 0,05°C par décennie), durant les deux siècles précédents, due à la sortie du petit âge glaciaire.
La sortie du petit âge glaciaire s'est faite par une superposition d'oscillations multi-décennales d'une amplitude de 0,2°C et d'une période de 50 à à 60 ans qui a atteint un maximum autour de l'an 2000, occasionnant une pause semblable à celles qui se sont produites autour des années 1880 et 1940.
Du fait que l'augmentation quasi-linéaire d'une part et l'oscillation multi-décennale d'autre part, résultent probablement toutes deux de facteurs naturels qui sont, respectivement, la sortie du petit âge glaciaire (PAG) et une oscillation liée à l'oscillation décennale du Pacifique (PDO), il faut prendre la précaution de soustraire ces dernières des données des variations de températures observées avant de chercher à estimer les effets du CO2.

1. Introduction

L’un des procédés standard en climatologie est de construire une analyse spectrale des variations passées de la température globale et d’essayer d’interpréter les changements de composantes. Cette procédure a été largement appliquée aux changements des 400.000 dernières années [1]. Dans cet article, nous suivons cette procédure d’étude des variations de température moyenne globale sur la période 1800-1850 à 2010 pour trouver la tendance générale.
La Figure 1 montre les deux variations de température de 1860 à 2000 [2] et le taux d’augmentation de température estimé pour différents intervalles. La tendance la plus cohérente est une augmentation progressive de la température de 1860 à 2000, matérialisée ici par une ligne droite, avec un taux d’augmentation de 0,045°±0,012°/décennie. En superposition se trouve la variation la plus marquante, un changement d’amplitude oscillatoire d’environ 0,2° sur une période de 50-60 ans.

Figure 1. Variations de la température moyenne globale [2]. Le taux d’augmentation de la température est estimé pour différents intervalles de temps.

2. Analyse spectrale

2.1 La Variation quasi linéaire

Par chance, une excellente analyse spectrale des variations de la température globale de 1850 à 2000 a été construite par Wu et al. [3]. Les résultat indiquent en outre que la variation la plus marquante sur cette période est une variation quasi linéaire caractérisée par un taux d’augmentation d’environ 0.5°C/siècle ou 0.05°C/décennie. Cette tendance quasi linéaire a également été notée par (Bryant, 2001) [4], qui a montré qu’il n’y a que quelques points en dehors des limites de l’intervalle de confiance à 95% de l’approximation linéaire.
En se basant sur diverses données de variations climatiques, comme les cernes d’arbres [5], les retraits glaciaires [6] et la débâcle fluviale [7], Akasofu [8] a montré que le réchauffement global a débuté dès 1800-1850 et non après que le CO2 ait commencé à augmenter très rapidement autour de 1946. De plus, parmi ces facteurs, la montée du niveau marin entre 1850 et 2000 fut également quasi linéaire, quoiqu’avec un rythme de décroissance léger [9].

La Figure 2 montre les variations de température depuis l’an 800 environ jusques 2000, d’après les modifications des cernes des arbres ; elle montre le Petit Âge Glaciaire (LIA) après l’Optimum Médiéval autour de l’an 1000 et la progression quasi linéaire peu après 1800 [5]. La Figure 3 montre des tendances à peu près similaires dans les variations de température relevées par plusieurs chercheurs (comprenant Esper et al. [5]), indiquant une progression quasi linéaire des températures depuis environ 1850 jusques 2000, en complément aux résultats obtenus par le GICC (Figure 1).
Il est alors possible que cette composante linéaire soit due à une sortie progressive du Petit Âge Glaciaire (LIA) de 1800-1850, car le LIA ne s’est pas terminé d’un seul coup. Il est généralement admis que la température durant le LIA était inférieure d’environ 1°C à notre époque (Figures 2 et 3). Donc le taux de progression de la température depuis 1800 serait en gros de 1°C sur deux siècles (= 0.5°C/siècle ou 0.05°C/décennie), similaire au taux de progression quasi linéaire d’environ 0.5°C rencontré au cours du 20e siècle.

Figure 2. Variations de température d’après les cernes des arbres [5].

Figure 3. Variations de température de 900 à 2000, compilées par le National Research Council [10].


L’augmentation de température depuis 1800-1850 étant quasi linéaire, le rythme est quelque peu différent de l’augmentation du CO2, qui a montré une progression quasi quadratique sur la même période – avec une augmentation rapide après 1946 et une augmentation progressive qui a commencé autour de 1900. Il est donc au minimum problématique de considérer cette progression quasi linéaire de la température durant les 19e et 20e siècles comme due principalement au CO2.
On doit noter également que la fonction de modulation solaire est dérivée du C14 et du Be10 [11] ; Muscheler et al. [12] montre une tendance inversement proportionnelle à la tendance de température montrée aux Figures 2 et 3, et on peut supposer que le LIA et sa sortie sont peut-être en relation avec les variations d’activité solaire, même si les variations du Soleil durant un cycle d’activité de 11 ans sont réputées faibles, environ 0.1%. (Ndt TSI, Irradiance Solaire Totale)2.2. L’Oscillation Multi-DécennaleSe superposant à la progression quasi linéaire de la température on trouve diverses variations. La plus marquante est l’oscillation multi-décennale, avec une amplitude d’environ 0.2°C et une période d’environ 50-60 ans; sur la Figure 1 nous pouvons voir trois principales augmentations débutant en 1860, 1910 et 1970. Ces augmentations ont culminé respectivement en 1880, 1940 et 2000. Jevrejeva et al. [9] a montré que le niveau des mers superposait des variations similaires à une augmentation quasi linéaire par ailleurs.
De plus, les progressions de 1860 et 1910 furent suivies chacune d’une décroissance significative. On peut par conséquent s’attendre à un arrêt ou même à une petite diminution de la tendance après 2000, compte tenu de cette analyse spectrale.
Cette variation fluctuante est probablement le résultat d’une oscillation multi-décennale [13, 14]. l’Oscillation Décennale Pacifique (PDO) possède une phase similaire montrée à la Figure 4 [15] ; les premières données remontant à 1900 montrent les mêmes changements de phase, on peut raisonnablement considérer que la variation multi-décennale de la température est en relation étroite avec la PDO, un phénomène naturel. A l’appui de cette prévision, la PDO montre une tendance décroissante claire depuis 2000.

Figure 4. L’Oscillation Décennale du Pacifique (PDO) [15].
http://www.ncdc.noaa.gov/teleconnections/pdo/


3. SynthèseLa Figure 5a montre les conditions ci-dessus en mode graphique et représente une version améliorée de la Figure 9 de Akasofu [8]. Le grand cartouche rectangulaire ombré en jaune montre les variations de température de 1860 à 2010 (données standard, similaires à la Figure 1), avec un trait noir montrant le taux d’augmentation de 0.5°C/siècle et l’oscillation multi-décennale en rouge et bleu, respectivement au-dessus et en dessous du trait. La Figure 5a montre le détail des données du cartouche jaune. La ligne pointillée avant 1860 indique que le trait linéaire peut être extrapolé jusques 1800 environ, en supposant que le LIA a réellement commencé à s’achever vers 1800. La Figure 5b montre les données HADCRUT4 [16], en même temps que leur lissage en cinq points. Il est clair d’après ces données que la tendance au réchauffement connaît une pause et que cela indique même un léger refroidissement après 2000.

Figure 5a. Une interprétation des changements de la température moyenne globale de 1800 à 2012.
La température en ordonnée est pour l’échelle de référence ; voir le texte pour le détail. L’insertion au-dessus du cartouche jaune est une version détaillée des données du cartouche. Les données HadCRUT4 sont examinées par Morice et al. [16].


Dans le cartouche jaune, la variation entre 2000 et juin 2012 est appuyée par le trait bleu épais pour montrer que la tendance à la pause est un effet de l’oscillation multi-décennale. Au-dessus du cartouche jaune est montré le détail de ces données. En s’appuyant sur cette synthèse, on peut supposer que la pause actuelle au réchauffement est due au fait que l’oscillation multi-décennale a pris le pas sur l’augmentation quasi linéaire précédente (sortie du LIA). En réalité, ce type de tendance est similaire à celles qui ont eu lieu après 1880 et 1940, quand la température a décru jusques’en 1910 et 1970 respectivement (particulièrement à la lumière du fait que le CO2 a commencé à augmenter rapidement après 1946). On doit noter cependant que Levitus et al. [17] font état d’une augmentation continue du contenu thermique de l’océan après 2000, bien que le taux de croissance semble diminuer après 2004 ; d’un autre côté, les conclusions de Pielke [18] ne semblent pas montrer cette augmentation après 2000.

Figure 5b. Les données HADCRUT4 telles que montrées dans la figure 5a, avec le lissage en cinq points, mais pour l’intervalle 1980-2012 seulement.


La progression de température de 1975 à 2000, montrée par le trait rouge épais (ligne fondamentalement similaire à la ligne jaune de la Figure 1), est probablement composée à la base de la sortie du LIA, combinée avec la phase positive de l’oscillation multi-décennale [8]. Au contraire, le GICC considère l’élévation de température de 1975 à 2000 comme "très probablement" due à l’augmentation constatée des concentrations de gaz à effet de serre anthropiques [2]Se basant sur cette hypothèse, le GICC prédit une augmentation de température de +2°C à +4°C en 2100 [2], comme illustré à la Figure 5a par l’extension en pointillés de la ligne rouge épaisse, censée plus immédiatement se traduire par une augmentation de +0.2°C ou plus en 2012. Cependant, la pause (ou même la légère décroissance) de la température depuis 2000 indique une situation plus proche de celle qui a régné après 1880 et 1940.Il est donc fort probable que la progression quasi linéaire due à la sortie du LIA ait été temporairement surpassée par l’oscillation multi décennale, qui a atteint un pic positif autour de l’année 2000.En supposant que ces résultats obtenus par analyse statistique se prolongeront tout au long du 21e siècle, nous devons observer la ligne en pointillés de 2012 à 2100 comme l’extrapolation linéaire, en conjonction avec l’oscillation multi-décennale. L’élévation attendue de température due à la sortie du LIA reste de 0,5°C, bien que la contribution de l’oscillation multi-décennale dépende de sa phase (+0.2°C).

4. Conclusion

Il est probable que la progression quasi linéaire et l’oscillation multi-décennale sont toutes les deux des variations essentiellement naturelles. Ainsi, afin d’estimer les effets du CO2 sur les deux derniers siècles, il est important d’isoler ces composantes naturelles des variations climatiques des données réelles de température.

Source.

Remerciements
L’auteur tient à remercier le Dr. Gerhard Kramm pour ses explications, ainsi que pour avoir amélioré la Figure 5a et fourni la Figure 5b.

Références et Notes

1. Burroughs, W.J. Climate Change; Cambridge University Press: Cambridge, UK, 2001, pp.298.
2. IPCC Climate Change 2007: The physical science basis. Contribution of Working Group I to the
Fourth Assessment Report of the Intergovernmental Panel on Climate Change [Solomon, S.,
Qin, D., Manning, M., Chen, Z., Marquis, M., Averyt, K. B., Tignor, M., Miller, H.L. (eds.)].
Cambridge University Press, New York, USA, 2007.
3. Wu, Z., Huang, N. E., Long, S. R., Peng, C.-H. On the trend, detrending, and variability of
nonlinear and nonstationary time series. Proceeding of National Academy of Sciences, USA,
2007, 104, 14889-14894.
4. Bryant, E. Climate Process & Change; Cambridge University Press: Cambridge, UK, 1997, 91-
92, pp. 209.
5. Esper, J.; Cook, E.R., Schweingruber, F. H. Low frequency signals in long tree-ring
chronologies for reconstructing past temperature variability. Science 2002, 295, 2250-2253
6. Nussbaumer, S. U., Zumbühl, H. J., Steiner, D. Fluctuations of the “Mer de Glace” AD 1500-
2000; an interdisciplinary approach using new historical data and neural network simulations.
Zeitschrift für Gletscherkunde und Glazialgeologie 2007, 40, 183 pp.
7. Magnuson, J. J., Robertson, D. M., Benson, B. J., Wynne, R. H., Livingstone, D. M., Arai, T.,
Assel, R. A., Barry, R. G., V. Card, V., Kuusisto, E., Granin, N. G., Prowse, T. D., Stewart, K.
M., Vuglinski, V. S. Historical Trends in lake and river ice cover in the Northern Hemisphere.
Science 2000, 289, 1743-1746.
8. Akasofu, S. On the recovery from the Little Ice Age. Natutral Science 2010, 2, 1211-1224.
9. Jevrejeva, S., Moore, J. C., Grinsted, A., Woodworth, P. L. Recent global sea level acceleration
started over 200 years ago? Geophys. Res. Lett. 2008, 35, L08715, doi:10,1029/2008 GL033611.
10. National Research Council of the National Academies, 2006, Surface temperature
reconstructions for the last 2000 years (Summary figure), Washington, D.C., pp.145.
11. Hoyt, D. V., Schatten, K. H. The Role of the Sun in Climate Change. Oxford University Press,
New York, USA, 1997, pp. 279.
12. Muscheler, R., Joos, F., Beer, J., Müller, S. A., Vonmoos, M., Snowball, I. Solar activity during
the last 1000 yr inferred from radionuclide records. Quaternary Science Rev. 2007, 26, 82-97.
13. Schlesinger, E. E., Ramankutty, N. An oscillation in the globall climate system of period 65-70
years. Nature 1994, 367, 723-726.
14. Polyakov, I. V., Bahtt, U. S., Simmons, H. L., Walsh, D., Walsh, J. E., Zhang, X. Multidecadal
variability of North Atlantic temperature and salinity during the twenty century. J. Climate 2005,
18, 4562-4581.
15. NOAA: http://www.ncdc.noaa.gov/teleconnections/pdo/
16. Morice, C. P., Kennedy, J. J., Rayner, N. A, Jones, P. D. Quantifying uncertainties in global and
regional temperature change using an ensemble of observational estimates: The HadCRUT4 data
set. J. Geophys. Res. 2012, 117, D08101, doi:10.1029/2011JD017187.
17. Levitus, S., Antonov, J. I., Boyer, T. P., Baranova, O. K., Garcia, H. E., Locarmini, R. A.,
Mishonov, A. V., Reagan, J. R., Seidov, D., Yarosh, E. S., Zweng, M. M. World ocean heat
content and thermosteric sea level change (0-222m), 1955-2010. Geophys. Res. Lett. 2012, 39,
L10603, doi:10. 1029/2012GL051106.
18. Pielke, R. A. Sr., A broader view of the role of humans in the climate system, Physics Today
2008, 61, 54-55.

© 2013 by the authors; licensee MDPI, Basel, Switzerland. This article is an open access article distributed under the terms and conditions of the Creative Commons Attribution license (http://creativecommons.org/licenses/by/3.0/).