Slideshow image
  • Derniers commentaires

Politiques du climat

Gilles des Landes:scaletrans (#615), venez à...

the fritz:[Doublons sur plusieurs fils et hors...

scaletrans:Gilles des Landes (#614), puis 3 h...

Le grand minimum de l’irradiance solaire totale conduit à un petit âge glaciaire

the fritz:scaletrans (#19), Laurent Berthod...

scaletrans:Laurent Berthod (#17), Peut-être...

scaletrans:the fritz (#16), si les teneurs des...

Bistrot du coin 2014/2

Clem:Je reprendrais juste votre dernière...

Clem:Murps (#295), Dès les premières lignes...

Murps:AntonioSan (#294), affirmatif.

Fil info de sceptiques 2014/2

the fritz:Ai regardé SOS catastrophes météo...

Anecdote:Notons cependant l’évolution...

Anecdote:Bernnard (#360), Oui, et je crains que...

El niño et Marcel Leroux

Gilles des Landes:Bob (#72), justement,...

Murps:Abitbol (#77), ça s’écrit...

Abitbol:Murps (#76), 1) On se moque des...

Des arguments sceptiques qui ne tiennent pas la route

de Rouvex:the fritz (#138), non, je l’ai...

the fritz:de Rouvex (#136), Est-ce qu’il...

Murps:de Rouvex (#136), Rouvex, vous devriez...

septembre 2014
L Ma Me J V S D
« août    
1234567
891011121314
15161718192021
22232425262728
2930  
Le grand minimum de l’irradiance solaire totale conduit à un petit âge glaciaire

Par  Habibullo Abdussamatov

Des variations climatiques significatives durant les 7,5 derniers millénaires indiquent que les variations bicentenaires quasi périodiques de TSI (Irradiance Solaire Totale) déterminent un mécanisme cyclique correspondant de changements climatiques entre réchauffements globaux et Petits Âges Glaciaires issus pratiquement des processus physiques intervenant dans le système Soleil-Terre. Les variations cycliques quasi bicentenaires de la TSI pénétrant dans l’atmosphère terrestre supérieure sont les principales causes fondamentales des variations climatiques alternées. Dans le même temps, des variations à plus long terme de la moyenne annuelle de TSI due à des changements dans la forme de l’orbite terrestre, l’inclinaison de l’axe de la Terre par rapport au plan de son orbite, et la précession, connues comme les cycles astronomiques de Milankovitch, de concert avec les effets rétroactifs subséquents, amènent les Grands Âges Glaciaires (d’une période d’environ 100.000 ans).La différence de moyenne annuelle entre l’énergie du rayonnement solaire pénétrant dans la haute atmosphère terrestre, le rayonnement solaire réfléchi et l’énergie radiative de grande longueur d’onde sortant dans l’espace détermine l’équilibre du bilan énergétique du système atmosphérique de la Terre. La différence entre le rayonnement entrant Ein et sortant Eout est donné par l’équation :

Ici, Sο est la TSI, ΔSο l’incrément de TSI, A est l’albédo de la Terre en tant que planète (albédo de Bond), ΔA est l’incrément de l’albédo de Bond, ε est l’émissivité du système Terre-atmosphère, σ la constante de Stefan-Boltzman, Tp la température dynamique planétaire, E la puissance spécifique du changement d’état (enthalpie) de la couche active de l’océan et de l’atmosphère (Wm²) qui peut être considéré comme l’équilibre énergétique du bilan moyen annuel (balance de la puissance thermique de la planète).

La variation quasi bicentenaire du rayonnement solaire absorbé par la Terre n’est pas entièrement compensée par l’émission d’énergie vers l’espace dans le laps de temps déterminé par l’inertie thermique de l’océan mondial (20 ans ±8). C’est parce que les éléments de crédit et de débit du bilan énergétique moyen annuel du globe terrestre avec son enveloppe d’air et d’eau est toujours en déséquilibre (E≠0), ce qui est l’état de base du système climatique. L’équilibre annuel moyen du bilan thermique du système Terre-atmosphère sur de longues périodes déterminera de façon sûre le sens et la valeur aussi bien de l’excès ou du déficit d’énergie accumulé par la Terre dans le bilan thermique, lequel, en tenant compte des données des 3 variations de TSI prévues dans le futur, peut définir et prédire bien à l’avance le sens et l’amplitude des changements climatiques à venir. Si la TSI augmente durant de longues périodes de temps, le changement moyen annuel dans l’enthalpie Terre-atmosphère est positif (E>0) ; à l’inverse, si la TSI décroît sur une longue période de temps, ce changement est négatif (E<0). Il en résultera que la température effective de la Terre augmentera ou décroîtra respectivement. La formule de l’incrément de la température effective de la Terre du aux incréments de la TSI et de l’albédo de Bond est obtenue à partir de :

Les variations quasi bicentenaires de la TSI sont relativement faibles (valeur maximale 6,3 wm², soit moins de 0,5% (d’après les dernières données de reconstruction, Shapiro A.I. et al. A new approach to the long-term reconstruction of the solar irradiance leads to large historical solar forcing. Astron. Astrophys. 2011; 529: A67). Cependant, l’impact direct des variations de TSI sur les changements du climat global sera en outre renforcé (avec quelque décalage temporel) en raison d’effets secondaires de rétroaction : des modifications naturelles non linéaires de l’albédo global de la Terre en tant que planète (modifications supplémentaires de la fraction de TSI absorbée) et modifications de la concentration de gaz à effet de serre dans l’atmosphère (vapeur d’eau comme dioxyde de carbone et autres gaz) – modifications supplémentaires de l’influence de l’effet de serre.

L’albédo de Bond augmente jusqu’au niveau maximum durant un refroidissement profond et décroît jusqu’à un minimum durant un réchauffement, alors que la concentration de gaz à effet de serre dans l’atmosphère varie en sens contraire et dépend principalement de la température globale des Océans. Les variations des paramètres de la surface et de l’atmosphère terrestre, qui sont dues aux variations de TSI quasi bicentenaires, génèrent des modifications supplémentaires de température en raison de répétitions multiples de tels cycles causals des effets secondaires de rétroaction, même si la TSI reste par la suite inchangée sur une certaine période de temps. Ainsi, la variation quasi bicentenaire de la TSI conduit toujours au déséquilibre du bilan énergétique moyen annuel du système Terre-atmosphère, pendant que le prochain Grand Minimum de la TSI entraîne un déficit du bilan énergétique moyen annuel de la Terre et le Petit Âge Glaciaire.

Depuis le début des années 90, on a observé une diminution de la TSI et donc de la portion d’énergie absorbée par la Terre (Figure 1). Le Soleil étant dans la phase descendante de la variation quasi bicentenaire, la valeur moyenne de la valeur absolue lissée de la TSI est en décroissance sur les cycles  22, 23 et 24 : le rythme moyen annuel de décroissance du cycle 22 était de ~0.007 wm²/an, alors que durant le cycle 23 il était déjà passé à ~0.02 Wm²/an. La TSI moyenne du cycle 23 était inférieure de ~0.15Wm² à celle du cycle 22. La valeur de la TSI au minimum entre les cycles 23 et 24 était inférieure de ~0.23 et ~0.30 Wm² par rapport aux minimas entre les cycles 22/23 et 21/22 respectivement. L’augmentation actuelle du rythme moyen annuel de la décroissance de la TSI (en tenant compte d’une brusque chute de sa composante de 11 ans) atteint presque 0.1 Wm²/an (Figure 1) et continuera à augmenter lors du cycle 25. La tendance observée d’une augmentation du rythme de décroissance moyen annuel de la valeur absolue de TSI nous permet de suggérer que ce déclin en tant que tel est analogue au déclin de la période du Minimum de Maunder selon sa reconstruction la plus fiable (Shapiro A.I. et al.). A noter que le niveau maximum  de la composante de 11 ans de la TSI a décru de ~0.7 Wm² en cinq ans de cycle 24 par rapport au niveau maximal du cycle 23.

Figure 1. Variation de la TSI et de l’activité solaire en 1978-2013 et prévisions de ces variations pour les cycles 24 à 27 jusqu’en 2045. La flèche indique le début de l’époque du nouveau Petit Âge Glaciaire après le maximum du cycle 24.

La Terre en tant que planète aura également un solde négatif du bilan énergétique dans le futur car le Soleil est entré dans la phase déclinante du cycle quasi bicentenaire des variations de TSI. Ceci amènera une chute de température et au début d’un Petit Âge Glaciaire vers la fin du maximum du cycle solaire n° 24 au début de 2014. L’accroissement de l’albédo de Bond et la diminution de la concentration de gaz à effet de serre dans l’atmosphère due au refroidissement provoquera une réduction supplémentaire de l’énergie solaire absorbée et réduira l’influence de l’effet de serre. Les effets de la chaîne consécutive de rétroactions provoqueront une chute supplémentaire de température qui pourrait surpasser l’influence de la décroissance quasi bicentenaire de la TSI. Le début du Grand Minimum de type Maunder de la TSI du cycle quasi bicentenaire est attendu lors du cycle 27±1 vers l’année 2043±11 et le début de la phase de fort refroidissement du 19° Petit Âge Glaciaire des 7.500 dernières années vers 2060±11 (Figure 1, 2). Maintenant nous assistons à la période de transition du réchauffement au refroidissement profond caractérisé par des changements climatiques lorsque la température globale oscille (approximativement jusqu’en 2014) autour du maximum atteint entre 1998-2005. Ces pronostics sont confirmés par le Soleil lui-même et la tendance des changements de température globale ainsi que par les niveaux des Océans pour les 16 dernières années.

En général, par analogie avec les saisons terrestres il y a aussi une alternance similaire des conditions climatiques dans le Système Solaire, alternance dictée par le cycle quasi bicentenaire de la variation de TSI. Ainsi, actuellement l’ensemble de notre Système Solaire passe de l’ été solaire à l’automne solaire puis passera à la saison de l’hiver solaire du cycle solaire quasi bicentenaire. Il y a un réchauffement simultané sur la Terre, Mars et tout le Système Solaire. Ceci a une origine solaire naturelle et confirme l’effet d’un été solaire et l’alternance des conditions climatiques qui en découlent.

Le contenu en gaz à effet de serre dans l’atmosphère dépend en grande partie des Océans, et le contenu en poussières dépend de l’activité volcanique et de la hausse des aérosols provenant du sol. Les quantités de flux naturels (dioxyde de carbone, vapeur d’eau et poussière) issus des Océans et des sols vers l’atmosphère (Min) et allant de l’atmosphère (Mout) vers les Océans excèdent de plusieurs ordres de grandeurs les décharges anthropiques de ces substances vers l’atmosphère (Mant) (Nigmatulin R.I. The Ocean: climate, resources, and natural disasters. Herald of the Russian Academy of Sciences. 2010; 80(4): 338-349). Le contenu total de dioxyde de carbone dans les Océans est 50 fois plus élevé que dans l’atmosphère, et même une "respiration" des Océans peut changer dramatiquement ne niveau de dioxyde de carbone dans l’atmosphère. Les causes naturelles jouent un rôle nettement plus important dans les variations climatiques que l’activité humaine car les facteurs naturels sont substantiellement plus puissants.

Figure 2. Prévision des changements climatiques naturels pour les cent prochaines années.

Les carottes de glace de l’Antarctique donnent des preuves claires de la relation étroite entre les variations de température et la concentration atmosphérique de dioxyde de carbone durant les cycles glaciaires/interglaciaires, au moins durant les 800 mille dernières années. L’analyse des carottes de glace montre que la concentration de dioxyde de carbone suit très précisément les augmentations de température avec un décalage de 800±400 ans. Durant les cycles glaciaires/interglaciaires les pointes de concentration de dioxyde de carbone n’ont jamais précédé les réchauffements. Par conséquent il n’existe pas de preuve que le dioxyde de carbone constitue un facteur majeur du réchauffement actuel de la Terre. Les changements importants de la concentration atmosphérique de dioxyde de carbone sont toujours déterminés par des fluctuations correspondantes de la température des Océans.

Ainsi, les variations quasi bicentenaires de la TSI (avec leurs impacts direct et secondaire, ce dernier étant dû aux effets secondaires de rétroaction) sont les causes majeures et essentielles des changements climatiques. Le Soleil est le principal facteur contrôlant le système climatique et même des variations de long terme de faible amplitude de la TSI peuvent avoir des effets importants sur le climat de la Terre et d’autres planètes du Système Solaire. Les cycles solaires quasi bicentenaires sont la clé de la compréhension des changements cycliques à la fois dans la nature et dans la société. Le signe et la valeur du déséquilibre énergétique du système Terre-atmosphère sur une longue échelle de temps (excès ou déficit de TSI accumulé par les Océans) déterminent un changement correspondant du statut énergétique du système, d’où une variation climatique et son amplitude en corrélation.

C’est pourquoi le climat de la Terre change tous les 200±70 ans ; et c’est le résultat de la variation cyclique bicentenaire de la TSI. Le déclin de long terme observé de la TSI et le profond refroidissement consécutif influence en conséquence et tout d’abord les ressources naturelles dépendantes du climat et l’économie étroitement  liée au climat. La façon la plus raisonnable de lutter contre le Petit Âge Glaciaire à venir est un ensemble de dispositions spéciales ayant pour but de soutenir le développement économique et une production économe en énergie en vue d’adapter l’humanité à la période de refroidissement sévère à venir qui durera probablement jusqu’au début du XXII° siècle. Une rapide prise de conscience de la réalité du refroidissement global à venir et des mécanismes physiques qui le provoquent déterminent directement le choix de mesures adéquates et fiables devant permettre à l’humanité, et en particulier aux populations de pays éloignés de l’équateur de s’adapter au futur refroidissement global.

 

Source, traduction Scaletrans.

Catégorie:  Changement climatique
• • • •
El niño et Marcel Leroux

"Le phénomène el niño est un sujet à la mode" écrivait feu Marcel Leroux dans La dynamique du temps et du climat (1996). Alors qu'en 2015 on assistera à la Climate Change Fashion Week de Paris ; un el Niño est attendu, espéré même, pour cet hiver. Les zélotes du RCA les plus excités en voient même dèjà les effets. Pour les experts, l'événement est imminent : Les chances d'un el niño sont de 70% cet été et de 80% pour l'automne et l'hiver.

Wikipedia nous explique pourtant : "En 2010, El Niño fait encore l’objet de nombreuses recherches dans le but de découvrir les causes de ce phénomène marin.". On prévoit sans comprendre les causes, ce qui est quelque peu troublant.

Comme par exemple, le site de la NOAA est tout aussi muet, je vais faire parler un mort pour tenter d'y voir plus clair.

Avant tout, quelques bases et un lexique, indispensable pour la suite, du modèle de Marcel Leroux tirées de son livre. Hacène a également publié un texte sur son site La Trogne où on peut également télécharger beaucoup de publications de Leroux.

Au dessus de 40° nord ou sud de latitude, la Terre émet plus d'énergie qu'elle n'en reçoit. Ce déficit est compensé par des flux d'air (ou océaniques) venus du sud. L'air chaud arrive essentiellement en altitude, il refroidit, se tasse et sa pression augmente.

Les Anticyclones Mobiles Polaires (AMP) :

Le froid polaire est régulièrement exporté, de manière discontinue, par le détachement d’imposantes masses d’air dense. L’air froid, pelliculaire puisqu’il est associé à l’influence thermique du sol et à l’affaissement puis étalement qui résultent du refroidissement, est éjecté des régions polaires comme une goutte d’eau qui se détache lorsqu’elle atteint une masse critique ou comme un iceberg qui se détache d’un inlandsis, sous la forme d’anticyclones mobiles, sous l’impulsion combinée de l’augmentation de la masse refroidie, de la force centrifuge et de la pente (Antarctique et Groenland). Éjectés de l’Arctique ou de l’Antarctique, les AMP forment des masses mobiles pelliculaires, des lentilles d’air dense relativement homogènes, ou des palets plus ou moins élastiques de faible épaisseur mais de vaste dimension, d’un diamètre moyen d’environ 2 000 à 3 000 kilomètres. Ils se déplacent d’une manière générale d’ouest en est, avec une composante méridienne qui les éloigne progressivement des pôles.

Les agglutinations anticycloniques (AA) :

Le déplacement des AMP ne peut se poursuivre indéfiniment vers l’est : l’étalement accroît la force de frottement, l’excédent relatif de vitesse par rapport à la surface de la Terre diminue, et le mouvement est progressivement ralenti. En raison des différences de dynamisme des AMP, et sans autre intervention que les dynamiques propres (donc audessus des océans), un AMP peut être rattrapé par l’AMP qui le suit : une fusion (partielle ou totale) en résulte. Les différences de puissance, de vitesse et de trajectoire entre les AMP, et/ou l’intervention continentale qui accroît le frottement, favorisent ce télescopage. Mais l’action la plus vigoureuse émane du relief [Rocheuses et cordilière des Andes pour ce qui va nous préocuper] qui, en fonction de son altitude et de l’épaisseur des AMP, freine, canalise, bloque et provoque l’emboîtement des AMP qui se succèdent.

l’Equateur Météorologique (EM), décliné en l’Equateur Météorologique Vertical (EMV) au dessus des océans :

La zone tropicale est encadrée par les agglutinations anticycloniques (AA) nord et sud, entre lesquelles s’étire le couloir dépressionnaire zonal des basses pressions intertropicales (BPIT), occupé par l’Equateur Météorologique (EM), axe de symétrie vers lequel se réalise la confluence des transports effectués par les AMP boréaux et austraux.

Elle connaît deux types de flux, qui sont uniquement tropicaux, l’alizé et la mousson. La distinction fondamentale concerne les trajectoires : l’alizé, de direction dominante est, ne franchit pas l’équateur géographique, la mousson de forte composante ouest le traverse. Ces flux s’inscrivent dans des champs de pression spécifiques, organisés dans les basses couches par des facteurs extra-tropicaux et tropicaux. Les AA, en fonction des conditions de l’alimentation extra-tropicale (saison, modalités d’écoulement), déterminent les circulations initiales d’alizés, séparées par des Discontinuités d’alizés (D. al) Les facteurs internes à la zone tropicale résultent du mouvement zénithal du soleil qui déplace les BPIT et l’Equateur Météorologique, amenant la déviation en mousson lorsqu’un alizé franchit l’équateur géographique.

Enfin il faut se souvenir que le livre dont est extrait le texte qui va suivre date de 1996, et donc le replacer dans le contexte de l'évolution climatique des années qui précèdent : le refroidissement de l'arctique après un optimum en 1940.

Température dans l'arctique (Chyleck et al 2009)

Nicias

Pages : 1 2 3

Catégorie:  Changement climatique
• • • •
Bistrot du coin 2014/2

Pour discuter de tout et de rien.

Suite du fil “bistrot” précédent.

Catégorie:  Changement climatique
• • • •
Une critique des Modèles de Circulation Générale

Publié le 7 mai 2014 chez Anthony Watts

Extrait de commentaires de blog, en réponse à une intervention.

 Par le Dr Robert G. Brown, de l'Université de Duke

Traduit par Volauvent

Frank K: vous êtes dans le vrai avec votre évaluation des Modèles de Circulation Générale (MCG). Malheureusement, ceux qui croient en leur capacité à prédire le climat futur ne veulent vraiment pas parler des équations différentielles, méthodes numériques ou conditions initiales et aux limites que comprennent ces codes. C'est là que sont les vrais problèmes …

RGB : Eh bien, attention à votre façon de le dire. Ceux qui croient en leur capacité à prédire le climat futur et qui ne sont pas dans le métier ne veulent pas parler de tout cela, et ceux qui ne sont pas experts en modélisation prédictive et statistiques en général préfèrent dans de nombreux cas ne pas avoir une discussion détaillée sur la difficulté de bien valider un modèle prédictif - un processus qui, fondamentalement, ne se termine jamais tant que de nouvelles données entrent en jeu.

Cependant, la plupart des MCG sont bien, et assez publiquement, documentés. C'est juste que, à moins d’avoir un doctorat (par exemple) en physique, une connaissance des mathématiques générales, des statistiques, de l'informatique et du calcul numérique qui suffirait à vous faire gagner au moins un diplôme de maîtrise dans chacun de ces sujets si elle est acquise dans le cadre d'un programme d'études, ainsi que des spécialisations importantes dans les domaines généraux de la dynamique des fluides et la science du climat, vous n’en savez pas assez pour commenter intelligemment ​​le code du modèle lui-même. Vous ne pouvez le commenter que comme une boîte noire, ou faire un commentaire sur un minuscule aspect  de code, ou de physique, ou d'initialisation, ou de méthodes, ou de résolution, ou de moteurs dynamiques, ou sur la moyenne, ou sur la résolution spatio-temporelle, ou …

Tenez : j'ai fait un doctorat en physique théorique. J'ai terminé quelque chose comme six classes de niveau d'études supérieures de mathématiques (pour la plupart en premier cycle, mais deux fois comme étudiant diplômé en physique). J'ai enseigné en études supérieures l'électrodynamique (et écrit un livre sur) et c’était essentiellement un cours à peine dissimulé sur les équations aux dérivées partielles elliptiques et hyperboliques. J'ai écrit un livre sur le calcul informatique à grande échelle en « clusters » que les gens utilisent encore lors de l’établissement de clusters, et j’ai plusieurs giga-octets de code sous Subversion [Ndt : un logiciel collaboratif utilisé en développement informatique]. Je ne compte pas le nombre de langages que soit je connais bien ou ai écrit dans au moins un programme (même datant du temps où on écrivait les codes sur ​​une bande de papier). J'ai cofondé deux sociétés sur la modélisation prédictive de pointe sur la base de codes que j'ai écrit et sur un processus pour faire de l'inférence bayésienne indirecte sur des sujets comme  la vie privée ou d'autres données aux limites qui a été longtemps un brevet en attente de licence, avant que d'essayer de défendre ce brevet ne me devienne trop coûteux et envahissant ; la deuxième société existe encore et si elle fait encore des progrès substantiels, peut être un jour me fera-t-elle riche. J'ai conduit des simulations Monte Carlo avancées à partir d’échantillonnages importants, c’est ce qui a constitué mes recherches initiales pendant environ 15 ans avant que je passe à autre chose. J'ai appris un bon bout de science du climat. Je ne manque fondamentalement de connaissance approfondie et d'expérience qu’en dynamique des fluides calculée par ordinateur par rapport à la liste ci-dessus (et je comprends les concepts assez bien, mais ce n'est pas la même chose que l'expérience directe ) et j'ai encore du mal à naviguer dans, par exemple, la documentation 3.1 CAM, et encore plus de mal à travailler dans le code open source, en partie parce que le code est terriblement mal organisé et mal documenté en interne au point que d'essayer juste de l'installer nécessite de s’y consacrer avec ardeur et une ou deux semaines d'effort.

Oh, et ai-je mentionné que je suis aussi un programmeur et administrateur de systèmes de réseaux expérimenté ? Donc, je comprends effectivement assez bien les outils sous-jacents nécessaires à la construction de MCG…

Si j’ai du mal à pouvoir - par exemple - tout simplement reconstruire une base de code publié en open source et l'exécuter sur un système personnel pour regarder le tout fonctionner et arriver à une conclusion, et encore moins commencer à réorganiser le code, remplacer les composants sous-jacents tels que leur absurde maillage en latitude et longitude sur la surface d'une sphère par des pavages symétriques modifiables pour rendre le code adaptatif, isoler les différents sous domaines de la physique qui contribuent de sorte qu'ils peuvent être facilement modifiés ou remplacés sans affecter d'autres parties du calcul, et ainsi de suite, vous pouvez parier qu'il n'y a qu’une poignée de personnes dans le monde qui vont être en mesure de le faire et disposés à le faire sans un salaire et un soutien substantiel. Comment peut-on obtenir le salaire, le soutien, l'accès aux ressources de supercalculateurs à l’échelle des besoins du processus ? En demandant des subventions (et avoir assez de temps pour faire le travail, dans un environnement capable de fournir le soutien nécessaire en échange d'argent, avec le soutien implicite du département ou vous travaillez) et obtenir ces subventions pour faire votre projet.

Et qui contrôle qui, de la petite poignée de gens assez largement compétente dans la liste ci-dessus pour avoir une bonne chance d'être en mesure de gérer l'ensemble du projet sur ​​la base de leurs propres connaissances et compétences, et qui a le temps et le soutien indirect etc…, pour obtenir le  financement ? Qui examine les subventions ?

Pourquoi entrer en contradiction avec ceux-là mêmes qui ont tous un certain nombre d'intérêts particuliers dans l'existence d'une situation décrite comme une urgence (catastrophique). En effet, sans une situation d'urgence, le gouvernement américain pourrait financer deux ou même trois efforts distincts pour écrire un modèle climatique qui fonctionne, mais il ne financerait jamais quarante ou cinquante de ces efforts. Il n’est dans les meilleurs intérêts de personne dans ce groupe d'admettre des étrangers - tous ces groupes ont des étudiants diplômés qu’ils doivent placer, des perspectives d’emploi à concrétiser pour ceux qui ne seront pas maintenus dans la recherche, et cela requiert de ne pas contrarier leurs amis et collègues. Comme il est noté dans le cinquième rapport d'évaluation [RE5] - des plus ou moins 36 modèles pris en compte par le CMIP5 du GIEC, ce n’est pas comme si il y avait 36 modèles indépendants - les modèles, les données, les méthodes, le code sont toutes les variantes d'une poignée de lignes de code " mémétiques " (Ndt : algorithmes évolutifs). Ils sont différenciés dans leurs détails par des étudiants diplômés sur la base de leur propre version du code qu'ils ont utilisé à l'école et  présentés comme un nouveau programme financé dans une nouvelle école ou institution.

A mon avis, résoudre le problème des MCG c’est tenter de résoudre un problème qui est un défi considérable en informatique. Il n'est pas du tout surprenant que les solutions à ce jour ne fonctionnent pas très bien. Ce serait plutôt surprenant si elles le faisaient. Nous n'avons même pas les données nécessaires pour initialiser intelligemment les modèles que nous avons construits, et ces modèles ont quasi certainement une résolution spatio-temporelle totalement inadéquate, sur un maillage incroyablement stupide, non adaptable, pour une sphère. Ainsi, les programmes ne peuvent carrément pas être configurés pour fonctionner à une résolution plus fine sans qu’il faille réécrire fondamentalement le tout, et une telle réécriture ne ferait qu’aggraver le problème au niveau des pôles – la quadrature sur une surface sphérique en utilisant une grille latitude/longitude est connue depuis longtemps pour être extrêmement difficile et pour donner lieu à des artefacts et des erreurs d’estimations à peu près incontrôlables.

Mais jusqu'à ce que les gens qui font des «statistiques» sur les résultats des MCG reviennent à la raison et cessent de considérer chaque MCG comme si il était une partie d’un échantillon indépendant et identiquement distribué, tiré d'une distribution de codes de MCG parfaitement écrits, avec des erreurs inconnues mais sans biais, et ce qui est précisément ce que le RE5 du GIEC  considère,  le public sera « protégé » en toute sécurité de toute connaissance « dangereuse » de l'impossibilité actuelle des MCG à faire de la prévision ou de la simulation rétrospective qui soient  particulièrement précises en dehors de l’intervalle de référence.

Et pourtant c’est explicitement reconnu dans l'article 9.2 du rapport du GIEC par précisément deux paragraphes cachés soigneusement dans la masse. Ils signifient en gros que les estimations et les "intervalles de confiance" figurant au début du chapitre 9 sont essentiellement des foutaises d’opinions de personnes humaines, pas quelque chose qui peut être soutenu par une quelconque analyse statistique relevant d’une axiomatique correcte.

Source.

Catégorie:  Changement climatique
• • • •
Fil info de sceptiques 2014/2

Suite du Fil info de sceptiques 2014/1.

Le RCA vu d'Amérique du Nord
Catégorie:  Changement climatique
• • • •
Les scientifiques du climat sont-ils contraints de rester dans la ligne ?

Par Axel Bojanowski

Après avoir rejoint un groupe de lobbying controversé critiquant le changement climatique, le météorologiste Lennart Bengtsson se plaint d’avoir été banni par des collègues, l’amenant à démissionner. Certains scientifiques se plaignent que les pressions à se conformer à l’opinion du consensus soient devenues un frein sérieux dans le domaine(1).

La nouvelle de l’adhésion de Lennart Bengtsson, l’ancien directeur respecté de l’Institut de Météorologie Max Planck de Hambourg, à la Global Warming Policy Foundation (GWPF) a fait des vagues au sein de la communauté de la recherche climatique. La GWPF est particulièrement connue pour son scepticisme à propos du changement climatique et ses efforts pour saper la position du GIEC. Le séisme que sa décision a provoqué dans la communauté scientifique a bouleversé Bengtsson.

Le scientifique déclare que des collègues exerçaient tellement de pression sur lui après son adhésion au GWPF qu’il a quitté la fondation par crainte pour sa santé. Bengtsson a ajouté que ce traitement lui avait rappelé les persécutions des personnes soupçonnées de communisme aux Etats Unis à l’époque du Maccarthysme dans les années 50.

Tous ses confrères en climatologie ne sont pas d’accord. Gavin Schmidt, un climatologue et modélisateur de climat à la NASA, qualifie "le parallèle avec McCarthy" de "ridicule". "Ayant été réellement menacé de sanctions pénales par un Sénateur des Etats Unis simplement pour de la publication scientifique, je ne vois vraiment pas que la totale liberté de Bengtsson de s’associer avec qui il veut – et laissez-moi être clair, il a cette liberté – ait été en aucun cas été compromise."

Mais Bengtsson maintient que même des collègues proches l’ont fui. Il dit qu’un partenaire de recherche, craignant que sa réputation ne soit compromise, s’est retiré d’une étude qu’ils effectuaient en commun. Bengtsson ne donne pas de détail se bornant à dire que l’incident fut blessant.

Schmidt de la NASA critique aussi cette affirmation. "C’est si vague que ça n’a aucune signification, et sans un exemple concret il est impossible de connaître ce qui est avancé".

Nuages accumulés avant la tempête

Il apparait maintenant que les nuages de la controverse se sont accumulés avant la tempête actuelle. En février, Bengtsson a subi un revers significatif. Le journal scientifique Environmental Research Letters refusa de publier une de ses études prédisant un effet de serre plus faible. Les réviseurs décrirent les conclusions du rapport comme "peu utiles" et ajoutaient, "en réalité il est nuisible d’ouvrir la porte a des allégations d’ ‘erreurs’ trop simplistes à des médias climato-sceptiques".

Le respecté climatologue allemand Hans von Storch de l’Institut de Recherche Côtière au Centre Helmholtz, qualifia la justification de "scandaleuse" et accusa le journal de décision à motivation politique non basée sur des normes scientifiques. Dans une déclaration sur le site de IOP Science, l’éditrice Nicola Gulley souligne que l’étude a été rejetée pour des raisons scientifiques. Elle soutient que le travail de Bengtsson ne correspondait pas aux normes élevées du journal.

Les chercheurs du climat sont maintenant engagés dans un débat pour savoir si leur science est handicapée par un conformisme compulsif. Ils se demandent si la pression pour parvenir à un consensus n’est pas trop grande. Ils se demandent si la critique n’est pas en train d’être neutralisée. Ce n’est rien moins que la crédibilité de la recherche sur le changement climatique qui est en jeu, ainsi que la question même de savoir si la recherche climatique est encore fiable.

Bengtsson disait dans un entretien avec Spiegel Online qu’il voulait ouvrir le débat sur le changement climatique en joignant la GWPF. Il disait qu’en raison de grandes lacunes de compréhension, la pression pour parvenir à un consensus dans la recherche climatique "n’avait aucun sens".

Néanmoins, en rejoignant le groupe de lobbying politique, Bengtsson s’est offert lui-même à la critique selon laquelle il avait pris une position inappropriée pour un scientifique de sa stature.

‘Nous ne sommes pas un lobby’

D'après Eric Steig le climatologue de l’Université de Washington les activités de la GWPF ont plus à voir avec le Maccarthysme que le cas de Bengtsson. Il dit que la GWPF se vante d’enquêter sur les chercheurs du climat. "Ils ont aussi publié des articles d’opinion sur leur site web accusant les principaux chercheurs du climat d’avoir des ‘sociétés secrètes’ " et des agendas politiques conçus avec des buts politiques spécifiquement de gauche sur le changement climatique", il ajoute : "Ils ont accusé les écoles britanniques de ‘laver le cerveau’ des élèves en leur enseignant le changement climatique". De son côté, la GWPF se décrit elle-même comme un groupe de réflexion qui documente des arguments exposant pourquoi le changement climatique est surestimé en tant que problème.

Reno Knutti de l’université technique ETH de Zurich est également critique. "Des organisations comme la GWPF contribuent à transformer un débat scientifique en guerre de religion", affirme-t-il. "Ils distribuent des rapports pseudo-scientifiques, alors qu’il poursuivent en réalité un but politique", dit Knutti. Jochem Marotzke qui a succédé à Bengtsson à l’Institut de Météorologie Max Planck, dit "la GWPF travaille délibérément de façon sélective. Ils mentionnent seulement les arguments qui appuient leur objectif. Les contre arguments sont mis sous le tapis".

Le professeur Myles Allen, un chercheur du climat d’Oxford, dit "Le problème est leur agenda anti science, clairement illustré par le fait qu’ils ont refusé sans détour de soumettre leur récent rapport critiquant l’AR5 du GIEC au même système de revue par les pairs auquel le rapport du GIEC fut lui-même soumis"(2).

Le directeur de la GWPF Benny Peiser conteste ce genre d’assertion : "Nous ne sommes pas un lobby ; nos scientifiques n’ont pas d’opinion collective ou officielle sur aucun sujet. S’il n’y avait pas de tabous dans la science du climat ou la politique climatique, la GWPF n’existerait probablement pas".

Avocats furtifs

Roger Pielke Jr., un scientifique de l’environnement de l’Université du Colorado, professeur depuis longtemps critique de la politisation du débat climatique, dit que le groupe utilise la science pour masquer son agenda politique. Pielke souligne cependant qu’en tant que groupe de lobbying la GWPF "a parfaitement le droit d’avancer tous les arguments qu’il veut. Il se concentre souvent sur un plaidoyer discret – cachant sa politique derrière la science – une stratégie courante dans le débat climatique, rencontrée de tous les ‘côtés’, et assez commune de bien des problèmes".

Von Storch convient que d’autres groupes politiques, comme les groupes environnementaux, font aussi usage "d’avocats discrets" pour influencer le débat scientifique. Pielke argumente que "dans une démocratie, les gens organisent toutes sortes d’intérêts communs, comme il se doit, et beaucoup ont des valeurs que je ne partage pas. Et alors ? Les raisons de Bengtsson de s’associer avec la GWPF sont parfaitement légitimes. Qu’il ressente une forte pression de la part de ses pairs, avec des sanctions sociales et autres reflète la nature profondément politisée de ce problème".

Il demande à ce que la recherche scientifique soit maintenue à des standards plus élevés que ceux des groupes de lobbying, mais même ces standards doivent doivent faire l'objet d'une attention plus soutenue.Depuis des années bien des climatologues se sont plaint en silence de harcèlement et d'exclusion. Mais la situation de cette discipline scientifique est-elle pire que dans d'autres branches ? Roger Pielke Sr, un chercheur senior scientist de l'Université du Colorado et père de Pielke junior, dit, "Malheureusement, la science du climat est devenue très politisée et les opinions qui diffèrent complètement de celles contrôlées par le processus dévaluation climatique sont, soit ignorées, soit ridiculisées. Je suis d'accord à 100 pour cent avec les allégations du très distingué Lennart Bengtsson".

Mais quels sont ceux qui politisent ? Knutti dit que c’est facile à voir. "Si vous êtes politiquement de gauche, vous croyez au réchauffement climatique", dit-il "si vous êtes de droite, c’est beaucoup moins probable". Il ajoute que la limite entre l’opinion et les faits est souvent brouillée, même chez les scientifiques.

Déloyale, dégoûtante, destructive

"Chaque camp dit que l’autre politise le débat", explique Wener Krauss, un ethnologue de l’environnement au Centre Helmholtz pour les Matériaux et la Recherche Côtière de Geesthacht en Allemagne. D'après lui, la recherche climatique est dominée par de "fortes individualités" qui savent comment exploiter les médias chaque fois qu’ils le veulent. Krauss prétend que Bengtsson a géré son adhésion à la GWPF dans les médias et soutient que la recherche climatique est tombée dans les affres de l’équivalent scientifique de la ferveur religieuse. Pour lui, il n’est pas étonnant que Bengtsson ait été pris sous un feu roulant après sa décision.

En même temps, Heinrich Miller de l’Institut Alfred Wegener pour la Recherche Polaire et Maritime dit, "J’ai trouvé que la réaction de ses collègues était choquante. Apparemment il y a une déconvenue générale parce qu’un brillant scientifique a rendu publics ses doutes scientifiques". Miller ajoute que le cas Bengtsson lui rappelle la façon dont les politiciens utilisent des "combines déloyales" pour museler les opposants.

Pielke Jr. confirme que la recherche climatique est un dur métier. "Nous voyons des politiques agressives", dit-il. "J’ai personnellement expérimenté de très fortes pressions sociales et professionnelles durant des années. Cela inclut des menaces sur mon job, de l’ostracisme professionnel, de fausses représentations de mes recherches et points de vues, des efforts pour m’empêcher de parler en public et des menaces physiques dont beaucoup sont publiquement documentées". Il prévient que "quiconque souhaite participer au débat public sur le changement climatique doit le faire en sachant comment est la politique de nos jours — "Déloyale, dégoûtante, destructive".

Le Réchauffement Global est considéré comme un dogme

Le Climatologue Michael Mann parle même de "guerres climatiques". Il dit que durant des années il a été l’objet d’attaque par des groupes conservateurs sceptiques du changement climatique, spécialement après le scandale du "Climategate", lorsque ses courriels furent publiés illégalement. L’autre camp ne le cède en rien non plus – au moins lorsqu’il s’agit de vitriol. Un professeur Autrichien est allé jusqu’à demander la peine de mort pour les climato-sceptiques.

Miller déclare que les scientifiques furent plus politisés que jamais du fait de la recherche d'un consensus pour le 5° rapport du GIEC. "Le Réchauffement global est à considérer comme un dogme. Quiconque doute pèche", dit le renommé chercheur qui a été étiqueté "climato-sceptique" après avoir émis des doutes sur la validité scientifique des simulations sur ordinateur.

Par contraste Knutti met en garde contre trop d’insistance sur le défaut de certitude des preuves. A son avis la critique sévère de Bengtsson sur les prévisions de changement climatique est trompeuse, expliquant que les modèles ont donné des résultats utilisables qui ont été testés sur des changements climatiques historiques. Le cinquième rapport du GIEC qui a demandé des centaines de milliers d’heures de scientifiques, dit Knutti, documente parfaitement la série de résultats. A son avis, s’asseoir et attendre que toutes les questions soient résolues n’est pas une alternative, et décrit dans une large mesure ce qu'on appelle le scepticisme comme une tromperie délibérée.

Source.

Traduction par Scaletrans

1 Voir cet article de Pensée Unique pour un résumé complet de l'affaire Bengtsson.

2 David Henderson, président du conseil scientifique de la GWPF, a répondu à cette critique sur BH.

Catégorie:  Changement climatique
• • • •
Gardons la tête froide

Par Nigel Lawson

(NDLR : Cet article est basé sur le texte d’un discours donné à l’Institut pour l’Energie Durable et l’Environnement de l’Université de Bath.
Nigel Lawson est président du conseil d’administration de la GWPF, un groupe de réflexion (think tank) s'occupant principalement de politique climatique.)

Verdissement

Légende : Effet de fertilisation: durant les trente dernières années, la Terre a visiblement reverdi, et ceci a même affecté la plupart des zones du Sahel

 

Il y a quelque chose de curieux à propos du débat sur le réchauffement climatique – ou le débat sur le changement climatique, comme nous devons dorénavant l’appeler, car le réchauffement climatique s’est arrêté pour l’instant.

Je n’ai jamais refusé la controverse, ni – lorsque j’étais Chancelier – n’ai reculé devant l’impopularité si je pensais que ce que je disais était dans l’intérêt du public.

Mais je n’avais jamais expérimenté les excès d’hostilité personnelle, vitupérations et calomnies que j’ai – bien sûr en même temps que d’autres hérétiques – reçu à propos de mes opinions sur le réchauffement climatique et les politiques en découlant. *(Ndt en fin de texte)

Par exemple, selon le Secrétaire au Changement Climatique, Ed Davey, les hérétiques du réchauffement climatique sont sans exception des "ignorants volontaires " et selon le Prince de Galles, nous sommes des "poulets sans tête". Ils n’utilisent d’ailleurs pas le terme "hérétique". Nous sommes régulièrement qualifiés de "négationnistes du changement climatique", une phrase délibérément conçue pour faire écho à "négationniste de l’Holocauste" – comme si s’interroger sur les politiques et prévisions actuelles reviendrait à introduire un doute pernicieux sur un fait historique.

L’héritier du trône et le ministre sont des personnages publics de haut rang qui surveillent leur langage. Les mauvais traitements que j’ai reçus après mon apparition sur le programme Today de la BBC furent beaucoup moins modérés. La BBC et moi-même avons reçu un bombardement coordonné de plaintes selon lesquelles il était scandaleux que j’ai été autorisé à discuter du problème dans l’émission. Même le Science and Technology Committee de la Chambre des Communes s’est joint honteusement au chœur de ceux qui veulent supprimer tout débat.

En fait, bien qu’ayant rédigé un ouvrage soigneusement documenté à propos du réchauffement climatique il y a plus de cinq ans, ouvrage qui devint heureusement une sorte de best-seller, et ayant fondé l’année suivante un groupe de réflexion sur le sujet –the Global Warming Policy Foundation- et bien qu’étant fréquemment invité sur Today pour parler de problèmes économiques, c’était la toute première fois qu’on me demandait de discuter changement climatique. Je suspecte fortement que ce sera la dernière.

La BBC a reçu un déluge de protestations bien coordonnées – quelques-unes naturellement de la part de gens ayant un intérêt personnel dans l’énergie renouvelable – m’accusant, entre autres, d’être un politicien sénile en retraite et non un scientifique du climat, et par conséquent incompétent pour discuter du problème.

En passant peut-être pourrais-je répondre aux accusations fréquentes de ceux qui s’opposent violemment à toute contestation de quelque sorte de la doctrine dominante du changement climatique, comme quoi le secret sur les noms des donateurs de la Global Warming Policy Foundation est la preuve que nous sommes une organisation profondément malfaisante et une façade de l’industrie pétrolière.

Comme je l’ai fait remarquer à de nombreuses reprises, le Conseil d’Administration de la Fondation a décidé dès le début que jamais il ne solliciterait ni n’accepterait quelque argent de l’industrie de l’énergie ou de quiconque ayant un intérêt significatif dans l’industrie de l’énergie. Et à ceux qui malheureusement ne sont pas disposés à me croire, je ferai remarquer que parmi nos administrateurs figurent un évêque de l’Eglise d’Angleterre, un ancien secrétaire privé de la Reine et un ancien dirigeant du Service Civil. Ceux qui imaginent que nous sommes tous engagés dans une conspiration de mensonge sont dans un stade avancé de paranoïa.

La raison pour laquelle nous ne révélons pas les noms de nos donateurs qui sont des citoyens privés ayant une disposition philanthropique, est assez évidente. Si nous le faisions ils seraient, eux aussi, les objets des calomnies et insultes mentionnées plus haut. Et on comprendra qu’il peuvent s’en passer.

Ceci dit, je dois admettre que je suis fortement tenté d’être d’accord pour dire que, puisque je ne suis pas un scientifique du climat, je devrais dès maintenant rester silencieux sur le sujet – étant clairement entendu naturellement que tout le monde suive les mêmes règles. Plus de déclarations de Ed Davey, ou même des autres politiciens, y compris Ed Milliband, Lord Deben et Al Gore. Non plus que du Prince de Galles ou de Lord Stern. Quel bonheur !

L'Alarmisme et ses Fondements

Mais cela n’arrivera évidemment pas. Et cela ne devrait pas, car, à la base, ceci n’est pas un problème scientifique. C’est-à-dire que le problème n’est pas le réchauffement climatique, mais l’alarmisme sur le problème climatique et les politiques désastreuses qui sont préconisées, et, dans certains cas, mises en place en son nom. Et l’alarmisme ne fait pas partie du monde de la physique, qui est ce que les scientifiques du climat étudient, mais d'un comportement humain ; en d’autres termes le domaine des économistes, historiens, sociologues, psychologues et – j’ose le dire – des politiciens.

Et, en passant, le problème des politiciens dissidents, et à plus forte raison pour les climatologues dissidents en la matière, lesquels existent certainement, est que cette dissidence peut menacer leur carrière. L’avantage d’être âgé est que ma carrière est derrière moi : il n’y a plus rien à menacer.

Pour en revenir au climat, celui-ci change tout le temps, de façons différentes et imprévisibles (certainement imprévues), et vraiment souvent de façons différentes dans différentes parties du monde. Il en a toujours été et il en sera sans aucun doute toujours ainsi. La question est de savoir si c'est inquiétant. Selon les alarmistes, c'est la plus grande menace à laquelle fait face l'humanité aujourd'hui.

L’alarmisme du changement climatique est une croyance et doit être considérée comme telle. Il y a en réalité une théorie scientifique admise que je ne discute pas et par laquelle les alarmistes prétendent justifier leur croyance et leur inquiétude.

Il s’agit du prétendu effet de serre : le fait que l’atmosphère terrestre contienne du soi-disant gaz à effet de serre (dont la vapeur d’eau est de loin le plus important, mais le dioxyde de carbone en est un autre) qui, en effet, piège la chaleur que nous recevons du soleil et l’empêche de retourner dans l’espace.

Sans l’effet de serre, la planète serait si froide qu’elle serait inhabitable. Mais en brûlant des combustibles fossiles – charbon, pétrole et gaz – nous augmentons la quantité de gaz à effet de serre dans l’atmosphère et donc, toutes choses égales par ailleurs, nous augmentons la température de la Terre.

Mais quatre questions se posent immédiatement, auxquelles nous devons répondre calmement et rationnellement.

Premièrement, toutes choses égales par ailleurs, de combien le CO2 atmosphérique est-il censé réchauffer la Terre? (Les scientifiques appellent cela la sensibilité climatique, ou quelquefois la sensibilité climatique du carbone). Ceci est hautement incertain, principalement parce que les nuages jouent un rôle important, et la science des nuages est très peu connue. Jusqu’à il y a peu, l’opinion majoritaire chez les climatologues était que les nuages amplifiaient grandement l’effet de serre de base. Mais il y a une minorité significative, y compris quelques climatologues parmi les plus éminents qui contestent fortement cela.

Deuxièmement, toutes les choses sont-elles parfaitement égales ? Nous savons que sur des millénaires la température de la Terre a grandement varié, bien avant l’arrivée des combustibles fossiles. En considérant seulement le dernier millénaire, il y a quelques centaines d’années nous avons bénéficié de la fameuse période de l’optimum médiéval, durant laquelle on pense que les températures étaient aussi élevées, sinon plus élevées qu’aujourd’hui. Et à l’époque baroque nous avons souffert du froid durant le fameux Petit Âge Glaciaire, quand la Tamise gelait souvent l’hiver et que d’importantes foires s’y tenaient, ce qui a été immortalisé par des gravures contemporaines.

Troisièmement, même si la Terre devait se réchauffer, loin de constituer une cause d’alarme, est-ce important ? Il serait après tout surprenant que la planète soit dans une fourchette précaire de température autour de laquelle tout changement en plus ou en moins constituerait un désastre majeur. En fait, nous savons que, s’il devait y avoir un réchauffement futur (et pour les raisons précédentes, le "si" est de mise) il devrait y avoir également des avantages et ce que les économistes appellent des inconvénients. Je parlerai plus loin de l’équilibre à trouver.

Et quatrièmement, dans la mesure où il y a un problème, que devrions-nous faire, calmement et raisonnablement à ce propos ?

Températures de Surfaces passées et projetées

Le mieux est de traiter ensemble les deux premières questions.

Selon les enregistrements de température conservés par l’Office Météo Britannique (et les autres séries sont très proches), durant les 150 dernières années (c’est-à-dire depuis le début de la Révolution Industrielle), la température moyenne globale s’est accrue de légèrement moins qu'un degré centigrade,  0.8°C selon le Met Office. Ceci s’est produit avec des à-coups qui ne sont pas pleinement compris. Pour commencer, dans la mesure où tout le monde l’a noté, ce fut regardé comme une sortie naturelle et bienvenue des rigueurs du Petit Âge Glaciaire. Mais la plus grande partie – 0,5°C sur le 0,8°C – est intervenue durant le dernier quart du 20° siècle. Ce fut là qu’est né l’alarmisme du réchauffement global.

Mais depuis lors, et parfaitement à l’inverse des prévisions de l’immense majorité des climatologues qui prédisaient avec confiance que le réchauffement global ne continuerait pas simplement mais s'accélérerait, compte tenu de l’augmentation sans précédent des émissions mondiales de carbone, alors que l’économie chinoise basée sur le charbon a considérablement progressé, il n’y a eu aucun réchauffement supplémentaire. Pour être précis, le dernier rapport du GIEC, groupe profondément déficient dont le président qui n’est pas un scientifique est un alarmiste du climat engagé, reconnaît que le taux de réchauffement global a été de – attendez un peu – 0,05°C par décennie, plus ou moins 0,1°C. Ce sont leurs chiffres, non les miens. En d’autres termes, le taux de réchauffement observé est inférieur à la marge d’erreur.

Et cette marge d’erreur, il faut le dire, est invraisemblablement petite. Après tout, calculer une température moyenne globale à partir des enregistrements des stations météo et des observations maritimes de qualité variable à travers le monde est une tâche vraiment héroïque en premier lieu. Sans parler du fait qu’il y a une différence considérable entre les températures diurnes et nocturnes. En tous cas, produire un chiffre au centième de degré près est évidemment absurde.

Les leçons de l’arrêt imprévu (ou du hiatus comme l’appelle le GIEC) du réchauffement durant 15 ans sont claires. En premier lieu, les dénommés Modèles d’Évaluation Intégrés que la communauté scientifique du climat utilise pour prédire l’augmentation de la température globale supposée intervenir dans les 100 prochaines années sont presque certainement faux car la sensibilité climatique est presque certainement beaucoup moindre que ce qu’ils pensent, et par conséquent les modèles exagèrent l’augmentation probable de température des cents prochaines années.

Mais le besoin d’une mise à jour ne s’arrête pas là. Comme la célèbre climatologue Judith Curry, présidente de la School of Earth and Atmospheric Sciences à l’Institut de Technologie de Géorgie, le faisait observer récemment dans un témoignage écrit au Sénat étasunien :

Le réchauffement global anthropique est une théorie dont le mécanisme de base est bien compris, mais dont la magnitude est hautement incertaine. Il est de plus en plus évident que les modèles climatiques sont trop sensibles au CO2, ce qui a des implications sur la responsabilité de réchauffement de la fin du 20e siècle et les projections sur le climat du 21e. Si le récent hiatus de réchauffement est causé par la variabilité naturelle, ceci pose la question de savoir dans quelle mesure le réchauffement entre 1975 et 2000 ne pourrait pas aussi s’expliquer par la variabilité naturelle du climat.(1)

Pages : 1 2 3

Catégorie:  Changement climatique
• • • •
Lindzen lors de l’audit de l’APS : Milankovitch et l’Arctique

Dans un billet récent, Roy Spencer présente ses dix bons arguments climatosceptiques.

Le premier est l'absence de réchauffement sur les 15 dernières années. Pour autant, si l'on accepte qu'il existe une variabilité naturelle multidécénale (et je pense que nous en sommes tous convaincus), ce n'est absolument pas incompatible avec la théorie du RCA.

Je ne vais pas critiquer tous les arguments de Spencer comme par exemple "Est-ce que le réchauffement est mauvais". Pour l’essentiel il tape sur ce qu'il y a de plus ridicule et faible chez les carbocentristes.

J'ai une toute autre vision de ce qu'est un bon argument climatosceptique : Il doit s'attaquer aux points forts du carbocentrisme.

Allons-y. Les plus fortes variations climatiques de l'histoire sont les cycles de glaciation/déglaciation. Selon les climatologues orthodoxes, la théorie de Milankovitch serait insuffisante pour les expliquer mais les modèles globaux du climat (GCM) y arriveraient avec du CO2. C'est largement faux.

La Société Américaine de Physique (APS) est une de ces sociétés savantes qui ont émergé à partir du siècle des Lumières. Elle a pour objectif de faire avancer les sciences physiques et de les diffuser ; l’APS compte 50000 membres. Elle fait aussi des recommandations plus politiques aux pouvoirs publics et l’une d’elle concerne le changement climatique. Il y a 6 ans, elle avait parlé de preuves irréfutables du RCA dans sa déclaration. Elle y avait perdu des membres dont un prix Nobel. Cette fois, le travail devrait être plus soigné et parmi les 6 scientifiques qu’elle a consulté, on trouve Spencer, Curry et surtout Lindzen qui va nous occuper ici.

Extrait de l'audition du Dr Richard Lindzen, professeur émérite de physique de l'atmosphère au MIT, devant l'APS :

DR . Lindzen : Maintenant, je dirais que la plupart des tentatives indépendantes pour calculer la sensibilité climatique [Ndt : la réponse du climat à un doublement du CO2] se retrouvent avec moins de sensibilité que celle affichée par les modèles [GCM]. Mais la paléo est une exception intéressante.

Figure 1. Courbes a,b et c, variations des parametres de Milankovitch. g, un proxy du volume de glace.

Là, le fait est que les paramètres de Milankovitch, les paramètres orbitaux ne vous donnent essentiellement pas de changement dans l'insolation moyenne. Et nous nous retrouvons avec un grand changement climatique, ce qui suggère une sensibilité forte.

Et ici, il est intéressant que Isaac [Held] soit ici parce qu'il était en post-doc avec moi et qu'il était la personne qui m'a intéressé à Milankovitch. Je n'y avais pas beaucoup réfléchi.

Et il me semblait très intéressant que vous n'ayez presque pas de forçage et que vous obteniez une réponse importante. Et j'ai travaillé sur cette question quelques années et tout à coup j'ai réalisé que je faisais fausse route.

Ce n'est pas un problème de forçage moyenné sur tout le globe et sur toute l'année. Milankovitch avait probablement raison. Ce que Milankovitch a fait, a été tout simplement de dire que vous avez ces variations orbitales, l'obliquité, l'excentricité, la précession des équinoxes.

Mais ce qui était important pour les glaciers était l'insolation dans l'Arctique en été. Presque tous les glaciologues vous le diront.
Essentiellement, vous obtiendrez toujours de la neige en hiver. Elle s'accumulera toujours. Si vous construisez une calotte glaciaire sur une longue période de temps, ce qui est essentiel, c'est combien de glace survit à l'été.

Maintenant, au début, les gens regardaient ça [cf figure 2]. Et c'est un domaine drôle et nous avons tous fait des erreurs qui sont assez  grossières avec du recul. Mais ce qui s'est passé avec le programme CLIMAP est qu'ils ont comparé les paramètres de Milankovitch avec le volume de la glace et ils n'ont pas trouvé de corrélation convaincante.

Figure 2. Comparaison de l'insolation en juin au dela de 65°N (vert) et du volume des glaciers selon deux jeux de données (noir).

Finalement, je me sens gêné parce que je me suis rendu compte à un certain moment que je cherchais l'influence tropicale.

Trois astronomes suédois, Edvardsson et quelques autres noms ont étudié cette question. Ils ont fait la chose la plus évidente, qui était d'examiner la dérivée temporelle du volume de glace par rapport aux paramètres de Milankovitch. Et voici ce que vous obtenez, c'est au sommet de la figure :

Je veux dire, je ne connais pas de meilleure corrélation en géophysique. Et en bas, vous voyez le volume de la glace elle-même. Bien sûr, cela n'a pas l'air aussi bon. D'autres personnes ont découvert ceci indépendamment parce Edvardsson et al. était paru dans la littérature astronomique et personne ne l'avait lu.

Mais ils sont aussi allés jusqu'à se demander si la gamme de variabilité de l'insolation due au paramètre Milankovitch était compatible avec la chaleur de fusion pour le volume de la glace.
Et même que c'était très, très proche. Juste pour vous donner une idée de la gamme, c'est dans le graphique ci-dessous.

L'article de Gérard Roe avait ça. C'est 100 watts par mètre carré.

DR. KOONIN : Sur quelle région est-ce ?

DR. CHRISTY : 65° nord.

DR. KOONIN : Wow !

DR. Lindzen : C'est l'Arctique. Donc, c'est un truc important. Maintenant, la question est, est ce que le paradigme actuel est raisonnable ?

Est-il vrai qu'il ya un problème profond avec l'hypothèse de Milankovitch parce que les paramètres orbitaux conduisent à presque aucun changement de l'insolation moyenne globale ou annuelle  ?

Est-ce vraiment un watt et demi par mètre carré [ Ndt : le forçage du aux variations des GES ] qui est en cause ? Et je pense que cela n'a aucun sens.

Source.

Les glaciations et le CO2

Alors que se passe t-il lorsque l'on fait tourner un modèle de circulation du climat pour reproduire une glaciation ?

"Les simulations du dernier minimum glaciaire [LGM, -21000 ans avant 1950] ont tendance à surestimer le refroidissement tropical et a sous-estimer le refroidissement aux latitudes moyennes. Elles sous-estiment ainsi l'amplification polaire"

AR5, chapitre 9 p. 776.

Figure 5. Triangles noirs avec leurs immenses barres d'erreur, à gauche la recontruction pour l'Atlantique Nord/Europe,
a droite celle pour les tropiques. Le reste des triangles sont les résultats des GCM. Les différences de température sont
par rapport à l'ère préindustrielle.

C'est un graphique un peu compliqué mais je n'en ai pas trouvé d'autre. Ce que vous pouvez voir, c'est que les modèles sont trop chauds sous les tropiques, de 0 à 2,5°C (Les croix rouges à comparer avec la croix noire de droite) ; et sur les latitudes nord, ou tombe la neige, ils sont trop chauds de 1 à 4°C (Les croix bleus VS la croix noire de gauche).

Le biais tropical est important car c'est là qu'est logé le gros de l'énergie du système climatique. C'est d'autant plus un problème parce qu'ils y arrivent sans avoir la bonne couverture glaciaire ou de neige, qui est trop faible, c'est à dire le bon albédo. Ils n'ont probablement pas non plus la bonne couverture nuageuse aux tropiques. Si on contraignait les modèles avec le bon albédo, ils seraient encore plus froid à l’équateur.
Il y a une solution simple à ce problème, elle est de diminuer la sensibilité du climat au CO2 dans les modèles.

Nicias

Catégorie:  Changement climatique
• • • •
Pourquoi la révolution des gaz de schistes ne pouvait se produire qu’en Amérique

Les Etats-Unis du gaz

Traduction (de Papijo) de l’article du site “Foreign Affairs” du “Council on foreign relations” américain (Lien):

Il y a moins d’une décennie, l’avenir de l’énergie aux USA semblait sombre. La production intérieure de pétrole et de gaz diminuait et les grandes entreprises de l’énergie des États-Unis estimant que leur fortune se trouvait dans l’off-shore, s’étaient depuis longtemps détournées de la partie continentale. Mais alors quelque chose de remarquable est arrivé: une vague d’innovations a permis aux entreprises d’extraire de grandes quantités de gaz naturel piégé dans les gisements de schiste autrefois inaccessibles. L’abondance qui en a résulté a entraîné une baisse des prix du gaz aux États-Unis à environ un tiers de la moyenne mondiale.

Le gaz naturel a été une aubaine pour les Etats-Unis. D'emblée le gaz a suscité une renaissance de la production, avec des investisseurs dépensant et planifiant des centaines de milliards de dollars dans de nouvelles installations telles que les usines de produits chimiques, d’acier et d’aluminium. Le boom des gaz de schistes a créé des centaines de milliers de nouveaux emplois bien rémunérés, des jobs pour la classe moyenne, et maintenant, plus d’un million d’Américains travaillent dans l’industrie du pétrole et du gaz, soit une augmentation d’environ 40 pour cent entre 2007 et 2012. De plus, parce que le gaz naturel fournit actuellement environ 25 pour cent de l’énergie totale consommée aux États-Unis (un chiffre qui augmente rapidement), le boom fait économiser aux consommateurs américains des centaines de milliards de dollars par an. Combiné avec les autres avantages, ces économies ont donné aux États-Unis un avantage économique à long terme par rapport à ses concurrents et a aidé le pays à se remettre de la Grande Récession.

Même si d’autres pays peuvent envier ce catalyseur pour la croissance intérieure, ils ne seront pas capables de le répliquer, parce que les USA possèdent les ingrédients uniques nécessaires pour développer pleinement les ressources de schiste. Un système juridique qui consacre la propriété privée de la terre et des ressources du sous-sol, accompagné par des marchés de capitaux ouverts et un système de réglementation raisonnable, a conduit à la croissance de milliers de sociétés pétrolières et gazières indépendantes, qui sont toutes en compétition intense les unes avec les autres. En conséquence, près de quatre millions de puits de pétrole et de gaz ont été forés dans les États-Unis, par rapport à 1,5 million dans le reste du monde. Le foisonnement de l’activité du forage aux États-Unis a également conduit à une augmentation de l’innovation dans l’industrie d’un ordre de grandeur dont les autres pays ne peuvent que rêver.

Bien que d’autres endroits, comme la Chine et l’Europe, disposent de ressources importantes de gaz de schistes, ils n’ont pas le système « entrepreneur–friendly » nécessaire pour développer ces ressources rapidement et de façon productive. Tant que les hommes politiques ne rentrent pas dans cette voie, les Etats-Unis profiteront grassement de la révolution du gaz de schiste pendant les décennies à venir.

DERRIERE LE BOOM

L’histoire de la révolution du gaz de schiste en Amérique implique la classique ingéniosité yankee - mais non de la part des grands pétroliers. Dès les années 1970, la production des champs de pétrole et de gaz « on-shore » aux États-Unis a diminué tandis que ces champs devenaient ce que l’industrie appelle « matures ». Ainsi, les majors ont été contraintes d’abandonner le développement de nouvelles ressources sur le sol américain. Afin de trouver de nouveaux champs pétroliers géants, ils ont fait porter leurs efforts d’exploration dans des pays lointains et dans des forages en eaux profondes. Ces investissements ont été extrêmement coûteux et demandaient souvent des décennies à négocier et se développer. Afin de renforcer les ressources en capital et la portée mondiale nécessaires pour traiter avec les gouvernements nationaux et réaliser ces projets gigantesques, les grandes compagnies pétrolières ont commencé à acquérir ou fusionner avec leurs pairs. Le pétrole, ont-ils observé, était généralement moins cher à acheter à Wall Street qu’à trouver dans le sol.

Au cours des décennies suivantes, cependant, ces sociétés sont devenues excessivement bureaucratiques et ont développé une vision étroite. Préoccupées principalement par le renouvellement de leurs réserves de pétrole en diminution, elles ont investi leurs capitaux dans des dépôts géants étrangers, tels que le champ de Kashagan, au Kazakhstan, qui a environ 13 milliards de barils de pétrole récupérable ; sa première phase de développement coûte, à elle seule, 50 milliards.

Pendant ce temps, des petites entreprises indépendantes - qui gagnent la plus grosse part de leur chiffre d’affaires lors des forages et très peu à partir des activités en aval (raffinage, par exemple) - ont été contraintes d’innover ou de périr. Depuis la fin des années 1990, les prix du gaz naturel grimpaient et les entreprises ont appris que des formations souterraines de schiste des États-Unis contiennent de vastes volumes de gaz naturel. Donc, des entreprises telles que la société GHK (dont je suis le fondateur et le PDG) ont tenté d’entrouvrir le schiste dans des puits verticaux et de libérer le gaz par injection de sable, d’eau et de produits chimiques dans la roche, un processus connu sous le nom de fracturation hydraulique, ou « fracking ». Mais ce n’était tout simplement pas rentable.

C’est alors que George Mitchell, un professionnel du pétrole indépendant dans la formation de Barnett, au Texas, a commencé à briser les règles. Son innovation était de forer horizontalement dans le schiste, exposant des milliers de pieds (NDT : 1000 pieds = 300 m) de roche contenant le gaz, plutôt que les quelques 100 pieds (ou souvent juste dix ou 20 pieds) rencontrés dans un puits vertical. En même temps, les prix du gaz ont encore monté et les techniques de Mitchell se sont encore mieux développées et il a commencé à atteindre un certain succès commercial. En 2002, Devon Energy, sentant la révolution à venir, a acheté la société de Mitchell et perfectionné l’innovation pour développer la formation Barnett. Chesapeake Energy et d’autres sociétés indépendantes les ont bientôt rejoints, donnant ainsi le départ des gaz de schistes américains. Dans la décennie, Chesapeake a dépassé ExxonMobil comme plus grand fournisseur de gaz naturel des États-Unis, et peu de temps après, les États-Unis ont dépassé la Russie en tant que plus grand producteur de gaz naturel au monde.

Non seulement les entreprises indépendantes transforment l’industrie du gaz naturel; elles ont fait la même chose avec le pétrole. Les livraisons de gaz récemment découverts ont fait que le prix du gaz naturel des États-Unis est tombé d’un sommet de plus de 13,50 $ par millier de pieds cubes en 2008 à environ $ 3 -. 4 $ par millier de pieds cubes en 2009. Le gaz naturel est devenu si bon marché que les indépendants ont de nouveau été contraints à innover pour rester en vie. Avec un prix de vente du gaz équivalent à moins de 25 $ le baril de pétrole, mais un prix du pétrole à environ 100 $ le baril, ils ont commencé à appliquer les technologies qu’ils avaient développées avec succès pour le gaz pour extraire le pétrole à partir de formations de schistes à faible perméabilité, appelées dans l’industrie « tight-réservoirs”. Et les résultats ont été tout aussi impressionnant, tels que les États-Unis sont maintenant prêts à dépasser la Russie en tant que deuxième plus grand producteur de pétrole au monde d’ici la fin de la décennie et, selon l’Agence internationale de l’énergie, pourrait même dépasser l’Arabie Saoudite pour devenir le plus grand producteur au monde d’ici là.

Rien de tout cela n’aurait été possible sans le cadre juridique unique propre aux USA. Il accorde aux propriétaires des droits, non seulement sur la surface de leurs terrains, mais aussi à tout le sous-sol, en théorie, jusqu’au centre de la terre. Dans le reste du monde, ces droits miniers sont presque tous détenus, ou sont parfaitement contrôlés, par des gouvernements souverains. Aux États-Unis, toute entreprise peut conclure une entente avec un propriétaire désireux de louer les droits d’accès au pétrole et au gaz sous sa terre et commencer le forage, une disposition qui a donné naissance une concurrence darwinienne entre les entrepreneurs afin de survivre et de croître. Et ainsi les États-Unis comptent plus de 6000 sociétés indépendantes dans le domaine du pétrole et du gaz et un nombre égal de sociétés de services associés, par rapport à la poignée d’indépendants et de sociétés de services qui existent à l’étranger.

À chacun des puits de ces sociétés américaines, des dizaines d’esprits travaillent sur chaque partie du processus de développement. En utilisant des modèles 3-D d’activité sismique, les ingénieurs, souvent à distance et en temps réel, enregistrent l’emplacement exact de la tête de forage, de sorte qu’il peut rester dans les zones les plus prolifiques de la formation de schiste, et optimiser la taille des fissures créées par fracturation hydraulique, de sorte qu’elles ne soient ni trop grandes ni trop petites. C’est comme si chaque puits a sa propre Silicon Valley en miniature. Ayant été répétées des milliers de fois, ces techniques et de nombreuses autres ont permis aux entreprises de maximiser leur productivité, réduire leurs coûts et les délais de forage de moitié par rapport au point de départ.

Considérez comme les choses peuvent changer en une seule année. En 2013, sur les propriétés de l’Oklahoma, dans lequel l’entreprise GHK détient des intérêts couvrant 150 miles carrés, une grande entreprise américaine indépendante a foré et achevés plus de 100 puits horizontaux. Si ces puits avaient été forés verticalement, ils n'auraient exposé que, environ, 1000 pieds de schiste, alors que le forage horizontal a permis à près de 100 miles d’être exposés. Et plutôt que d’effectuer les 100 injections de fluide de fracturation qu’un puits vertical aurait rendu possible, l’entreprise a pu réaliser entre 1000 et 2000 d’entre eux. Les ingénieurs de la société ont également bricolé avec des variables telles que le type de forets utilisés, l’effort appliqué pendant le forage, la vitesse de rotation de la foreuse, et la taille et le nombre de traitements de fracturation. Grâce à cette expérimentation continue, ainsi qu’aux économies d’échelle (par exemple, la commande en gros des tubes acier), l’entreprise a réussi à réduire ses coûts de 40 pour cent sur 18 mois et encore accroître sa productivité. Le résultat : en 2014, six ou sept plates-formes seront capables de forer d’avantage de puits et de produire autant de pétrole et de gaz que 12 plates-formes l’ont pu l’année précédente.

Depuis le boom de schiste a commencé, il y a plus d’une décennie, les entreprises ont foré environ 150 000 puits horizontaux aux États-Unis, une entreprise monumentale qui a coûté environ 1000 milliards de dollars. Le reste du monde, cependant, a foré quelques centaines de puits horizontaux seulement. Et parce que chaque forage horizontal a une longueur d’environ un mile (et parfois même deux miles) et est soumis à dix ou plusieurs injections de fracturation, les entreprises aux États-Unis ont fracturé environ 150.000 miles de schiste en environ deux millions d’opérations. Cela fait environ un millier de fois plus de schistes exploitables à l’intérieur des États-Unis qu’à l’extérieur.

PIETRE CONCURRENCE

Il est très peu probable que d’autres pays ne rattraperont jamais les USA. Certes, la Chine et l’Europe abritent de vastes ressources de gaz de schistes (dans le cas de la Chine, contenant éventuellement plus de gaz naturel que les réserves américaines). Mais ces ressources ne seront pas extraites de sitôt. Puisque ces autres pays ne peuvent pas soutenir des milliers d’entreprises pétrolières et gazières indépendantes, leurs ressources doivent être exploitées par des entreprises nationales lentes, bureaucratiques et des géants internationaux (qui ont à traiter avec des gouvernements encore plus bureaucratiques et des systèmes juridiques et réglementaires souvent byzantins). Faire aboutir des accords sur les gaz de schistes dans les pays étrangers et la ensuite réaliser les projets en résultant prendra des décennies. Même en Chine, où le gouvernement exerce un contrôle presque complet de la surface du sol et du sous-sol, seules quelques entreprises nationales et quelques autres étrangères envisagent le développement du gaz de schiste. Et parce que moins de cerveaux vont travailler sur moins d’opérations, il faudra plus de temps pour remonter la courbe d’apprentissage et les gains de productivité seront plus faibles que dans les Etats-Unis. Donc, les coûts seront élevés, et les profits, minces.

Dans de nombreuses démocraties, le développement est également ralenti par le syndrome « NIMBY - pas dans ma cour ». Contrairement aux habitants de l’Oklahoma et du Texas, qui ont grandi avec l’industrie du pétrole et du gaz, les populations étrangères ne sont généralement pas familières de cette dernière ; la plupart des 1,5 millions de puits de pétrole et de gaz à l’extérieur des États-Unis se trouvent soit dans les eaux profondes du large ou des zones reculées à terre. Et parce que les gouvernements d’autres pays possèdent ou contrôlent la quasi-totalité des droits sur les ressources souterraines, les propriétaires fonciers n’ont pas d’intérêt dans le jeu. Recevoir aucun des avantages économiques et voyant seulement les inconvénients de projets intrusifs dans leur propre cour, ils ont tendance à résister à juste titre aux projets de forages.

Tel est le cas en Europe, où le problème est amplifié par un mouvement vert hyperactif déterminé à bloquer le développement des gaz de schiste. La France a interdit la fracturation hydraulique entièrement, et l’Allemagne a mis un moratoire de facto en place. Sans un changement radical d’attitude, l’Europe sera encore plus longue que la Chine à développer ses ressources de gaz de schiste. Même si elle les développe, les résultats seront moins impressionants et très lents à venir.

L’Europe est également grevée par des politiques énergétiques erronées. Au début de ce siècle, les hommes politiques européens ont fait valoir que leur continent devrait guider le monde dans une transition vers les énergies vertes et la réduction des émissions de dioxyde de carbone. Ils ont engagé des dizaines de milliards de dollars de l’argent des contribuables pour subventionner des projets d’énergie verte, principalement pour développer l’énergie éolienne et solaire, qui n’étaient pas encore efficace ou suffisamment fiables pour rivaliser avec les filières existantes. Malheureusement, il est peu probable que la transition de l’Europe vers l’énergie verte se traduira par l’avenir utopique que ses partisans ont prédit. Afin de répondre à la demande de toujours plus de puissance, le charbon sale libéré par le passage des États-Unis au gaz naturel est déjà en train de trouver son chemin vers l’Europe. La réalité est que ces pays européens se sont assis sur une infrastructure de l’énergie pas très efficace, coûteuse qui va agir comme un frein sur la croissance économique à long terme. Et tandis que les Etats-Unis réindustrialise, l’Europe, sans nouveaux dirigeants politiques qui comprennent mieux l’économie de l’énergie, pourrait bien faire face à des décennies de désindustrialisation et de stagnation économique.

LE CADEAU QU’ON N’ARRETE PAS DE RECEVOIR

La révolution de schiste a ses détracteurs, qui pointent la nature cyclique des prix du gaz naturel dans le passé pour faire valoir que les futures hausses de prix pourraient rendre le carburant non fiable et coûteux. Mais la volatilité passée résultait de sévères contrôles des prix du gouvernement, suivis d’un processus complexe de déréglementation et des risques impliqués par l’exploration des poches de gaz naturel classique. En d’autres termes, les prix étaient soumis aux deux aléas de la politique nationale et de la complexité de la géologie des sous-sols.

Aucun de ces problèmes n’existe aujourd’hui, depuis que les contrôles de prix ont été abandonnés il y a longtemps et les entreprises américaines savent maintenant exactement où de grandes de gaz naturel accessible s’étendent, et ainsi l’extraction du gaz est un procédé de fabrication fiable plutôt que le résultat d’un coup de dés. Le prix futur du gaz naturel sera déterminée non pas tant par la taille des gisements trouvés, comme c’était le cas avec le gaz naturel classique, que par le coût de l’extraction. Les prix devraient donc rester stables sur le long terme, peut-être même pour le prochain demi-siècle. Ils peuvent même baisser tant que l’industrie du forage continue de réduire ses coûts et améliorer la productivité à la tête de puits. L’innovation supplémentaire en aval - dans les secteurs du transport, de distribution et de consommation - n’a même pas encore vraiment commencé. Lorsque ce sera le cas, les gains d’efficacité généreront des milliards de dollars de plus dans les économies des consommateurs.

La ligne de fond est que, grâce à la révolution des gaz de schiste, les États-Unis se sont déjà mis à l’abri des fluctuations imprévisibles des prix mondiaux du gaz naturel et sont près de le faire en ce qui concerne le prix du pétrole. Les pénuries de pétrole en raison de catastrophes naturelles à l’étranger ou de perturbations politiques pourraient un jour devenir une chose du passé, en particulier si le gaz naturel commence à alimenter les voitures et camions américains. L’indépendance croissante dans le domaine de l’énergie donnera Washington une longueur d’avance sur ses concurrents. Si le flux de pétrole était menacé par un événement dans le Moyen-Orient, comme la chute du régime saoudien, les États-Unis seraient en mesure de résister à la tempête mieux que toute autre grande économie.

Un gaz naturel bon marché et abondant améliore le capital géopolitique du pays d’une manière plus directe : il renforce de manière significative l’économie américaine. Les américains ne paient qu’une fraction du prix du gaz naturel que paient le reste des consommateurs dans le monde, économisant jusqu’à 300 milliards de dollars par rapport aux consommateurs en Chine et en Europe. Déjà, le développement des énormes réserves de schiste bitumineux et de gaz des États-Unis a augmenté le PIB des États-Unis de près de un pour cent. En fait, sans la révolution du pétrole et du gaz, l’économie américaine aurait probablement glissé dans la récession et aurait perdu des centaines de milliers d’emplois. Aujourd’hui, la plupart des Etats bénéficiant du boom de schiste ont des niveaux de chômage que la moyenne nationale. Grâce à des forages dans la formation de Bakken, par exemple, le taux de chômage du Dakota du Nord n’est que de 2,6 pour cent, le plus bas du pays. L’avantage économique croissant des États-Unis pourrait durer jusqu’au milieu de ce siècle et au-delà.

Sauf que, en fait, cet avantage est gaspillé. En Californie et à New York, deux des plus grandes économies du pays, les militants antifracking et les politiciens de l’état ont réussi à ralentir le développement des ressources de gaz de schiste à un rythme d’escargot. Les deux états contiennent de grandes formations de schistes (le Monterey en Californie et le Marcellus à New York), dont le développement donnerait une impulsion majeure à la fois à l’état et à la croissance économique nationale. Les politiciens doivent reconnaître que l’Amérique d’aujourd’hui a une occasion sans précédent de croissance économique à long terme qui peut générer de bons emplois pour la classe moyenne, l’aider à quitter la Grande Récession pour de bon, et lui accorder des avantages géopolitiques sur ses concurrents.

Catégorie:  Energies
• • • •
La science mise au carré, le blog de Huet

Un fil de discussion sur le blog de Sylvestre Huet.

Catégorie:  Changement climatique
• • • •
Page suivante »