Slideshow image
  • Derniers commentaires

Bistrot du coin 2014/2

de Rouvex:williams (#30), Il est vrais que ces...

de Rouvex:Bernnard (#41), Je ne vois pas où...

de Rouvex:ardeche07 (#42), Et dire qu’en...

Fil info de sceptiques 2014/2

the fritz:scaletrans (#267), on note le nom de...

Bernnard:La position des différents pays sur...

scaletrans:Hug (#264), Rhaa, j’ai jamais...

Politiques du climat

Gilles des Landes:miniTAX (#568), En...

chercheur:miniTAX (#575), Ce soir, dans...

scaletrans:miniTAX (#575), Il n’y a pas...

Bistrot du coin 2014/1

Nicias:On ferme, rendez vous au bistrot suivant.

chercheur:Bob (#1009), Si les anglais attendent...

chercheur:Bob (#1008), Merci pour votre aide....

La science mise au carré, le blog de Huet

volauvent:Nicias (#71), Non, l y a un problème...

juillet 2014
L Ma Me J V S D
« juin    
 123456
78910111213
14151617181920
21222324252627
28293031  
Bistrot du coin 2014/2

Pour discuter de tout et de rien.

Suite du fil “bistrot” précédent.

Catégorie:  Changement climatique
• • • •
Une critique des Modèles de Circulation Générale

Publié le 7 mai 2014 chez Anthony Watts

Extrait de commentaires de blog, en réponse à une intervention.

 Par le Dr Robert G. Brown, de l'Université de Duke

Traduit par Volauvent

Frank K: vous êtes dans le vrai avec votre évaluation des Modèles de Circulation Générale (MCG). Malheureusement, ceux qui croient en leur capacité à prédire le climat futur ne veulent vraiment pas parler des équations différentielles, méthodes numériques ou conditions initiales et aux limites que comprennent ces codes. C'est là que sont les vrais problèmes …

RGB : Eh bien, attention à votre façon de le dire. Ceux qui croient en leur capacité à prédire le climat futur et qui ne sont pas dans le métier ne veulent pas parler de tout cela, et ceux qui ne sont pas experts en modélisation prédictive et statistiques en général préfèrent dans de nombreux cas ne pas avoir une discussion détaillée sur la difficulté de bien valider un modèle prédictif - un processus qui, fondamentalement, ne se termine jamais tant que de nouvelles données entrent en jeu.

Cependant, la plupart des MCG sont bien, et assez publiquement, documentés. C'est juste que, à moins d’avoir un doctorat (par exemple) en physique, une connaissance des mathématiques générales, des statistiques, de l'informatique et du calcul numérique qui suffirait à vous faire gagner au moins un diplôme de maîtrise dans chacun de ces sujets si elle est acquise dans le cadre d'un programme d'études, ainsi que des spécialisations importantes dans les domaines généraux de la dynamique des fluides et la science du climat, vous n’en savez pas assez pour commenter intelligemment ​​le code du modèle lui-même. Vous ne pouvez le commenter que comme une boîte noire, ou faire un commentaire sur un minuscule aspect  de code, ou de physique, ou d'initialisation, ou de méthodes, ou de résolution, ou de moteurs dynamiques, ou sur la moyenne, ou sur la résolution spatio-temporelle, ou …

Tenez : j'ai fait un doctorat en physique théorique. J'ai terminé quelque chose comme six classes de niveau d'études supérieures de mathématiques (pour la plupart en premier cycle, mais deux fois comme étudiant diplômé en physique). J'ai enseigné en études supérieures l'électrodynamique (et écrit un livre sur) et c’était essentiellement un cours à peine dissimulé sur les équations aux dérivées partielles elliptiques et hyperboliques. J'ai écrit un livre sur le calcul informatique à grande échelle en « clusters » que les gens utilisent encore lors de l’établissement de clusters, et j’ai plusieurs giga-octets de code sous Subversion [Ndt : un logiciel collaboratif utilisé en développement informatique]. Je ne compte pas le nombre de langages que soit je connais bien ou ai écrit dans au moins un programme (même datant du temps où on écrivait les codes sur ​​une bande de papier). J'ai cofondé deux sociétés sur la modélisation prédictive de pointe sur la base de codes que j'ai écrit et sur un processus pour faire de l'inférence bayésienne indirecte sur des sujets comme  la vie privée ou d'autres données aux limites qui a été longtemps un brevet en attente de licence, avant que d'essayer de défendre ce brevet ne me devienne trop coûteux et envahissant ; la deuxième société existe encore et si elle fait encore des progrès substantiels, peut être un jour me fera-t-elle riche. J'ai conduit des simulations Monte Carlo avancées à partir d’échantillonnages importants, c’est ce qui a constitué mes recherches initiales pendant environ 15 ans avant que je passe à autre chose. J'ai appris un bon bout de science du climat. Je ne manque fondamentalement de connaissance approfondie et d'expérience qu’en dynamique des fluides calculée par ordinateur par rapport à la liste ci-dessus (et je comprends les concepts assez bien, mais ce n'est pas la même chose que l'expérience directe ) et j'ai encore du mal à naviguer dans, par exemple, la documentation 3.1 CAM, et encore plus de mal à travailler dans le code open source, en partie parce que le code est terriblement mal organisé et mal documenté en interne au point que d'essayer juste de l'installer nécessite de s’y consacrer avec ardeur et une ou deux semaines d'effort.

Oh, et ai-je mentionné que je suis aussi un programmeur et administrateur de systèmes de réseaux expérimenté ? Donc, je comprends effectivement assez bien les outils sous-jacents nécessaires à la construction de MCG…

Si j’ai du mal à pouvoir - par exemple - tout simplement reconstruire une base de code publié en open source et l'exécuter sur un système personnel pour regarder le tout fonctionner et arriver à une conclusion, et encore moins commencer à réorganiser le code, remplacer les composants sous-jacents tels que leur absurde maillage en latitude et longitude sur la surface d'une sphère par des pavages symétriques modifiables pour rendre le code adaptatif, isoler les différents sous domaines de la physique qui contribuent de sorte qu'ils peuvent être facilement modifiés ou remplacés sans affecter d'autres parties du calcul, et ainsi de suite, vous pouvez parier qu'il n'y a qu’une poignée de personnes dans le monde qui vont être en mesure de le faire et disposés à le faire sans un salaire et un soutien substantiel. Comment peut-on obtenir le salaire, le soutien, l'accès aux ressources de supercalculateurs à l’échelle des besoins du processus ? En demandant des subventions (et avoir assez de temps pour faire le travail, dans un environnement capable de fournir le soutien nécessaire en échange d'argent, avec le soutien implicite du département ou vous travaillez) et obtenir ces subventions pour faire votre projet.

Et qui contrôle qui, de la petite poignée de gens assez largement compétente dans la liste ci-dessus pour avoir une bonne chance d'être en mesure de gérer l'ensemble du projet sur ​​la base de leurs propres connaissances et compétences, et qui a le temps et le soutien indirect etc…, pour obtenir le  financement ? Qui examine les subventions ?

Pourquoi entrer en contradiction avec ceux-là mêmes qui ont tous un certain nombre d'intérêts particuliers dans l'existence d'une situation décrite comme une urgence (catastrophique). En effet, sans une situation d'urgence, le gouvernement américain pourrait financer deux ou même trois efforts distincts pour écrire un modèle climatique qui fonctionne, mais il ne financerait jamais quarante ou cinquante de ces efforts. Il n’est dans les meilleurs intérêts de personne dans ce groupe d'admettre des étrangers - tous ces groupes ont des étudiants diplômés qu’ils doivent placer, des perspectives d’emploi à concrétiser pour ceux qui ne seront pas maintenus dans la recherche, et cela requiert de ne pas contrarier leurs amis et collègues. Comme il est noté dans le cinquième rapport d'évaluation [RE5] - des plus ou moins 36 modèles pris en compte par le CMIP5 du GIEC, ce n’est pas comme si il y avait 36 modèles indépendants - les modèles, les données, les méthodes, le code sont toutes les variantes d'une poignée de lignes de code " mémétiques " (Ndt : algorithmes évolutifs). Ils sont différenciés dans leurs détails par des étudiants diplômés sur la base de leur propre version du code qu'ils ont utilisé à l'école et  présentés comme un nouveau programme financé dans une nouvelle école ou institution.

A mon avis, résoudre le problème des MCG c’est tenter de résoudre un problème qui est un défi considérable en informatique. Il n'est pas du tout surprenant que les solutions à ce jour ne fonctionnent pas très bien. Ce serait plutôt surprenant si elles le faisaient. Nous n'avons même pas les données nécessaires pour initialiser intelligemment les modèles que nous avons construits, et ces modèles ont quasi certainement une résolution spatio-temporelle totalement inadéquate, sur un maillage incroyablement stupide, non adaptable, pour une sphère. Ainsi, les programmes ne peuvent carrément pas être configurés pour fonctionner à une résolution plus fine sans qu’il faille réécrire fondamentalement le tout, et une telle réécriture ne ferait qu’aggraver le problème au niveau des pôles – la quadrature sur une surface sphérique en utilisant une grille latitude/longitude est connue depuis longtemps pour être extrêmement difficile et pour donner lieu à des artefacts et des erreurs d’estimations à peu près incontrôlables.

Mais jusqu'à ce que les gens qui font des «statistiques» sur les résultats des MCG reviennent à la raison et cessent de considérer chaque MCG comme si il était une partie d’un échantillon indépendant et identiquement distribué, tiré d'une distribution de codes de MCG parfaitement écrits, avec des erreurs inconnues mais sans biais, et ce qui est précisément ce que le RE5 du GIEC  considère,  le public sera « protégé » en toute sécurité de toute connaissance « dangereuse » de l'impossibilité actuelle des MCG à faire de la prévision ou de la simulation rétrospective qui soient  particulièrement précises en dehors de l’intervalle de référence.

Et pourtant c’est explicitement reconnu dans l'article 9.2 du rapport du GIEC par précisément deux paragraphes cachés soigneusement dans la masse. Ils signifient en gros que les estimations et les "intervalles de confiance" figurant au début du chapitre 9 sont essentiellement des foutaises d’opinions de personnes humaines, pas quelque chose qui peut être soutenu par une quelconque analyse statistique relevant d’une axiomatique correcte.

Source.

Catégorie:  Changement climatique
• • • •
Fil info de sceptiques 2014/2

Suite du Fil info de sceptiques 2014/1.

Le RCA vu d'Amérique du Nord
Catégorie:  Changement climatique
• • • •
Les scientifiques du climat sont-ils contraints de rester dans la ligne ?

Par Axel Bojanowski

Après avoir rejoint un groupe de lobbying controversé critiquant le changement climatique, le météorologiste Lennart Bengtsson se plaint d’avoir été banni par des collègues, l’amenant à démissionner. Certains scientifiques se plaignent que les pressions à se conformer à l’opinion du consensus soient devenues un frein sérieux dans le domaine(1).

La nouvelle de l’adhésion de Lennart Bengtsson, l’ancien directeur respecté de l’Institut de Météorologie Max Planck de Hambourg, à la Global Warming Policy Foundation (GWPF) a fait des vagues au sein de la communauté de la recherche climatique. La GWPF est particulièrement connue pour son scepticisme à propos du changement climatique et ses efforts pour saper la position du GIEC. Le séisme que sa décision a provoqué dans la communauté scientifique a bouleversé Bengtsson.

Le scientifique déclare que des collègues exerçaient tellement de pression sur lui après son adhésion au GWPF qu’il a quitté la fondation par crainte pour sa santé. Bengtsson a ajouté que ce traitement lui avait rappelé les persécutions des personnes soupçonnées de communisme aux Etats Unis à l’époque du Maccarthysme dans les années 50.

Tous ses confrères en climatologie ne sont pas d’accord. Gavin Schmidt, un climatologue et modélisateur de climat à la NASA, qualifie "le parallèle avec McCarthy" de "ridicule". "Ayant été réellement menacé de sanctions pénales par un Sénateur des Etats Unis simplement pour de la publication scientifique, je ne vois vraiment pas que la totale liberté de Bengtsson de s’associer avec qui il veut – et laissez-moi être clair, il a cette liberté – ait été en aucun cas été compromise."

Mais Bengtsson maintient que même des collègues proches l’ont fui. Il dit qu’un partenaire de recherche, craignant que sa réputation ne soit compromise, s’est retiré d’une étude qu’ils effectuaient en commun. Bengtsson ne donne pas de détail se bornant à dire que l’incident fut blessant.

Schmidt de la NASA critique aussi cette affirmation. "C’est si vague que ça n’a aucune signification, et sans un exemple concret il est impossible de connaître ce qui est avancé".

Nuages accumulés avant la tempête

Il apparait maintenant que les nuages de la controverse se sont accumulés avant la tempête actuelle. En février, Bengtsson a subi un revers significatif. Le journal scientifique Environmental Research Letters refusa de publier une de ses études prédisant un effet de serre plus faible. Les réviseurs décrirent les conclusions du rapport comme "peu utiles" et ajoutaient, "en réalité il est nuisible d’ouvrir la porte a des allégations d’ ‘erreurs’ trop simplistes à des médias climato-sceptiques".

Le respecté climatologue allemand Hans von Storch de l’Institut de Recherche Côtière au Centre Helmholtz, qualifia la justification de "scandaleuse" et accusa le journal de décision à motivation politique non basée sur des normes scientifiques. Dans une déclaration sur le site de IOP Science, l’éditrice Nicola Gulley souligne que l’étude a été rejetée pour des raisons scientifiques. Elle soutient que le travail de Bengtsson ne correspondait pas aux normes élevées du journal.

Les chercheurs du climat sont maintenant engagés dans un débat pour savoir si leur science est handicapée par un conformisme compulsif. Ils se demandent si la pression pour parvenir à un consensus n’est pas trop grande. Ils se demandent si la critique n’est pas en train d’être neutralisée. Ce n’est rien moins que la crédibilité de la recherche sur le changement climatique qui est en jeu, ainsi que la question même de savoir si la recherche climatique est encore fiable.

Bengtsson disait dans un entretien avec Spiegel Online qu’il voulait ouvrir le débat sur le changement climatique en joignant la GWPF. Il disait qu’en raison de grandes lacunes de compréhension, la pression pour parvenir à un consensus dans la recherche climatique "n’avait aucun sens".

Néanmoins, en rejoignant le groupe de lobbying politique, Bengtsson s’est offert lui-même à la critique selon laquelle il avait pris une position inappropriée pour un scientifique de sa stature.

‘Nous ne sommes pas un lobby’

D'après Eric Steig le climatologue de l’Université de Washington les activités de la GWPF ont plus à voir avec le Maccarthysme que le cas de Bengtsson. Il dit que la GWPF se vante d’enquêter sur les chercheurs du climat. "Ils ont aussi publié des articles d’opinion sur leur site web accusant les principaux chercheurs du climat d’avoir des ‘sociétés secrètes’ " et des agendas politiques conçus avec des buts politiques spécifiquement de gauche sur le changement climatique", il ajoute : "Ils ont accusé les écoles britanniques de ‘laver le cerveau’ des élèves en leur enseignant le changement climatique". De son côté, la GWPF se décrit elle-même comme un groupe de réflexion qui documente des arguments exposant pourquoi le changement climatique est surestimé en tant que problème.

Reno Knutti de l’université technique ETH de Zurich est également critique. "Des organisations comme la GWPF contribuent à transformer un débat scientifique en guerre de religion", affirme-t-il. "Ils distribuent des rapports pseudo-scientifiques, alors qu’il poursuivent en réalité un but politique", dit Knutti. Jochem Marotzke qui a succédé à Bengtsson à l’Institut de Météorologie Max Planck, dit "la GWPF travaille délibérément de façon sélective. Ils mentionnent seulement les arguments qui appuient leur objectif. Les contre arguments sont mis sous le tapis".

Le professeur Myles Allen, un chercheur du climat d’Oxford, dit "Le problème est leur agenda anti science, clairement illustré par le fait qu’ils ont refusé sans détour de soumettre leur récent rapport critiquant l’AR5 du GIEC au même système de revue par les pairs auquel le rapport du GIEC fut lui-même soumis"(2).

Le directeur de la GWPF Benny Peiser conteste ce genre d’assertion : "Nous ne sommes pas un lobby ; nos scientifiques n’ont pas d’opinion collective ou officielle sur aucun sujet. S’il n’y avait pas de tabous dans la science du climat ou la politique climatique, la GWPF n’existerait probablement pas".

Avocats furtifs

Roger Pielke Jr., un scientifique de l’environnement de l’Université du Colorado, professeur depuis longtemps critique de la politisation du débat climatique, dit que le groupe utilise la science pour masquer son agenda politique. Pielke souligne cependant qu’en tant que groupe de lobbying la GWPF "a parfaitement le droit d’avancer tous les arguments qu’il veut. Il se concentre souvent sur un plaidoyer discret – cachant sa politique derrière la science – une stratégie courante dans le débat climatique, rencontrée de tous les ‘côtés’, et assez commune de bien des problèmes".

Von Storch convient que d’autres groupes politiques, comme les groupes environnementaux, font aussi usage "d’avocats discrets" pour influencer le débat scientifique. Pielke argumente que "dans une démocratie, les gens organisent toutes sortes d’intérêts communs, comme il se doit, et beaucoup ont des valeurs que je ne partage pas. Et alors ? Les raisons de Bengtsson de s’associer avec la GWPF sont parfaitement légitimes. Qu’il ressente une forte pression de la part de ses pairs, avec des sanctions sociales et autres reflète la nature profondément politisée de ce problème".

Il demande à ce que la recherche scientifique soit maintenue à des standards plus élevés que ceux des groupes de lobbying, mais même ces standards doivent doivent faire l'objet d'une attention plus soutenue.Depuis des années bien des climatologues se sont plaint en silence de harcèlement et d'exclusion. Mais la situation de cette discipline scientifique est-elle pire que dans d'autres branches ? Roger Pielke Sr, un chercheur senior scientist de l'Université du Colorado et père de Pielke junior, dit, "Malheureusement, la science du climat est devenue très politisée et les opinions qui diffèrent complètement de celles contrôlées par le processus dévaluation climatique sont, soit ignorées, soit ridiculisées. Je suis d'accord à 100 pour cent avec les allégations du très distingué Lennart Bengtsson".

Mais quels sont ceux qui politisent ? Knutti dit que c’est facile à voir. "Si vous êtes politiquement de gauche, vous croyez au réchauffement climatique", dit-il "si vous êtes de droite, c’est beaucoup moins probable". Il ajoute que la limite entre l’opinion et les faits est souvent brouillée, même chez les scientifiques.

Déloyale, dégoûtante, destructive

"Chaque camp dit que l’autre politise le débat", explique Wener Krauss, un ethnologue de l’environnement au Centre Helmholtz pour les Matériaux et la Recherche Côtière de Geesthacht en Allemagne. D'après lui, la recherche climatique est dominée par de "fortes individualités" qui savent comment exploiter les médias chaque fois qu’ils le veulent. Krauss prétend que Bengtsson a géré son adhésion à la GWPF dans les médias et soutient que la recherche climatique est tombée dans les affres de l’équivalent scientifique de la ferveur religieuse. Pour lui, il n’est pas étonnant que Bengtsson ait été pris sous un feu roulant après sa décision.

En même temps, Heinrich Miller de l’Institut Alfred Wegener pour la Recherche Polaire et Maritime dit, "J’ai trouvé que la réaction de ses collègues était choquante. Apparemment il y a une déconvenue générale parce qu’un brillant scientifique a rendu publics ses doutes scientifiques". Miller ajoute que le cas Bengtsson lui rappelle la façon dont les politiciens utilisent des "combines déloyales" pour museler les opposants.

Pielke Jr. confirme que la recherche climatique est un dur métier. "Nous voyons des politiques agressives", dit-il. "J’ai personnellement expérimenté de très fortes pressions sociales et professionnelles durant des années. Cela inclut des menaces sur mon job, de l’ostracisme professionnel, de fausses représentations de mes recherches et points de vues, des efforts pour m’empêcher de parler en public et des menaces physiques dont beaucoup sont publiquement documentées". Il prévient que "quiconque souhaite participer au débat public sur le changement climatique doit le faire en sachant comment est la politique de nos jours — "Déloyale, dégoûtante, destructive".

Le Réchauffement Global est considéré comme un dogme

Le Climatologue Michael Mann parle même de "guerres climatiques". Il dit que durant des années il a été l’objet d’attaque par des groupes conservateurs sceptiques du changement climatique, spécialement après le scandale du "Climategate", lorsque ses courriels furent publiés illégalement. L’autre camp ne le cède en rien non plus – au moins lorsqu’il s’agit de vitriol. Un professeur Autrichien est allé jusqu’à demander la peine de mort pour les climato-sceptiques.

Miller déclare que les scientifiques furent plus politisés que jamais du fait de la recherche d'un consensus pour le 5° rapport du GIEC. "Le Réchauffement global est à considérer comme un dogme. Quiconque doute pèche", dit le renommé chercheur qui a été étiqueté "climato-sceptique" après avoir émis des doutes sur la validité scientifique des simulations sur ordinateur.

Par contraste Knutti met en garde contre trop d’insistance sur le défaut de certitude des preuves. A son avis la critique sévère de Bengtsson sur les prévisions de changement climatique est trompeuse, expliquant que les modèles ont donné des résultats utilisables qui ont été testés sur des changements climatiques historiques. Le cinquième rapport du GIEC qui a demandé des centaines de milliers d’heures de scientifiques, dit Knutti, documente parfaitement la série de résultats. A son avis, s’asseoir et attendre que toutes les questions soient résolues n’est pas une alternative, et décrit dans une large mesure ce qu'on appelle le scepticisme comme une tromperie délibérée.

Source.

Traduction par Scaletrans

1 Voir cet article de Pensée Unique pour un résumé complet de l'affaire Bengtsson.

2 David Henderson, président du conseil scientifique de la GWPF, a répondu à cette critique sur BH.

Catégorie:  Changement climatique
• • • •
Gardons la tête froide

Par Nigel Lawson

(NDLR : Cet article est basé sur le texte d’un discours donné à l’Institut pour l’Energie Durable et l’Environnement de l’Université de Bath.
Nigel Lawson est président du conseil d’administration de la GWPF, un groupe de réflexion (think tank) s'occupant principalement de politique climatique.)

Verdissement

Légende : Effet de fertilisation: durant les trente dernières années, la Terre a visiblement reverdi, et ceci a même affecté la plupart des zones du Sahel

 

Il y a quelque chose de curieux à propos du débat sur le réchauffement climatique – ou le débat sur le changement climatique, comme nous devons dorénavant l’appeler, car le réchauffement climatique s’est arrêté pour l’instant.

Je n’ai jamais refusé la controverse, ni – lorsque j’étais Chancelier – n’ai reculé devant l’impopularité si je pensais que ce que je disais était dans l’intérêt du public.

Mais je n’avais jamais expérimenté les excès d’hostilité personnelle, vitupérations et calomnies que j’ai – bien sûr en même temps que d’autres hérétiques – reçu à propos de mes opinions sur le réchauffement climatique et les politiques en découlant. *(Ndt en fin de texte)

Par exemple, selon le Secrétaire au Changement Climatique, Ed Davey, les hérétiques du réchauffement climatique sont sans exception des "ignorants volontaires " et selon le Prince de Galles, nous sommes des "poulets sans tête". Ils n’utilisent d’ailleurs pas le terme "hérétique". Nous sommes régulièrement qualifiés de "négationnistes du changement climatique", une phrase délibérément conçue pour faire écho à "négationniste de l’Holocauste" – comme si s’interroger sur les politiques et prévisions actuelles reviendrait à introduire un doute pernicieux sur un fait historique.

L’héritier du trône et le ministre sont des personnages publics de haut rang qui surveillent leur langage. Les mauvais traitements que j’ai reçus après mon apparition sur le programme Today de la BBC furent beaucoup moins modérés. La BBC et moi-même avons reçu un bombardement coordonné de plaintes selon lesquelles il était scandaleux que j’ai été autorisé à discuter du problème dans l’émission. Même le Science and Technology Committee de la Chambre des Communes s’est joint honteusement au chœur de ceux qui veulent supprimer tout débat.

En fait, bien qu’ayant rédigé un ouvrage soigneusement documenté à propos du réchauffement climatique il y a plus de cinq ans, ouvrage qui devint heureusement une sorte de best-seller, et ayant fondé l’année suivante un groupe de réflexion sur le sujet –the Global Warming Policy Foundation- et bien qu’étant fréquemment invité sur Today pour parler de problèmes économiques, c’était la toute première fois qu’on me demandait de discuter changement climatique. Je suspecte fortement que ce sera la dernière.

La BBC a reçu un déluge de protestations bien coordonnées – quelques-unes naturellement de la part de gens ayant un intérêt personnel dans l’énergie renouvelable – m’accusant, entre autres, d’être un politicien sénile en retraite et non un scientifique du climat, et par conséquent incompétent pour discuter du problème.

En passant peut-être pourrais-je répondre aux accusations fréquentes de ceux qui s’opposent violemment à toute contestation de quelque sorte de la doctrine dominante du changement climatique, comme quoi le secret sur les noms des donateurs de la Global Warming Policy Foundation est la preuve que nous sommes une organisation profondément malfaisante et une façade de l’industrie pétrolière.

Comme je l’ai fait remarquer à de nombreuses reprises, le Conseil d’Administration de la Fondation a décidé dès le début que jamais il ne solliciterait ni n’accepterait quelque argent de l’industrie de l’énergie ou de quiconque ayant un intérêt significatif dans l’industrie de l’énergie. Et à ceux qui malheureusement ne sont pas disposés à me croire, je ferai remarquer que parmi nos administrateurs figurent un évêque de l’Eglise d’Angleterre, un ancien secrétaire privé de la Reine et un ancien dirigeant du Service Civil. Ceux qui imaginent que nous sommes tous engagés dans une conspiration de mensonge sont dans un stade avancé de paranoïa.

La raison pour laquelle nous ne révélons pas les noms de nos donateurs qui sont des citoyens privés ayant une disposition philanthropique, est assez évidente. Si nous le faisions ils seraient, eux aussi, les objets des calomnies et insultes mentionnées plus haut. Et on comprendra qu’il peuvent s’en passer.

Ceci dit, je dois admettre que je suis fortement tenté d’être d’accord pour dire que, puisque je ne suis pas un scientifique du climat, je devrais dès maintenant rester silencieux sur le sujet – étant clairement entendu naturellement que tout le monde suive les mêmes règles. Plus de déclarations de Ed Davey, ou même des autres politiciens, y compris Ed Milliband, Lord Deben et Al Gore. Non plus que du Prince de Galles ou de Lord Stern. Quel bonheur !

L'Alarmisme et ses Fondements

Mais cela n’arrivera évidemment pas. Et cela ne devrait pas, car, à la base, ceci n’est pas un problème scientifique. C’est-à-dire que le problème n’est pas le réchauffement climatique, mais l’alarmisme sur le problème climatique et les politiques désastreuses qui sont préconisées, et, dans certains cas, mises en place en son nom. Et l’alarmisme ne fait pas partie du monde de la physique, qui est ce que les scientifiques du climat étudient, mais d'un comportement humain ; en d’autres termes le domaine des économistes, historiens, sociologues, psychologues et – j’ose le dire – des politiciens.

Et, en passant, le problème des politiciens dissidents, et à plus forte raison pour les climatologues dissidents en la matière, lesquels existent certainement, est que cette dissidence peut menacer leur carrière. L’avantage d’être âgé est que ma carrière est derrière moi : il n’y a plus rien à menacer.

Pour en revenir au climat, celui-ci change tout le temps, de façons différentes et imprévisibles (certainement imprévues), et vraiment souvent de façons différentes dans différentes parties du monde. Il en a toujours été et il en sera sans aucun doute toujours ainsi. La question est de savoir si c'est inquiétant. Selon les alarmistes, c'est la plus grande menace à laquelle fait face l'humanité aujourd'hui.

L’alarmisme du changement climatique est une croyance et doit être considérée comme telle. Il y a en réalité une théorie scientifique admise que je ne discute pas et par laquelle les alarmistes prétendent justifier leur croyance et leur inquiétude.

Il s’agit du prétendu effet de serre : le fait que l’atmosphère terrestre contienne du soi-disant gaz à effet de serre (dont la vapeur d’eau est de loin le plus important, mais le dioxyde de carbone en est un autre) qui, en effet, piège la chaleur que nous recevons du soleil et l’empêche de retourner dans l’espace.

Sans l’effet de serre, la planète serait si froide qu’elle serait inhabitable. Mais en brûlant des combustibles fossiles – charbon, pétrole et gaz – nous augmentons la quantité de gaz à effet de serre dans l’atmosphère et donc, toutes choses égales par ailleurs, nous augmentons la température de la Terre.

Mais quatre questions se posent immédiatement, auxquelles nous devons répondre calmement et rationnellement.

Premièrement, toutes choses égales par ailleurs, de combien le CO2 atmosphérique est-il censé réchauffer la Terre? (Les scientifiques appellent cela la sensibilité climatique, ou quelquefois la sensibilité climatique du carbone). Ceci est hautement incertain, principalement parce que les nuages jouent un rôle important, et la science des nuages est très peu connue. Jusqu’à il y a peu, l’opinion majoritaire chez les climatologues était que les nuages amplifiaient grandement l’effet de serre de base. Mais il y a une minorité significative, y compris quelques climatologues parmi les plus éminents qui contestent fortement cela.

Deuxièmement, toutes les choses sont-elles parfaitement égales ? Nous savons que sur des millénaires la température de la Terre a grandement varié, bien avant l’arrivée des combustibles fossiles. En considérant seulement le dernier millénaire, il y a quelques centaines d’années nous avons bénéficié de la fameuse période de l’optimum médiéval, durant laquelle on pense que les températures étaient aussi élevées, sinon plus élevées qu’aujourd’hui. Et à l’époque baroque nous avons souffert du froid durant le fameux Petit Âge Glaciaire, quand la Tamise gelait souvent l’hiver et que d’importantes foires s’y tenaient, ce qui a été immortalisé par des gravures contemporaines.

Troisièmement, même si la Terre devait se réchauffer, loin de constituer une cause d’alarme, est-ce important ? Il serait après tout surprenant que la planète soit dans une fourchette précaire de température autour de laquelle tout changement en plus ou en moins constituerait un désastre majeur. En fait, nous savons que, s’il devait y avoir un réchauffement futur (et pour les raisons précédentes, le "si" est de mise) il devrait y avoir également des avantages et ce que les économistes appellent des inconvénients. Je parlerai plus loin de l’équilibre à trouver.

Et quatrièmement, dans la mesure où il y a un problème, que devrions-nous faire, calmement et raisonnablement à ce propos ?

Températures de Surfaces passées et projetées

Le mieux est de traiter ensemble les deux premières questions.

Selon les enregistrements de température conservés par l’Office Météo Britannique (et les autres séries sont très proches), durant les 150 dernières années (c’est-à-dire depuis le début de la Révolution Industrielle), la température moyenne globale s’est accrue de légèrement moins qu'un degré centigrade,  0.8°C selon le Met Office. Ceci s’est produit avec des à-coups qui ne sont pas pleinement compris. Pour commencer, dans la mesure où tout le monde l’a noté, ce fut regardé comme une sortie naturelle et bienvenue des rigueurs du Petit Âge Glaciaire. Mais la plus grande partie – 0,5°C sur le 0,8°C – est intervenue durant le dernier quart du 20° siècle. Ce fut là qu’est né l’alarmisme du réchauffement global.

Mais depuis lors, et parfaitement à l’inverse des prévisions de l’immense majorité des climatologues qui prédisaient avec confiance que le réchauffement global ne continuerait pas simplement mais s'accélérerait, compte tenu de l’augmentation sans précédent des émissions mondiales de carbone, alors que l’économie chinoise basée sur le charbon a considérablement progressé, il n’y a eu aucun réchauffement supplémentaire. Pour être précis, le dernier rapport du GIEC, groupe profondément déficient dont le président qui n’est pas un scientifique est un alarmiste du climat engagé, reconnaît que le taux de réchauffement global a été de – attendez un peu – 0,05°C par décennie, plus ou moins 0,1°C. Ce sont leurs chiffres, non les miens. En d’autres termes, le taux de réchauffement observé est inférieur à la marge d’erreur.

Et cette marge d’erreur, il faut le dire, est invraisemblablement petite. Après tout, calculer une température moyenne globale à partir des enregistrements des stations météo et des observations maritimes de qualité variable à travers le monde est une tâche vraiment héroïque en premier lieu. Sans parler du fait qu’il y a une différence considérable entre les températures diurnes et nocturnes. En tous cas, produire un chiffre au centième de degré près est évidemment absurde.

Les leçons de l’arrêt imprévu (ou du hiatus comme l’appelle le GIEC) du réchauffement durant 15 ans sont claires. En premier lieu, les dénommés Modèles d’Évaluation Intégrés que la communauté scientifique du climat utilise pour prédire l’augmentation de la température globale supposée intervenir dans les 100 prochaines années sont presque certainement faux car la sensibilité climatique est presque certainement beaucoup moindre que ce qu’ils pensent, et par conséquent les modèles exagèrent l’augmentation probable de température des cents prochaines années.

Mais le besoin d’une mise à jour ne s’arrête pas là. Comme la célèbre climatologue Judith Curry, présidente de la School of Earth and Atmospheric Sciences à l’Institut de Technologie de Géorgie, le faisait observer récemment dans un témoignage écrit au Sénat étasunien :

Le réchauffement global anthropique est une théorie dont le mécanisme de base est bien compris, mais dont la magnitude est hautement incertaine. Il est de plus en plus évident que les modèles climatiques sont trop sensibles au CO2, ce qui a des implications sur la responsabilité de réchauffement de la fin du 20e siècle et les projections sur le climat du 21e. Si le récent hiatus de réchauffement est causé par la variabilité naturelle, ceci pose la question de savoir dans quelle mesure le réchauffement entre 1975 et 2000 ne pourrait pas aussi s’expliquer par la variabilité naturelle du climat.(1)

Pages : 1 2 3

Catégorie:  Changement climatique
• • • •
Lindzen lors de l’audit de l’APS : Milankovitch et l’Arctique

Dans un billet récent, Roy Spencer présente ses dix bons arguments climatosceptiques.

Le premier est l'absence de réchauffement sur les 15 dernières années. Pour autant, si l'on accepte qu'il existe une variabilité naturelle multidécénale (et je pense que nous en sommes tous convaincus), ce n'est absolument pas incompatible avec la théorie du RCA.

Je ne vais pas critiquer tous les arguments de Spencer comme par exemple "Est-ce que le réchauffement est mauvais". Pour l’essentiel il tape sur ce qu'il y a de plus ridicule et faible chez les carbocentristes.

J'ai une toute autre vision de ce qu'est un bon argument climatosceptique : Il doit s'attaquer aux points forts du carbocentrisme.

Allons-y. Les plus fortes variations climatiques de l'histoire sont les cycles de glaciation/déglaciation. Selon les climatologues orthodoxes, la théorie de Milankovitch serait insuffisante pour les expliquer mais les modèles globaux du climat (GCM) y arriveraient avec du CO2. C'est largement faux.

La Société Américaine de Physique (APS) est une de ces sociétés savantes qui ont émergé à partir du siècle des Lumières. Elle a pour objectif de faire avancer les sciences physiques et de les diffuser ; l’APS compte 50000 membres. Elle fait aussi des recommandations plus politiques aux pouvoirs publics et l’une d’elle concerne le changement climatique. Il y a 6 ans, elle avait parlé de preuves irréfutables du RCA dans sa déclaration. Elle y avait perdu des membres dont un prix Nobel. Cette fois, le travail devrait être plus soigné et parmi les 6 scientifiques qu’elle a consulté, on trouve Spencer, Curry et surtout Lindzen qui va nous occuper ici.

Extrait de l'audition du Dr Richard Lindzen, professeur émérite de physique de l'atmosphère au MIT, devant l'APS :

DR . Lindzen : Maintenant, je dirais que la plupart des tentatives indépendantes pour calculer la sensibilité climatique [Ndt : la réponse du climat à un doublement du CO2] se retrouvent avec moins de sensibilité que celle affichée par les modèles [GCM]. Mais la paléo est une exception intéressante.

Figure 1. Courbes a,b et c, variations des parametres de Milankovitch. g, un proxy du volume de glace.

Là, le fait est que les paramètres de Milankovitch, les paramètres orbitaux ne vous donnent essentiellement pas de changement dans l'insolation moyenne. Et nous nous retrouvons avec un grand changement climatique, ce qui suggère une sensibilité forte.

Et ici, il est intéressant que Isaac [Held] soit ici parce qu'il était en post-doc avec moi et qu'il était la personne qui m'a intéressé à Milankovitch. Je n'y avais pas beaucoup réfléchi.

Et il me semblait très intéressant que vous n'ayez presque pas de forçage et que vous obteniez une réponse importante. Et j'ai travaillé sur cette question quelques années et tout à coup j'ai réalisé que je faisais fausse route.

Ce n'est pas un problème de forçage moyenné sur tout le globe et sur toute l'année. Milankovitch avait probablement raison. Ce que Milankovitch a fait, a été tout simplement de dire que vous avez ces variations orbitales, l'obliquité, l'excentricité, la précession des équinoxes.

Mais ce qui était important pour les glaciers était l'insolation dans l'Arctique en été. Presque tous les glaciologues vous le diront.
Essentiellement, vous obtiendrez toujours de la neige en hiver. Elle s'accumulera toujours. Si vous construisez une calotte glaciaire sur une longue période de temps, ce qui est essentiel, c'est combien de glace survit à l'été.

Maintenant, au début, les gens regardaient ça [cf figure 2]. Et c'est un domaine drôle et nous avons tous fait des erreurs qui sont assez  grossières avec du recul. Mais ce qui s'est passé avec le programme CLIMAP est qu'ils ont comparé les paramètres de Milankovitch avec le volume de la glace et ils n'ont pas trouvé de corrélation convaincante.

Figure 2. Comparaison de l'insolation en juin au dela de 65°N (vert) et du volume des glaciers selon deux jeux de données (noir).

Finalement, je me sens gêné parce que je me suis rendu compte à un certain moment que je cherchais l'influence tropicale.

Trois astronomes suédois, Edvardsson et quelques autres noms ont étudié cette question. Ils ont fait la chose la plus évidente, qui était d'examiner la dérivée temporelle du volume de glace par rapport aux paramètres de Milankovitch. Et voici ce que vous obtenez, c'est au sommet de la figure :

Je veux dire, je ne connais pas de meilleure corrélation en géophysique. Et en bas, vous voyez le volume de la glace elle-même. Bien sûr, cela n'a pas l'air aussi bon. D'autres personnes ont découvert ceci indépendamment parce Edvardsson et al. était paru dans la littérature astronomique et personne ne l'avait lu.

Mais ils sont aussi allés jusqu'à se demander si la gamme de variabilité de l'insolation due au paramètre Milankovitch était compatible avec la chaleur de fusion pour le volume de la glace.
Et même que c'était très, très proche. Juste pour vous donner une idée de la gamme, c'est dans le graphique ci-dessous.

L'article de Gérard Roe avait ça. C'est 100 watts par mètre carré.

DR. KOONIN : Sur quelle région est-ce ?

DR. CHRISTY : 65° nord.

DR. KOONIN : Wow !

DR. Lindzen : C'est l'Arctique. Donc, c'est un truc important. Maintenant, la question est, est ce que le paradigme actuel est raisonnable ?

Est-il vrai qu'il ya un problème profond avec l'hypothèse de Milankovitch parce que les paramètres orbitaux conduisent à presque aucun changement de l'insolation moyenne globale ou annuelle  ?

Est-ce vraiment un watt et demi par mètre carré [ Ndt : le forçage du aux variations des GES ] qui est en cause ? Et je pense que cela n'a aucun sens.

Source.

Les glaciations et le CO2

Alors que se passe t-il lorsque l'on fait tourner un modèle de circulation du climat pour reproduire une glaciation ?

"Les simulations du dernier minimum glaciaire [LGM, -21000 ans avant 1950] ont tendance à surestimer le refroidissement tropical et a sous-estimer le refroidissement aux latitudes moyennes. Elles sous-estiment ainsi l'amplification polaire"

AR5, chapitre 9 p. 776.

Figure 5. Triangles noirs avec leurs immenses barres d'erreur, à gauche la recontruction pour l'Atlantique Nord/Europe,
a droite celle pour les tropiques. Le reste des triangles sont les résultats des GCM. Les différences de température sont
par rapport à l'ère préindustrielle.

C'est un graphique un peu compliqué mais je n'en ai pas trouvé d'autre. Ce que vous pouvez voir, c'est que les modèles sont trop chauds sous les tropiques, de 0 à 2,5°C (Les croix rouges à comparer avec la croix noire de droite) ; et sur les latitudes nord, ou tombe la neige, ils sont trop chauds de 1 à 4°C (Les croix bleus VS la croix noire de gauche).

Le biais tropical est important car c'est là qu'est logé le gros de l'énergie du système climatique. C'est d'autant plus un problème parce qu'ils y arrivent sans avoir la bonne couverture glaciaire ou de neige, qui est trop faible, c'est à dire le bon albédo. Ils n'ont probablement pas non plus la bonne couverture nuageuse aux tropiques. Si on contraignait les modèles avec le bon albédo, ils seraient encore plus froid à l’équateur.
Il y a une solution simple à ce problème, elle est de diminuer la sensibilité du climat au CO2 dans les modèles.

Nicias

Catégorie:  Changement climatique
• • • •
Pourquoi la révolution des gaz de schistes ne pouvait se produire qu’en Amérique

Les Etats-Unis du gaz

Traduction (de Papijo) de l’article du site “Foreign Affairs” du “Council on foreign relations” américain (Lien):

Il y a moins d’une décennie, l’avenir de l’énergie aux USA semblait sombre. La production intérieure de pétrole et de gaz diminuait et les grandes entreprises de l’énergie des États-Unis estimant que leur fortune se trouvait dans l’off-shore, s’étaient depuis longtemps détournées de la partie continentale. Mais alors quelque chose de remarquable est arrivé: une vague d’innovations a permis aux entreprises d’extraire de grandes quantités de gaz naturel piégé dans les gisements de schiste autrefois inaccessibles. L’abondance qui en a résulté a entraîné une baisse des prix du gaz aux États-Unis à environ un tiers de la moyenne mondiale.

Le gaz naturel a été une aubaine pour les Etats-Unis. D'emblée le gaz a suscité une renaissance de la production, avec des investisseurs dépensant et planifiant des centaines de milliards de dollars dans de nouvelles installations telles que les usines de produits chimiques, d’acier et d’aluminium. Le boom des gaz de schistes a créé des centaines de milliers de nouveaux emplois bien rémunérés, des jobs pour la classe moyenne, et maintenant, plus d’un million d’Américains travaillent dans l’industrie du pétrole et du gaz, soit une augmentation d’environ 40 pour cent entre 2007 et 2012. De plus, parce que le gaz naturel fournit actuellement environ 25 pour cent de l’énergie totale consommée aux États-Unis (un chiffre qui augmente rapidement), le boom fait économiser aux consommateurs américains des centaines de milliards de dollars par an. Combiné avec les autres avantages, ces économies ont donné aux États-Unis un avantage économique à long terme par rapport à ses concurrents et a aidé le pays à se remettre de la Grande Récession.

Même si d’autres pays peuvent envier ce catalyseur pour la croissance intérieure, ils ne seront pas capables de le répliquer, parce que les USA possèdent les ingrédients uniques nécessaires pour développer pleinement les ressources de schiste. Un système juridique qui consacre la propriété privée de la terre et des ressources du sous-sol, accompagné par des marchés de capitaux ouverts et un système de réglementation raisonnable, a conduit à la croissance de milliers de sociétés pétrolières et gazières indépendantes, qui sont toutes en compétition intense les unes avec les autres. En conséquence, près de quatre millions de puits de pétrole et de gaz ont été forés dans les États-Unis, par rapport à 1,5 million dans le reste du monde. Le foisonnement de l’activité du forage aux États-Unis a également conduit à une augmentation de l’innovation dans l’industrie d’un ordre de grandeur dont les autres pays ne peuvent que rêver.

Bien que d’autres endroits, comme la Chine et l’Europe, disposent de ressources importantes de gaz de schistes, ils n’ont pas le système « entrepreneur–friendly » nécessaire pour développer ces ressources rapidement et de façon productive. Tant que les hommes politiques ne rentrent pas dans cette voie, les Etats-Unis profiteront grassement de la révolution du gaz de schiste pendant les décennies à venir.

DERRIERE LE BOOM

L’histoire de la révolution du gaz de schiste en Amérique implique la classique ingéniosité yankee - mais non de la part des grands pétroliers. Dès les années 1970, la production des champs de pétrole et de gaz « on-shore » aux États-Unis a diminué tandis que ces champs devenaient ce que l’industrie appelle « matures ». Ainsi, les majors ont été contraintes d’abandonner le développement de nouvelles ressources sur le sol américain. Afin de trouver de nouveaux champs pétroliers géants, ils ont fait porter leurs efforts d’exploration dans des pays lointains et dans des forages en eaux profondes. Ces investissements ont été extrêmement coûteux et demandaient souvent des décennies à négocier et se développer. Afin de renforcer les ressources en capital et la portée mondiale nécessaires pour traiter avec les gouvernements nationaux et réaliser ces projets gigantesques, les grandes compagnies pétrolières ont commencé à acquérir ou fusionner avec leurs pairs. Le pétrole, ont-ils observé, était généralement moins cher à acheter à Wall Street qu’à trouver dans le sol.

Au cours des décennies suivantes, cependant, ces sociétés sont devenues excessivement bureaucratiques et ont développé une vision étroite. Préoccupées principalement par le renouvellement de leurs réserves de pétrole en diminution, elles ont investi leurs capitaux dans des dépôts géants étrangers, tels que le champ de Kashagan, au Kazakhstan, qui a environ 13 milliards de barils de pétrole récupérable ; sa première phase de développement coûte, à elle seule, 50 milliards.

Pendant ce temps, des petites entreprises indépendantes - qui gagnent la plus grosse part de leur chiffre d’affaires lors des forages et très peu à partir des activités en aval (raffinage, par exemple) - ont été contraintes d’innover ou de périr. Depuis la fin des années 1990, les prix du gaz naturel grimpaient et les entreprises ont appris que des formations souterraines de schiste des États-Unis contiennent de vastes volumes de gaz naturel. Donc, des entreprises telles que la société GHK (dont je suis le fondateur et le PDG) ont tenté d’entrouvrir le schiste dans des puits verticaux et de libérer le gaz par injection de sable, d’eau et de produits chimiques dans la roche, un processus connu sous le nom de fracturation hydraulique, ou « fracking ». Mais ce n’était tout simplement pas rentable.

C’est alors que George Mitchell, un professionnel du pétrole indépendant dans la formation de Barnett, au Texas, a commencé à briser les règles. Son innovation était de forer horizontalement dans le schiste, exposant des milliers de pieds (NDT : 1000 pieds = 300 m) de roche contenant le gaz, plutôt que les quelques 100 pieds (ou souvent juste dix ou 20 pieds) rencontrés dans un puits vertical. En même temps, les prix du gaz ont encore monté et les techniques de Mitchell se sont encore mieux développées et il a commencé à atteindre un certain succès commercial. En 2002, Devon Energy, sentant la révolution à venir, a acheté la société de Mitchell et perfectionné l’innovation pour développer la formation Barnett. Chesapeake Energy et d’autres sociétés indépendantes les ont bientôt rejoints, donnant ainsi le départ des gaz de schistes américains. Dans la décennie, Chesapeake a dépassé ExxonMobil comme plus grand fournisseur de gaz naturel des États-Unis, et peu de temps après, les États-Unis ont dépassé la Russie en tant que plus grand producteur de gaz naturel au monde.

Non seulement les entreprises indépendantes transforment l’industrie du gaz naturel; elles ont fait la même chose avec le pétrole. Les livraisons de gaz récemment découverts ont fait que le prix du gaz naturel des États-Unis est tombé d’un sommet de plus de 13,50 $ par millier de pieds cubes en 2008 à environ $ 3 -. 4 $ par millier de pieds cubes en 2009. Le gaz naturel est devenu si bon marché que les indépendants ont de nouveau été contraints à innover pour rester en vie. Avec un prix de vente du gaz équivalent à moins de 25 $ le baril de pétrole, mais un prix du pétrole à environ 100 $ le baril, ils ont commencé à appliquer les technologies qu’ils avaient développées avec succès pour le gaz pour extraire le pétrole à partir de formations de schistes à faible perméabilité, appelées dans l’industrie « tight-réservoirs”. Et les résultats ont été tout aussi impressionnant, tels que les États-Unis sont maintenant prêts à dépasser la Russie en tant que deuxième plus grand producteur de pétrole au monde d’ici la fin de la décennie et, selon l’Agence internationale de l’énergie, pourrait même dépasser l’Arabie Saoudite pour devenir le plus grand producteur au monde d’ici là.

Rien de tout cela n’aurait été possible sans le cadre juridique unique propre aux USA. Il accorde aux propriétaires des droits, non seulement sur la surface de leurs terrains, mais aussi à tout le sous-sol, en théorie, jusqu’au centre de la terre. Dans le reste du monde, ces droits miniers sont presque tous détenus, ou sont parfaitement contrôlés, par des gouvernements souverains. Aux États-Unis, toute entreprise peut conclure une entente avec un propriétaire désireux de louer les droits d’accès au pétrole et au gaz sous sa terre et commencer le forage, une disposition qui a donné naissance une concurrence darwinienne entre les entrepreneurs afin de survivre et de croître. Et ainsi les États-Unis comptent plus de 6000 sociétés indépendantes dans le domaine du pétrole et du gaz et un nombre égal de sociétés de services associés, par rapport à la poignée d’indépendants et de sociétés de services qui existent à l’étranger.

À chacun des puits de ces sociétés américaines, des dizaines d’esprits travaillent sur chaque partie du processus de développement. En utilisant des modèles 3-D d’activité sismique, les ingénieurs, souvent à distance et en temps réel, enregistrent l’emplacement exact de la tête de forage, de sorte qu’il peut rester dans les zones les plus prolifiques de la formation de schiste, et optimiser la taille des fissures créées par fracturation hydraulique, de sorte qu’elles ne soient ni trop grandes ni trop petites. C’est comme si chaque puits a sa propre Silicon Valley en miniature. Ayant été répétées des milliers de fois, ces techniques et de nombreuses autres ont permis aux entreprises de maximiser leur productivité, réduire leurs coûts et les délais de forage de moitié par rapport au point de départ.

Considérez comme les choses peuvent changer en une seule année. En 2013, sur les propriétés de l’Oklahoma, dans lequel l’entreprise GHK détient des intérêts couvrant 150 miles carrés, une grande entreprise américaine indépendante a foré et achevés plus de 100 puits horizontaux. Si ces puits avaient été forés verticalement, ils n'auraient exposé que, environ, 1000 pieds de schiste, alors que le forage horizontal a permis à près de 100 miles d’être exposés. Et plutôt que d’effectuer les 100 injections de fluide de fracturation qu’un puits vertical aurait rendu possible, l’entreprise a pu réaliser entre 1000 et 2000 d’entre eux. Les ingénieurs de la société ont également bricolé avec des variables telles que le type de forets utilisés, l’effort appliqué pendant le forage, la vitesse de rotation de la foreuse, et la taille et le nombre de traitements de fracturation. Grâce à cette expérimentation continue, ainsi qu’aux économies d’échelle (par exemple, la commande en gros des tubes acier), l’entreprise a réussi à réduire ses coûts de 40 pour cent sur 18 mois et encore accroître sa productivité. Le résultat : en 2014, six ou sept plates-formes seront capables de forer d’avantage de puits et de produire autant de pétrole et de gaz que 12 plates-formes l’ont pu l’année précédente.

Depuis le boom de schiste a commencé, il y a plus d’une décennie, les entreprises ont foré environ 150 000 puits horizontaux aux États-Unis, une entreprise monumentale qui a coûté environ 1000 milliards de dollars. Le reste du monde, cependant, a foré quelques centaines de puits horizontaux seulement. Et parce que chaque forage horizontal a une longueur d’environ un mile (et parfois même deux miles) et est soumis à dix ou plusieurs injections de fracturation, les entreprises aux États-Unis ont fracturé environ 150.000 miles de schiste en environ deux millions d’opérations. Cela fait environ un millier de fois plus de schistes exploitables à l’intérieur des États-Unis qu’à l’extérieur.

PIETRE CONCURRENCE

Il est très peu probable que d’autres pays ne rattraperont jamais les USA. Certes, la Chine et l’Europe abritent de vastes ressources de gaz de schistes (dans le cas de la Chine, contenant éventuellement plus de gaz naturel que les réserves américaines). Mais ces ressources ne seront pas extraites de sitôt. Puisque ces autres pays ne peuvent pas soutenir des milliers d’entreprises pétrolières et gazières indépendantes, leurs ressources doivent être exploitées par des entreprises nationales lentes, bureaucratiques et des géants internationaux (qui ont à traiter avec des gouvernements encore plus bureaucratiques et des systèmes juridiques et réglementaires souvent byzantins). Faire aboutir des accords sur les gaz de schistes dans les pays étrangers et la ensuite réaliser les projets en résultant prendra des décennies. Même en Chine, où le gouvernement exerce un contrôle presque complet de la surface du sol et du sous-sol, seules quelques entreprises nationales et quelques autres étrangères envisagent le développement du gaz de schiste. Et parce que moins de cerveaux vont travailler sur moins d’opérations, il faudra plus de temps pour remonter la courbe d’apprentissage et les gains de productivité seront plus faibles que dans les Etats-Unis. Donc, les coûts seront élevés, et les profits, minces.

Dans de nombreuses démocraties, le développement est également ralenti par le syndrome « NIMBY - pas dans ma cour ». Contrairement aux habitants de l’Oklahoma et du Texas, qui ont grandi avec l’industrie du pétrole et du gaz, les populations étrangères ne sont généralement pas familières de cette dernière ; la plupart des 1,5 millions de puits de pétrole et de gaz à l’extérieur des États-Unis se trouvent soit dans les eaux profondes du large ou des zones reculées à terre. Et parce que les gouvernements d’autres pays possèdent ou contrôlent la quasi-totalité des droits sur les ressources souterraines, les propriétaires fonciers n’ont pas d’intérêt dans le jeu. Recevoir aucun des avantages économiques et voyant seulement les inconvénients de projets intrusifs dans leur propre cour, ils ont tendance à résister à juste titre aux projets de forages.

Tel est le cas en Europe, où le problème est amplifié par un mouvement vert hyperactif déterminé à bloquer le développement des gaz de schiste. La France a interdit la fracturation hydraulique entièrement, et l’Allemagne a mis un moratoire de facto en place. Sans un changement radical d’attitude, l’Europe sera encore plus longue que la Chine à développer ses ressources de gaz de schiste. Même si elle les développe, les résultats seront moins impressionants et très lents à venir.

L’Europe est également grevée par des politiques énergétiques erronées. Au début de ce siècle, les hommes politiques européens ont fait valoir que leur continent devrait guider le monde dans une transition vers les énergies vertes et la réduction des émissions de dioxyde de carbone. Ils ont engagé des dizaines de milliards de dollars de l’argent des contribuables pour subventionner des projets d’énergie verte, principalement pour développer l’énergie éolienne et solaire, qui n’étaient pas encore efficace ou suffisamment fiables pour rivaliser avec les filières existantes. Malheureusement, il est peu probable que la transition de l’Europe vers l’énergie verte se traduira par l’avenir utopique que ses partisans ont prédit. Afin de répondre à la demande de toujours plus de puissance, le charbon sale libéré par le passage des États-Unis au gaz naturel est déjà en train de trouver son chemin vers l’Europe. La réalité est que ces pays européens se sont assis sur une infrastructure de l’énergie pas très efficace, coûteuse qui va agir comme un frein sur la croissance économique à long terme. Et tandis que les Etats-Unis réindustrialise, l’Europe, sans nouveaux dirigeants politiques qui comprennent mieux l’économie de l’énergie, pourrait bien faire face à des décennies de désindustrialisation et de stagnation économique.

LE CADEAU QU’ON N’ARRETE PAS DE RECEVOIR

La révolution de schiste a ses détracteurs, qui pointent la nature cyclique des prix du gaz naturel dans le passé pour faire valoir que les futures hausses de prix pourraient rendre le carburant non fiable et coûteux. Mais la volatilité passée résultait de sévères contrôles des prix du gouvernement, suivis d’un processus complexe de déréglementation et des risques impliqués par l’exploration des poches de gaz naturel classique. En d’autres termes, les prix étaient soumis aux deux aléas de la politique nationale et de la complexité de la géologie des sous-sols.

Aucun de ces problèmes n’existe aujourd’hui, depuis que les contrôles de prix ont été abandonnés il y a longtemps et les entreprises américaines savent maintenant exactement où de grandes de gaz naturel accessible s’étendent, et ainsi l’extraction du gaz est un procédé de fabrication fiable plutôt que le résultat d’un coup de dés. Le prix futur du gaz naturel sera déterminée non pas tant par la taille des gisements trouvés, comme c’était le cas avec le gaz naturel classique, que par le coût de l’extraction. Les prix devraient donc rester stables sur le long terme, peut-être même pour le prochain demi-siècle. Ils peuvent même baisser tant que l’industrie du forage continue de réduire ses coûts et améliorer la productivité à la tête de puits. L’innovation supplémentaire en aval - dans les secteurs du transport, de distribution et de consommation - n’a même pas encore vraiment commencé. Lorsque ce sera le cas, les gains d’efficacité généreront des milliards de dollars de plus dans les économies des consommateurs.

La ligne de fond est que, grâce à la révolution des gaz de schiste, les États-Unis se sont déjà mis à l’abri des fluctuations imprévisibles des prix mondiaux du gaz naturel et sont près de le faire en ce qui concerne le prix du pétrole. Les pénuries de pétrole en raison de catastrophes naturelles à l’étranger ou de perturbations politiques pourraient un jour devenir une chose du passé, en particulier si le gaz naturel commence à alimenter les voitures et camions américains. L’indépendance croissante dans le domaine de l’énergie donnera Washington une longueur d’avance sur ses concurrents. Si le flux de pétrole était menacé par un événement dans le Moyen-Orient, comme la chute du régime saoudien, les États-Unis seraient en mesure de résister à la tempête mieux que toute autre grande économie.

Un gaz naturel bon marché et abondant améliore le capital géopolitique du pays d’une manière plus directe : il renforce de manière significative l’économie américaine. Les américains ne paient qu’une fraction du prix du gaz naturel que paient le reste des consommateurs dans le monde, économisant jusqu’à 300 milliards de dollars par rapport aux consommateurs en Chine et en Europe. Déjà, le développement des énormes réserves de schiste bitumineux et de gaz des États-Unis a augmenté le PIB des États-Unis de près de un pour cent. En fait, sans la révolution du pétrole et du gaz, l’économie américaine aurait probablement glissé dans la récession et aurait perdu des centaines de milliers d’emplois. Aujourd’hui, la plupart des Etats bénéficiant du boom de schiste ont des niveaux de chômage que la moyenne nationale. Grâce à des forages dans la formation de Bakken, par exemple, le taux de chômage du Dakota du Nord n’est que de 2,6 pour cent, le plus bas du pays. L’avantage économique croissant des États-Unis pourrait durer jusqu’au milieu de ce siècle et au-delà.

Sauf que, en fait, cet avantage est gaspillé. En Californie et à New York, deux des plus grandes économies du pays, les militants antifracking et les politiciens de l’état ont réussi à ralentir le développement des ressources de gaz de schiste à un rythme d’escargot. Les deux états contiennent de grandes formations de schistes (le Monterey en Californie et le Marcellus à New York), dont le développement donnerait une impulsion majeure à la fois à l’état et à la croissance économique nationale. Les politiciens doivent reconnaître que l’Amérique d’aujourd’hui a une occasion sans précédent de croissance économique à long terme qui peut générer de bons emplois pour la classe moyenne, l’aider à quitter la Grande Récession pour de bon, et lui accorder des avantages géopolitiques sur ses concurrents.

Catégorie:  Energies
• • • •
La science mise au carré, le blog de Huet

Un fil de discussion sur le blog de Sylvestre Huet.

Catégorie:  Changement climatique
• • • •
Des arguments sceptiques qui ne tiennent pas la route

par Roy W. Spencer, Ph. D.

Il y a quelques très bons arguments pour être sceptique des prévisions de réchauffement climatique. Mais la prolifération des mauvaiss arguments devient presque vertigineuse.

Je comprends que beaucoup des choses que nous pensons savoir de la science finissent par être fausses. Je saisis ça. Mais quelques-unes des explications que je vois sont à la limite du ridicule .

Donc, voici mon Top 10 des arguments sceptiques stupides. Je suis sûr qu'il y en a plus, et peut-être que j'en ai raté une paire d'importants. Bien.

Mon but évident ici n'est pas de faire changer d'idée des gens qui se sont déjà fait leur opinion, mais d'atteindre plus de 1000 commentaires (le plus souvent désagréables ) en réponse à ce message. Alors, aidez-moi ici !

1. Il n'y a pas d'effet de serre. Malgré le fait que le rayonnement infra-rouge descendant du ciel puisse-être mesuré, et s'élève à un niveau (~ 300 W/m2) qui peut être à peine être ignoré ; sa négligence pourrait bousiller les prévisions des modèles météo ; conduirait à des nuits très froides s'il n'existait pas ; il peut être facilement mesuré directement avec un thermomètre infrarouge de poche pointé vers le ciel (car un thermomètre IR mesure le changement de température IR induit à la surface d'une thermopile, CQFD) … S'il vous plaît arrêtez le truc du "pas d'effet de serre". Cela nuit à l'image des sceptiques.

2. L'effet de serre viole la seconde loi de la thermodynamique. La deuxième loi peut être écrite de différentes façons, mais l'une d'elle est que le flux net d'énergie doit être du corps le plus chaud vers celui le plus froid. L'effet de serre ne contredit pas cela. La violation apparente de la 2ème loi semble naitre du fait que tous les corps émettent un rayonnement IR … y compris un corps plus froid vers un corps plus chauds. Mais le flux net de rayonnement thermique reste du corps chaud vers le corps froid. Même si vous ne croyez pas qu'il y ait un flux bidirectionnel, et que le flux a un seul sens … le débit dépend de la température de ces deux corps, et changer la température du corps plus froid va changer la vitesse de refroidissement (et donc la température) du corps plus chaud. Donc, oui, un corps froid peut faire d'un corps chaud un corps encore plus chaud … comme lorsque vous mettez des vêtements.

3. Le CO2 ne peut être responsable du réchauffement parce-que le CO2 émet des IR aussi vite qu'il en absorbe. Non. Quand une molécule de CO2 absorbe un photon infrarouge, le parcours moyen dans l'atmosphère est si court que la molécule transmet de l'énergie aux molécules environnantes avant qu'elle ne puisse (en moyenne) émettre un photon infrarouge dans son état temporairement excité. Il est également important que la vitesse à laquelle une molécule de CO2 absorbe des IR est pratiquement indépendante de la température, mais la vitesse à laquelle il émet des IR augmente fortement avec la température. Il n'est pas nécessaire qu'une couche d'air émette autant d'IR qu'elle en absorbe … en fait, en général, les taux d'émission et d'absorption IR sont très loin d'être égaux.

4. Le CO2 refroidit, ne réchauffe pas l'atmosphère. Cet argument est un peu plus subtil car l'effet de serre refroidit l'atmosphère supérieure, et réchauffe la basse atmosphère, par rapport à une situation sans gaz à effet de serre. Puisque tout absorbeur d'IR est également un émetteur IR, une molécule de CO2 peut à la fois chauffer et refroidir.

5. L'ajout de CO2 dans l'atmosphère n'a aucun effet car l'atmosphère est déjà 100% opaque dans les bandes d'absorption du CO2. Tout d'abord, non, elle ne l'est pas, et c'est en raison de l'élargissement des bandes d'absorption dû à la pression. Deuxièmement, même si l'atmosphère était 100 % opaque, cela n'a pas d'importance.

6. La température dans la basse atmosphère est due au gradient de température adiabatique. Non, le gradient adiabatique décrit comment la température d'une parcelle d'air change par la compression/expansion adiabatique lorsqu'elle baisse/augmente d'altitude. Ainsi, cela peut expliquer comment les températures changent au cours de renversements convectifs, mais pas ce que la température absolue est. Expliquer la température absolue de l'air est une question de budget énergétique. Vous ne pouvez pas écrire une équation basée sur la physique pour obtenir la température moyenne à n'importe quelle altitude sans utiliser de budget énergétique. Si la compression adiabatique explique la température, alors pourquoi la température de l'atmosphère à 100 mb est presque la même que la température à 1 mb, malgré 100x plus de pression atmosphérique ?

7. Le Réchauffement fait augmenter le taux de CO2, pas l'inverse. Le taux d'augmentation du CO2 atmosphérique est actuellement de 2 ppm/an, un taux qui est 100 fois plus rapide qu'à n'importe quel moment dans l'enregistrement des carottes de glace de Vostok sur 300.000 ans. Et nous savons que notre consommation de combustibles fossiles émet du CO2 200 fois aussi rapidement ! Alors, où est l'augmentation 100x plus rapide de la température aujourd'hui causant cette augmentation de CO2 ? Allez les gens , réfléchissez. Mais ne vous inquiétez pas … le CO2 est l'élixir de vie !

8. Les modèles du GIEC sont pour une terre plate. Je n'ai aucune explication où cette petite friandise de désinformation vient. Les modèles climatiques traitent d'une Terre sphérique en rotation, une Terre avec un cycle jour/nuit (diurne) d'éclairage solaire et de la force de Coriolis atmosphérique (due à la fois à la courbure de la Terre et à la rotation). Oui, vous pouvez faire une moyenne globale des flux d'énergie et les afficher dans un dessin pour enfant de la terre plate, comme le schéma de bilan énergétique Kiehl-Trenberth qui est un outil d'apprentissage utile, mais j'espère que la plupart des gens sensés peuvent faire la distinction entre une poignée de nombres moyens globaux dans un schéma conceptuel, et un modèle climatique global en véritable 3D.

9. Il n'y a pas une telle chose que la température moyenne mondiale. Vraiment ? ! Y a-t-il une température moyenne de  l'eau de votre baignoire ? Ou d'une pièce de votre maison ? Maintenant, nous pouvons discuter sur la façon de faire la moyenne (Spatiale ? Pondérée par la masse ? ), mais vous pouvez calculer une moyenne, et vous pouvez la suivre au fil du temps, et voir si elle change. L'exercice n'est futile que si votre échantillonnage n'est pas assez bon pour surveiller de manière réaliste les changements au fil du temps. Simplement parce que nous ne connaissons pas la température moyenne à la surface de la Terre avec une précision meilleure que, disons 1°C, ne signifie pas que nous ne pouvons pas surveiller les changements dans la moyenne au cours du temps. Nous n'avons jamais su exactement combien de personnes sont aux États-Unis, mais nous avons des estimations utiles de la manière dont le nombre a augmenté au cours des dernières 50 à 100 années. Pourquoi la "température" est si importante ? Parce que l'émission infrarouge thermique en fonction de la température est ce qui stabilise le système climatique …. plus les choses sont chaudes, plus l'énergie est perdue dans l'espace.

10. La terre n'est pas un corps noir. Eh bien, personne n'a dit qu'elle l'était. Dans la bande IR, cependant, elle est proche d'un corps noir, avec une émissivité moyenne de l'ordre de 0,95. Mais si un modèle climatique utilise 0,95 ou 1,0 pour l'émissivité de la surface cela ne va pas modifier les conclusions que nous faisons sur la sensibilité du système climatique à l'augmentation du dioxyde de carbone .

Je suis sûr que je pourrais venir avec une liste plus longue que cela, mais ce sont les principales questions qui me sont venues à l'esprit.

Alors, pourquoi suis-je en train de remuer un nid de frelons (encore) ? Parce que quand les sceptiques adoptent de la «science» qui est pire que la science du GIEC, nous faisons du mal à notre crédibilité.

Source.

Catégorie:  Changement climatique
• • • •
Heureusement, cela se passe à l’étranger

Un nouveau rapport publié par la Global Warming Policy Foundation lance un appel à Michael Gove, le secrétaire d' Etat britannique à l'éducation, pour diligenter une enquête officielle sur la façon dont l'écologie et en particulier le changement climatique sont enseignés dans les écoles.

Dans le rapport, les auteurs Andrew Montford et John Shade décrivent comment l'écologie en est venue à imprégner les programmes scolaires à travers le Royaume-Uni, dans une étonnante variété de matières, de la géographie à l'éducation religieuse et les langues modernes (1). Passer des examens désormais implique généralement la capacité de réciter des mantras verts plutôt que de comprendre les questions subtiles de science et d'économie concernées.

Les auteurs examinent en détail le matériel pédagogique sur le changement climatique actuellement utilisés dans les écoles britanniques, avec des résultats inquiétants. Il existe de nombreuses preuves de déclarations non scientifiques, graphiques manipulés, et des matériaux de militants utilisés en classe et même dans les manuels.

Le rapport décrit également comment les enseignants militants tentent de faire des enfants des petits soldats du mouvement vert, en les encourageant à harceler leurs camarades de classe et leurs parents pour provoquer un «changement de comportement».

L' utilisation de la peur du changement climatique pour modifier le comportement des enfants est également mis en évidence. Ceci a sans aucun doute des conséquences néfastes sur le développement des enfants et des sondages indiquent que la peur de l'avenir est très répandue. Le rapport cite un enfant en disant :

"Je m'inquiète du réchauffement climatique, parce-que je ne veux pas mourir."

Pour l'auteur Andrew Montford : "Le lavage de cerveau de nos enfants à des fins politiques est honteux. Les responsables de l'éducation au Royaume-Uni doivent prendre des mesures et rapidement".

Source.

Le rapport (eng) est téléchargeable ici.

1 Montford cite ailleurs comme exemple les cours de Français…

Catégorie:  Environnement, Changement climatique
• • • •
Page suivante »