Calme dans l’azur.

Traduction de Scaletrans.

• • • • •

Sur la pause actuelle du réchauffement global.

Syun-Ichi Akasofu

International Arctic Research Center, University of Alaska Fairbanks, USA

Reçu : 28 janvier 2013/sous forme révisée : 15 avril 2013 ; accepté :15 avril 2013/ Publié :

 

Résumé : l’élévation de la température moyenne globale du siècle dernier s’est arrêtée depuis l’année 2000 environ en dépit du fait que les émissions de CO2 dans l’atmosphère continuent à augmenter. On suggère ici que cette interruption a pour origine l’arrêt de l’augmentation quasi linéaire de température (+0,5°C/siècle ou 0,05°C/décennie), due à la sortie du Petit Âge Glaciaire, par une oscillation multi-décennale superposée de 0,2°C d’amplitude et une période de 50-60 ans, oscillation qui a connu son maximum vers l’année 2000 – une pause similaire à celle qui est intervenue autour de 1880 et 1940. Etant donné que la variation quasi linéaire et l’oscillation multi décennale sont probablement naturelles (respectivement la sortie du Petit Âge Glaciaire (LIA) et une oscillation en rapport avec l’Oscillation Décennale du Pacifique (PDO)), elles doivent être soigneusement soustraites des données de température avant estimation des effets du CO2.

Mots clé : réchauffement global ; Petit Âge Glaciaire ; oscillation multi-décennale

 

  1. Introduction

L’un des procédés standard en climatologie est de construire une analyse spectrale des variations passées de la température globale et d’essayer d’interpréter les changements de composantes. Cette procédure a été largement appliquée aux changements des 400.000 dernières années [1]. Dans cet article, nous suivons cette procédure d’étude des variations de température moyenne globale sur la période 1800-1850 à 2010 pour trouver la tendance générale.

La Figure 1 montre les deux variations de température de 1860 à 2000 [2] et le taux d’augmentation de température estimé pour différents intervalles. La tendance la plus cohérente est une augmentation progressive de la température de 1860 à 2000, matérialisée ici par une ligne droite, avec un taux d’augmentation de 0,045°±0,012°/décennie. En superposition se trouve la variation la plus marquante, un changement d’amplitude oscillatoire d’environ 0,2° sur une période de 50-60 ans.

 

akasofu-1.jpg

 

Figure 1. Variations de la température moyenne globale [2]. Le taux d’augmentation de la température est estimé pour différents intervalles de temps.

 

 

  1. Analyse spectrale

    1. La variation quasi linéaire

Par chance, une excellente analyse spectrale des variations de la température globale de 1850 à 2000 a été construite par Wu et al. [3]. Les résultat indiquent en outre que la variation la plus marquante sur cette période est une variation quasi linéaire caractérisée par un taux d’augmentation d’environ 0.5°C/siècle ou 0.05°C/décennie. Cette tendance quasi linéaire a également été notée par (Bryant, 2001) [4], qui a montré qu’il n’y a que quelques points en dehors des limites de l’intervalle de confiance à 95% de l’approximation linéaire.

 

En se basant sur diverses données de variations climatiques, comme les cernes d’arbres [5], les retraits glaciaires [6] et la débâcle fluviale [7], Akasofu [8] a montré que le réchauffement global a débuté dès 1800-1850 et non après que le CO2 ait commencé à augmenter très rapidement autour de 1946. De plus, parmi ces facteurs, la montée du niveau marin entre 1850 et 2000 fut également quasi linéaire, quoiqu’avec un rythme de décroissance léger [9].

 

Il est donc possible que cette composante quasi linéaire soit due à une sortie progressive du Petit Âge Glaciaire, lequel n’a pas pris fin abruptement

 

La Figure 2 montre les variations detempérature de l’an 800 environ jusqu’en 2000, d’après les modifications des cernes des arbres ; elle montre le Petit Âge Glaciaire (LIA) après l’Optimum Médiéval autour de l’an 1000 et la progression quais linéaire peu après 1800 [5]. La Figure 3 montre des tendances à peu près similaires dans les variations de température relevées par plusieurs chercheurs (comprenant Esper et al. [5]), indiquant une progression quasi linéaire des températures depuis environ 1850 jusqu’en 2000, en complément aux résultats obtenus par le GICC (Figure 1).
Il est alors possible que cette composante linéaire soit due à une sortie progressive du Petit Âge Glaciaire (LIA) de 1800-1850, car le LIA ne s’est pas terminé brutalement. Il est généralement admis que la température durant le LIA était inférieure d’environ 1°C qu’à notre époque (Figures 2 et 3). Donc le taux de progression de la température depuis 1800 serait en gros de 1°C sur deux siècles (= 0.5°C/siècle ou 0.05°C/décennie), similaire au taux de progression quasi linéaire d’environ 0.5°C rencontré au cours du 20ième siècle.
akasofu-2.jpg

 

Figure 2. Variations de température d’après les cernes des arbres [5].

 

 

akasofu-3.jpg

Figure 3. Variations de température de 900 à 2000, compilées par le National Research Council [10].

 

L’augmentation de température depuis 1800-1850 étant quasi linéaire, le rythme est quelque peu différent de l’augmentation du CO2, qui a montré une progression quasi quadratique sur la même période – avec une augmentation rapide après 1946 et une augmentation progressive qui a commencé autour de 1900. C’est donc au minimum problématique de considérer cette progression quasi linéaire de la température durant les 19ième et 20ième siècles comme due principalement au CO2.

On doit noter également que la fonction de modulation solaire dérivée du C14 et du Be10 [11] ; Muscheler et al. [12] montre une tendance inversement proportionnelle à la tendance de température montrée aux Figures 2 et 3, et on peut supposer que le LIA et sa sortie sont peut-être en relation avec les variations d’activité solaire, même si les variations du Soleil durant un cycle d’activité de 11 ans sont réputées faibles, à ̴ 0.1%. (Ndt TSI, Irradiance Solaire Totale)

 

C’est au minimum problématique donc de considérer cette progression quasi linéaire de la température durant les 19ième et 20ième siècles comme due principalement au CO2.

 

2.2. L’Oscillation Multi-Décennale

De plus, les progressions de 1860 et 1910 furent suivies chacune d’une décroissance significative. On peut par conséquent s’attendre à un arrêt ou même à une petite diminution de la tendance après 2000, compte tenu de cette analyse spectrale.
On peut par conséquent s’attendre à un arrêt ou même à une petite diminution de la tendance après 2000, compte tenu de cette analyse spectrale.

 

akasofu-4.jpg

Figure 4. L’Oscillation Décennale du Pacifique (PDO) [15].

http://www.ncdc.noaa.gov/teleconnections/pdo/

 

  1. Synthèse

La Figure 5a montre les conditions ci-dessus en mode graphique et représente une version améliorée de la Figure 9 de Akasofu [8]. Le grand cartouche rectangulaire ombré en jaune montre les variations de  température de 1860 à 2010 (données standard, similaires à la Figure 1), avec un trait noir montrant le taux d’augmentation de 0.5°C/siècle et l’oscillation multi-décennale en rouge et bleu, respectivement au-dessus et en dessous du trait. La Figure 5a montre le détail des données du cartouche jaune. La ligne pointillée avant 1860 indique que le trait linéaire peut être extrapolé jusqu’en 1800 environ, en supposant que le LIA a réellement commencé à s’achever vers 1800. La Figure 5b montre les données HADCRUT4 [16], en même temps que leur lissage en cinq points. Il est clair d’après ces données que la tendance au réchauffement connaît une pause et que cela indique même un léger refroidissement après 2000.

 

Dans le cartouche jaune, la variation entre 2000 et juin 2012 est appuyée par le trait bleu épais pour montrer que la tendance à la pause est un effet de l’oscillation multi-décennale. Au-dessus du cartouche jaune est montré le détail de ces données. En s’appuyant sur cette synthèse, on peut supposer que la pause actuelle au réchauffement est due au fait que l’oscillation multi-décennale a pris le pas sur l’augmentation quasi linéaire précédente (sortie du LIA). En réalité, ce type de tendance est similaire à celles qui ont eu lieu après 1880 et 1940, quand la température a décru jusqu’en 1910 et 1970 respectivement (particulièrement à la lumière du fait que le CO2 a commencé à augmenter rapidement après 1946). On doit noter cependant que Levitus et al.[17] font état d’une augmentation continue du contenu thermique de l’océan après 2000, bien que le taux de croissance semble diminuer après 2004 ; d’un autre côté, les conclusions de Pielke [18] ne semblent pas montrer cette augmentation après 2000.

 

akasofu-5.jpg

Figure 5. Les données HADCRUT4 telles que montrées dans la figure 5a, avec le lissage en cinq points, mais pour l’intervalle 1980-2012 seulement.

 

La progression de température de 1975 à 2000, montrée par le trait rouge épais (ligne fondamentalement similaire à la ligne jaune de la Figure 1), est probablement composée à la base de la sortie du LIA, combinée avec la phase positive de l’oscillation multi-décennale [8]. Au contraire, le GICC considère l’élévation de température de 1975 à 2000 comme « très probablement due à l’augmentation constatée des concentrations de gaz à effet de serre anthropiques [2].
Se basant sur cette hypothèse, le GIEC prédit une augmentation de température de +2°C à +4°C en 2100 [2], comme illustré à la figure 5a par l’extension en pointillés de la ligne rouge épaisse, censée plus immédiatement se traduire par une augmentation de +0.2°C ou plus en 2012. Cependant, la pause (ou même la légère décroissance) de la température depuis 2000 indique une situation plus proche de celle qui a régné après 1880 et 1940.

Il est assez probable cependant que la progression quasi linéaire due à la sortie du LIA, a été temporairement évincée par l’oscillation multi-décennale qui a atteint une pointe positive vers l’an 2000.

En supposant que ces résultats obtenus par analyse statistique se prolongeront tout au long du 21ième siècle, nous devons observer la ligne en pointillés de 2012 à 2100 comme l’extrapolation linéaire, en conjonction avec l’oscillation multi-décennale. L’élévation attendue de température due à la sortie du LIA reste de 0,5°C, bien que la contribution de l’oscillation multi-décennale dépende de sa phase (+0.2°C).

 

Il est assez probable cependant que la progression quasi linéaire due à la sortie du LIA, a été temporairement évincée par l’oscillation multi-décennale qui a atteint une pointe positive vers l’an 2000.


  1. Conclusion

Il est probable que la progression quasi linéaire et l’oscillation multi-décennale sont toutes les deux des variations essentiellement naturelles. Ainsi, afin d’estimer les effets du CO2 sur les deux derniers siècles, il est important d’isoler ces composants naturels des variations climatiques des données réelles de température.

Remerciements

L’auteur tient à remercier le Gr. Gerhard Kramm pour ses explications, ainsi que pour avoir amélioré la Figure 5a et fourni la Figure 5b.

Conflit d’intérêt

L’auteur déclare n’avoir aucun conflit d’intérêt

Références et Notes

 

Vent qui tourne /re-suite

Même la Cour des comptes s'y met … Cela reste assez politiquement corect dans les conclusions mais comme on connaît les actuelles possibilités financières de l'Etat …

• • • • •

La Cour des comptes a rendu public, le 25 juillet 2013, un rapport sur la politique de développement des énergies renouvelables. Bénéficiant d’une énergie moins carbonée et d’une électricité moins chère que la plupart des autres grandes puissances industrielles, notamment en raison de ses parcs hydraulique et nucléaire, la France s’est fixé des objectifs plus ambitieux que de nombreux pays européens en matière  d’énergies renouvelables, avec une cible de 23 % de la consommation finale brute toutes énergies à l’horizon de 2020, contre 10,3 % en 2005. Dans son rapport, la Cour analyse les conditions d’atteinte de ces objectifs dans les deux secteurs de la chaleur et de l’électricité, qui représentent respectivement 59,4 % et 40,6 % de l’utilisation des énergies renouvelables (hors biocarburants).

Un effort croissant à consentir

Longtemps moins encouragée aux niveaux européen et français, la production de chaleur progresse depuis 2005 et constitue le premier usage des ressources renouvelables, devant l’électricité. La production électrique renouvelable augmente également depuis 2005. La place de l’hydroélectricité reste prépondérante, mais avec une progression régulière des productions éolienne et photovoltaïque.

En 2011, la trajectoire que la France s’est fixée était presque respectée. La proportion d’énergies renouvelables (13,1 %) était supérieure à la moyenne des pays de l’Union européenne.

L’objectif de 23 % en 2020 sera néanmoins difficile à atteindre, car l’effort à consentir entre 2012 et 2020 doit être beaucoup plus important que celui accompli entre 2005 et 2011. La production supplémentaire de chaleur et d’électricité renouvelables devra être six à sept fois supérieure à celle déjà réalisée.

Une conjonction de difficultés

Les coûts de production de la plupart des énergies renouvelables, qui varient dans des proportions très importantes entre les filières et au sein même des filières, sont encore aujourd’hui trop élevés pour assurer leur déploiement sans un soutien public :


l’énergie solaire est, globalement, très largement plus coûteuse que les autres sources d’énergie avec, en outre, un large éventail de coûts de production ;

–    la filière éolienne terrestre se situe dans une position intermédiaire souvent très proche de la rentabilité, ce qui en fait une énergie sur le point d’être compétitive ;

–    les coûts de production d’énergie à partir de la biomasse, de la géothermie ou de la puissance hydraulique sont globalement les moins élevés.

L’État met en œuvre de multiples moyens de soutien, souvent complexes : aides à l’investissement, achat de la production à prix garantis, mesures fiscales ou encore financement de programmes de recherche. Il s’est insuffisamment organisé, dispersant ses efforts et n’évaluant pas suffisamment les effets socio-économiques de ses décisions, en particulier le contenu en emplois et l’impact sur la balance extérieure. Le cadre juridique ne facilite pas l’association des collectivités locales.

Par ailleurs, l’acceptabilité sociale des énergies renouvelables, leurs contraintes physiques, voire les
conflits d’usage (notamment en ce qui concerne les cours d’eau et l’usage de la biomasse), posent des problèmes difficiles à surmonter.

Le besoin de choix de long terme soutenables

L’atteinte des objectifs fixés pour 2020 et au-delà aura un coût élevé pour la collectivité, et conduit à s’interroger sur leur soutenabilité.

L’ensemble des coûts publics de la politique de soutien aux énergies renouvelables peut être globalement estimé à 14,3 Md€ pour la période 2005-2011, dont 3,3 Md€ au titre de la contribution au service public de l’électricité (CSPE).

Sans bouleversement de la politique de soutien menée jusqu’à présent, et en ne prenant en compte que la seule CSPE, le coût pourrait atteindre 40,5 Md€ pour la période 2012-2020, directement supportés par les consommateurs d’électricité, particuliers ou professionnels. S’y ajouteront les dépenses fiscales, les autres aides budgétaires à l’investissement et le financement public de la recherche. Parallèlement, le coût de l’adaptation des réseaux est estimé par ERDF et RTE à 5,5 Md€ à l’horizon 2020.

L’interrogation sur la soutenabilité est d’autant plus importante que les contreparties attendues du soutien financier apporté aux filières renouvelables ne sont pas au rendez-vous, tant en termes de développement industriels que de créations d’emplois.

Afin de préserver les atouts énergétiques français tout en soutenant le développement des énergies renouvelables, des arbitrages s’imposent, à commencer entre les filières à soutenir, notamment en fonction du coût relatif de leur soutien au regard de leur contribution au mix énergétique. L’efficience des dispositifs de soutien (tarifs d’achat, appels d’offres, aides à l’investissement) doit également être un critère de choix.

Par ailleurs, la soutenabilité à long terme de la politique requiert aussi une valorisation réaliste du coût des émissions de CO2, soit par les mécanismes du marché, soit par la fiscalité.

Recommandations

La Cour formule huit recommandations :


mettre en place un dispositif centralisé du suivi statistique permettant de donner toute la visibilité requise pour éclairer les décisions, notamment en matière de connaissance des coûts de production par filière, des emplois et des marchés ;

• simplifier le régime juridique applicable à la production d’énergies renouvelables (géothermie, éolien, terrestre) ;

• mettre en œuvre une planification et une cartographie des énergies renouvelables en tenant compte des contraintes de raccordement aux réseaux électriques ;

• réserver les appels d’offre aux technologies les plus en retard dans la réalisation de leurs objectifs de capacité et aux installations qui ne bénéficient pas d’un tarif d’achat fixé par arrêté, afin d’éviter les effets d’aubaine ;


organiser un dispositif de contrôle efficace des installations bénéficiant d’un soutien public, notamment dans les filières solaires et biomasse ;

• réserver les moyens de soutien aux installations les plus efficientes compte tenu de leur coût, de leur part dans la production énergétique et de leur contenu en emplois ;

• redéployer les crédits au sein du fonds chaleur en faveur des filières les plus efficientes ;


revoir le principe du financement par le seul consommateur d’électricité des charges de soutien aux énergies renouvelables électriques, compensées par la CSPE (recommandation déjà formulée par la Cour en 2011).

Consulter le rapport.

@@@@@@

 

Temps de résidence du dioxyde de carbone atmosphérique.

Traduction de Scaletrans. Grand merci.

• • • • •

La courbe des essais nucléaires et son implication dans le temps de résidence du dioxyde de carbone atmosphérique.

Les études du Carbone 14 émis dans l’atmosphère par les essais nucléaires montrent que le modèle de Bern utilisé par le GIEC contredit pratiquement tous les résultats expérimentaux publiés.

Article invité de Gösta Pettersson sur WUWT.

La courbe de Keeling montre que le niveau de dioxyde de carbone dans l’atmosphère a augmenté de façon constante sur une tendance longue depuis 1958. Les tenants du réchauffement climatique anthropique (RCA) attribuent cette augmentation aux activités humaines telles que la consommation de combustibles fossiles et les modifications d’usage des terres. Les opposants à l’hypothèse RCA soutiennent que cela impliquerait que le temps de renouvellement du dioxyde de carbone atmosphérique serait d’environ 100 ans, ce qui contredit une multitude d’études expérimentales indiquant que le temps de renouvellement est d’environ 10 ans.

 

operation_crossroads_explosion_1.jpg
Test nucléaire sur l'atoll de Bikini en 1946.

Depuis sa constitution en 1988, le Groupe Intergouvernemental d’Etude du Climat (GIEC) des Nation Unies a négligé les temps de renouvellement relevés empiriquement, proclamant qu’il leur manque le rythme d’élimination du dioxyde de carbone anthropique de l’atmosphère. Au contraire, le quatrième rapport du GIEC prétend que l’élimination des émissions de dioxyde carbone est correctement décrite par le ‘modèle de Berne’, une modélisation du cycle du carbone conçue par d’éminents climatologues de l’Université de Berne. Le modèle de Berne présuppose que l’augmentation des niveaux du dioxyde de carbone atmosphérique est du exclusivement aux émissions anthropiques. Calibré pour s’adapter à la courbe de Keeling, le modèle stipule que la relaxation d’un train d’émissions de dioxyde de carbone est multi phase avec des composants lents suggérant un transfert lent de dioxyde de carbone depuis la surface des océans jusqu’aux grandes profondeurs. Le problème est que les observations empiriques nous racontent une histoire totalement différente.

 

Les essais de charges nucléaires au début des années soixante ont initié une expérience avec un marqueur scientifique idéal décrivant la cinétique de l’élimination de l’excès de dioxyde de carbone atmosphérique. Lorsque les essais nucléaires dans l’atmosphère cessèrent en 1963, ils avaient amené le niveau de C14 dans l’air à presque deux fois sa valeur d’origine. La relaxation de cet excès de dioxyde de carbone C14 a maintenant été observée durant cinquante ans. La figure 1 montre les résultats représentatifs issus des enregistrements expérimentaux de plus de 95% du processus de réduction.

 

bombtest-1.jpg

Le GIEC a négligé les données des essais nucléaires de la figure 1 (qui donne le rapport de C14/C12), prétendant que « une perturbation atmosphérique dans le rapport isotopique disparaît beaucoup plus rapidement que la perturbation du nombre d’atomes C14 ». Cet argument est inacceptable et certainement incorrect. La Figure 2 montre les données de la Figure 1 après changement d’échelle et correction pour les effets mineurs de dilution provoqués par l’augmentation de la concentration de dioxyde de carbone C12 durant la période examinée.

 

bombtest-2.jpg

Les séries de points expérimentaux résultants (données en noir Fig. 2) décrivent la disparition de « la perturbation du nombre d’atomes de C14 », et sont presque indistincts des données de la Fig. 1, et seront référencés comme « courbe d’essais nucléaires ».

Afin d’attirer l’attention sur la courbe des essais nucléaires et ses importantes implications, j’ai publié un trio de rigoureuses analyses cinétiques de réaction pour répondre aux controverses quant à l’interprétation de la courbe de Keeling entre les tenants et les opposants de l’hypothèse AGW.

(Note voir ci-après les liens pour les trois articles)

 

L’Article 1 du trio montre que:

  1. La courbe des essais nucléaires fournit un enregistrement empirique de la relaxation de 95% du dioxyde de carbone C14 de l’atmosphère. Comme les effets cinétiques des isotopes de carbone sont petits, la courbe des essais nucléaires peut être considérée comme représentative de la relaxation des trains d’émission de dioxyde de carbone en général.

     

  2. Le processus de disparition a la forme d’une relation mono exponentielle (courbe rouge Fig.2) et peut donc être décrit comme un simple temps de relaxation (temps de renouvellement). Au plan de la cinétique, il n’y a pas de raison valide de ne pas prendre en compte les évaluations expérimentales connues de ce temps de relaxation (5-14 ans).

     

  3. Le caractère exponentiel de la relaxation implique que le taux de disparition du C14 est proportionnel à la quantité de C14. Cela signifie que les 95% du processus de relaxation ont été régis par la concentration de dioxyde de carbone C14 selon la loi d’action de masse, sans aucune contribution décelable provenant d’évènements océaniques lents.
  4. Les prescriptions du modèle de Berne (courbe bleue Fig.2) sont incompatibles avec les observations effectuées, et sous-estiment gravement à la fois le taux et l’importance de la disparition des émissions anthropiques de dioxyde de carbone. Sur la foi des prédictions du modèle de Berne, le GIEC déclare qu’il se passe quelques centaines d’années avant que les premiers 80% de dioxyde de carbone anthropique ne disparaissent de l’atmosphère. La courbe des essais nucléaires montre que cela prend moins de 25 ans.
L’article 2 de la trilogie utilise les relations cinétiques dérivées de la courbe nucléaire pour calculer dans quelle mesure le niveau de dioxyde de carbone a été affecté par les émissions anthropiques de dioxyde de carbone depuis 1850. Les résultats montrent que seulement la moitié de la tendance long terme de la courbe de Keeling a pour origine les émissions anthropiques.
Le modèle de Berne et d’autres modèles du cycle de carbone ajustés pour s’adapter à la courbe de Keeling sont régulièrement utilisés par les modélisateurs du climat pour obtenir des données estimées des niveaux futurs de dioxyde de carbone dans leurs scénarios d’émissions postulés. L’article 2 montre que les estimations ainsi obtenues exagèrent les contributions d’origine humaine aux niveaux futurs de dioxyde de carbone (et par conséquent aux températures globales) par des facteurs de 3-14 pour les scénarios représentatifs des émissions sur des périodes s’étendant jusqu’à 2100 et au-delà. Avec des valeurs étayées empiriquement, les projections des modèles climatiques montrent en fait que le réchauffement climatique dû aux émissions de dioxyde de carbone fossile restera dans des limites acceptables.

L'article 3 de la trilogie attire l’attention sur le fait que l’eau chaude retient moins de dioxyde de carbone dissous que l’eau froide. Cela signifie que le réchauffement global du 20e siècle a conduit nécessairement à un dégazage thermique de dioxyde de carbone dans l’atmosphère. Avec un modèle cinétique air-océan, on peut estimer l’importance de cet effet thermique en analysant la dépendance de la température aux fluctuations multi annuelles de la courbe de Keeling et la décrire en termes d’énergie d’activation du processus de dégazage.

Pour les valeurs estimées empiriquement obtenues selon les articles 1 et 3, le modèle montre que le dégazage thermique et les émissions anthropiques ont contribué à peu près à égalité à l’augmentation des niveaux de dioxyde de carbone sur la période 1850-2010 examinée. Durant les deux dernières décennies, les contributions du dégazage thermique ont excédé de presque 40% celles des émissions anthropiques. Ceci est illustré par les données de la Fig. 3, qui indique également que la courbe de Keeling peut être quantitativement évaluée comme les effets combinés du dégazage thermique et des émissions anthropiques.

 

bombtest-3.jpg

Les résultats de la Fig.3 appellent à une révision drastique du budget du cycle du carbone proposé par le GIEC. En particulier, la très discutée ‘chaleur manquante’ (appelée ‘chaleur terrestre résiduelle’ dans le 4ièmerapport du GIEC) peut être identifiée comme se trouvant dans l’hydrosphère ; le total des émissions absorbées par les océans a été gravement sous-estimé par le GIEC parce qu’ils ont ignoré le dégazage thermique. De plus, l’importance de l’effet du dégazage thermique met les modélisateurs du climat dans la délicate situation d’avoir à connaître quelles seront les températures futures avant qu’ils ne puissent les prédire compte tenu de l’effet de serre du aux niveaux futurs de dioxyde de carbone.

 

En accréditant le modèle de Berne et des modèles similaires du cycle du carbone, le GIEC et les modélisateurs du climat présupposent que la courbe de Keeling ne représente que les émissions anthropiques de dioxyde de carbone. Les résultats de Articles 1-3 montrent que ce présupposé est incompatible avec pratiquement tous les résultats expérimentaux publiés reposant sur la cinétique de relaxation du dioxyde carbone atmosphérique. Aussi longtemps que les modélisateurs du climat continueront à négliger les données expérimentales disponibles sur le dégazage thermique et sur la cinétique de relaxation du dioxyde de carbone atmosphérique, leurs modèles de prévisions resteront trop biaisés pour fournir quelque conclusion significative intéressant la science ou la politique.

================================================================

Références:

Climate Change 2007: IPCC Working Group I: The Physical Science Basis section 10.4 – Changes Associated with Biogeochemical Feedbacks and Ocean Acidification

http://www.ipcc.ch/publications_and_data/ar4/wg1/en/ch10s10-4.html

Climate Change 2007: IPCC Working Group I: The Physical Science Basis section 2.10.2 Direct Global Warming Potentials

http://www.ipcc.ch/publications_and_data/ar4/wg1/en/ch2s2-10-2.html

GLOBAL BIOGEOCHEMICAL CYCLES, VOL. 15, NO. 4, PAGES 891–907, DECEMBER 2001 Joos et al. Global warming feedbacks on terrestrial carbon uptake under the Intergovernmental Panel on Climate Change (IPCC) emission scenarios

ftp://ftp.elet.polimi.it/users/Giorgio.Guariso/papers/joos01gbc[1]-1.pdf

Click below for a free download of the three papers referenced in the essay as PDF files.

Paper 1 Relaxation kinetics of atmospheric carbon dioxide

Paper 2 Anthropogenic contributions to the atmospheric content of carbon dioxide during the industrial era

Paper 3 Temperature effects on the atmospheric carbon dioxide level

================================================================

Gösta Pettersson est  professeur de biochimie en retraite à l’Université de Lund (Suède) et ancien rédacteur du Journal Européen de Biochimie comme expert en réactions cinétiques et modélisation mathématique. Ses recherches scientifiques se sont intéressées à la fixation du dioxyde de carbone par les plantes, ce qui l’a familiarisé avec le cycle du carbone, qui intéresse les climatologues et d’autres.

Liens des articles :

Article 1 http://www.false-alarm.net/wp-content/uploads/2013/06/paper1.pdf

Article 2 http://www.false-alarm.net/wp-content/uploads/2013/06/paper2.pdf

Article 3 http://www.false-alarm.net/wp-content/uploads/2013/06/paper3.pdf

@@@@@@

 

 

    Lobsters attack.

    Il y a eu les requins, puis les méduses et puis maintenant, le danger venu de la mer s’appelle le homard. Ne laissez surtout pas vos orteils dépasser du canot dans la baie du Maine sur la Côte Est des États-unis ! Le homard est cannibale. La belle affaire, c’est une pratique fort répandue en mer. Mais la cause fondamentale à ce qui ne peut qu’apparaître comme un dérèglement de mère Nature, forcément harmonieuse et paisible, est bien sûr le RCA. Le RCA rend fou et aurait touché les homards de son rayon mortifère.

    Voilà comment une caméra posée au fond de la baie et deux courbes, dont une de température, créent un marronnier d’été. Araucan.

    • • • • • •

    Voici la vidéo.

    La caméra, dis ai-je, été posée au fond de la mer pour voir la prédation des poissons démersaux (cabillauds, harrengs …) sur le homard, car il n’y a pas que les humains qui aiment sa chair parfumée. Las, la scène d’horreur défila devant les yeux ébahis d’un étudiant, qui interprète cela comme un phènomène anormal, le cannibalisme homarien (d’Homarus, nom latin du genre ) n’étant documenté qu’en captivité. La caméra permettrait même d’établir que 90 % des jeunes homards sont mangés par de plus gros.

    La température a augmenté dans le golfe du Maine. (Ce pourrait être du Gore)

    warming-seas-640_2.jpg

    Car voilà qu’en parallèle, un phénomène étrange frappe les caseyeurs de homard du Maine : les homards grossissent et les prix baissent.

    lobster-graphs-combined-640_4.jpg

    C’est assez contre-intuitif dans le domaine halieutique : plus pêcher et de plus gros individus un produit recherché ne devrait pas conduire à la ruine du secteur.

    La logique algorienne et giecienne ayant été fort diffusée ces quinze dernières années, il s’ensuit donc que le parallélisme des courbes conduit à la conclusion : c’est l’augmentation de la température du golfe (pour la courbe, on ne sait s’il s’agit de la température de l’eau de mer ou de l’atmosphère) qui permet aux homards de mieux se reproduire et de grossir plus vite. Pour cela, il faut manger et donc le homard consomme sa progéniture plus nombreuse …

    Bien sur, cela ne peut durer longtemps (quoique cela fait vingt ans) et la chute brutale de population est attendue. Si cela se produit, on en entendra parler.

    Le RCA rend les homards obèses et cannibales, les pêcheurs pauvres et bientôt ruinés pour cause de surproduction (c’est le seul point nouveau, dans le secteur, c’est plutôt la sous-production qui renvoie les pêcheurs à terre.

    De fait, il n’y a peut-être pas besoin d’invoquer le spectre du RCA. La sur-pêche d’autres espèces et en particulier des poissons démersaux, friands de jeunes crustacés, peut tout à fait expliquer cette pullulation de homards. Trouver une solution sera certainement plus compliqué, car le homard consomme aussi des alevins … et les populations de cabillaud de l’Ouest atlantique tardent à se reconstituer : les mauvais esprits disent que c’est dû aux phoques devenus trop nombreux car protégés, les autres se grattent la tête et ne voient pas de solution.

    Mais bon, une vidéo et deux courbes suffisent désormais pour évoquer l’apocalypse. En attendant, mangez du homard du Maine ! (Le breton n’est pas mal non plus, mais il y en a beaucoup moins et il est surveillé de près, paraît-il). 😉 .

    D’après Source 1, source 2.

    @@@@@@

    Vent qui tourne/ suite.

     Suite et pas encore fin.

    • • • • •

    Cour de justice de l’Union européenne
    COMMUNIQUE DE PRESSE n° 91/13  
    Luxembourg, le 11 juillet 2013

    Conclusions de l'avocat général dans l'affaire C-262/12 Vent De Colère e.a.  
    • • • • •
    Selon l’avocat général, M. Jääskinen, le mécanisme français de financement de l’obligation d’achat de l’électricité produite par éoliennes relève de la notion l’intervention de l’État ou au moyen de ressources d’État.
    • • • • •
    En effet, la charge visant à financer l’obligation d’achat de l’électricité éolienne à un prix supérieur à celui du marché s’applique à tous les consommateurs d’électricité en France
    • • • • •
    Selon le droit de l’Union, tel qu’interprété par la Cour de justice, une mesure constitue une « aide d’État » si quatre conditions cumulatives sont réunies : –  il doit s’agir d’une intervention de l’État ou au moyen de ressources d’État ; – cette intervention doit être susceptible d’affecter les échanges entre les Etats membres ; – elle doit accorder un avantage à son bénéficiaire et, enfin, elle doit fausser ou menacer de fausser la concurrence. (29)
    • • • • •
    S’agissant, en particulier, de la notion de l’intervention de l’État ou au moyen de ressources d’État, le seul critère dont l’interprétation a été demandée par le Conseil d’État (France) dans la présente affaire,  selon la jurisprudence de la Cour, pour que des avantages puissent être qualifiés d’aides, d’une part, ces avantages doivent être accordés directement ou indirectement au moyen de ressources d’État, et, d’autre part, être imputables à l’État. (30) Par ailleurs, eu égard à la portée limitée de la question préjudicielle, la qualification définitive de la mesure en tant qu’une «aide d’État» incombera à la juridiction nationale.

    En l’espèce, la législation française prévoit que ceux qui produisent, sur le territoire national, de l’électricité d’origine éolienne bénéficient d’une obligation d’achat de l’électricité ainsi produite. (6) Les débiteurs de cette obligation d’achat sont les distributeurs exploitant le réseau auquel est raccordée l’installation, à savoir Électricité de France (« EDF ») et les distributeurs non nationalisés, contraints d’acheter l’électricité mentionnée à un prix supérieur à celui du marché. Par conséquent, ce mode de financement engendre des surcoûts pour les distributeurs d’électricité. (7)

    Auparavant, les surcoûts résultant de l’obligation d’achat faisaient l’objet d’une compensation par un fonds de service public de production d’électricité, géré par la Caisse des dépôts et des consignations («  CDC ») et alimenté par des contributions dues par les producteurs, fournisseurs et distributeurs mentionnés dans la loi1. (2) La législation nationale ayant été modifiée2, elle prévoit désormais que les surcoûts découlant de l’obligation d’achat font l’objet d’une compensation intégrale, financée par des contributions dues par les consommateurs finaux d’électricité, installés sur le territoire national.
    • • •
    L’association « Vent de Colère – Fédération nationale » et onze autres requérants ont saisi le Conseil d’État, considérant que le mécanisme de financement mis en place par la législation française modifiée constitue une aide d’État au sens du droit de l’Union. Ils  demandent par conséquent, devant la juridiction nationale, l’annulation de la réglementation ministérielle de 2008 fixant les conditions d’achat de l’électricité éolienne3. (1et 3)
    • • • • •
    Dans les conclusions rendues ce jour l’avocat général, M. Jääskinen propose à la Cour de constater que le mécanisme de financement mis en place par la législation française modifiée relève de la notion d’une intervention de l’État ou au moyen de ressources d’État.(57)

    Lors de l’examen de la condition relative l’imputabilité de la mesure à l’État, étant donné que la contribution prélevée auprès des consommateurs finaux a été instituée par la loi française, l’avocat général estime que la fixation de la contribution contestée  doit être considérée comme le résultat d’un comportement imputable à l’État français. (32)

    Ensuite, l’avocat général rappelle que, concernant la condition tenant à l’origine étatique des ressources, la notion d’aide d’Etat comprend tous les moyens pécuniaires que l’État peut effectivement utiliser pour soutenir des entreprises. Le fait que ces moyens restent constamment sous contrôle public, et donc à la disposition des autorités nationales, suffit pour qu’ils soient qualifiés de ressources d’État. (34)

    S’agissant du contrôle exercé par l’État, l’avocat général constate premièrement que des organes relevant de la sphère du droit public ont joué un rôle dans le mécanisme établi par la législation française. (36) En effet, le montant de l’imposition à laquelle chaque consommateur final l’électricité en France est soumis est fixé annuellement par la voie d’un arrêté ministériel. (37) Par ailleurs, alors même que la législation en cause n’assure pas en réalité une équivalence exacte entre les surcoûts supportés par les distributeurs et le montant de la contribution reversé à ces derniers – la loi consacre le principe de la couverture intégrale de l’obligation d’achat de l’électricité d’origine éolienne, ce qui selon l’avocat général prouve que l’État se porte garant du mécanisme dans son ensemble. (37) De surcroît, la loi prévoit des mécanismes de sanction administrative en cas de non-paiement de la contribution. (38)

    Or, il est de jurisprudence constante, que les fonds qui sont alimentés par des contributions obligatoires imposées par une législation nationale, gérés et répartis conformément à cette législation, sont à considérer comme étant des ressources d’État même s’ils sont administrés par des institutions distinctes de l’autorité publique. (39)
    • • • • •
    L’avocat général souligne deuxièmement que les ressources obtenues grâce aux charges imposées à l’ensemble des consommateurs transitent par l’organisme de droit public mandaté expressément par l’État, à savoir la CDC. (41)
    • • • • •
    Enfin, concernant la nature des ressources, l’avocat général constate que la charge visant à financer l’obligation d’achat de l’électricité éolienne à un prix supérieur à celui du marché est supportée par tous les consommateurs d’électricité en France4, indépendamment du point de savoir s’ils achètent ou non de l’énergie verte.(50) Ainsi, les consommateurs se trouvent dans l’impossibilité d’opter pour ou contre l’achat d’énergie renouvelable, ce qui va à l’encontre des règles du marché intérieur libéralisé de l’électricité qui visent à offrir aux consommateurs un choix réel à des prix équitables et concurrentiels. (51)
    • • • • •
    RAPPEL: Les conclusions de l'avocat général ne lient pas la Cour de justice. La mission des avocats généraux consiste à proposer à la Cour, en toute indépendance, une solution juridique dans l'affaire dont ils sont chargés.
    Les juges de la Cour commencent, à présent, à délibérer dans cette affaire. L'arrêt sera rendu à une date ultérieure.

    Document non officiel à l’usage des médias, qui n’engage pas la Cour de justice.
    Le texte intégral des conclusions est publié sur le site CURIA le jour du prononcé.

    1  La loi n° 2000-108 du 10 février relative à la modernisation et au développement du service public de l’électricité (JORF du 11 février 2000, p. 2143). [UNIQUEMENT DANS LA VERSION FR]

    La loi n° 2000-108 a été modifiée par la loi n° 2003-8 du 3 janvier 2003 (JORF du 4 janvier 2003, p. 265) et par la loi n° 2005-781 du 13 juillet 2005 (JORF du 14 juillet 2005, p. 11570). [UNIQUEMENT DANS LA VERSION FR]

    Arrêté du 17 novembre 2008 du ministre de l’écologie, de l’énergie, du développement durable et de l’aménagement du  territoire, complété par arrêté du 23 décembre 2008 de la ministre de l’économie, de l’industrie et de l’emploi (JORF du 13 décembre 2008,  p. 19032).[UNIQUEMENT DANS LA VERSION FR]

    4  Contrairement à l’arrêt de la Cour du 13 mars 2001, Preussen Elektra, C-379/98 (CP n° 10/01). Dans cette affaire, le mécanisme prévoyait que la charge financière de l’obligation d’achat était
    répartie entre les entreprises d’approvisionnement et les exploitants privés des réseaux d’électricité.

    @@@@@@

    Pétitions.

    Une fois n'est pas coutume … Et par un prompt renfort … 😉

    • • • • • •

    Nous demandons que les recherches concernant la climatologie mettent en avant les incertitudes graves des projections élaborées par le GIEC et reconnaissent que les actions mises en œuvre, dans l'état des connaissances actuelles, n'ont pas un fondement scientifique réel vis-à-vis de la faible étendue de nos connaissances. Avant toute action pour limiter les émissions de CO2, il est indispensable de comprendre beaucoup mieux le climat.

    Pour signer , c'est là : Regarder_en_face_le_changement_climatique

    • • • • • •

    L'écologie, cela ose tout c'est bien connu : y compris mettre des éoliennes en face des plages du débarquement (60ième anniversaire l'année prochaine).

    Pour protester : EPAW

    @@@@@@

     

    Vent qui tourne.

    J'aime beaucoup lorsque les outils mis en place pour protéger l'environnement se retournent contre ceux qui les ont mis en place.laugh  Mais cela coûte cher. Araucan

     • • • • • •
    Recours juridique accepté par la Cour de justice de l'UE 
    La Cour de justice de l'Union européenne a accepté d’instruire le recours présenté par la Plateforme européenne contre l'éolien industriel (EPAW) (1). Le jugement devrait être prononcé d’ici 12 – 18 mois. Les 608 associations qui composent la plateforme se félicitent de ce qui est une première victoire dans leur lutte pour mettre la Commission européenne devant ses responsabilités au vu des résultats catastrophiques de sa politique énergétique. Les droits des citoyens européens ont été bafoués, se plaint EPAW, et maintenant justice va être faite.
    La Commission n'a pas fait faire d'études techniques pour calculer combien de tonnes de combustibles fossiles vont être réellement économisées par les centaines de milliers d'éoliennes qu'elle veut imposer aux populations rurales, aux oiseaux, aux chauves-souris, aux dauphins etc. "De fait, plusieurs ingénieurs indépendants ont estimé qu'aucune économie ne sera réalisée (2), de sorte que les victimes ont vraiment tous les droits pour exiger réparation," explique Mark Duchamp, le conservationniste qui dirige EPAW.
    La Convention d'Aarhus (3) exige que les programmes qui auront une incidence sur l'environnement soient élaborés avec la participation du public, et ceci de façon transparente. Cela signifie que les Européens auraient dû être pleinement informés des avantages du programme d'énergies renouvelables de l'UE, ainsi que de ses coûts et de ses impacts indésirables. "Au lieu de cela", affirme Duchamp, "la Commission s'est bornée à répéter mot pour mot les messages de marketing de l'industrie éolienne sans jamais en vérifier l'exactitude."
    Par exemple, la politique éolienne de Bruxelles est fondée sur l'idée que toute électricité produite par des éoliennes permettrait d'économiser la quantité de combustibles fossiles qui serait nécessaire pour produire cette électricité par des moyens conventionnels. "Cette affirmation erronée, promue par l'industrie éolienne, a été adoptée par la Commission européenne sans la diligence requise", accuse Duchamp. "Si la Commission avait fait son devoir, elle aurait découvert que les centrales à combustibles fossiles, contraints à de fréquents changements de régime pour équilibrer la production erratique des parcs éoliens, brûlent davantage de carburant, comme le ferait une voiture quittant l'autoroute et rentrant dans une ville. Or il faut construire des centrales à gaz et à charbon pour stabiliser la production des éoliennes. Et si vous ajoutez tous les autres facteurs que la Commission n'a pas considérés (nouvelles lignes à haute tension etc.), au bout du compte les éoliennes ne réalisent aucune économie de CO2. Certains ingénieurs suggèrent même que le résultat final pourrait être une augmentation de la consommation de combustibles fossiles." (2)
    Cet aspect du recours d'EPAW à la Cour de justice montre combien l’action entreprise par cette organisation pourrait être importante pour l'avenir de l'Europe. "Si les éoliennes ne contribuent pas à réduire notre consommation de combustibles fossiles, alors elles n'ont aucune raison d'être et doivent être supprimées", conclut le conservationniste. "En effet, les dommages collatéraux qu'elles provoquent ne sont pas tolérables: santé des riverains affectée, massacres d'oiseaux et de chauves-souris, pollution sonore sous-marine qui désoriente les cétacés, subventions milliardaires qui alimentent la croissance
    de la dette publique, factures d'électricité en hausse rapide, délocalisations, destruction massive d'emplois, etc. (4). Ces aspects du programme de l'UE n'ont pas été évalués eux non plus, et en tout cas n'ont pas été communiqués au public d'une manière transparente. Il s'agit d'une violation grave de la législation Aarhus, et nous pensons que la Cour de justice annulera l'extension du programme des énergies renouvelables au-delà de l'année 2020, ce qui ne manquera pas de remettre en question la légalité et le bien fondé du programme actuel."

    La Plateforme européenne contre l'Éolien industriel (EPAW) regroupe 608 associations de victimes présentes ou futures des éoliennes de 24 pays. (Source)

    Références:

    (1) – Numéro de l'affaire: T-168/13, accepté par le Greffe de la Cour:
    http://www.unece.org/fileadmin/DAM/env/pp/compliance/C2012-68/Communication_with_Communicant/frComm_AddInfo22Mar13/2_EPAW_to_CJEU_2013_final_APPLICATION.pdf

    (2) – http://epaw.org/documents.php? cliquez sur "le problème du backup" dans la marge de droite.

    (3) – http://www.unece.org/fileadmin/DAM/env/pp/acig.pdf

    (4) – http://epaw.org/documents.php? voir les études, etc. classées par sujet dans la marge de droite.

    Associations françaises membres de l'EPAW

    @@@@@@

    Variabilité climatique en fonction des cycles gravifiques triple saros

    Traduction de Scaletrans. Un saros est une période de 223 lunaisons. Voir également chez Jo Nova.

    • • • • •

    William R. Livingston
    Olympia, WA 98501, USA

    Résumé: Je décris ici un modèle climatique correspondant directement aux cycles écliptiques. La théorie se base sur une similarité entre la période écliptique triple saros de 54 ans et la périodicité des sécheresses. Je prétends que les empreintes des éclipses sont une indication de cycles gravifiques, et que l’attraction lunaire variable est l’aspect le plus significatif du processus d’éclipse. Je développe l’idée que le forçage de l’attraction lunaire à un effet important sur la vapeur d’eau dans l’atmosphère terrestre, et peut affecter la densité et l’emplacement des nuages. J’explore la possibilité que la variabilité décennale des niveaux des océans peut s’expliquer par les cycles gravifiques triple saros. Je fais remarquer que l’attraction lunaire n’a pas été prise en compte dans le très significatif rapport climatique de 2007, et que des contradictions dans les données climatiques n’ont pas été relevées par les chercheurs. J’attire l’attention sur la valeur de données qui n’ont pas été intégrées dans les moyennes globales. J’espère que les lecteurs répondront à ces idées et que les meilleures d’entre elles seront reprises et les plus mauvaises écartées. Envoyez s’il vous plait la correspondance à 54.year.cycle@gmail.com. Cet article sera réécrit après réception des réponses.

    1 Introduction

    On sait depuis plusieurs siècles qu’une période écliptique de 18 ans gouverne la relation physique entre le Soleil, la Terre et la Lune, et que trois de ces périodes mises bout à bout se synchronisent très bien avec la rotation journalière de la Terre. Cette période synchronique de 54 ans est appelée Triple Saros. Je vais décrire un modèle climatique qui correspond à la période du triple saros. Pour la compréhension de ceci, les cycles écliptiques doivent être compris comme des cycles de gravité. Je suggère que la reconnaissance d’un cycle de gravité de 54 ans peut améliorer l’interprétation de données historiques climatiques, et ouvrir la voie à des prévisions à longue échéance des niveaux des océans, de leur température, de la température atmosphérique et des anomalies climatiques locales telles que moussons et sécheresses. Je propose ce modèle climatique comme alternative aux théories du réchauffement et changement climatique anthropiques globaux qui ont  été si largement répandues ces dernières années.
    Ma quête en vue de prouver que le climat terrestre est en bonne santé m’a amené à étudier la Lune comme possible catalyseur climatique, et j’ai noté une similarité entre la période triple saros de 54 ans et la périodicité des sécheresses. Le graphe suivant illustre la comparaison. Bien que les dates mentionnées ne fassent pas consensus, ces chiffres sont un bon point de départ pour la compréhension du concept que je propose.
    triple-saros-1a.jpg

    2 Définition du Triple Saros

    La durée d’un triple saros est précisément de 19 755, 96 jours, soit le temps nécessaire à l’empreinte d’une éclipse lunaire pour revisiter un emplacement spécifique de la surface de la Terre. Chaque fois que l’empreinte touche la Terre, c’est un rappel de l’existence d’une relation avec le cycle de gravité de 54 ans. Si nous pouvons admettre que la gravitation est le composant le plus significatif des cycles écliptiques, nous pouvons commencer à apporter plus d’attention sur le phénomène cyclique et physique causé par l’orbite lunaire

    Nombre de chercheurs ont concentré leur attention sur la périodicité de 18,6 ans des marées océaniques sans réaliser que le cycle saros de 18 ans n’est pas synchrone avec la rotation terrestre. Alors que le noyau de la Terre partage une relation de gravité avec la Lune, sa surface est régie par une corrélation de 54 ans. Par conséquent, tout phénomène physique pouvant être causé par une variation de gravité comme les sécheresses, les séismes, les hauts niveaux des océans et les cyclones devraient pouvoir être mieux prédits sur une période de 54 ans si une prédiction à longue échéance est possible.

    3 Extrapolation d’une théorie classique des marées

    Si la Lune joue un rôle significatif dans la régulation des marées océaniques, il est logique de penser que la vapeur d’eau de l’atmosphère terrestre soit également régie par le même mécanisme gravifique. Dans ce cas, la densité et le positionnement des nuages doivent correspondre au cycle triple saros de 54 ans. La conclusion logique suivante serait que la Lune doit aussi influer dans une certaine mesure le réchauffement et le refroidissement de la Terre car les nuages régulent la quantité d’énergie solaire qui touche la surface terrestre à un endroit donné. Les nuages durant les mois d’hiver aident à freiner le refroidissement de la Terre. Durant les mois d’été, les nuages ont un effet refroidissant car ils renvoient le rayonnement solaire entrant.

    Les précipitations ont un rapport direct avec la densité des nuages. Un défaut de précipitation correspond à la sécheresse. Si la couverture nuageuse de la Terre est manipulée par la Lune, la Lune est en partie responsable de la régulation du climat terrestre.

    4 Déclinaison des marées océaniques

    On admet traditionnellement que la position en orbite de la Lune exerce une influence sur la Terre de façon générale, et que la Lune provoque les marées en remorquant des proéminences de l’océan d’est en ouest – mais ne devrions-nous pas admettre que les proéminences de marées puissent être tractées du nord au sud lorsque la déclinaison de la Lune monte et descend ?

    Du fait que les océans sont liquides, nous en concluons généralement que les proéminences de marées disparaissent lorsque la Lune n’est plus au-dessus. Mais comme les proéminences de marées possèdent une hystérésis ou un moment qui fait qu’elles restent là où la Lune les a placées, dans quelle mesure notre compréhension de la marée peut être changée ? Il est évident que les marées montent et descendent de façon journalière, mais pouvons-nous affirmer qu’elles ne se décalent pas d’une région à une autre y compris du nord vers le sud selon un rythme triple saros de 54 ans ?

    5 Changement climatique: le facteur manquant

    Ceux qui pensent que l’homme provoque le réchauffement de la Terre et l’élévation du niveau des océans diront probablement que tous les mécanismes de marée et de température sont pris en compte dans les calculs, mais je pense qu’ils ne l’ont pas été. La preuve de cette insuffisance, on peut la trouver dans le document même qui a répandu la crainte universelle d’un réchauffement climatique. Le rapport intitulé : « Changement Climatique 2007 : les Fondements Scientifiques de Base » a été édité par les Nations Unies il y a plusieurs années.
    Le rapport était planifié comme devant prévenir que le niveau de nos océans s’élevait à un rythme dangereux. Mais le rapport ne donne que peu d’informations sur la façon dont les niveaux des océans fluctuent naturellement. Il y manque également une description de la technique permettant aux scientifiques de différentier les fluctuations naturelles d’une planète en bonne santé et les fluctuations artificielles causées par la pollution de l’atmosphère.

    Le rapport ne mentionne jamais la Lune comme facteur causal de la variabilité de la surface océanique. En fait, la Lune n’est mentionnée que deux fois dans le rapport entier, et jamais en relation avec les marées, ce qui est assez remarquable si l’on considère qu’il y a accord unanime au sein de la communauté scientifique sur le rôle majeur de la Lune dans la fluctuation des marées.

    6 Variabilité décennale imprévisible

    Les rédacteurs du rapport des Nations Unies disent que certains types de prévisions climatiques sont impossibles car les données historiques sont limitées. Ils affirment hautement que le niveau des océans s’élève, tout en indiquant simultanément que les marées fluctuent selon des modes que les chercheurs ne comprennent pas. Le terme qu’ils utilisent pour décrire le mystère est « variabilité décennale ». Le rapport déclare clairement que « la variabilité décennale de l’élévation du niveau des océans reste mal comprise ». Si c’est vrai, pourquoi favoriserions-nous l’opinion selon laquelle le niveau des océans s’élève trop rapidement ?

    Si nous croyons que la Lune est la cause des marées de nos océans, nous devrions envisager la possibilité que la mystérieuse variation décennale du niveau des océans puisse être régulée par le cycle gravifique triple saros. Si ce cycle influence aussi la densité et le positionnement des nuages, les moussons pourraient être analogues aux « hautes eaux » dans l’atmosphère terrestre, et les sécheresses analogues aux « basses eaux ». Si l’atmosphère terrestre est régulée par le cycle gravifique triple saros, nous devrions être capables de suivre les sécheresses et de les prédire dans une certaine mesure ; et ce devrait être également vrai pour ce qui regarde les variations à long terme du niveau des océans que l’on nomme actuellement « variation décennale ».

    7 Contradictions dans les niveaux océaniques

    Alors que le rapport 2007 des Nations Unies contient de nombreuses affirmations à propos de la montée des océans, le rapport indique également  que des niveaux océaniques diminuent. Ainsi en 2007, les niveaux océaniques semblent s’élever sur une côte de l’Australie et baisser sur la côte opposée. Si les rédacteurs du rapport ne peuvent expliquer ce conflit, pourquoi devrions-nous accepter leur conclusion généraliste selon laquelle la quantité d’eau des océans s’accroît ? Pourquoi ne conclurions-nous pas que l’eau se déplace d’un point à un autre ?

    Des informations contradictoires affectent également une île proche de Fidji appelée Funafuti rendue célèbre par le film documentaire « Une vérité qui dérange ». Funafuti est également mentionnée dans le rapport 2007 des Nations Unies car l’île a été l’objet de quelques submersions. Le rapport onusien cite un article de chercheur qui estime la montée du niveau de la mer à Funafuti à 2 millimètres ± 1,7 millimètre par an. Cela signifie que la véritable élévation serait de 0,3 ou 3,7 mm. La différence entre les deux chiffres est de plus de 1200%, ce qui indique que les chercheurs ne savent pas si l’océan monte ou si l’île s’enfonce. Leur incertitude se complique du fait que la durée des enregistrements marégraphiques est très courte, durée qui, à l’époque du rapport, consistait en 14 années de données de qualité. Quatorze ans, c’est seulement 25% des 54 ans d’une période Triple Saros.

    8 Prévisions climatiques: régionales ou globales

    Si nous pouvons apprendre à utiliser le cycle gravifique triple saros pour suivre le décalage des sécheresses à travers les continents et la variabilité décennale des marées à travers les océans, nous pourrions finalement être capables de considérer les sécheresses et les gonflements océaniques comme des évènements régionaux et non globaux. Dans cette hypothèse nous devons éviter les calculs représentant des moyennes globales et nous pourrions au contraire nous concentrer sur les données brutes de chaque jauge marégraphique, pluviale ou de température sur une durée au moins égale à 54 ans. Nous devrions aussi envisager que l’occurrence d’une sécheresse à un endroit puisse correspondre à une mousson anormalement humide quelque part ailleurs sur la Terre, même au milieu des océans où elles ne peuvent pas nous affecter. Si nous pouvons nous arranger pour cesser de nous lamenter à propos des niveaux océaniques et à la place voir les fluctuations et gonflements comme des évènements naturels, nous pourrions découvrir qu’un niveau en augmentation dans une zone océanique coïncide parfaitement avec une diminution quelque part ailleurs, y compris dans l’autre hémisphère.

    9 Histoire du réchauffement global

    Pour ce qui concerne le réchauffement global, les enregistrements continus de température les plus anciens sont ceux de Central England. Les données semblent indiquer que la température moyenne de la Terre a augmenté d’un degré en trois cent cinquante ans, un tiers de degré par siècle. Mais si nous examinons le graphe de température sans le comparer à l’histoire mondiale nous ne voyons pas que les relevés de température commencent juste après que l’Europe ait connu les pires effets de ce qui est dorénavant connu comme « Le Petit Âge Glaciaire ». Ainsi auparavant, l’Europe était plus froide et plus humide. Aujourd’hui, l’Europe semble plus chaude et plus sèche. Ce qui suit est ma version triple saros de ce qui s’est passé.

    10 Spéculation théorique

    La durée d’une période triple saros est de 54 ans plus un mois environ. Cela signifie qu’une période pourra commencer en Janvier et se terminer en Février, 54 ans plus tard ; et une période qui commence en Février se terminera en mars, et ainsi de suite. . Par conséquent, le temps séparant deux périodes débutant en Janvier est presque de 595 ans. Si 595 est le nombre d’années séparant deux périodes froides, nous pourrions conclure qu’une période chaude doit intervenir au point milieu, soit à 298 ans dans le cycle.

    L’année la plus froide enregistrée par Central England fut 1695. Si nous théorisons que 1695 fut l’année la plus froide sur toute la Terre, le réchauffement devrait culminer 298 ans plus tard en 1993. S’accordant assez étroitement avec cette hypothèse, il y a les données climatiques appelées HadSST3 du service météo national du Royaume Uni. HadSST3 indique que l’année la plus chaude pour les océans du globe fut 1998, soit cinq ans après l’approximation de 1993 mentionnée plus haut.

    11 Climat: crainte et acceptation

    Les changements climatiques naturels ont toujours existé.  Sans les années bissextiles, l’hiver pourrait se trouver en juillet. C’est le travail de nos gardiens du temps d’effectuer des ajustements périodiques au calendrier afin que nous ne soyons jamais hésitants quant au moment de planter les récoltes. Le résultat de ces ajustements constants au calendrier est que nous nous attendons à ce que la météo de l’année suivante soit très similaire à celle de l’année en cours ; et lorsque le climat est mauvais, nous nous plaignons.

    La peur est une chose nécessaire – c’est un des instincts qui nous maintiennent en vie. Se préoccuper de l’environnement est également une qualité importante. Il n’y a pas si longtemps que chaque famille américaine avait sa décharge derrière la maison, et que nos rivières près des villes étaient polluées par les eaux usées et les déchets. Il est bon d’avoir la volonté de faire des changements pour nettoyer la Terre. S’il nous est possible de produire moins de pollution par le CO2 je pense  que nous devons le faire, mais je ne suis pas convaincu que le CO2 soit la cause du réchauffement climatique.

    Je ne suis pas celui qui prouvera que le triple saros gravifique est ou n’est pas le régulateur du climat terrestre, mais à l’heure actuelle je favoriserai l’idée selon laquelle le réchauffement de la Terre est un élément d’un processus naturel. Même dans le rapport 2007 des Nations Unies il y a une faible lueur d’espérance que les humains ne soient pas la cause du réchauffement global. L’extrait suivant en est un exemple :
    « … le déséquilibre actuel pourrait être un ajustement rapide à courte échéance, qui diminuera dans les décennies à venir ».

    Cette sorte de déclaration optimiste est rare dans les 1000 pages du rapport, mais cela indique que les rédacteurs savent qu’ils pourraient avoir tort à propos du réchauffement global anthropique.

    12 Perspective de SST

    1944 détenait le record de température de surface de la mer la plus élevée jusqu’en 1997. L’année la plus chaude pour la température marine de surface fut 1998. La différence entre 1944 et 1998 est de 54 ans.

    13 Conclusion et prévisions

    En me basant sur les cycles gravifiques triple saros, je prévois que la Terre est en phase de refroidissement.
    La prochaine année de température maximale de la surface des mers devrait être 2052. Les températures de surface de cette année-là devraient être très proches de celles de 1944.

    Le Dust Bowl revisitera l’Amérique du Nord de 2039 à 2045. La sécheresse du Midwest revisitera l’Amérique du Nord de 2060 à 2066.

    Ci-dessous, une image des températures globales pour Février 2013 d’après le service météorologique national du Royaume Uni. La couleur bleue correspond à des températures inférieures à la moyenne. La couleur rouge correspond à des températures supérieures à la moyenne. La gravitation triple saros devrait faire changer les couleurs de place et d’intensité selon un cycle de 54 ans.

    triple-saros-2a.jpg

    ———-

    Contains public sector information licensed under the Open Government License v1.0

    IPCC, 2007: Climate Change 2007: The Physical Science Basis. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change [Solomon, S., D. Qin, M. Manning, Z. Chen, M. Marquis, K.B. Averyt, M. Tignor and H.L. Miller (eds.)]. Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA, 996 pp.
    Kennedy J.J., Rayner, N.A., Smith, R.O., Saunby, M. and Parker, D.E. (2011b). Reassessing biases and other uncertainties in sea-surface temperature observations since 1850 part 1: measurement and sampling errors. J. Geophys. Res., 116, D14103, doi:10.1029/2010JD015218 (PDF 1Mb)
    Kennedy J.J., Rayner, N.A., Smith, R.O., Saunby, M. and Parker, D.E. (2011c). Reassessing biases and other uncertainties in sea-surface temperature observations since 1850 part 2: biases and homogenisation. J. Geophys. Res., 116, D14104, doi:10.1029/2010JD015220 (PDF 1Mb)

    Time series data file for sea surface temperatures: HadSST3_annual_globe_ts.txt

    @@@@@@

    Si les trains n’arrivent pas à l’heure …

     c'est bien connu, c'est de la faute du climat. Ainsi va l'histoire des idées, un nouveau concept surgit et tout se réécrit. Voici les meilleurs passages d'un article sur les trains qui n'arrivent  pas ou n'arriveront plus à l'heure … Le climat a bon dos …

    • • • • •

    NB : cet article tient compte des projections officielles françaises au niveau mondial (et non régionales) transmises au GIEC en février 2012. 2 à 6° d'augmentation sont prévues d'ici 2100.

    Les conséquences du changement climatique sur les conditions météorologiques en Europe sont d’ores et déjà bien identifiées dans leur typologie même si nous n’avons encore que peu d’éléments quant à leur
    intensité ou leur localisation exacte. Pour un pays comme la France, elles suggèrent notamment une multiplication des événements climatiques extrêmes : précipitations intenses, conduisant à des inondations ; canicules estivales ; épisodes de grand froid.

    ____________________

    Afin de réduire la vulnérabilité du système ferroviaire et plus généralement du système de mobilité, les grandes entreprises de transport et les pouvoirs publics ont commencé à définir une stratégie d’adaptation de leurs activités. Au Royaume-Uni, par exemple, 550 milliards de livres (611 milliards d’euros) devront être dépensés dans les infrastructures d’ici 2050 pour les adapter au changement climatique ; par exemple, un milliard de livres devra être consacré à la protection contre les inondations d’ici à 2035, une augmentation de plus de 80 % des dépenses actuelles dans ce domaine.

    _____________________

    Une réflexion stratégique de cette ampleur doit être menée avec les pouvoirs publics. En France, une étape décisive a été le Grenelle de l’Environnement (2007). Il a été décidé d’élaborer un Plan national d’adaptation au changement climatique (PNACC) pour différents secteurs d’activité, dont le domaine des transports.

    Le PNACC identifie diverses actions. Il s’agit notamment d’anticiper et limiter les dégâts éventuels par intervention ex ante sur les facteurs qui vont déterminer l’ampleur des dégâts (par exemple l’urbanisation des zones à risques). Mais l’enjeu est aussi d’organiser la remise en état rapide d’équipements qui auraient subi les impacts liés au changement climatique (par exemple rétablir rapidement la distribution électrique après un événement extrême).

    ______________________

    Certains éléments des travaux d'anticipation fait dans d'autres pays sont ensuite décrits.

    En Espagne.

    L’ADIF, gestionnaire des infrastructures ferroviaires espagnoles, a cherché à identifier et évaluer les risques posés par l’augmentation de la fréquence des inondations due au changement climatique et à déterminer le degré d’urgence des actions correctives éventuellement nécessaires. Onze études de risques d’inondations dans différentes régions espagnoles ont été réalisées : dans chaque cas, un zonage des risques d’inondations a été effectué afin de connaître a priori les portions de ligne affectées par des risques accrus d’inondation ou par les mouvements des bassins versants ; une analyse paramétrique des risques est effectuée en tenant compte du degré de probabilité du déclenchement d’une catastrophe par les mouvements de terrain ou l’action des eaux et de la gravité des endommagements ; ensuite, une étude détaillée des éléments des infrastructures ferroviaires (terrassements, ponts, tunnels) a été entreprise afin d’examiner l’impact d’une inondation sur l’état de chacune de ces structures et de mettre en œuvre les différentes stratégies et mesures pour prévenir ou atténuer les impacts, sans omettre le maintien de l’équilibre naturel du système hydrologique.

    Au Japon.

    Des mesures particulièrement intéressantes sont mises en place ou sont en cours de développement par Japan Railways (JR). JR Central a constaté une augmentation de la température des rails ces dernières années (plus de 60°C). Pour éviter le gauchissement de la voie, la maintenance des longs rails soudés et des joints de rail doit être renforcée. Les procédures de mesures, les méthodes pour la maintenance spécifiques pour cette période de l’année à forte chaleur sont mises en place par l’exploitant. Afin d’atteindre le « zéro accident » dû au gauchissement de la voie, les structures de voie nécessitant une maintenance renforcée sont identifiées ainsi que le type de maintenance à effectuer. La température maximale estimée, qui était fixée à 60°C, est modifiée à 65°C. Des changements dans la gestion des longs rails soudés par rapport à cette augmentation de la température sont étudiés par JR East. La révision des analyses du degré de sûreté au niveau des fixations de traverses est également étudiée. JR West met également en place des mesures pour prévenir le gauchissement de la voie. Un véhicule de maintenance avec caméra CCD pour détecter l’ouverture du joint a été développé. Des dispositifs pour la mesure d’écartement de la voie ont également été testés. JR Kyushu et JR Shikoku ont également mise en place une optimisation des opérations des changements des rails afin de diminuer les accidents lors de grandes chaleurs mais également les grands froids.

    Au Royaume Uni.

    JOurdanFR1
    (Source : Network Rail, octobre 2010)

    _______________________________

     Pour la SNCF.

    Le cœur de cette stratégie repose sur une série de mesures « sans regret », c’est-à-dire des mesures dont le bilan coût / bénéfice demeure favorable quel que soit le rythme d’évolution du climat.

    JOurdanFR2
    (Source : SNCF 2012)

    Nb : les infrastructures relèvent de Réseaux ferrés de France.

    (Source)

    @@@@@@