Le cycle du soleil basculé.

Voici 2 articles dont les liens ont été publiés sur le site consacré au soleil spacewheather.com à la date du 28 mars 2016.

Bernnard : « La météo spatiale » n’est pas sans influence sur celle de la terre comme vous allez le voir. Traduction par Scaletrans.

1  -Le soleil basculé.

Source

Par Madhulika Guhatharkurta et Tony Philips

Découvert il y a plus de 150 ans et minutieusement étudié depuis, le cycle du soleil est, d’une certaine façon, largement incompris.

Beaucoup de gens et certains scientifiques ont de l’activité solaire un point de vue simpliste et binaire. Le maximum solaire est une période active, marquée par des explosions massives et une météo spatiale dangereuse qui peut affecter les systèmes complexes sur Terre et dans l’espace, alors que le minimum solaire est une période de calme où il ne se passe presque rien.

Lire la suite

Pourquoi l’Europe se refroidira bientôt ?

Traduction par Scaletrans

Que sera le climat pour la Russie et l’Europe dans les 15-20 ans à venir ? Il y aura-t-il des anomalies climatiques dans les décennies à venir ? Certaines régions connaîtront-elles des hivers plus sévères, alors que d’autres auront des étés chauds ? Tout dépend de la mesure dans laquelle le climat sera affecté par l’arrivée possible d’un minimum de l’activité magnétique solaire. Le comportement du soleil dans les cycles futurs est le sujet principal d’une publication sur la prévision et l’explication d’un minimum d’activité solaire. L’article a été préparé avec des contributions de Elena Popova de L’Institut Skobeltsyn de Physique Nucléaire (Université Nationale Lomonosov de Moscou) et a été publié dans Scientific Reports. Lire la suite

Sur les modèles, chapitre 13476

Un nouveau commentaire, très difficile, de Robert G. Brown sur les modèles globaux du climat.

Par le Dr Robert G. Brown, de l'Université de Duke

Je ne devrais probablement même pas commenter du tout, comme je suis trop occupé pour commenter et pour continuer à discuter cette semaine (soupir), mais:

a) Les modèles prédictifs, non linéaires, avec des variables multiples nombreuses, sont l'un de mes jeux professionnels. J'ai une bonne expérience dans l'écriture personnelle de logiciels pour construire par exemple des réseaux neuronaux à base d'algorithmes génétiques optimisés, avec des centaines de données d'entrées différentes, construits pour prédire des comportements subtiles, fortement non linéaires et  hautement multivariées, à partir de, par exemple, grandes bases de données démographiques et transactionnelles. Lire la suite

AR5/Chapitre 11.

Suite des analyses de l'AR5.

• • • • •

Cacher la faillite.

WUWT (23/12/2012) David M. Hoffer

 

Les rapports du GIEC (AR1 à 4) avaient été publiés dans une relative obscurité. Le ClimateGate et l'émergence de la blogosphère comme le principal forum de débat sur l'intersection de la science et des politiques publiques a tout changé. L'AR4 en particulier a été examiné en détail, et totalement discrédité. Il était truffé de références à la littérature grise, d'affirmations, connues pour être fausses, et écrit d'une manière trompeuse avec des informations importantes  minimisées ou supprimées parce qu'elles ne correspondaient pas au récit.

Connaissant le niveau de contrôle que va recevoir l'AR5, je m'attends depuis un certain temps à que ce le GIEC déploie des efforts considérables pour conserver son récit alarmiste sans complètement ruiner leur crédibilité scientifique. Les projections à court terme (2016-2035) étant au chapitre 11, là où il y a le plus à perdre rapidement, me semble être le meilleur endroit pour voir comment les choses vont être gérées.

En effet, le chapitre 11 est littéralement truffé de mises en garde. Pour être juste, certaines d'entre elles sont légitimes. Les éruptions volcaniques par exemple, ne peuvent pas être prises en compte parce que nous ne savons ni quand,ni où, et ni quelle puissance. Par ailleurs, ils changent leur manière de faire car leurs projections sont basées sur une réduction importante des émissions d'aérosols au cours des prochaines années. Peut-être qu'ils ont des raisons légitimes de s'attendre à cela, mais avec la montée en puissance de la consommation de combustibles fossiles de pays comme la Chine, l'Inde et le Brésil à un rythme qui dépasse de loin la consommation du monde occidental, je trouve cela assez peu probable. Plus amusant, c'est cependant leur mise en garde répétée plusieurs fois que leurs projections ne peuvent pas être détectables en raison de la variabilité naturelle. Étant donné que les sceptiques ont été vilipendés pour avoir souligné que les données de température à ce jour sont bien comprises dans la variabilité naturelle, je trouve ça un peu hypocrite d'utiliser maintenant cette même variabilité naturelle pour protéger leur incapacité à démontrer clairement que les effets sur lesquels ils ont si longtemps insisté, étaient dominants, urgents et catastrophiques.

Mais les efforts du GIEC à vouloir protéger chaque projection d'un manteau de mises en garde peut très bien les conduire à leur perte. Les efforts considérables déployés à cet effet relèvent de l'anecdote amusante, mais pourrait bien se révéler des bombes. Voici un exemple du côté amusant de leurs efforts:

  • Il est fort probable que les valeurs de référence de l'ozone en surface (O3) changeront au cours du 21ème siècle, bien que les projections à travers les scénarios RCP, SRES, ou alternatifs pour différentes régions passe de -4 à 5 ppb en 2030 à de -14 à 15 ppb en 2100.

 

Pouvez-vous imaginer un expert financier à la télévision, annonçant avec un visage impassible, qu'après une analyse exhaustive, il est tout à fait sûr que dans un an, le NASDAQ sera, ou supérieur, ou inférieur au niveau actuel ? Pour être juste, je pense qu'ils ont mal formulé ce qu'ils voulaient dire, mais c'est loin d'être le seul exemple. L'AR5 a fuité en premier lieu à cause de la façon dont est traitée la variabilité solaire. Bien que ce prochain extrait du chapitre 11 soit amusant, le point considéré est plus grave:

  • Comme on le verra dans la section 8.2.1.4.1, des données satellitaires récentes (Harder et al., 2009) ont montré que la diminution dans les longueurs d'onde UV de la phase récente de déclin du cycle solaire était bien plus importante que prévue. Les variations d'UV solaires déterminent la chimie stratosphérique de l'ozone et peut changer le forçage radiatif (FR). Haigh et al. (2010) montrent que si ces observations sont exactes, elles impliquent une relation inverse entre le FR solaire et l'activité solaire au cours de cette période plus importante que ce qui a été jusqu'à présent estimé. Ces nouvelles mesures augmentent ainsi l'incertitude des estimations du signe de l'énergie solaire FR, mais elles ne sont pas susceptibles de modifier les estimations de l'amplitude maximale absolue de la contribution solaire au FR, qui reste faible (chapitre 8). Cependant, elles suggèrent la possibilité d'un impact beaucoup plus important de variations solaires sur la stratosphère qu'on ne le pensait, et certaines études émis l'hypothèse que cela pourrait entraîner d'importantes répercussions régionales sur le climat (tel que discuté dans 10.3.1.1.3), qui ne sont pas nécessairement reflétés par la métrique RF (voir 2.8.16).

 

En essayant de résumer :
1. Les données d'observation suggèrent qu'ils font de la physique totalement à l'envers
2. En dépit du fait qu'ils sont sûrs que la quantité de changement est faible …. toutefois
3. Il peut en résulter des effets régionaux plus marqués que prévu.

Que dire ? Ils pensent que la physique est changée, mais nous devons rester confiants, penser que l'ordre de grandeur est de faible ampleur mais que les impacts pourraient être plus importants de toute façon … Tout comme pour l'ozone, leur rédaction comporte tant de mises en garde préventives qu'ils ne se tromperont jamais complètement quoiqu'il arrive. Quant à savoir ce que sont les effets réels …. la seule conclusion que je peux en tirer est qu'ils ne le savent pas vraiment.

Mais ce dernier exemple est, à mon avis en tout cas, le plus flagrant de tous. Il concerne les modèles climatiques eux-mêmes. En utilisant les dates initiales telles que 1960, ils entrent dans les détails expliquant comment les modèles reflètent bien les indices climatiques réels observés jusqu'à présent. Ils parlent ensuite de diverses techniques pour les rendre plus précis, dont l' "initialisation". Sans entrer dans les détails de ce qu'est l'initialisation, voici un extrait assez surprenant :

  • Il est considéré avec un accord élevé que l'initialisation améliore grandement plusieurs aspects du climat (comme les SST de l'Atlantique Nord avec plus de 75% des modèles d'accord avec l'amélioration du signal), mais il y
aussi un accord élevé qu'elle peut aussi en  dégrader d'autres (comme les températures du Pacifique équatorial).

Je n'ai aucune idée de la quantité d'avertissements nécessaires à les sauver du naufrage dans le cas suivant. Mais je dois le reconnaître, ils essaient:

  • Comme indiqué dans la 11.3.1, la plupart des projections présentées dans 11.3.2-11.3.4 sont basées sur le scénario RCP4.5 et s'appuient sur la propagation parmi les chances de l'ensemble CMIP5  comme une mesure ad hoc de l'incertitude. Il est possible que le monde réel puisse suivre un chemin extérieur (au-dessus ou au-dessous) de l'amplitude prévue par les modèles CMIP5. Une telle éventualité pourrait se produire si il y a des processus opérant dans le monde réel qui ne figurent pas dans, ou sont insuffisamment représentés dans les modèles. Deux possibilités principales doivent être considérées: 1) les forçages radiatifs à venir et les autres forçages peuvent diverger par rapport au scénario RCP4.5 et, plus généralement, pourraient tomber en dehors des scénarios RCP; 2) la réponse du système climatique réel  aux forçages radiatif et autres peut différer de celle prévue par les modèles CMIP5. Une troisième possibilité est que les fluctuations internes dans le système climatique réel sont mal simulées dans les modèles.

La question est que lorsque vous ajustez un modèle, une partie devient plus précise et une autre partie le devient moins (comme cela arrive avec leurs techniques d'initialisation). Cela montre bien que les modèles souffrent justement de ces problèmes. C'est la preuve qu'il existe des facteurs dans le monde réel qui sont mal modélisés ou totalement absents des modèles. Étant donné que dans ce même chapitre du GIEC, cela devrait être une conclusion assez évidente car il y est admis qu'ils ont eu tort en premier lieu d'ignorer la physique de la variation du rayonnement solaire alors qu'ils n'auraient pas dû, puis en l'incluant mais en obtenant un effet complètement inversé. En fait, le chapitre 11 suggère également que les modèles sont en difficulté avec les aérosols, avec la variabilité multi-décennale de l'Atlantique, la variabilité décennale du Pacifique, l'oscillation Pacifique inter-décennale et la circulation de Walker.

En bref, la preuve que les modèles donnent les bonnes réponses pour des mauvaises raisons leur saute au visage. Les modèles peuvent faire la climatologie correcte, mais seulement pour les années avec des données. En bref, ils peuvent utiliser les données de 1960 pour obtenir celles de 2012, mais seulement parce que la réponse et les ajustements à faire sont connus pour 2012. Lorsque ces mêmes modèles essayent de faire des projections dans l'avenir, et que nous attendons quelques années qu'il se réalise (les projections de l'AR4 à partir de 2007 par exemple sont déjà hors des clous pour 2012), la question devient vraiment évidente. L'AR4 a suggéré que si aucun réchauffement n'apparaissait pendant 15 ans, alors les modèles étaient probablement faux. L'AR5 semble confirmer qu'ils ont en fait, tout faux en entourant leurs projections avec tant de réserves qu'une ère glaciaire ou une combustion spontanée pourraient être comprises dans les marges d'erreur indiquées.

Bien sûr, ce n'est pas la version finale. Seul le temps dira comment ces questions seront abordées maintenant qu'elles sont sur la table. Mais le caractère artificiel et la densité des mises en garde conduisent à rendre évident ce dont ils essayent de se protéger.

Le chapitre 11 est disponible ici.

 

@@@@@@

Pas d’effet mesurable /1

Un astrophysicien expose ses vues sur la théorie conventionnelle de l’effet de serre.(extraits). Traduction de MichelLN35.

• • • • •

(Source)
Discussion sur l'absence d'un effet mesurable de l'effet de serre.

Joseph E Postma, M.Sc. Astronomy

Résumé: Une faille contextuelle soutenant l’interprétation d’un effet de serre par retro-action radiative est identifié. Des données empiriques en temps réel venant d’une station de mesure climatique sont utilisées pour observer l’influence de « l’effet de serre » sur les profils de températures. Une équation différentielle ordinaire de conservation de l’énergie calorique incluant « l’effet de serre » est développée pour indiquer les profils de températures attendus en présence d’un « effet de serre ». Aucun « effet de serre » n’est observé dans les données mesurées. La chaleur latente de H2O est identifiée comme le seul phénomène piégeant la chaleur puis elle est modélisée. Une discussion sur l’existence de principes universels est utilisée pour expliquer pourquoi des arguments simplistes ne peuvent pas être employés pour justifier l’effet de serre.
• • • • •
Voici quelques extraits de l'article de J. Postma.

1.1. Le problème et la vérité, sur l’albédo.

Une tentative bien connue de réfutation du postulat de « l’effet de serre atmosphérique » (GHE) a été trouvée dans Gerlich & Tscheuschner [1] « Réfutation de l’effet de serre du CO2 atmosphérique dans le cadre de la physique ». Une des critiques de cet article a été celle de Smith’s [2] « Preuve de l’effet de serre atmosphérique ». Le défaut commun de ces deux articles est qu'aucun véritable test empirique ne fut donné pour les deux positions,  au-delà de la qualité de l’utilisation des principes de la physique dans chacun des deux textes. Généralement, l’inférence d’un GHE est faite en comparant la température moyenne de l’air près de la surface de la Terre à sa température globale réelle de radiation calculée à partir de l’énergie absorbée du soleil : il y a une différence de 33K.

Il y a une faille contextuelle dans cette inférence car l’albédo terrestre moyen est beaucoup plus élevé que le véritable albédo de surface en raison de la présence de nuages dans l’atmosphère, donnant un albédo terrestre approximativement de 0.3, alors que le véritable albédo de surface est en réalité de seulement 0.04 [3]. De fait, sans les gaz à effet de serre, l’albédo ne serait pas de 0.3 mais de 0.04. La surface physique n’est pas là où se trouve l’albédo terrestre moyen de 0.3, ainsi la comparaison directe des températures en utilisant le même albédo est infondée, parce qu’un système est comparé à un système qualitativement différent avec des propriétés d’absorption (et probablement d’émissivité) différentes. Mais pour prendre un exemple trivial, dans ce manuel en ligne [4], nous pouvons lire :

  • « La température de surface de la Terre sans les gaz à effet de serre serait de 255K. Avec ces gaz, la température moyenne de surface est de 288K. Notre réchauffement total par effet de serre est de 33K. »
Cependant, sans gaz à effet de serre, l’albédo ne serait pas de 0.3 qui conduit aux 255K. L’albédo réel serait de 0.04. Donc, une comparaison valide est en réalité trouvée entre la température théorique de l’ensemble "terre sans gaz à effet de serre" (GHG : greenhouse gaz) et l'albédo correct qui correspond, avec la terre avec ses gaz à effet de serre et l’albédo associé. Dans cette comparaison signifiacative du ploint de vue physique, la différence de température entre la surface du sol théorique et la surface observée avec par dessus une atmosphère avec ses GHG, est seulement de 12°C, réduisant de presque les deux tiers l'effet attribué aux gaz à effet de serre. Il en résulte que la température moyenne globale de surface sans gaz à effet de serre, calculée en utilisant la méthode de la loi de Stefan-Boltzmann avec conservation de l’énergie étant donné le rayonnement solaire et l’albédo de surface spécifique, serait de 276K. La température moyenne de surface observée en présence de GHG est en
fait de 288K (15°C), ainsi l’effet de serre ne devrait en réalité
compter que pour les 12K additionnels et non les 33K qui sont toujours
incorrectement mentionnés.
Il devrait être noté que l’albédo, bien plus élevé en présence de GHG, est dû à la présence de nuages de gouttelettes de condensation du GHG vapeur d’eau. Ceci réduit la quantité de rayonnement solaire absorbée par le système et donc doit réduire la température, en dépit de l’effet réchauffant du GHE lié à la présence de la vapeur d’eau. On doit donc alors se demander : quelle serait la température théorique de la surface de la terre, avec les GHG en y incluant la vapeur d’eau mais sans formation de nuages ? Sans connaître (comme ci-dessus) le mécanisme du GHE et comment en tenir compte, nous ne pouvons répondre directement à la question, mais elle devrait au moins être supérieure à 276K, comme ci-dessus, étant donné que l’albédo n’est pas réduit par les nuages. Cependant, la réponse peut être simplement et facilement testée empiriquement les jours où il n’y a pas de nuages. Ce sera fait plus loin dans ce rapport. (NdA : partie non traduite). Sans l’effet refroidissant par augmentation de l'albédo des nuages au dessus de la surface (ils empêchent le chauffage dû à l’ensoleillement), le GHE devrait se manifester plus clairement. Nous devons aussi reconnaître que bien que la part principale de l’albédo terrestre soit due aux sommets des nuages, en altitude, nous ne pouvons toujours pas directement inférer que la température de 255K en présence de nuages devrait être présente au niveau de la surface physique, qu’il y ait ou non un GHE, parce que la surface radiative avec un albédo égal à 0.3 ne se trouve pas en surface. Il y a une dimension verticale qui affecte l’interprétation et doit être prise en considération. Martin Herzberg ajoute un détail supplémentaire [5], sur le fait que traiter l’émissivité comme valant l’unité de façon à obtenir « l’erreur de la terre froide » est aussi injustifié :
  • « Puisque la majorité de l’albédo est due au couvert nuageux, il est impossible pour la terre de rayonner vers l’espace à une émissivité unitaire si 37% de ce rayonnement est réfléchi vers la terre, ou absorbé par la base de ces mêmes nuages. Même pour ces parties de la Terre qui ne sont pas couvertes par des nuages, supposer que la surface océanique, les surfaces continentales ou les couverts de glace et de neige auraient des émissivités unitaires est déraisonnable. Ce faisceau de suppositions – conduisant à des températures moyennes de la Terre voisines de zéro – est montré dans la Fig. 1 ; et est connu comme l’erreur de la terre froide. »

Une seconde ambiguïté associée est que la valeur de 33K de « GHE » est une température radiative de corps noir effective calculée comme si elle devait être observée de l’extérieur du système (de l’espace), selon un spectre d’émission intégré, comparée à une température cinétique spécifique mesurée à une seule position en profondeur à l’intérieur de l’ensemble thermodynamique et radiatif. La température cinétique de 255K est trouvée en fait à l’altitude moyenne d’émission de l’énergie sortant de l’ensemble terrestre, en fait entre 5 et 6 km [6]. En terme de radiations, la surface de la terre n’est pas la surface rayonnante, et donc nous ne devrions pas nous attendre à ce que la surface terrestre ait cette température. En termes de surface rayonnante, la température de la Terre comme ensemble thermique intégré incluant donc l’atmosphère, comme vue de l’espace, a exactement la même valeur que la température effective de corps noir issue d’un calcul théorique. La terre, au regard de son seul moyen d’échange d’énergie – le rayonnement – est exactement à la température à laquelle elle est supposée être. Mais pour la plupart des systèmes gazeux naturels avec une gravité centrale, tels que les étoiles, il y aura une température de corps noir effective, tandis que la température cinétique du gaz suit une distribution, dans les principales couches radiatives, qui croît avec la profondeur ; voir Gray [7], table 9.2, par exemple. Ceci est vrai pour les étoiles car la source d’énergie est au dessous des couches radiantes ; cependant, la même chose est vraie pour l’atmosphère terrestre parce que la source principale d’énergie calorique, de la même façon, vient du rayonnement solaire engendrant de la chaleur dans la couche la plus profonde de l’atmosphère, à la frontière entre la surface et l’atmosphère. (Une partie du rayonnement solaire est absorbée directement dans l’atmosphère; voir [8] et [9] par exemple). Et ainsi, parce que la surface terrestre est le lieu où la chaleur du soleil est (en majorité) initialement déposée, qu’elle trouve ensuite son chemin à travers l’atmosphère par conduction et rayonnement, on s'attend à ce que la surface et les basse couches soient plus chaudes qu'en moyenne, les couches moyennes et supérieures. Ce fait est particulièrement pertinent quand on considère le potentiel maximum de réchauffement de la lumière solaire sous le soleil au zénith : pour un albédo, disons de 15% et sans nuage, la température d’insolation réelle s’établit à ~378K ou 105°C, par la loi de Stefan-Boltzman. De fait, la température moyenne potentielle instantanée par la lumière solaire sur toute la surface éclairée d’un hémisphère, en supposant un albédo de 0.3, a une valeur moyenne moyennée sur l’hémisphère de 322K ou +49°C.

Notons que la température moyenne sur les deux hémisphères n’est en réalité à la surface que de +15°C. Parce que cette énergie est initialement déposée dans les quelques premiers millimètres de surface des terres (pour l’océan, la plupart du rayonnement solaire est absorbé sur 200m de profondeur), et que de ce fait, c’est le seul endroit où l’insolation est convertie en chaleur, il est justifié de trouver que la surface est plus chaude que la moyenne intégrée de l’ensemble thermodynamique atmosphérique au-dessus d’elle qui conduit la chaleur au loin, de la même manière que le problème classique du barreau chauffé à une extrémité. La température effective de radiation du corps noir, étant une somme intégrée de l’émission à toutes les longueurs d’onde et de tous les points le long de la profondeur optique (i.e. physique) de l’atmosphère, requiert nécessairement que des températures cinétiques plus élevées que la moyenne radiative soient trouvées en dessous de la profondeur d’émission radiative moyenne, essentiellement en raison de la définition mathématique de ce qu’est une moyenne intégrée, et indépendamment de tout « GHE ».

(A suivre)

@ @ @ @ @ @