L’effet de serre est-il indubitable ?

Par Pierre Beslu

(version en PdF à télécharger)

L’Effet de serre est-il indubitable ? Est-il un phénomène physique bien connu ou une vue de l’esprit ?

Le phénomène d’effet de serre est mis en avant par tous les tenants du consensus autour des positions du GIEC(ou IPCC). Il serait physiquement fondé depuis un siècle et aussi sûr que 2+2 font 4. Même si cela reste des affirmations sans démonstration, la position consistant à le nier est complétement à contre-courant et choque un grand nombre de gens et même de nombreux «climatosceptiques», par exemple cette attitude est dénoncée par Roy W. Spencer.

Tout d’abord spécifions que personne ne conteste les propriétés des gaz et en particulier leur capacité d’absorption dans certaines plages de longueurs d’onde dans le domaine infra rouge (IR) ni d’ailleurs ne conteste les équations de transfert radiatif. Nous y reviendrons.

Quant à l’effet de serre, lui-même, il faut avouer que les fondements de ce mécanisme sont de fait un sujet délicat. D’abord parce qu’il existe plusieurs définitions de l’effet de serre. On en dénombre au moins une vingtaine dans les manuels universitaires, les rapports de l’IPCC et ceux de différents instituts ou des sociétés météorologiques. Il faut donc se mettre bien d’accord au départ. Citons quelques-unes de ces définitions pour fixer les idées :

  • La vitre de la serre : dont même le GIEC reconnaît aujourd’hui que dans une serre horticole l’effet radiatif n’est pas significatif : la température plus élevée qu’à l’extérieur a pour cause l’isolation apportée par la vitre qui évite les pertes de chaleur et d’humidité par convection soit les échanges entre l’air intérieur et extérieur.
  • La molécule de gaz (dit à effet de serre) absorbe les photons venant de la surface qu’elle réémet (sic!) moitié vers le haut et moitié vers le bas ».
  • L’effet de serre = différence entre le flux rayonné par la surface vers l’air et le flux rayonné par l’air vers le cosmos.
  • L’effet de serre = rayonnement de l’air vers la surface qui la réchauffe.

Le dénominateur commun de tous ces modèles est néanmoins le fait qu’ils font tous plus ou moins appel à la «rétrodiffusion» (backscattering) des IR émis par la terre (le sol et les océans). Les termes «Rétrodiffusion ou Backscattering» comme d’ailleurs la «réémission» étant, on le verra, des abus de langage néanmoins pratiques et couramment utilisés.

Mais en plus du trouble apporté par la diversité de ces définitions, les scientifiques qui les utilisent, leurs dénient eux-mêmes, tout fondement physique «Il ne faut pas, dit l’un d’eux, utiliser les modèles présentés habituellement comme supportant la théorie car ce ne sont que des petits modèles simples et grossiers qui conduisent, au niveau des applications, à des imperfections; ils sont destinés au grand public et n’ont qu’un intérêt didactique.» Par exemple, MM Dufresne et Treiner dans leur article [1], bien que constatant que ces modèles donnaient des résultats éloignés de la réalité, rejettent ceux-ci surtout parce qu’ils sont incapables d’expliquer le rôle du CO2 dans le réchauffement. Ils proposent alors et ce ne sont pas les seuls, un modèle ne faisant plus du tout appel à la «rétrodiffusion» des IR à partir de la troposphère mais qui prend, en revanche, en compte l’existence du gradient vertical de température atmosphérique (lapse rate) qui dépend lui des capacités calorifiques de l’atmosphère et de l’accélération de la pesanteur. Plus rien à voir donc avec l’EDS radiatif quelle qu’en soit la définition. Ils continuent pourtant, sans vergogne, à appeler leur modèle «Effet de Serre». Cela pour eux parce que ce qui est raconté aux décideurs et au public n’est que de la communication et ne correspond pas à la réalité. Ce qui compte ce sont les équations utilisées dans les codes GCMs. Et comme ce changement de paradigme n’entraîne bizarrement aucun changement dans les équations ni dans les conditions aux limites, ni dans les données d’entrée, pourquoi changer de nom le phénomène ?

Cette vision nous oblige à nous intéresser aux équations entrées dans les modèles GCMs et qui, pour eux, sont finalement les seules à définir correctement l’effet de serre de l’atmosphère terrestre. Ce sont les mêmes équations que celles utilisées pour les atmosphères des étoiles que l’on trouve dans de nombreux cours dans toutes les langues. C’est sans doute pourquoi, je suppose, les conférenciers sur le sujet affirment que le fondement de l’effet de serre est bien établi. Rien à dire, en effet, sur ces équations sauf que leur transposition à l’atmosphère terrestre nécessite un minimum d’adaptation. J’ai montré dans un papier précédent [2] , les erreurs faites lors de ce passage des étoiles aux planètes. Mais tout le monde n’est pas familier avec le langage mathématique, et je vais donc tenter ci-après d’arriver au même but sans avoir recours à ce langage.

Atmosphère stellaire

De manière générale, un flux de photons Fν est défini par la puissance qui traverse dans toutes les directions une surface unité, par intervalle d’unité de fréquence.

Pour relier la quantité de gaz absorbeur d’IR à ce flux d’énergie, le paramètre approprié est la profondeur (~épaisseur) optique Τν qui peut être obtenue à partir de la loi de Planck.

Notons qu’elle décroît vers l’observateur situé bien sûr à l’extérieur de l’étoile.

La couche d’une atmosphère stellaire est opaque et donc le milieu est semi-infini, ce qui permet de définir des conditions aux limites en se basant sur le fait qu’il n’y a pas de rayonnement entrant à la surface extérieure :

Le calcul du rayonnement sortant à la surface des étoiles a constitué, l’une des tâches les plus ardues de l’astrophysique et pendant plus de cinquante ans, les astrophysiciens ont travaillé à la solution de cette équation, en utilisant diverses approximations. Ils sont aidés aujourd’hui pour obtenir des résultats précis par les gros ordinateurs Sur le plan qualitatif, il résulte, entre autres, des équations de transfert :

  • que le flux et l’intensité sortant sont approximativement égaux à la fonction source dans les couches superficielles de l’étoile, c’est à dire celles où Τν ≤ 1
  • que les couches plus internes ne contribuent donc pas au rayonnement sortant, la fonction source y étant absorbée exponentiellement.

Par ailleurs, il est clair que si l’intensité est isotrope, le flux est nul ; ce qui est le cas à l’intérieur d’un Corps Noir.

Atmosphère terrestre

Pour traiter l’atmosphère terrestre, les modélisateurs se donc sont servis des mêmes équations de transfert radiatif. Mais ils se sont heurtés à une difficulté qui est que la loi de Planck à partir de laquelle la profondeur optique peut être obtenue ne traite que d’un rayonnement monochromatique c’est-à-dire ayant une fréquence ν ou une longueur d’onde λ donnée alors que le spectre émis par la Terre s’étend sur plusieurs ordres de grandeur. Pour pallier à cette complication, ils ont eu recours, à une profondeur optique globale simulée équivalente. Une telle profondeur optique est calculée en intégrant sur tout le spectre, raie par raie, et sur un hémisphère couche par couche, la transmittance monochromatique directionnelle. On utilise pour cela, en amont, des codes de calculs indépendants.

Cette manière de faire conduit à établir un rayonnement équivalent, simulant l’ensemble du rayonnement terrestre ; l’atmosphère n’est alors pas totalement opaque pour ce rayonnement simulé (la profondeur optique correspondante est de l’ordre de 1.9 soit une transmittance d’environ 15% voire moins) parce qu’il existe un domaine de longueurs d’onde dans lequel l’atmosphère est transparente qu’on appelle la fenêtre atmosphérique. Ce milieu, c’est-à-dire l’atmosphère pour ce rayonnement équivalent, ne peut donc pas être considéré comme semi infini et opaque mais bien fini et semi-transparent.

Or dans leur transposition des équations de l’atmosphère stellaire à l’atmosphère terrestre, nos modélisateurs n’ont pas tenu compte de ce changement fondamental. Cela les conduit à des résultats éloignés de la réalité (voir l’article de Dufresne et Treiner déjà cité [1]) et surtout à des paradoxes voire des aberrations que je mets en exergue dans mon papier sur les équations de l’EDS [2].

On pourrait penser que la seule prise en compte des bonnes conditions aux limites permettrait de justifier l’EDS (le remettre sur les rails) et de mieux décrire la réalité. Une telle opération supprime certes les «paradoxes» mais montre que l’EDS radiatif seul est insuffisant pour rendre compte de la température au niveau de la surface de la terre. Ceci est normal puisque ce modèle ignore totalement les échanges de chaleurs autres que radiatifs soit la conduction, la convection, les changements d’état qui sont prépondérants au niveau de la troposphère [3] en particulier l’évaporation et la condensation de la vapeur d’eau dans les nuages.

Il faut donc, d’une manière ou d’une autre, faire entrer la thermodynamique dans le jeu. Dufresne et Treiner toujours eux, distinguent dans l’atmosphère trois couches ; une première couche totalement opaque en IR qu’ils baptisent aveugle, une deuxième semi-transparente qui laisse sortir de plus en plus d’IR au fur et à mesure qu’on monte en altitude, puis une zone transparente au sommet de l’atmosphère.

Cela leur permet de définir également une surface équivalente où il n’existe plus que deux couches la plus basse totalement opaque et la plus haute totalement transparente. Cette surface (équivalente et fictive) est située aux alentours de 5000 m d’altitude et correspond à l’endroit où s’équilibre le flux solaire onde courte et le flux IR émis vers l’espace par le système terre.

Si on regarde de plus près la figure donnant l’épaisseur optique de la vapeur d’eau et du gaz carbonique, on voit que l’épaisseur optique de l’air va surtout dépendre de la quantité de vapeur d’eau sauf dans la « fenêtre atmosphérique» soit entre entre 750 cm-1 et 1180 cm-1 (8.5<λ<12.5 µm la vapeur d’eau »).

La vapeur d’eau est présente surtout dans les basses couches (au-dessus il fait trop froid et même elle se condense) alors que le CO2 est en proportion a peu près uniforme sur toute la hauteur de l’air.

Sachant qu’on peut considérer que l’air est opaque dès que l’épaisseur optique est plus grande que 3, c’est-à-dire partout sauf entre 750 et 1180 cm-1, il est possible de traiter à part cette plage (par exemple en l’intégrant dans l’albédo) et de considérer que l’atmosphère est totalement absorbante pour le reste du spectre IR.

Dans ce cas, nous sommes revenus à quelque chose de voisin de l’atmosphère stellaire (sauf que dans une étoile, l’atmosphère est uniquement chauffée par le bas) et il en résulte que les couches plus internes ne contribuent donc pas au rayonnement sortant et qu’à l’intérieur de ces couches le flux qui peut être considéré comme isotrope, est nul.

Rappelons d’ailleurs qu’un corps opaque ne conduit pas de chaleur par voie radiative.

Au-dessus, le flux et l’intensité sortant de l’atmosphère terrestre provient des couches les plus élevée c’est à dire celles où Τν ≤ 1. Dans cette couche «superficielle», on peut donc appliquer les équations de transfert. Mais comme on l’a dit, cela est insuffisant car il faut aussi tenir compte des échanges gouvernés par la thermodynamique.

En revanche, au sommet de l’atmosphère (TOA) et en première approximation au sommet de la troposphère, le transfert de chaleur est uniquement radiatif. L’utilisation des équations de transfert s’impose alors et cela est d’autant plus facile qu’en raison du fait qu’il n’y a plus de flux descendant et que Τν = 0, la résolution est simplifiée et conduit à une température d’environ -56 °C (218 °K). Cette température du haut de l’atmosphère qui rayonne vers le cosmos et que le mouvement de l’atmosphère et de la vapeur d’eau égalise efficacement, peut être considérée comme une température de référence.

Comme par ailleurs la thermodynamique nous indique que dans l’atmosphère moyenne «standard», le gradient de température en fonction de l’altitude (vérifié chaque jour par les aviateurs) est d’environ 6.5°C par km, (+ en descendant et – quand on s’élève), en déduire la température effective au niveau de la mer est quasi immédiat.

On peut, si on préfère, partir de la couche équivalente dont il a été question plus haut et également adoptée dans les rapports du WG1 du GIEC situé à environ 5000 m d’altitude soit assez proche de Τ= 1 L’équilibre des flux et l’application de l’équation de Stephan valable ici implique une température voisine de -18 °C (255 °K). Là encore, l’utilisation du gradient dit «adiabatique humide [4]» impose la température au niveau du sol. Dans les deux cas, on obtient une température très proche mais légèrement supérieure à la température de 14,5°C donnée pour la température moyenne annuelle globale par les divers instituts. C’est pourquoi, de manière lapidaire et en guise de résumé, il me semble possible d’écrire qu’il n’y a pas (plus) de place pour l’effet de Serre radiatif ou alors de manière très marginale.

Mais si cela est vrai quid de l’EDS radiatif ?

Passons rapidement en revue les différentes définitions de ce mécanisme cité ci-dessus.

  • On a vu que le modèle de la vitre qui est placé dans le vide (!), et qui donne pourtant son nom au phénomène, était inadapté. De plus, dans ce modèle, le flux rayonné par la vitre vers le sol est à peu près la moitié du flux qui dans la réalité est rayonné par l’air vers le sol comme on peut le constater sur n’importe quel diagramme du type de ceux de Trenberth.
  • Le modèle de la «molécule de gaz» qui vise, sans doute, à justifier la vitre de la serre qui elle aussi «réémet» les IR terrestres moitié vers le haut et moitié vers le bas n’est pas plus fondé car jusqu’à 50 km d’altitude l’excitation des molécules de gaz comme H2O ou CO2 par une collision [5] conduit de temps en temps à l’émission d’un photon mais avec une répartition spectrale de ces photons donnée par la température de l’air à cette altitude ; Et sauf pour Τ ≤ 1, près du sommet de l’atmosphère (TOA), les molécules de gaz «trace» absorbent à peu près autant de photons venant du dessus que de photons venant du dessous.
  • L’EDS définit comme différence entre le flux rayonné par la surface et le flux rayonné par l’air vers le cosmos ne tient pas plus puisque ce qui compte en transfert de chaleur est le bilan net « absorbé par l’air venant de la surface moins émis par l’air absorbé par la surface » ou « absorbé par l’air venant du cosmos et émis par l’air et reçu par le cosmos » ; le bilan net entre air et surface est donc nul [6]. De plus le flux rayonné par le globe vers le cosmos est très fluctuant mais ne montre pas de « piégeage » par le CO2 dont la teneur est, en 40 ans, passée de 330 à 400 ppm ? De 1974 à 2014, on observe au contraire une légère croissance (+2 W/m² pour la droite de régression par rapport aux ppm de CO2).
  • L’effet de serre comme rayonnement de l’air vers la surface qui réchauffe la surface, est également à rejeter car :
  • Il revient à admettre qu’un rayonnement quel qu’il soit pourrait chauffer sa propre source. Il y aurait là un brevet à prendre !
  • Un transfert naturel de chaleur d’un corps plus froid (l’air) vers un corps plus chaud (la surface) est contraire au second principe de la thermodynamique.
  • Là encore, le rayonnement de l’air vers le sol ne saurait « réchauffer » le sol puisque le bilan net absorbé moins rayonné, entre l’air et la surface est légèrement négatif pour la surface et positif pour l’air ; le rayonnement de l’air vers la surface dans la fenêtre de la vapeur d’eau vient en effet d’une altitude de quelques kilomètres (sauf nuages bas) qui est généralement plus froide que la surface.

De plus l’effet de serre utilise, bien entendu, la loi de Stéphan Boltzmann pour les gaz, loi qui a été établie pour les corps noir; Or il absurde de dire qu’un gaz peut être « modélisé » comme un corps noir car un gaz n’absorbe et ne rayonne que sur certaines raies et bandes de fréquences optiques, le CO2, par exemple, sur seulement 150 cm-1.

On oublie, aussi, la dualité onde corpuscule du rayonnement. Or quand un rayonnement est absorbé par exemple par le sol ou l’océan, sa nature corpusculaire «prend le dessus». La quantité de mouvement du photon correspondant est donné par p=h/λ=hν/c où h est la constante de Planck et c la vitesse de la lumière. La loi de conservation de la quantité de mouvement appliquée au système «matière (particule) + photon incident», montre que non seulement ce dernier ne peut réchauffer la matière mais au contraire la refroidit si sa «température» est inférieure à celle de la matière (particule) choquée ! Le rayonnement, ce qui est rassurant, obéit donc lui aussi à la deuxième loi de la thermodynamique !

D’ailleurs que l’on parte des équations classiques de transfert radiatif ou des équations de Planck et de quantité de mouvement, description du phénomène et équations s’accordent et permettent d’affirmer qu’un CORPS RÉEL est chauffé uniquement par les fréquences qu’il ne peut pas émettre et doit alors stocker l’énergie correspondante sous forme de chaleur.

Il faut ajouter enfin que dans les modèles défendus par le GIEC, l’augmentation de l’effet de serre par accroissement (doublement) de la concentration du CO2 est insuffisante pour provoquer les augmentations de températures apocalyptiques de 4 à 6°C (la valeur de la sensibilité climatique est au mieux de 1.1 °C) qu’on nous promet. Ils ont besoins et donc supposent que la vapeur d’eau amplifie l’effet-de-serre du CO2 via une contre-réaction positive contraire au principe de modération de Le Chatelier et contraire à ce qui peut être observé par exemple en 1998 lors du super el niño ! Ce mécanisme proposé est d’autant plus surprenant qu’il devrait entrainer logiquement un emballement de l’effet-de-serre (« runaway greenhouse effect ») [7].  Une perturbation (un forçage) devrait, suivant son sens, c’est à dire amplifié par une rétroaction positive, conduire donc rapidement, à une terre sans glace, ou à une terre entièrement recouverte de glace (Terree boule de neige, c’est, je crois, une difficulté que rencontrent les modèles GCMs).

Alors qu’au contraire, le système, on le voit bien, agit heureusement comme un climatiseur.

Tous ces points condamnent les raisonnements purement radiatifs et plus généralement les modèles employés.

Discussion

Le terme d’effet de serre aurait dû être abandonné dès qu’il a été reconnu que le mécanisme envisagé n’avait rien à voir avec une serre horticole. Le conserver, ouvrait la porte aux ambiguïtés et permettait de ne pas changer de nom quand on change pourtant totalement de mécanisme de réchauffement (voir l’article de Dufresne et Treiner).

Dans ces conditions et compte tenu de tout ce qui précède, il me semble que nous sommes aussi autorisés à écrire des phrases telles que «l’EDS radiatif n’a pas de fondement physique» ou même que «l’effet de serre n’existe pas». Je vois bien que cela peut paraître provocateur mais dans le monde actuel a-t-on une chance d’être entendu si on se contente de ne dire ou de n’écrire que les modèles sur les quels s’appuient le GIEC méritent juste quelques corrections.

D’ailleurs, c’est ce qu’on déjà fait plusieurs auteurs «réchauffistes» et c’est le sens du titre adopté par nos deux auteurs déjà cités «l’effet de serre plus subtil qu’on le croit» qui pour moi était déjà un début d’aveu ou un amorce de virage. Naïvement à sa sortie, j’ai cru que cela allait susciter d’énormes réactions et amener beaucoup de gens à réfléchir mais comme le dit l’évêque philosophe du XVII ème siècle, Berkeley «Peu d’hommes pensent, tous néanmoins tiennent à avoir des opinions[8]

Mais soyons honnête et demandons-nous si pour autant prétendre que les gaz non diatomiques (les GES pour le GIEC) ne jouent aucun rôle sur la température à la surface de la terre ?

Examinons plusieurs cas qui peuvent nous éclairer.

Le premier trivial serait celui d’une terre sans atmosphère (donc sans GES). On peut en faire le calcul mais on a aussi une maquette à laquelle se référer, la lune. Sans vapeur d’eau, l’albédo de la terre serait voisin de celui de la lune et sa température effective de surface serait alors non pas de 18°C mais de +0.6 °C mais avec des écarts de température entre surface éclairée (< +100°C) et non éclairée (pouvant atteindre -200°C).

Plus intéressant est le cas d’une terre avec la même atmosphère à l’exception de la vapeur d’eau et autres gaz absorbants. Pas de vapeur d’eau signifie pas d’océan et donc pas de nuages et de glaciers. Là encore l’albédo d’une telle terre serait voisine de celle de la lune ce qui conduirait à une température effective entre 0 et +1°C, ce qui montre le simplisme de ceux qui clament que nous serions presque partout congelés (TMAG= -18°C). 1°C est moins que 14.5 °C, certes et on voit là l’impact des gaz absorbants et principalement de la vapeur d’eau. Mais ce n’est pas si simple car en raison de l’absence d’océans et de l’inertie thermique qu’ils impliquent, les écarts de température en particulier entre les tropiques et les pôles seraient très importants. Il devrait en résulter des vents très violents et une érosion très forte et donc des poussières et tempêtes de sable permanentes. Si par exemple, on prend comme épaisseur moyenne des poussières soulevées par ces tempêtes, la valeur raisonnable de 2000 m, ces poussières seront opaques aussi bien pour la lumière solaire que pour les IR telluriques. L’équilibre entre les deux flux aura donc lieu à cette altitude de 2000 m ce qui imposera une température effective d’environ 20°C au niveau du sol soit plus qu’actuellement !

Un dernier exercice de pensée pour bien montrer que l’effet de serre ou du moins la «rétrodiffusion» n’est pour rien dans la valeur de température terrestre. Supposons une planète uniforme et régulière constituée d’une roche très dure, compacte, qui ne s’érode pas et d’une atmosphère de gaz diatomiques comme l’azote et l’oxygène. Supposons également que le flux reçu par cette planète conduise à une température au sol de 0°C. Si nous ajoutons le fait que quelques failles peu larges mais très profondes existent, cela ne changera pas la température du sol. En revanche au fond d’une de ces failles de 2000 m de profondeur, la température sera en raison du gradient adiabatique de presque 20°C. Cela donc sans gaz absorbant dit à effet de serre. Cela illustre qu’il y a confusion permanente dans le vocabulaire entre le fait de faire varier la température (qui ici est un effet de la pression et de la gravitation) et celui d’apporter de la chaleur.

Il y a donc simplification extrême pour ne pas dire erreur ou tromperie à affirmer que c’est grâce à l’effet de serre que la température n’est pas glaciale à la surface de notre planète et que la vie y est agréable. C’est bien évidemment principalement grâce à la présence d’eau sur la terre grâce donc aux océans mais aussi à l’atmosphère et même à l’attraction terrestre. Les gaz absorbants tri atomiques ou plus ont effectivement un impact sur la température de surface mais ils n’ont le droit qu’au César du second rôle. Quant au CO2 , lui, il n’a même pas à être nominé, tant son rôle est faible et est même contrecarré par la rétroaction de la vapeur d’eau.

Pierre Beslu, avec l’aide des écrits de Camille Veyres dans lesquels il a beaucoup puisé, qu’il soit remercié.

[1] Dufresne et Treiner « L’effet de serre : plus subtil qu’on ne le croit », La Météorologie N° 72 Février 2011

[2] «Réfutation des équations de l’EDS radiatif» par Pierre Beslu.

[3] Presque toute l’eau et la plus grande partie du CO2 se trouve dans la troposphère de plus chaque couche de la stratosphère rayonne autant que ce qu’elle absorbe à cause de l’absence de convection ce qui permet en première approximation que la tropopause correspond pour les IR au sommet de l’atmosphère TOA.

[4] Il n’est en fait pas adiabatique comme le précise Camille Veyres puisque parce qu’il contient un terme qui traduit le chauffage par le haut en altitude lié à la condensation de la vapeur d’eau. Le gradient de température de la troposphère est en gros donné par g/(Cp + Ch) avec g accélération de la pesanteur, Cp chaleur spécifique de l’air à pression constante), Ch chauffage de l’air en altitude dû à l’absorption de l’infrarouge solaire par la vapeur d’eau et à la condensation de la vapeur d’eau.).

[5] C. Veyres écrit «Les molécules des gaz trace à trois, quatre ou cinq atomes (vapeur d’eau, CO2 , CH4) de l’air absorbent un rayonnement infrarouge à leurs fréquences de rotation ou de vibrations-rotations, transmettent cette énergie aux autres molécules de l’air par des collisions; lorsqu’une collision les fait passer à un état excité, une partie des molécules excitées peut rayonner avant la collision suivante. La température de l’air, et donc le rayonnement des gaz «traces» exprime la vitesse d’agitation thermique des molécules de l’air et l’énergie qu’elles se transmettent lors de collisions» Et c’est pourquoi les termes, rétrodiffusion (backscattering) et réémission sont des abus de langage mais employés couramment par le GIEC lui-même.

[6] Le transfert de chaleur entre deux corps est ce qui émis par A et absorbé par B moins ce qui est émis par B et absorbé par A.

[7] A l’opposé, l’application du modèle n’utilisant les équations de transfert pour déterminer la température au sommet de la troposphère (TOA), couplé au gradient réel dit adiabatique humide, confirme ce comportement, c’est-à-dire la rétroaction négative.

[8] « Few men think, yet all will have opinions » George Berkeley

265 Comments     Poster votre commentaire »

251.  Bernnard | 20/12/2015 @ 20:22 Répondre à ce commentaire

volauvent (#249),
Oui, au 19ième siècle la science présentait une face compréhensive que certains pouvait évaluer et pouvait ainsi comprendre dans les grandes lignes la technologie de l’époque.
De nos jours, la technologie peut paraitre « magique et mystérieuse » pour un grand nombre.
La mécanique quantique comme elle est présentée par certains vulgarisateurs, peut sembler mystérieuse mais comme elle marche et que les lasers fonctionnent on peut supposer que la science maitrise.
Pour en revenir au climat: « le CO2 chauffe, on n’y comprend rien des phénomènes intimes, mais c’est sans doute vrai si les scientifiques le disent. » Tel serait le schéma de pensée le plus courant.
Le problème reste l’Éducation ! Je ne crois pas que nous prenons actuellement le chemin des connaissances mais plutôt celui du mysticisme et de l’obscurantisme.

252.  Marco40 | 20/12/2015 @ 20:59 Répondre à ce commentaire

Bernnard (#251), Gilles des Landes (#250),volauvent (#249), Le problème de la science est le même que celui de l’économie : mal enseignée, avec généralement un socle pauvre ne permettant pas la mise en place d’un mécanisme de compréhension, terreau à toute les peurs, manipulations et pseudo-sciences.
Le rejet des progrès technologiques :OGM, nucléaire, robots, etc… se traduit par un retour à des « valeurs » simples, rassurantes, ne mettant pas en difficultés et n’obligeant pas à se remettre en cause ou à l’obligation de se former.

Le progrès des sciences et des techniques se heurte naturellement à la résistance au changement. Si en plus on rajoute l’ignorance et le dogmatisme politique, une véritable brèche se creuse entre ceux qui croient au progrès et ceux qui s’y opposeront.
Plus on avance, plus il y aura de spécialistes et moins de savants, généralistes du savoir.
Cela amène à faire confiance aux « sachants » et à accepter de ne pas être en mesure de comprendre le fonctionnement de choses devenues indispensables.

Je suis entrain de me remettre à mes lectures de jeunesse : le cycle d’Asimov et des robots : à croire qu’il avait déjà anticipé la divergence entre les tenants du progrès scientifiques, et ceux qui le rejetterons à un certain niveau.

253.  kate | 20/12/2015 @ 23:25 Répondre à ce commentaire

merci acpp,
je l’ai regardé illico. Quand il réfute les conclusions, parle-t-il des conclusions de tous les groupes de travail ou juste celui pour (et par comme dirait m gervais) les décideurs? (j’en ai lu aucun des trois pour l’instant…)

254.  kate | 20/12/2015 @ 23:31 Répondre à ce commentaire

j’ai adoré les « Fondations » d’Asimov… psycho-history… the mule…
et dans la peur de la science et de l’intélligence artificielle il y a la notion intriguante de « la singularité »…
bonne nuit, demain c’est roue à hamster…

255.  acpp | 21/12/2015 @ 13:12 Répondre à ce commentaire

kate (#253),
Je ne sais pas vous répondre.
J’avais retenu son discours sur le gaz carbonique qui m’avait fortement influencé, et cela c’était en 2010, 2 ans après son décès.

256.  lemiere jacques | 21/12/2015 @ 14:04 Répondre à ce commentaire

A mon avis, parce que kate en tant que citoyenne a le droit d’exiger de savoir d’où des scientifiques qui entendent au final influencer l’économie mondiale tirent leurs certitudes…
Mais si il y en a qui comprennent mieux que les autres, je n’ai pas l’impression que qui que ce soit en sache assez pour lever les incertitudes.
L’ami de kate devrait nous faire un exposé sur la modélisation du climat à partir de la mécanique des fluides, cela permettrait, selon moi, de mettre en évidence les limites de cet exercice.
comment conservez vous les constantes…?
comment simulez vous es phénomènes de taille inférieure à la taille caractéristique des éléments élémentaire de modélisation?
quelle lois empiriques utilisez vous?
sur quel ensemble critères jugez vous que les modèles sont bons?
etc…
ce serait très intéressant d »écouter et de questionner un modélisateur.

257.  MichelLN35 | 21/12/2015 @ 14:19 Répondre à ce commentaire

Gilles des Landes (#244),
Bonjour vous dites : Et là, autre argument pragmatique ==> comment se fait-il que la proportion de CO2 est beaucoup plus élevée dans les eaux froides (pôles) que dans les eaux chaudes, alors que le pH est plus bas dans les eaux chaudes que dans les eaux froides ?

Il me semblait que, justement, c’était le contraire, si vous avez une référence montrant celà, je suis intéressé. Pour moi j’ai retrouvé une carte et un ensemble de profils dans le Pacifique de 22°N à ~56°N le long d’un méridien qui montre que le pH en surface est à 8.2 vers les tropiques et vers 7.65-7.75 donc moins basique vers le pôle nord.

La gamme de couleurs est trompeuse car l’échelle, contrairement au pH, n’est pas logarithmique. Je crois mais ne suis pas absolument sûr, qu’il y autant de variation de quantité d’ions hydrogène dans les intervalles pH 8.1-pH 8 et pH 8 – pH 7. Me trompé-je ?

C’est aussi dans ces zones circumpolaires moins basiques que se situe l’essentiel de la production organique par photosynthèse. Il y en aussi un peu dans les zones océaniques bordant les façades ouest des continents, dans des courants froids et des upwellings. C’est la fertilisation carbonée qui commande la calcification des algues et coraux dans les eaux froides et acides.

258.  MichelLN35 | 21/12/2015 @ 14:24 Répondre à ce commentaire

MichelLN35 (#257),

J’ai oublié la référence, voir la figure 1
http://onlinelibrary.wiley.com.....040999/pdf

259.  Bernnard | 21/12/2015 @ 16:04 Répondre à ce commentaire

Gilles des Landes (#244), MichelLN35 (#257),
Il y a un piège quand on parle des pH en eau froide ou chaude.
Indépendamment de la correction que l’on peut effectuer automatiquement en se basant sur la formule de Nernst , il y a un effet de la température sur la constante d’autoprotolyse de l’eau qui fait qu’une eau est neutre pour un pH de 7 à 25°C, neutre pour un pH de 7.5 dans une eau proche de 0°C et neutre pour un pH de 6.75 pour une eau proche de 40°C et qu’on ne peut pas corriger automatiquement. L’échelle des pH dépend de la température.
Voici la dépendance de la constante d’autoprotolyse (pKw) de l’eau en fonction de la température:

260.  MichelLN35 | 21/12/2015 @ 18:19 Répondre à ce commentaire

Bernnard (#259),

Merci de votre remarque mais lisez la référence que j’ai donnée, il me semble qu’ils parlent bien de pH à 25°C. Pour le nord ils doivent prendre la mesure après ajustement de la température ou corrections adéquates, ce sont tout de même de professionnels, c’est une grosse expédition.

Ce que je pense c’est qu’il y a une relation entre la quantité de CO2 dans les eaux circumpolaires, corrélativement à un pH moins élevé et à un développement de la vie (chlorophylle) plus important que partout ailleurs dans les océans et spécialement en zone intertropicale qui est véritablement un désert végétal.

Enfin, Zeebe, dans la chimie du système carbonaté marin montre qu’il y a, à 24°C, pH 8, si je me souviens bien, une répartition [CO2] dissous, 0.5% ; bicarbonate 89% ; Carbonate, 10 % ; ce que je voudrais bien savoir c’est si à 0-10°C la répartition d’équilibre est la même, c’est dans le document le cycle du carbone de certains de mes dropcanvas, avec son tableau 6.2.32.

La partie CO2 dissoute est la seule qui entre dans la vie, que ce soit par dégazage ou par pénétration dans les algues monocellulaires. C’est aussi la fraction qui présente dans l’équilibre chimique le plus important déficit en 13C, qui correspond donc à l’allègement du carbone biotique et peut-être à son origine.

Qu’en pensez-vous ?

261.  de Rouvex | 21/12/2015 @ 18:51 Répondre à ce commentaire

volauvent (#249), sauf dans le cas des naturopathes qui utilisent à leur profit le prestige de la science pour justifier leurs conceptions, sous le vocable de « thérapies quantiques » ! : http://www.therapies-quantiques.net/
http://www.gemppi.org/accueil/.....voisin.pdf

262.  de Rouvex | 21/12/2015 @ 20:40 Répondre à ce commentaire

de Rouvex (#261), Je suis actuellement confronté à ce genre de « science » à cause de proches qui semblent prêts de s’y adonner et me conseillent d’en faire autant pour soigner ma maladie de Lyme. Dans le pdf de Monvoisin, il y a un humour assez décapant ; j’ai bien aimé Tirelipimpon sur le
chihuahua, dans le chapitre sur le déterminisme… Mais Testut va se renfrogner en lisant mon post qui sort du sujet atmosphérique. Pourtant, même si on semble loin d’un sujet à l’autre, pour ma part j’ai l’impression que le gouffre qu’il y a entre la science du climat et ses incertitudes et ce qui est affirmé chaque jour dans les medias sur les différentes conséquences épouvantables qui nous guettent à cause de nos émissions de CO2 et les rêves quantiques des soigneurs de tout poil, on est dans la même bouillie pseudo-scientifique due à une vulgarisation fautive (Rocard avec sa poêle à frire due au trou dans la couche d’ozone due à nos émissions de CO2, parole d’expert ! et le même genre de discours entendu chez les adeptes du laser quantum therapy). Bref, les bons croyants (anti-chrétiens dans l’ensemble, mais pas que) se réclament de la science sans en comprendre le début de la queue du chat (de Schrödinger) et tout le mal vient de là. J’en veux pour exemple les mantras, prières, mandalas et autres marches pour le climat qui se sont succédés depuis des mois et qui ont culminé dans les applaudissement de samedi dernier suite à l’accord qui a sauvé la Planète : cf : http://www.terre-du-ciel.org/r.....annee=2015 qui proposait des marches en montagne cet été pour le climat ou http://www.fubicy.org/spip.php?article467, les mêmes à vélo…

263.  Bernnard | 21/12/2015 @ 21:29 Répondre à ce commentaire

MichelLN35 (#260),
C’est une considération générale.
Le pH n’est pas l’indicateur (même s’il influe) permettant de déterminer les concentrations en carbone total d’un échantillon d’eau de mer.
Je ne doute pas que dans ces expéditions, la correction de température est réalisée pour donner le pH à 25°C. Ce sont des professionnels et ils doivent utiliser la correction automatique dont sont pourvus les pH-mètres d’autant plus que c’est une manipulation courante.
Cependant, la valeur lue reportée à 25°C doit aussi tenir compte de l’échelle des pH à la température où la mesure est effectuée et là, c’est une opération supplémentaire qui tient compte de la courbe montrée dans mon post, mais de manière plus précise. Peut -être le font-ils aussi ?
Comme il y a des équilibres liquide /gaz (pression partielle de CO2) il est hors de question de ramener la température à 25°C en chauffant ou refroidissant l’échantillon. On n’aurait pas la réalité du pH.
En tout état de cause le CO2 est plus soluble dans l’eau froide (même salée).
Pour le devenir du CO2, personnellement je ferai plus confiance à des mesures de concentrations en ions HCO3- , CO32- et CO2 dissous qu’à la mesure d’un pH. Je n’ai jamais considéré le pH comme une méthode d’analyse quantitative surtout pour évaluer la teneur en CO2.
Par contre à partir des concentrations mesurées des différents sels on peut, bien sur, calculer le pH.
De plus, ces mesures demeurent délicates à faire et il y a des protocoles à respecter pour éviter l’évolution de la composition des échantillons entre le moment de la prise d’échantillon et la mesure. Cette évolution peut résulter autant des changements de température et de pression que des microorganismes présents dans l’eau prélevée.

264.  testut | 24/12/2015 @ 10:30 Répondre à ce commentaire

MichelLN35 (#260),

La partie CO2 dissoute est la seule qui entre dans la vie

Pour vous les coquilles des mollusques ne font pas partie de la vie ? je suppose que pour votre squelette cela doit être la même chose !

265.  MichelLN35 | 24/12/2015 @ 18:18 Répondre à ce commentaire

testut (#264),
Vous posez une question intéressante. Les coquilles, les coraux et les os des animaux ont peut-être un déficit en 13 C caractéristique de la vie, ou bien proviennent d’ions bicarbonate, je n’en sais pas vraiment l’origine.

Mais pour ce qui concerne la majorité du calcaire sédimentaire, il correspond à des algues vertes unicellulaires (coccolithophoridés) dont les tests sont calcaires par du CO2 absorbé jusqu’aux chloroplastes et ce CO2 est déprimé en 13C d’autant plus que l’eau est plus froide, par rapport à l’ion bicarbonate (cf le graphique de Zeebe).

Quant au carbone des végétaux terrestres, il provient aussi de ce CO2 soluble déprimé en 13C, c’est celui qui dégaze. Je pense mais n’en suis pas sûr pour les os des herbivores et des divers carnivores.

Une recherche bibliographique sur ce sujet serait intéressante.