L’effet de serre est-il indubitable ?

Par Pierre Beslu

(version en PdF à télécharger)

L’Effet de serre est-il indubitable ? Est-il un phénomène physique bien connu ou une vue de l’esprit ?

Le phénomène d’effet de serre est mis en avant par tous les tenants du consensus autour des positions du GIEC(ou IPCC). Il serait physiquement fondé depuis un siècle et aussi sûr que 2+2 font 4. Même si cela reste des affirmations sans démonstration, la position consistant à le nier est complétement à contre-courant et choque un grand nombre de gens et même de nombreux «climatosceptiques», par exemple cette attitude est dénoncée par Roy W. Spencer.

Tout d’abord spécifions que personne ne conteste les propriétés des gaz et en particulier leur capacité d’absorption dans certaines plages de longueurs d’onde dans le domaine infra rouge (IR) ni d’ailleurs ne conteste les équations de transfert radiatif. Nous y reviendrons.

Quant à l’effet de serre, lui-même, il faut avouer que les fondements de ce mécanisme sont de fait un sujet délicat. D’abord parce qu’il existe plusieurs définitions de l’effet de serre. On en dénombre au moins une vingtaine dans les manuels universitaires, les rapports de l’IPCC et ceux de différents instituts ou des sociétés météorologiques. Il faut donc se mettre bien d’accord au départ. Citons quelques-unes de ces définitions pour fixer les idées :

  • La vitre de la serre : dont même le GIEC reconnaît aujourd’hui que dans une serre horticole l’effet radiatif n’est pas significatif : la température plus élevée qu’à l’extérieur a pour cause l’isolation apportée par la vitre qui évite les pertes de chaleur et d’humidité par convection soit les échanges entre l’air intérieur et extérieur.
  • La molécule de gaz (dit à effet de serre) absorbe les photons venant de la surface qu’elle réémet (sic!) moitié vers le haut et moitié vers le bas ».
  • L’effet de serre = différence entre le flux rayonné par la surface vers l’air et le flux rayonné par l’air vers le cosmos.
  • L’effet de serre = rayonnement de l’air vers la surface qui la réchauffe.

Le dénominateur commun de tous ces modèles est néanmoins le fait qu’ils font tous plus ou moins appel à la «rétrodiffusion» (backscattering) des IR émis par la terre (le sol et les océans). Les termes «Rétrodiffusion ou Backscattering» comme d’ailleurs la «réémission» étant, on le verra, des abus de langage néanmoins pratiques et couramment utilisés.

Mais en plus du trouble apporté par la diversité de ces définitions, les scientifiques qui les utilisent, leurs dénient eux-mêmes, tout fondement physique «Il ne faut pas, dit l’un d’eux, utiliser les modèles présentés habituellement comme supportant la théorie car ce ne sont que des petits modèles simples et grossiers qui conduisent, au niveau des applications, à des imperfections; ils sont destinés au grand public et n’ont qu’un intérêt didactique.» Par exemple, MM Dufresne et Treiner dans leur article [1], bien que constatant que ces modèles donnaient des résultats éloignés de la réalité, rejettent ceux-ci surtout parce qu’ils sont incapables d’expliquer le rôle du CO2 dans le réchauffement. Ils proposent alors et ce ne sont pas les seuls, un modèle ne faisant plus du tout appel à la «rétrodiffusion» des IR à partir de la troposphère mais qui prend, en revanche, en compte l’existence du gradient vertical de température atmosphérique (lapse rate) qui dépend lui des capacités calorifiques de l’atmosphère et de l’accélération de la pesanteur. Plus rien à voir donc avec l’EDS radiatif quelle qu’en soit la définition. Ils continuent pourtant, sans vergogne, à appeler leur modèle «Effet de Serre». Cela pour eux parce que ce qui est raconté aux décideurs et au public n’est que de la communication et ne correspond pas à la réalité. Ce qui compte ce sont les équations utilisées dans les codes GCMs. Et comme ce changement de paradigme n’entraîne bizarrement aucun changement dans les équations ni dans les conditions aux limites, ni dans les données d’entrée, pourquoi changer de nom le phénomène ?

Cette vision nous oblige à nous intéresser aux équations entrées dans les modèles GCMs et qui, pour eux, sont finalement les seules à définir correctement l’effet de serre de l’atmosphère terrestre. Ce sont les mêmes équations que celles utilisées pour les atmosphères des étoiles que l’on trouve dans de nombreux cours dans toutes les langues. C’est sans doute pourquoi, je suppose, les conférenciers sur le sujet affirment que le fondement de l’effet de serre est bien établi. Rien à dire, en effet, sur ces équations sauf que leur transposition à l’atmosphère terrestre nécessite un minimum d’adaptation. J’ai montré dans un papier précédent [2] , les erreurs faites lors de ce passage des étoiles aux planètes. Mais tout le monde n’est pas familier avec le langage mathématique, et je vais donc tenter ci-après d’arriver au même but sans avoir recours à ce langage.

Atmosphère stellaire

De manière générale, un flux de photons Fν est défini par la puissance qui traverse dans toutes les directions une surface unité, par intervalle d’unité de fréquence.

Pour relier la quantité de gaz absorbeur d’IR à ce flux d’énergie, le paramètre approprié est la profondeur (~épaisseur) optique Τν qui peut être obtenue à partir de la loi de Planck.

Notons qu’elle décroît vers l’observateur situé bien sûr à l’extérieur de l’étoile.

La couche d’une atmosphère stellaire est opaque et donc le milieu est semi-infini, ce qui permet de définir des conditions aux limites en se basant sur le fait qu’il n’y a pas de rayonnement entrant à la surface extérieure :

Le calcul du rayonnement sortant à la surface des étoiles a constitué, l’une des tâches les plus ardues de l’astrophysique et pendant plus de cinquante ans, les astrophysiciens ont travaillé à la solution de cette équation, en utilisant diverses approximations. Ils sont aidés aujourd’hui pour obtenir des résultats précis par les gros ordinateurs Sur le plan qualitatif, il résulte, entre autres, des équations de transfert :

  • que le flux et l’intensité sortant sont approximativement égaux à la fonction source dans les couches superficielles de l’étoile, c’est à dire celles où Τν ≤ 1
  • que les couches plus internes ne contribuent donc pas au rayonnement sortant, la fonction source y étant absorbée exponentiellement.

Par ailleurs, il est clair que si l’intensité est isotrope, le flux est nul ; ce qui est le cas à l’intérieur d’un Corps Noir.

Atmosphère terrestre

Pour traiter l’atmosphère terrestre, les modélisateurs se donc sont servis des mêmes équations de transfert radiatif. Mais ils se sont heurtés à une difficulté qui est que la loi de Planck à partir de laquelle la profondeur optique peut être obtenue ne traite que d’un rayonnement monochromatique c’est-à-dire ayant une fréquence ν ou une longueur d’onde λ donnée alors que le spectre émis par la Terre s’étend sur plusieurs ordres de grandeur. Pour pallier à cette complication, ils ont eu recours, à une profondeur optique globale simulée équivalente. Une telle profondeur optique est calculée en intégrant sur tout le spectre, raie par raie, et sur un hémisphère couche par couche, la transmittance monochromatique directionnelle. On utilise pour cela, en amont, des codes de calculs indépendants.

Cette manière de faire conduit à établir un rayonnement équivalent, simulant l’ensemble du rayonnement terrestre ; l’atmosphère n’est alors pas totalement opaque pour ce rayonnement simulé (la profondeur optique correspondante est de l’ordre de 1.9 soit une transmittance d’environ 15% voire moins) parce qu’il existe un domaine de longueurs d’onde dans lequel l’atmosphère est transparente qu’on appelle la fenêtre atmosphérique. Ce milieu, c’est-à-dire l’atmosphère pour ce rayonnement équivalent, ne peut donc pas être considéré comme semi infini et opaque mais bien fini et semi-transparent.

Or dans leur transposition des équations de l’atmosphère stellaire à l’atmosphère terrestre, nos modélisateurs n’ont pas tenu compte de ce changement fondamental. Cela les conduit à des résultats éloignés de la réalité (voir l’article de Dufresne et Treiner déjà cité [1]) et surtout à des paradoxes voire des aberrations que je mets en exergue dans mon papier sur les équations de l’EDS [2].

On pourrait penser que la seule prise en compte des bonnes conditions aux limites permettrait de justifier l’EDS (le remettre sur les rails) et de mieux décrire la réalité. Une telle opération supprime certes les «paradoxes» mais montre que l’EDS radiatif seul est insuffisant pour rendre compte de la température au niveau de la surface de la terre. Ceci est normal puisque ce modèle ignore totalement les échanges de chaleurs autres que radiatifs soit la conduction, la convection, les changements d’état qui sont prépondérants au niveau de la troposphère [3] en particulier l’évaporation et la condensation de la vapeur d’eau dans les nuages.

Il faut donc, d’une manière ou d’une autre, faire entrer la thermodynamique dans le jeu. Dufresne et Treiner toujours eux, distinguent dans l’atmosphère trois couches ; une première couche totalement opaque en IR qu’ils baptisent aveugle, une deuxième semi-transparente qui laisse sortir de plus en plus d’IR au fur et à mesure qu’on monte en altitude, puis une zone transparente au sommet de l’atmosphère.

Cela leur permet de définir également une surface équivalente où il n’existe plus que deux couches la plus basse totalement opaque et la plus haute totalement transparente. Cette surface (équivalente et fictive) est située aux alentours de 5000 m d’altitude et correspond à l’endroit où s’équilibre le flux solaire onde courte et le flux IR émis vers l’espace par le système terre.

Si on regarde de plus près la figure donnant l’épaisseur optique de la vapeur d’eau et du gaz carbonique, on voit que l’épaisseur optique de l’air va surtout dépendre de la quantité de vapeur d’eau sauf dans la « fenêtre atmosphérique» soit entre entre 750 cm-1 et 1180 cm-1 (8.5<λ<12.5 µm la vapeur d’eau »).

La vapeur d’eau est présente surtout dans les basses couches (au-dessus il fait trop froid et même elle se condense) alors que le CO2 est en proportion a peu près uniforme sur toute la hauteur de l’air.

Sachant qu’on peut considérer que l’air est opaque dès que l’épaisseur optique est plus grande que 3, c’est-à-dire partout sauf entre 750 et 1180 cm-1, il est possible de traiter à part cette plage (par exemple en l’intégrant dans l’albédo) et de considérer que l’atmosphère est totalement absorbante pour le reste du spectre IR.

Dans ce cas, nous sommes revenus à quelque chose de voisin de l’atmosphère stellaire (sauf que dans une étoile, l’atmosphère est uniquement chauffée par le bas) et il en résulte que les couches plus internes ne contribuent donc pas au rayonnement sortant et qu’à l’intérieur de ces couches le flux qui peut être considéré comme isotrope, est nul.

Rappelons d’ailleurs qu’un corps opaque ne conduit pas de chaleur par voie radiative.

Au-dessus, le flux et l’intensité sortant de l’atmosphère terrestre provient des couches les plus élevée c’est à dire celles où Τν ≤ 1. Dans cette couche «superficielle», on peut donc appliquer les équations de transfert. Mais comme on l’a dit, cela est insuffisant car il faut aussi tenir compte des échanges gouvernés par la thermodynamique.

En revanche, au sommet de l’atmosphère (TOA) et en première approximation au sommet de la troposphère, le transfert de chaleur est uniquement radiatif. L’utilisation des équations de transfert s’impose alors et cela est d’autant plus facile qu’en raison du fait qu’il n’y a plus de flux descendant et que Τν = 0, la résolution est simplifiée et conduit à une température d’environ -56 °C (218 °K). Cette température du haut de l’atmosphère qui rayonne vers le cosmos et que le mouvement de l’atmosphère et de la vapeur d’eau égalise efficacement, peut être considérée comme une température de référence.

Comme par ailleurs la thermodynamique nous indique que dans l’atmosphère moyenne «standard», le gradient de température en fonction de l’altitude (vérifié chaque jour par les aviateurs) est d’environ 6.5°C par km, (+ en descendant et – quand on s’élève), en déduire la température effective au niveau de la mer est quasi immédiat.

On peut, si on préfère, partir de la couche équivalente dont il a été question plus haut et également adoptée dans les rapports du WG1 du GIEC situé à environ 5000 m d’altitude soit assez proche de Τ= 1 L’équilibre des flux et l’application de l’équation de Stephan valable ici implique une température voisine de -18 °C (255 °K). Là encore, l’utilisation du gradient dit «adiabatique humide [4]» impose la température au niveau du sol. Dans les deux cas, on obtient une température très proche mais légèrement supérieure à la température de 14,5°C donnée pour la température moyenne annuelle globale par les divers instituts. C’est pourquoi, de manière lapidaire et en guise de résumé, il me semble possible d’écrire qu’il n’y a pas (plus) de place pour l’effet de Serre radiatif ou alors de manière très marginale.

Mais si cela est vrai quid de l’EDS radiatif ?

Passons rapidement en revue les différentes définitions de ce mécanisme cité ci-dessus.

  • On a vu que le modèle de la vitre qui est placé dans le vide (!), et qui donne pourtant son nom au phénomène, était inadapté. De plus, dans ce modèle, le flux rayonné par la vitre vers le sol est à peu près la moitié du flux qui dans la réalité est rayonné par l’air vers le sol comme on peut le constater sur n’importe quel diagramme du type de ceux de Trenberth.
  • Le modèle de la «molécule de gaz» qui vise, sans doute, à justifier la vitre de la serre qui elle aussi «réémet» les IR terrestres moitié vers le haut et moitié vers le bas n’est pas plus fondé car jusqu’à 50 km d’altitude l’excitation des molécules de gaz comme H2O ou CO2 par une collision [5] conduit de temps en temps à l’émission d’un photon mais avec une répartition spectrale de ces photons donnée par la température de l’air à cette altitude ; Et sauf pour Τ ≤ 1, près du sommet de l’atmosphère (TOA), les molécules de gaz «trace» absorbent à peu près autant de photons venant du dessus que de photons venant du dessous.
  • L’EDS définit comme différence entre le flux rayonné par la surface et le flux rayonné par l’air vers le cosmos ne tient pas plus puisque ce qui compte en transfert de chaleur est le bilan net « absorbé par l’air venant de la surface moins émis par l’air absorbé par la surface » ou « absorbé par l’air venant du cosmos et émis par l’air et reçu par le cosmos » ; le bilan net entre air et surface est donc nul [6]. De plus le flux rayonné par le globe vers le cosmos est très fluctuant mais ne montre pas de « piégeage » par le CO2 dont la teneur est, en 40 ans, passée de 330 à 400 ppm ? De 1974 à 2014, on observe au contraire une légère croissance (+2 W/m² pour la droite de régression par rapport aux ppm de CO2).
  • L’effet de serre comme rayonnement de l’air vers la surface qui réchauffe la surface, est également à rejeter car :
  • Il revient à admettre qu’un rayonnement quel qu’il soit pourrait chauffer sa propre source. Il y aurait là un brevet à prendre !
  • Un transfert naturel de chaleur d’un corps plus froid (l’air) vers un corps plus chaud (la surface) est contraire au second principe de la thermodynamique.
  • Là encore, le rayonnement de l’air vers le sol ne saurait « réchauffer » le sol puisque le bilan net absorbé moins rayonné, entre l’air et la surface est légèrement négatif pour la surface et positif pour l’air ; le rayonnement de l’air vers la surface dans la fenêtre de la vapeur d’eau vient en effet d’une altitude de quelques kilomètres (sauf nuages bas) qui est généralement plus froide que la surface.

De plus l’effet de serre utilise, bien entendu, la loi de Stéphan Boltzmann pour les gaz, loi qui a été établie pour les corps noir; Or il absurde de dire qu’un gaz peut être « modélisé » comme un corps noir car un gaz n’absorbe et ne rayonne que sur certaines raies et bandes de fréquences optiques, le CO2, par exemple, sur seulement 150 cm-1.

On oublie, aussi, la dualité onde corpuscule du rayonnement. Or quand un rayonnement est absorbé par exemple par le sol ou l’océan, sa nature corpusculaire «prend le dessus». La quantité de mouvement du photon correspondant est donné par p=h/λ=hν/c où h est la constante de Planck et c la vitesse de la lumière. La loi de conservation de la quantité de mouvement appliquée au système «matière (particule) + photon incident», montre que non seulement ce dernier ne peut réchauffer la matière mais au contraire la refroidit si sa «température» est inférieure à celle de la matière (particule) choquée ! Le rayonnement, ce qui est rassurant, obéit donc lui aussi à la deuxième loi de la thermodynamique !

D’ailleurs que l’on parte des équations classiques de transfert radiatif ou des équations de Planck et de quantité de mouvement, description du phénomène et équations s’accordent et permettent d’affirmer qu’un CORPS RÉEL est chauffé uniquement par les fréquences qu’il ne peut pas émettre et doit alors stocker l’énergie correspondante sous forme de chaleur.

Il faut ajouter enfin que dans les modèles défendus par le GIEC, l’augmentation de l’effet de serre par accroissement (doublement) de la concentration du CO2 est insuffisante pour provoquer les augmentations de températures apocalyptiques de 4 à 6°C (la valeur de la sensibilité climatique est au mieux de 1.1 °C) qu’on nous promet. Ils ont besoins et donc supposent que la vapeur d’eau amplifie l’effet-de-serre du CO2 via une contre-réaction positive contraire au principe de modération de Le Chatelier et contraire à ce qui peut être observé par exemple en 1998 lors du super el niño ! Ce mécanisme proposé est d’autant plus surprenant qu’il devrait entrainer logiquement un emballement de l’effet-de-serre (« runaway greenhouse effect ») [7].  Une perturbation (un forçage) devrait, suivant son sens, c’est à dire amplifié par une rétroaction positive, conduire donc rapidement, à une terre sans glace, ou à une terre entièrement recouverte de glace (Terree boule de neige, c’est, je crois, une difficulté que rencontrent les modèles GCMs).

Alors qu’au contraire, le système, on le voit bien, agit heureusement comme un climatiseur.

Tous ces points condamnent les raisonnements purement radiatifs et plus généralement les modèles employés.

Discussion

Le terme d’effet de serre aurait dû être abandonné dès qu’il a été reconnu que le mécanisme envisagé n’avait rien à voir avec une serre horticole. Le conserver, ouvrait la porte aux ambiguïtés et permettait de ne pas changer de nom quand on change pourtant totalement de mécanisme de réchauffement (voir l’article de Dufresne et Treiner).

Dans ces conditions et compte tenu de tout ce qui précède, il me semble que nous sommes aussi autorisés à écrire des phrases telles que «l’EDS radiatif n’a pas de fondement physique» ou même que «l’effet de serre n’existe pas». Je vois bien que cela peut paraître provocateur mais dans le monde actuel a-t-on une chance d’être entendu si on se contente de ne dire ou de n’écrire que les modèles sur les quels s’appuient le GIEC méritent juste quelques corrections.

D’ailleurs, c’est ce qu’on déjà fait plusieurs auteurs «réchauffistes» et c’est le sens du titre adopté par nos deux auteurs déjà cités «l’effet de serre plus subtil qu’on le croit» qui pour moi était déjà un début d’aveu ou un amorce de virage. Naïvement à sa sortie, j’ai cru que cela allait susciter d’énormes réactions et amener beaucoup de gens à réfléchir mais comme le dit l’évêque philosophe du XVII ème siècle, Berkeley «Peu d’hommes pensent, tous néanmoins tiennent à avoir des opinions[8]

Mais soyons honnête et demandons-nous si pour autant prétendre que les gaz non diatomiques (les GES pour le GIEC) ne jouent aucun rôle sur la température à la surface de la terre ?

Examinons plusieurs cas qui peuvent nous éclairer.

Le premier trivial serait celui d’une terre sans atmosphère (donc sans GES). On peut en faire le calcul mais on a aussi une maquette à laquelle se référer, la lune. Sans vapeur d’eau, l’albédo de la terre serait voisin de celui de la lune et sa température effective de surface serait alors non pas de 18°C mais de +0.6 °C mais avec des écarts de température entre surface éclairée (< +100°C) et non éclairée (pouvant atteindre -200°C).

Plus intéressant est le cas d’une terre avec la même atmosphère à l’exception de la vapeur d’eau et autres gaz absorbants. Pas de vapeur d’eau signifie pas d’océan et donc pas de nuages et de glaciers. Là encore l’albédo d’une telle terre serait voisine de celle de la lune ce qui conduirait à une température effective entre 0 et +1°C, ce qui montre le simplisme de ceux qui clament que nous serions presque partout congelés (TMAG= -18°C). 1°C est moins que 14.5 °C, certes et on voit là l’impact des gaz absorbants et principalement de la vapeur d’eau. Mais ce n’est pas si simple car en raison de l’absence d’océans et de l’inertie thermique qu’ils impliquent, les écarts de température en particulier entre les tropiques et les pôles seraient très importants. Il devrait en résulter des vents très violents et une érosion très forte et donc des poussières et tempêtes de sable permanentes. Si par exemple, on prend comme épaisseur moyenne des poussières soulevées par ces tempêtes, la valeur raisonnable de 2000 m, ces poussières seront opaques aussi bien pour la lumière solaire que pour les IR telluriques. L’équilibre entre les deux flux aura donc lieu à cette altitude de 2000 m ce qui imposera une température effective d’environ 20°C au niveau du sol soit plus qu’actuellement !

Un dernier exercice de pensée pour bien montrer que l’effet de serre ou du moins la «rétrodiffusion» n’est pour rien dans la valeur de température terrestre. Supposons une planète uniforme et régulière constituée d’une roche très dure, compacte, qui ne s’érode pas et d’une atmosphère de gaz diatomiques comme l’azote et l’oxygène. Supposons également que le flux reçu par cette planète conduise à une température au sol de 0°C. Si nous ajoutons le fait que quelques failles peu larges mais très profondes existent, cela ne changera pas la température du sol. En revanche au fond d’une de ces failles de 2000 m de profondeur, la température sera en raison du gradient adiabatique de presque 20°C. Cela donc sans gaz absorbant dit à effet de serre. Cela illustre qu’il y a confusion permanente dans le vocabulaire entre le fait de faire varier la température (qui ici est un effet de la pression et de la gravitation) et celui d’apporter de la chaleur.

Il y a donc simplification extrême pour ne pas dire erreur ou tromperie à affirmer que c’est grâce à l’effet de serre que la température n’est pas glaciale à la surface de notre planète et que la vie y est agréable. C’est bien évidemment principalement grâce à la présence d’eau sur la terre grâce donc aux océans mais aussi à l’atmosphère et même à l’attraction terrestre. Les gaz absorbants tri atomiques ou plus ont effectivement un impact sur la température de surface mais ils n’ont le droit qu’au César du second rôle. Quant au CO2 , lui, il n’a même pas à être nominé, tant son rôle est faible et est même contrecarré par la rétroaction de la vapeur d’eau.

Pierre Beslu, avec l’aide des écrits de Camille Veyres dans lesquels il a beaucoup puisé, qu’il soit remercié.

[1] Dufresne et Treiner « L’effet de serre : plus subtil qu’on ne le croit », La Météorologie N° 72 Février 2011

[2] «Réfutation des équations de l’EDS radiatif» par Pierre Beslu.

[3] Presque toute l’eau et la plus grande partie du CO2 se trouve dans la troposphère de plus chaque couche de la stratosphère rayonne autant que ce qu’elle absorbe à cause de l’absence de convection ce qui permet en première approximation que la tropopause correspond pour les IR au sommet de l’atmosphère TOA.

[4] Il n’est en fait pas adiabatique comme le précise Camille Veyres puisque parce qu’il contient un terme qui traduit le chauffage par le haut en altitude lié à la condensation de la vapeur d’eau. Le gradient de température de la troposphère est en gros donné par g/(Cp + Ch) avec g accélération de la pesanteur, Cp chaleur spécifique de l’air à pression constante), Ch chauffage de l’air en altitude dû à l’absorption de l’infrarouge solaire par la vapeur d’eau et à la condensation de la vapeur d’eau.).

[5] C. Veyres écrit «Les molécules des gaz trace à trois, quatre ou cinq atomes (vapeur d’eau, CO2 , CH4) de l’air absorbent un rayonnement infrarouge à leurs fréquences de rotation ou de vibrations-rotations, transmettent cette énergie aux autres molécules de l’air par des collisions; lorsqu’une collision les fait passer à un état excité, une partie des molécules excitées peut rayonner avant la collision suivante. La température de l’air, et donc le rayonnement des gaz «traces» exprime la vitesse d’agitation thermique des molécules de l’air et l’énergie qu’elles se transmettent lors de collisions» Et c’est pourquoi les termes, rétrodiffusion (backscattering) et réémission sont des abus de langage mais employés couramment par le GIEC lui-même.

[6] Le transfert de chaleur entre deux corps est ce qui émis par A et absorbé par B moins ce qui est émis par B et absorbé par A.

[7] A l’opposé, l’application du modèle n’utilisant les équations de transfert pour déterminer la température au sommet de la troposphère (TOA), couplé au gradient réel dit adiabatique humide, confirme ce comportement, c’est-à-dire la rétroaction négative.

[8] « Few men think, yet all will have opinions » George Berkeley

265 Comments     Poster votre commentaire »

151.  lemiere jacques | 16/12/2015 @ 8:13 Répondre à ce commentaire

volauvent (#120), oui…
voila…on en balance 4 en gros et on en « retrouver 2 en gros… et on peut prier compte tenu du faible recul que l’on a avec les mesures » directes » du CO2 pour que le taux de CO2 dans l’atmosphère soit une « constante » du système climatique « non perturbé » mais ça ne choque pas non plus compte tenu des ordres de grandeurs.
Il parait bien logique aussi de se dire que ça va dans la flotte et peut être dans la biomasse…

152.  Murps | 16/12/2015 @ 8:48 Répondre à ce commentaire

Mon Oncle (#150), pendant qu’on y est, on peut dire aussi que skyfall est la triste conséquence à attendre de l’excès d’éducation sur les classes inférieures…
😆

153.  Nicias | 16/12/2015 @ 9:00 Répondre à ce commentaire

volauvent (#138),

Je voulais juste aussi rappeler à tout le monde que depuis que c’est la Chine le plus gros émetteur, on a une grosse incertitude sur les émissions elles mêmes, vu que tout le monde sait que les statistiques chinoises, c’est du folklore.

Oui et non :
http://www.skyfall.fr/?p=1501

L’émergence de la Chine comme premier producteur de CO2 est concomitante du fait qu’elle est devenue importatrice nette de pétrole et de charbon. Donc oui, les statistiques chinoises sont douteuses, mais celles par exemple de l’Australie ne le sont pas dans les mêmes proportions.

154.  Nicias | 16/12/2015 @ 9:11 Répondre à ce commentaire

Murps (#140),

comprend pas cette histoire de Pinatubo.
En 1992 l’année de l’explosion le taux de CO2 produit est très bas. So what ???? il y a un rapport entre les deux ??

C’est possible !
Mais moi je suis spécialiste en pseudo-science. Je ne peux pas faire des expériences. J’examine l’histoire : suite en juin 91 à l’explosion du Pinatubo, il a fait froid. L’augmentation du taux de CO2 mesurée a été faible. En 1998 c’est le « el nino du siècle » et il a fait chaud. L’augmentation de la concentration de CO2 a été forte. Coïncidence ?

J’ai des explications ad hoc a proposer et une « prédiction » : l’augmentation de la concentration du CO2 dans l’air en 2015 sera forte.

155.  scaletrans | 16/12/2015 @ 10:12 Répondre à ce commentaire

testut (#147),

Pas d’accord. Minitax fait partie du paysage ici, et ce que vous prenez pour des outrances, sont pour moi l’expression d’une sainte colère qui ne masque cependant pas son bagage scientifique important et ses argumentations parfaitement étayées.

156.  de Rouvex | 16/12/2015 @ 10:44 Répondre à ce commentaire

scaletrans (#155), +1 Minitax, c’est notre bouée de sauvetage et les lunettes de plongée avec palmes. Bon, les lunettes grossissent un peu, la bouée empêche un peu de batifoler… mais les palmes, ça permet de ne pas s’ennuyer !

157.  jp_eppe | 16/12/2015 @ 10:50 Répondre à ce commentaire

scaletrans (#155),
Skyfall sans miniTAX, ce ne serait plus vraiment Skyfall !!! ☺

158.  yvesdemars | 16/12/2015 @ 12:07 Répondre à ce commentaire

ravi que mon graphique ait relancé ce sujet oh combien controversable … 32 posts en moins de 17 heures

159.  jG2433 | 16/12/2015 @ 12:50 Répondre à ce commentaire

scaletrans (#155),
En effet, il faut bien se rendre à l’évidence : devant le culot monstre de nombre de réchauffistes et de leurs affidés aux méthodes pour le moins contestables scientifiquement, médiatiquement, etc. – et qui durent –, il y a bien là matière à réagir de manière « carrée ».

160.  testut | 16/12/2015 @ 13:15 Répondre à ce commentaire

Mon Oncle (#150),
J’ai bien vu la pointe d’humour dans votre réponse ; mais voilà , il y a un fil qui s’appelle BISTROT et on peut y dire ce qu’on veut; voyez le fil présent qui parle d’un sujet hautement scientifique et la suite des mails au mien qui dit que minitax pourrit les discussions
Je parle d’isotopes et Murps m’envoie au bistrot alors que minitax claironne ses régurgitations sur ce fil
Scaletrans a trouvé un bagage scientifique dans les éructations de minitax et est ravi d’avoir tué une discussion scientifique en l’orientant vers la polémique
De rouvex est d’accord avec scaletrans
JPB revient à la rescousse de ce blog en perdition
et JG2433 est tout à fait d’accord avec la manière carrée dont minitax a remis la discussion dans le droit chemin
———–
C’est lamentable , Bob , vous auriez mieux fait de na pas intervenir
Mais je reviendrais un de ces jours pour préciser encore mes idées ; j’attendrais que Beslu nous dise ce qu’il pense de vos réactions

161.  jdrien | 16/12/2015 @ 13:27 Répondre à ce commentaire

testut (#160), un blog n’est pas l’Académie des Sciences (ou autre cénacle). Je suggère la création d’un fil Testust versus Beslu interdit bien sûr à Minitax où vous pourrez couper les isotopes en quatre. De toute façon, l’affaire du RCA est tellement enfoncée politiquement qu’aucun argument scientifique n’arrivera pas à la faire chuter, alors laissez nous sourire aux messages de Minitax!

162.  testut | 16/12/2015 @ 13:31 Répondre à ce commentaire

testut (#160),

Scaletrans a trouvé un bagage scientifique dans les éructations de minitax et est ravi d’avoir tué une discussion scientifique en l’orientant vers la polémique

Désolé , c’est Yves de mars qui est fier d’avoir relancé un sujet contreversable avec son graphique qui rappelle les tribulations de BECK

163.  Nicias | 16/12/2015 @ 13:43 Répondre à ce commentaire

testut (#147),

Les gens sérieux font ce qu’ils veulent.
S’ils ne veulent pas discuter avec les sans-dent de la science comme miniTax, libre à eux. Ici On essaye de parler à tout le monde, on fait des articles pour tous les gouts en alternant les sujets « arides » (cf Roby #2) ou le climathon. En retour tout le monde peut s’exprimer et ce même pour tenir des propos qui heurtent mon bon sens.

164.  Nicias | 16/12/2015 @ 13:52 Répondre à ce commentaire

testut (#160),

Désolé , c’est Yves de mars qui est fier d’avoir relancé un sujet contreversable avec son graphique qui rappelle les tribulations de BECK

On est d’accord. Mais il y a la manière de le dire. Pourquoi est ce qu’on se met a parler de liberté d’expression ou du fil bistrot ici ? Pourquoi répondre aux commentaires les plus idiots ? (je met dans le lot celui de mon collègue et égal Murps #141)

165.  volauvent | 16/12/2015 @ 14:33 Répondre à ce commentaire

Nicias (#153),

c’est sur la production interne de charbon qu’il y a des doutes. On peut aussi avoir des variations de stock.

166.  yvesdemars | 16/12/2015 @ 14:39 Répondre à ce commentaire

Nicias (#124),

(source via CO2 science ) http://www.co2science.org//sub.....2proxy.php

l’incertitude est plutôt de l’ordre de 25 à 30 ppm et la résolution temporelle est bine meilleure que celle des carottes (20 à 37 années contre 200 à 550 ans). Notons que les carottes de glace ne permettent pas contrairement aux stomates de déceler les variations importantes durant l’épisode glaciaire du Dryas récent

An even earlier use of stomatal density data to reconstruct past changes in atmospheric CO2 concentration was conducted by Wagner et al. (1999), who derived a record of early Holocene atmospheric CO2 concentration based upon an analysis of the stomatal frequency of birch tree leaves buried in peat deposits near Denekamp, The Netherlands. They discovered that atmospheric CO2 concentrations 10,000 years ago hovered between 260 and 265 ppm, after which they rose to a value near 330 ppm over the course of a century. Thereafter, concentrations remained in the 330 ppm range over the next 300 years, whereupon they declined to about 300 ppm. A second sharp increase in atmospheric CO2 concentration to a maximum value of 348 ppm then followed, with concentrations hovering between 333 and 347 ppm for the duration of the record.

The results of this study challenge the notion that atmospheric CO2 concentrations were relatively stable throughout the Holocene, as Wagner et al.’s data clearly indicate there were large shifts on a century timescale. Their results also suggest that the atmospheric CO2 concentrations of today might not be unprecedented in the current interglacial, as some of the values they report approached 350 ppm in the mean, and possibly 365 ppm when potential errors are considered. Thus, since atmospheric CO2 concentrations may have risen by as much as 90 ppm over the course of a few centuries 10,000 years ago in the absence of human influence, it is possible that the rise in atmospheric CO2 since 1800 may contain a significant non-anthropogenic-induced component.

In summary, there is considerable evidence to suggest that leaf stomatal density may be a reasonable proxy for past concentrations of atmospheric CO2; and certain applications of this approach produce results that suggest that anthropogenic CO2 emissions are not the strong drivers of climate change that climate alarmists make them out to be.
ref Wagner, F., Bohncke, S.J.P., Dilcher, D.L., Kurschner, W.M., van Geel, B. and Visscher, H. 1999. Century-scale shifts in early Holocene atmospheric CO2 concentration. Science 284: 1971-1973.

167.  lemiere jacques | 16/12/2015 @ 15:08 Répondre à ce commentaire

testut (#160),
minitax est peut être assez âpre mais il existe une constat empirique sur les sciences traitant des systèmes complexes : leur compréhension des systèmes est quasiment toujours exagérée….

168.  Nicias | 16/12/2015 @ 15:27 Répondre à ce commentaire

Century-scale shifts in early Holocene atmospheric CO2 concentration :

http://www.flmnh.ufl.edu/natsc.....herco2.pdf

169.  miniTAX | 16/12/2015 @ 16:25 Répondre à ce commentaire

C’est bien vrai qu’il y a surement de grosses incertitudes là-dessus mais il est assez plausible que les émissions de CO2 stagnent depuis deux ou trois ans, ne serait-ce que parce que les USA utilisent de plus en plus de gaz de schiste et parce que la Chine a ralenti le tempo.

Bob (#145), avec des « assez plausibles », on peut dire tout et n’importe quoi.
Mais les faits, que disent ils ? Les émissions de CO2 des USA ont baissé depuis… 15 ans et non juste avec le gaz de schiste (hé oui, c’est un secret inavouable que vous n’entendrez pas de la bouche des protecteurs auto-proclamés du climat). Quant au ralentissement de la Chine, la bonne blague. Il s’agit d’un (probable) ralentissement dans la croissance ! Càd qu’il y a toujours une croissance, qui même « ralentie » est d’au moins 5x celle de l’Europe. La cinquantaine centrales de charbon construites chaque année en Chine, c’est pas en carton pâte, elles émettent bien du CO2. Et pensez par exemple au gros scandale il y a tout juste un mois sur la révision à la hausse de ses stats de consommation de charbon de 20%, soit une toute petite erreur qui fait à peine les émissions de CO2… de toute l’Allemagne, par un simple jeu d’écriture !!!

Franchement, vouloir interpréter quoi que ce soit à partir de données aussi pourries, c’est de la numérologie, laissez ça aux climastrologues. La « science » écono-climatologique est irrécupérable, tout doit aller à la benne. Vraiment.

170.  Bob | 16/12/2015 @ 17:40 Répondre à ce commentaire

miniTAX (#169),

non juste avec le gaz de schiste

Et avec la crise de 2008.

171.  Bob | 16/12/2015 @ 17:51 Répondre à ce commentaire

Nicias (#168),
Si je lis bien, dans l’article de Science que vous citez, les incertitudes sur le taux de ppm du CO2 sont évaluées entre + ou – 10 à 20 ppm, avec les stomates. Il y un diagramme d’étalonnage (apparemment linéaire) assez parlant.

172.  Murps | 16/12/2015 @ 19:23 Répondre à ce commentaire

Nicias (#154), je pense avoir compris votre raisonnement. C’est de la physique à l’arrache avec les mains, façon pseudo-sciences effectivement.
Mais c’est une prévision qui n’est pas pire qu’une autre.

miniTAX (#169), en plus au passage cité, je n’ai toujours pas pigé pourquoi l’utilisation du gaz de schiste serait moins productrice de CO2. C’est selon que ça arrange les prévisionniste ?

173.  Bernnard | 16/12/2015 @ 20:52 Répondre à ce commentaire

Murps (#172),

je n’ai toujours pas pigé pourquoi l’utilisation du gaz de schiste serait moins productrice de CO2

C’est une considération assez générale:
C’est simplement lié aux formules brutes des hydrocarbures qui, pour les gaz de schiste, sont souvent plus riches en hydrogène et moins riches en carbone que les essences.
La combustion complète d’un hydrocarbure de schiste donne plus d’eau et moins de CO2 avec un meilleur pouvoir calorifique. Le méthane étant le meilleur !
Ce qui compte pour un carburant, c’est le rapport énergie thermique produite/ poids de CO2 émis par unité de masse de carburant.
Cependant, Intervient ensuite la conversion de l’énergie thermique suivant l’utilisation:
Si on s’intéresse à l’énergie mécanique par unité de masse de carburant, le rapport énergie mécanique /poids de CO2, le rapport est en faveur de l’utilisation du gasoil. C’est la technologie du Diesel qui marque un avantage.

174.  testut | 16/12/2015 @ 21:26 Répondre à ce commentaire

Murps (#172), Bernnard (#173),
en gramme par kilowattheure d’énergie finale, les émissions de CO2 des différents combustibles.
Combustible Emissions de Co2
Fioul domestique 300
Fioul lourd 320
Gaz naturel 234
Gaz propane ou butane 274
Charbon 384
Quand on veut pas se renseigner on reste dans l’ignorance ; Murps , Google , vous connaissez ?
il suffit par exemple de taper
calcul emission co2 gaz naturel
au lieu de poster des lignes inutiles sur ce blog

175.  Murps | 16/12/2015 @ 22:25 Répondre à ce commentaire

testut (#174), la plus petite valeur c’est 234 et la plus haute c’est 384. Compte tenu des approximations sur les chiffres industriels et de la proportion des différentes sources d’hydrocarbures ça doit pas changer de manière spectaculaire la production de CO2.

Là-dessus vos valeurs sont des moyennes, peut-être imaginez vous que la nature produit des hydrocarbures qui respectent exactement la norme écolo XMachin35truc ?
La réalité, c’est que les mêmes types d’hydrocarbures qu’on extrait d’un point ou d’un autre ont des compositions chimiques différentes.

Encore des explications alambiquées pour attribuer une baisse éventuelle du taux « global » de CO2 à une diminution de la production humaine ; on fait ce qu’on peut pour se rattraper aux branches.

il suffit par exemple de taper
calcul emission co2 gaz naturel

Et voila, c’est tout simple la physique ! y a qu’à demander à Google de vous calculer l’émission de CO2 naturel et hop !!!
Google donne ses valeurs, tant qui provient des plantes, tant des vaches qui pètent, tant du dégazage de l’océan, et hop ! on a un bilan aussi rutilant qu’une comptabilité certifiée par Ernst & Young.

Tout cela confirme bien la fange dans laquelle est tombée la climatologie. On croit faire de la science en bidouillant des chiffres…

176.  miniTAX | 16/12/2015 @ 23:23 Répondre à ce commentaire

Murps (#175), la production d’électricité par le gaz se fait avec des turbines (cycle de Brayton), donc avec un rendement bien meilleur que l’électricité produite par les centrales au charbon (cycle de Rankine). Une centrale électrique au gaz a un rendement dépassant facilement 60% et dans la majorité des cas, on dépasse 90% par la cogénération (production d’eau chaude pour le chauffage ou les process industriels) alors qu’une centrale au charbon, même la plus moderne à eau supercritique a un rendement inférieur à 45%. Car outre un rendement thermodynamique plus faible, les centrales au charbon doivent aussi faire fonctionner une foule d’équipements d’anti-pollution (soufre, particules…) imposées par les escrolos qui contribuent à… ajouter 5 à 10% d’émissions en CO2, ce n’est pas le cas des centrales au gaz.

Donc le upgrade du charbon au gaz, permis par un prix du gaz américain 2 à 3 fois plus bas que les prix européens ou japonais grâce au gaz de schiste se traduit mécaniquement par une réduction des émissions de CO2, surtout aux USA où plus de 50% de l’électricité est issus du charbon. Tout ça, c’est bien connu, il suffit de googler /sarc.

177.  lemiere jacques | 16/12/2015 @ 23:43 Répondre à ce commentaire

miniTAX (#176), oui et je crois même qu’une des unités les plus performantes de production d’électricité au gaz avec un rendement des meilleurs etait menacée de fermeture en allemagne, energiewende oblige ( bon on ouvre des mines de lignite ..) gosselin a du rapporter cela.

178.  Murps | 17/12/2015 @ 8:55 Répondre à ce commentaire

miniTAX (#176), j’entends bien, mais cela revient à répéter ce que j’ai signalé plus haut, le fait de passer d’une centrale au charbon au rendement thermodynamique de 45% à une centrale au gaz dont le rendement est de 60 % ne représente que 15 % d’économie de CO2, c’est pas non plus spectaculaire.

L’argument avancé comme quoi l’utilisation des centrales au gaz et le développement des hydrocarbures de schiste seraient à l’origine d’une baisse de production de CO2 visible sur les courbes de Mauna Loa me semble un peu gonflé sachant que la chine ouvre deux centrales à charbon par jour et que la qualité de vie (et donc la conso d’électricité) ne cesse de croître dans le monde.

179.  papijo | 17/12/2015 @ 8:59 Répondre à ce commentaire

miniTAX (#176),

Une centrale électrique au gaz a un rendement dépassant facilement 60%

Non, une centrale « à gaz » à condition qu’elle soit montée « en cycle combiné », c’est à dire avec chaudière de récupération et turbine à vapeur à l’aval de la turbine à gaz arrive péniblement à 60%, et à condition de lire toutes les lignes du contrat, c’est à dire en général:
– Sur PCI
– Pour une température ambiante de 10°C (de mémoire, au-delà, ça baisse)
– Au niveau de la mer
– Filtre à air super-propre
– Silencieux « pas trop énergique » (ou pas de silencieux)
– Avant transformateur de relevage,
– Avec quelques milliers d’heures de fonctionnement seulement (avant usure), etc.
Une chaudière à gaz banale à condensation pourra atteindre jusqu’à 105% de rendement (sur PCI évidemment, soit environ 95% sur PCS – GDF vend des « kWh PCS ») en production de chaleur seule.
Si on fait de la cogénération, les chiffres ne veulent plus dire grand chose. Le problème, c’est d’avoir un client qui accepte la chaleur à la température la plus basse possible. Si vous avez un client qui accepte de la chaleur à 20 à 25 °C, alors nos vieux EPR peuvent sortir du 100% de rendement. Si personne ne veut de cette « chaleur », alors la même centrale dépassera à peine les 30%.

181.  de Rouvex | 17/12/2015 @ 9:11 Répondre à ce commentaire

de Rouvex (#180), ps j’ai essayé de le raccourcir avec tinyurl mais j’ai raté mon coup, apparemment !

183.  testut | 17/12/2015 @ 9:50 Répondre à ce commentaire

Murps (#178),

seraient à l’origine d’une baisse de production de CO2 visible sur les courbes de Mauna Loa me semble un peu gonflé

C’est ce que vous avez retenu du poste 125 ci-dessus ?

184.  de Rouvex | 17/12/2015 @ 10:18 Répondre à ce commentaire

jG2433 (#182), Mais pourquoi je n’y arrive pas ??

185.  Bob | 17/12/2015 @ 10:38 Répondre à ce commentaire

de Rouvex (#180),
Merci. Entièrement d’accord avec ce texte.
C’est un problème quasiment insortable que d’essayer de vérifier/comprendre la logique d’un algorithme mal documenté que l’on n’a pas soi-même écrit. Donc, la plupart des résultats sont invérifiables.
Sans compter que la plupart du temps, les climatologues (et autres) ne sont forcément des experts en programmation…

Souvenez vous du Harry_read_me.txt qui montrait l’amateurisme, pour être gentil, des opérateurs…

La dernière version de Firefox (43.0) dispose d’un convertisseur automatique des URL en tinyurl…

186.  Christial | 17/12/2015 @ 13:36 Répondre à ce commentaire

Bob (#185),

Je crois que votre lecture de l’article est un cas particulier et restrictif, l’auteur va bien au delà.
Il traite plus généralement des études scientifiques réalisées avec l’outil informatique (tous je suppose) mais pas uniquement à partir d’un logiciel informatique qui traite, avec ses algorithmes, des données d’entrée.

L’auteur décrit un processus de production des études scientifiques non plus séquentiel mais avec des interactions complexes, informelles et mal documentées entre l’homme et son ordinateur donc avec ses logiciels, ses données structurées ou non structurées, ses représentations par l’interface homme-machine.

Dasn le cas d’algorithmes qui traitent des données d’entrée, sans ce que l’auteur appelle des « manipulations informatiques non visibles », ce reproche ne peut être formulé dans la mesure ou le code est ouvert, a fortiori s’il est bien documenté.
Je pense que les modèles informatiques utilisés par les experts du climat et repris par le GIEC sont dans ce cas.

187.  volauvent | 17/12/2015 @ 13:43 Répondre à ce commentaire


emissions concentrations CO2

C’est dingue, l’émission des océans tombe pile en coordination avec nos émissions anthropiques…

188.  Bob | 17/12/2015 @ 13:57 Répondre à ce commentaire

Christial (#186),

Je pense que les modèles informatiques utilisés par les experts du climat et repris par le GIEC sont dans ce cas.

Vous avez des infos documentées pour dire ça ?
Le GIEC ne reprend pas les modèles informatiques, il ne reprend que les résultats et les graphiques. Le GIEC ne produit qu’un travail de compilation et de synthèse.
La compétence des experts en matière de programmation a été en particulier discutée lors du Climategate.
Avez-vous lu le Harry_read_me.txt que Benoît recherchait ?

189.  Bob | 17/12/2015 @ 14:05 Répondre à ce commentaire

volauvent (#187),
La figure ?

Tout s’explique :
plus d’émissions des océans = océans plus chauds = plus d’évaporation= plus de nuages= sale temps = on se les caille = on allume le chauffage = plus de CO2.

Et voilà ! C’est bon pour un article dans Nature Climate change ?
Les referees (pal-review) disent que oui.
Et hop, c’est gagné. Encore une pub dans ma liste déjà longue !

190.  Christial | 17/12/2015 @ 15:54 Répondre à ce commentaire

Bob (#188),

Pour en revenir à l’interprétation de l’article, du moins ce que j’en comprends, il ne traite pas de la qualité de la conception et de l’implémentation d’un programme utilisé à des fins scientifiques mais du rapport du scientifique avec son ordinateur individuel qui conduit trop souvent à des processus de fabrication des études scientifiques opaques et invérifiables.

Pour répondre à la 2ème partie de votre commentaire, je ne dis pas que les algorithmes utilisés par les experts du climat sont bien conçus et bien programmés. Je ne dis pas non plus, pour répondre à la 1ère partie de votre commentaire, que les experts du GIEC sont professionnels en se contentant (si c’est le cas) de prendre pour argent comptant les résultats des modèles climatiques.

Je ne cherche pas à défendre le GIEC, je ne vois pas bien le rapport entre vos critiques du GIEC, certainement motivées, et l’objet de l’article. Même si, au final, le processus de production est tout aussi opaque.

191.  Bob | 17/12/2015 @ 16:06 Répondre à ce commentaire

Christial (#190),
Vous n’avez pas tort. J’ai extrapolé ce que j’ai pris pour des sous-entendus de l’article. Mais la question de la vérification par les referees des résultats des prévisions climatiques numériques reste posée.
Je ne vois pas un referee prendre le temps (et être capable) de vérifier des centaines de milliers (ou plus) de lignes de code plus ou moins commentées…si elles le sont. C’est infaisable.
C’est quand même un problème assez général qui se pose pour une quantité de simulations numériques non validées par les expériences.
Et c’est le cas, en climatologie.
Vous me direz que le processus de peer-review ne prétend pas garantir que les résultats rapportés sont exacts. Et c’est bien vrai.

192.  volauvent | 17/12/2015 @ 16:20 Répondre à ce commentaire

Bob (#189),

Désolé, j’ai du mal avec les url….c’était une figure tirée d’un post sur WuWt
http://wattsupwiththat.com/201.....the-pause/

193.  Bob | 17/12/2015 @ 16:22 Répondre à ce commentaire

volauvent (#192),
OK, la voilà :

C’est bien celle-là ?

194.  testut | 17/12/2015 @ 18:05 Répondre à ce commentaire

Bob (#193),
On plote quoi , des kilos de charbon contre des Giga tonnes de CO2?

Therefore I conclude:
Greenhouse gas increase is anthropogenic;

Plaisanterie à part , si maintenant chez watts on admet ceci , il ne restera bientôt plus que skyfall pour nier cette évidence

195.  Bob | 17/12/2015 @ 19:13 Répondre à ce commentaire

testut (#194),
Je ne sais pas trop. Ce n’est pas moi qui ai posté cette image. C’est Volauvent. A mon avis, cette image illustre le fait que le CO2 émis semble assez fidèlement proportionnel à la consommations globale d’énergie.
Par contre, l’échelle verticale me semble être des ppm.
Il faudrait voir si la valeur de la pente colle avec ce que l’on sait ou croit savoir. Et si c’est si simple, pas besoin de se casser le c.l avec les isotopes du carbone.

Ce n’est pas parce que c’est publié chez Watts que c’est admis. Watts publie beaucoup d’articles qui font polémiques et même certains avec lesquels il n’est pas lui-même, d’accord. C’est ça, l’esprit d’ouverture.

196.  testut | 17/12/2015 @ 21:03 Répondre à ce commentaire

Bob (#195),
Bon, pour ceux que ce graph intéresse , en ordonnée des ppm de CO2 et en abscisses des Million Tonnes of Oil Equivalent

pas besoin de se casser le c.l avec les isotopes du carbone.

Pourtant il y en a qui l’ont fait pour montrer que la courbe ci-dessus n’a rien à voir avec la combustion des fossiles , mais avec un esprit ouvert on peut admettre et défendre n’importe quelle théorie , l’essentiel étant que l’ouverture soit plus large que la science

197.  miniTAX | 17/12/2015 @ 21:54 Répondre à ce commentaire

papijo (#179),
Globalement, on est d’accord. Mais en science et plus encore en ingénierie, le diable est dans les détails.

Quand je parle de rendements de centrales au gaz, il s’agit bien sûr de turbines à cycles combinés, les turbines à cycle Brayton unique ne sont probablement plus jamais utilisées pour générer de l’électricité (sauf par Gazprom ou le Qatar peut-être, qui ont du gaz à revendre) car rejeter la chaleur à plus de 400°C en sortie de turbine serait un énorme gaspillage.

Contrairement à une chaudière, il n’y pas de problème à calculer le rendement ramené au PCI (c’est ce que font les fabricants de turbines), vu qu’on utilise bien dans une turbine à cycle combiné la chaleur de condensation du flux de sortie. Et puis ça ne change rien à la comparaison à une centrale à charbon quand le rendement est calculé pareil (/PCI, avant transfo, etc…). Et vous ne pouvez pas dire que le « rendement atteint péniblement 60% » alors que les turbines de série de Siemens font 60.75%, celles de GE font 61.4% (cf https://en.wikipedia.org/wiki/Combined_cycle ).

Quant à la température de sortie, elle n’est pas de 20°C à 25°C mais au moins 60°C, et adaptable selon les besoins (éventuellement même pour générer de la vapeur) donc c’est une chaleur assez « noble » pour une cogénération. D’autant plus qu’une centrale à gaz s’intalle facilement et peut être placée près de l’utilisateur (immeubles, zone industrielle…) pour mieux valoriser la cogénération, ce que ne peut pas faire une centrale nucléaire, donc vous ne pouvez absolument pas comparer les débouchés de cogénération de l’une à l’autre.

198.  Bob | 17/12/2015 @ 23:34 Répondre à ce commentaire

testut (#196),

mais avec un esprit ouvert on peut admettre et défendre n’importe quelle théorie

Non. C’est exactement le contraire. Avec un esprit ouvert, on écoute les autres calmement. On pèse les pour et les contre et on n’admet et ne défend aucune théorie.

199.  volauvent | 17/12/2015 @ 23:48 Répondre à ce commentaire

Bob (#193),

Oui, c’est la courbe des concentrations de CO2 dans l’atmosphère en fonction des émissions anthropiques, sur le long terme.
Si le calcul des émissions n’est pas trop faux (ce que je n’ai pas vérifié) cela rend quand même difficile de dire que les deux n’ont rien à voir entre eux, et que c’est la température qui provoque la concentration.

200.  papijo | 17/12/2015 @ 23:53 Répondre à ce commentaire

Quelques précisions:
– Dans un cycle combiné, on utilise les gaz de sortie à 450 / 500°C pour produire de la vapeur. La vapeur fait tourner une turbine à vapeur, puis est condensée par échange avec par exemple de l’eau de rivière, de l’eau d’une tour de refroidissement, ou de l’air. Cette eau (aux alentours de 20 / 25°C) ou cet air sont « perdus » (dans certains cas la vapeur peut être injectée dans la turbine principale … je ne parle pas de ce cas particulier)
– J’ai écrit « température de sortie », j’aurais du écrire « température de sortie du fluide de refroidissement ». Dans notre cas, c’est la température à l’entrée de la tour de refroidissement ou au rejet en rivière.
– Si on veut produire de la chaleur à partir d’une telle installation, on réalise un « soutirage » sur la turbine à vapeur pour extraire de la vapeur à des pressions typiquement de 12 à 20 bars suivant les besoins
– Une turbine en cycle combiné de « centrale », c’est plusieurs centaines de MW, et on ne met pas ça au pied d’un immeuble. Une turbine « industrielle » de quelques dizaine de MW, on peut la mettre à quelques centaines de mètres et la relier au réseau de chauffage, mais votre rendement sera certainement inférieur à 50 ou 55%
– La turbine en cycle combiné pur (sans cogénération) ne sort pas des gaz à 60°C (chercher des explications sur internet à partir de « température d’approche » ou « pinch point »), cela ne servirait à rien de descendre les températures au-dessous de (de mémoire) plus de 120 ou 130 degrés. (Par exemple ici, vous trouverez un exemple de cycle sur turbine industrielle avec des gaz entrée chaudière à 560°C et … température de sortie des gaz à 192°C. Dans les grosses centrales, on utilise plusieurs niveaux de pression (par exemple 3 niveaux au lieu d’un seul ici correspondant à la marche de la courbe bleue), ce qui permet de descendre un peu ces températures, mais pas à 60°C !

NB: Pour parler de rendements, votre lien contient cette phrase qui illustre ce que je disais plus haut:

The electric efficiency of a combined cycle power station, if calculated as electric energy produced as a percent of the lower heating value of the fuel consumed, may be as high as 58 percent when operating new, i.e. unaged, and at continuous output which are ideal conditions