Une critique des Modèles de Circulation Générale

Publié le 7 mai 2014 chez Anthony Watts

Extrait de commentaires de blog, en réponse à une intervention.

 Par le Dr Robert G. Brown, de l'Université de Duke

Traduit par Volauvent

Frank K: vous êtes dans le vrai avec votre évaluation des Modèles de Circulation Générale (MCG). Malheureusement, ceux qui croient en leur capacité à prédire le climat futur ne veulent vraiment pas parler des équations différentielles, méthodes numériques ou conditions initiales et aux limites que comprennent ces codes. C'est là que sont les vrais problèmes …

RGB : Eh bien, attention à votre façon de le dire. Ceux qui croient en leur capacité à prédire le climat futur et qui ne sont pas dans le métier ne veulent pas parler de tout cela, et ceux qui ne sont pas experts en modélisation prédictive et statistiques en général préfèrent dans de nombreux cas ne pas avoir une discussion détaillée sur la difficulté de bien valider un modèle prédictif – un processus qui, fondamentalement, ne se termine jamais tant que de nouvelles données entrent en jeu.

Cependant, la plupart des MCG sont bien, et assez publiquement, documentés. C'est juste que, à moins d’avoir un doctorat (par exemple) en physique, une connaissance des mathématiques générales, des statistiques, de l'informatique et du calcul numérique qui suffirait à vous faire gagner au moins un diplôme de maîtrise dans chacun de ces sujets si elle est acquise dans le cadre d'un programme d'études, ainsi que des spécialisations importantes dans les domaines généraux de la dynamique des fluides et la science du climat, vous n’en savez pas assez pour commenter intelligemment ​​le code du modèle lui-même. Vous ne pouvez le commenter que comme une boîte noire, ou faire un commentaire sur un minuscule aspect  de code, ou de physique, ou d'initialisation, ou de méthodes, ou de résolution, ou de moteurs dynamiques, ou sur la moyenne, ou sur la résolution spatio-temporelle, ou …

Tenez : j'ai fait un doctorat en physique théorique. J'ai terminé quelque chose comme six classes de niveau d'études supérieures de mathématiques (pour la plupart en premier cycle, mais deux fois comme étudiant diplômé en physique). J'ai enseigné en études supérieures l'électrodynamique (et écrit un livre sur) et c’était essentiellement un cours à peine dissimulé sur les équations aux dérivées partielles elliptiques et hyperboliques. J'ai écrit un livre sur le calcul informatique à grande échelle en « clusters » que les gens utilisent encore lors de l’établissement de clusters, et j’ai plusieurs giga-octets de code sous Subversion [Ndt : un logiciel collaboratif utilisé en développement informatique]. Je ne compte pas le nombre de langages que soit je connais bien ou ai écrit dans au moins un programme (même datant du temps où on écrivait les codes sur ​​une bande de papier). J'ai cofondé deux sociétés sur la modélisation prédictive de pointe sur la base de codes que j'ai écrit et sur un processus pour faire de l'inférence bayésienne indirecte sur des sujets comme  la vie privée ou d'autres données aux limites qui a été longtemps un brevet en attente de licence, avant que d'essayer de défendre ce brevet ne me devienne trop coûteux et envahissant ; la deuxième société existe encore et si elle fait encore des progrès substantiels, peut être un jour me fera-t-elle riche. J'ai conduit des simulations Monte Carlo avancées à partir d’échantillonnages importants, c’est ce qui a constitué mes recherches initiales pendant environ 15 ans avant que je passe à autre chose. J'ai appris un bon bout de science du climat. Je ne manque fondamentalement de connaissance approfondie et d'expérience qu’en dynamique des fluides calculée par ordinateur par rapport à la liste ci-dessus (et je comprends les concepts assez bien, mais ce n'est pas la même chose que l'expérience directe ) et j'ai encore du mal à naviguer dans, par exemple, la documentation 3.1 CAM, et encore plus de mal à travailler dans le code open source, en partie parce que le code est terriblement mal organisé et mal documenté en interne au point que d'essayer juste de l'installer nécessite de s’y consacrer avec ardeur et une ou deux semaines d'effort.

Oh, et ai-je mentionné que je suis aussi un programmeur et administrateur de systèmes de réseaux expérimenté ? Donc, je comprends effectivement assez bien les outils sous-jacents nécessaires à la construction de MCG…

Si j’ai du mal à pouvoir – par exemple – tout simplement reconstruire une base de code publié en open source et l'exécuter sur un système personnel pour regarder le tout fonctionner et arriver à une conclusion, et encore moins commencer à réorganiser le code, remplacer les composants sous-jacents tels que leur absurde maillage en latitude et longitude sur la surface d'une sphère par des pavages symétriques modifiables pour rendre le code adaptatif, isoler les différents sous domaines de la physique qui contribuent de sorte qu'ils peuvent être facilement modifiés ou remplacés sans affecter d'autres parties du calcul, et ainsi de suite, vous pouvez parier qu'il n'y a qu’une poignée de personnes dans le monde qui vont être en mesure de le faire et disposés à le faire sans un salaire et un soutien substantiel. Comment peut-on obtenir le salaire, le soutien, l'accès aux ressources de supercalculateurs à l’échelle des besoins du processus ? En demandant des subventions (et avoir assez de temps pour faire le travail, dans un environnement capable de fournir le soutien nécessaire en échange d'argent, avec le soutien implicite du département ou vous travaillez) et obtenir ces subventions pour faire votre projet.

Et qui contrôle qui, de la petite poignée de gens assez largement compétente dans la liste ci-dessus pour avoir une bonne chance d'être en mesure de gérer l'ensemble du projet sur ​​la base de leurs propres connaissances et compétences, et qui a le temps et le soutien indirect etc…, pour obtenir le  financement ? Qui examine les subventions ?

Pourquoi entrer en contradiction avec ceux-là mêmes qui ont tous un certain nombre d'intérêts particuliers dans l'existence d'une situation décrite comme une urgence (catastrophique). En effet, sans une situation d'urgence, le gouvernement américain pourrait financer deux ou même trois efforts distincts pour écrire un modèle climatique qui fonctionne, mais il ne financerait jamais quarante ou cinquante de ces efforts. Il n’est dans les meilleurs intérêts de personne dans ce groupe d'admettre des étrangers – tous ces groupes ont des étudiants diplômés qu’ils doivent placer, des perspectives d’emploi à concrétiser pour ceux qui ne seront pas maintenus dans la recherche, et cela requiert de ne pas contrarier leurs amis et collègues. Comme il est noté dans le cinquième rapport d'évaluation [RE5] – des plus ou moins 36 modèles pris en compte par le CMIP5 du GIEC, ce n’est pas comme si il y avait 36 modèles indépendants – les modèles, les données, les méthodes, le code sont toutes les variantes d'une poignée de lignes de code " mémétiques " (Ndt : algorithmes évolutifs). Ils sont différenciés dans leurs détails par des étudiants diplômés sur la base de leur propre version du code qu'ils ont utilisé à l'école et  présentés comme un nouveau programme financé dans une nouvelle école ou institution.

A mon avis, résoudre le problème des MCG c’est tenter de résoudre un problème qui est un défi considérable en informatique. Il n'est pas du tout surprenant que les solutions à ce jour ne fonctionnent pas très bien. Ce serait plutôt surprenant si elles le faisaient. Nous n'avons même pas les données nécessaires pour initialiser intelligemment les modèles que nous avons construits, et ces modèles ont quasi certainement une résolution spatio-temporelle totalement inadéquate, sur un maillage incroyablement stupide, non adaptable, pour une sphère. Ainsi, les programmes ne peuvent carrément pas être configurés pour fonctionner à une résolution plus fine sans qu’il faille réécrire fondamentalement le tout, et une telle réécriture ne ferait qu’aggraver le problème au niveau des pôles – la quadrature sur une surface sphérique en utilisant une grille latitude/longitude est connue depuis longtemps pour être extrêmement difficile et pour donner lieu à des artefacts et des erreurs d’estimations à peu près incontrôlables.

Mais jusqu'à ce que les gens qui font des «statistiques» sur les résultats des MCG reviennent à la raison et cessent de considérer chaque MCG comme si il était une partie d’un échantillon indépendant et identiquement distribué, tiré d'une distribution de codes de MCG parfaitement écrits, avec des erreurs inconnues mais sans biais, et ce qui est précisément ce que le RE5 du GIEC  considère,  le public sera « protégé » en toute sécurité de toute connaissance « dangereuse » de l'impossibilité actuelle des MCG à faire de la prévision ou de la simulation rétrospective qui soient  particulièrement précises en dehors de l’intervalle de référence.

Et pourtant c’est explicitement reconnu dans l'article 9.2 du rapport du GIEC par précisément deux paragraphes cachés soigneusement dans la masse. Ils signifient en gros que les estimations et les "intervalles de confiance" figurant au début du chapitre 9 sont essentiellement des foutaises d’opinions de personnes humaines, pas quelque chose qui peut être soutenu par une quelconque analyse statistique relevant d’une axiomatique correcte.

Source.

193 Comments     Poster votre commentaire »

51.  volauvent | 24/06/2014 @ 15:34 Répondre à ce commentaire

Murps (#49),

lisez un peu ce que j’écris, je me cite:

Les modèles de circulation ne sont pas n’importe quoi; les prévisions météo à 5 jours cela marche à peu près. Le problème est l’extrapolation à des périodes sur cent ans…et le fait que les modélisateurs se persuadent qu’ils peuvent y arriver alors que le simple bon sens montre que la complexité du problème est pour le moment insurmontable; sur le plan théorique, G&Tl’ont bien montré.

ce n’est pas la peine de me paraphraser.
Par contre, je ne dis pas que les modélisateurs sont des débiles et qu’ils ignorent ce qu’est un gradient adiabatique ou l’entropie. Je dis simplement qu’ils se laissent déborder par le sujet.
En outre, l’eau, le CO2 et quelques autres ont bien un effet sur l’atmosphère, en modifiant son épaisseur optique sur certaines bandes d’infrarouge; le diamètre apparent d’émission étant plus grand mais la puissance émise étant la même, et la température aussi, cela décale vers le haut les températures de la troposphère.(si on néglige les variations du gradient, ce que je ne sais pas juger)
De combien, je n’en sais rien et à mon avis personne ne le sait.
Mais pour moi, les dragon slayers sont bien des tueurs de fantôme.

52.  MichelLN35 | 24/06/2014 @ 18:41 Répondre à ce commentaire

volauvent (#51),

Vous dites : « Par contre, je ne dis pas que les modélisateurs sont des débiles et qu’ils ignorent ce qu’est un gradient adiabatique ou l’entropie. Je dis simplement qu’ils se laissent déborder par le sujet. »

Que dit Le Treut de ses modèles dans l’exergue de son texte : Les modèles numériques … sont cependant des outils imparfaits car ils combinent une base physique très forte, avec
des éléments d’empirisme inévitables, qui reflètent la complexité des milieux naturels et génèrent une incertitude sur les résultats.

Ce la me semble curieux d’un point de vue épistémologique, ce n’est certes pas « débile » mais cela me semble initier une démarche bien arrogante pour un scientifique, modeste comme il se doit.

Il oppose d’emblée les bases physiques (idéales, accomplies, achevées, sûres) à la sale réalité empirique, moi je préférerais, comme Courtillot, commencer par une description aussi fidèle que possible de la réalité naturelle avec des instruments ou des proxies que je pourrais calibrer avec précision et robustesse en assimilant de façon critique la littérature passée sur le sujet, y compris dans ses aspects théoriques successivement réfutés.

Ensuite, ensuite seulement, je tenterais prudemment d’interpréter les données obtenues puis de construire sur mon interprétation un modèle qui ne sera validé, pour un temps, que pour la durée de sa capacité de prévision.

Pour Le Treut, c’est la réalité empirique (naturelle) inévitable qui est « responsable » de l’imperfection des modèles. Ce n’est jamais sa physique qui a tort, ce sont les données et la nature.

J’appelle cela une position dogmatique, et elle se traduit logiquement, dans la fin du document, par une prise de position politique utilisant de moyens quasi-terroristes. Sa péroraison sur les giga-tonnes de C à ne pas produire pour nécessairement arriver à abaisser notre niveau de vie à celui des chinois est tout à fait effrayante. Il dit : Ces objectifs ne sont pas réalistes dans les conditions actuelles.

Mais, sous-entendu, il faudra bien en passer par là, c’est digne de Cousteau. Il poursuit : Ce qui sera réalisé ne sera qu’une partie de l’effort nécessaire (ce qui reste une contribution intéressante, car susceptible de diminuer ce qui constitue le danger majeur du changement climatique à venir : sa vitesse), mais il sera négocié très durement.

Je rappelle que, selon von Clausewitz, la guerre est le prolongement de la politique par d’autres moyens. N’oublions pas que ce sont ces « idées » qui seront développées dans la formation des enseignants dans l’UVED de VMD.
Pour ce soir je laisse ces premières remarques à vos réflexions, mais je vais préparer quelques autres analyses sur ses positions scientifiques et en particulier son assimilation de la terre à un corps noir et donc sa défense du « mouvement perpétuel » qui justifie mon doute sur sa « compréhension » de l’entropie.

53.  the fritz | 24/06/2014 @ 21:44 Répondre à ce commentaire

MichelLN35 (#52),

Pour Le Treut, c’est la réalité empirique (naturelle) inévitable qui est « responsable » de l’imperfection des modèles

C’est un constat d’échec de sa part ; où a-t-il dit ceci ?

54.  miniTAX | 25/06/2014 @ 0:08 Répondre à ce commentaire

Ce la me semble curieux d’un point de vue épistémologique, ce n’est certes pas « débile » mais cela me semble initier une démarche bien arrogante pour un scientifique, modeste comme il se doit.

MichelLN35 (#52),
Bah si, c’est totalement débile, et mensonger, typique de la bouillie leTreutienne. Débile parce que dire que « les modèles numériques sont des outils imparfaits », c’est aussi intelligent que de dire, en plus long et ennuyeux, que « l’eau, ça mouille ». Mensonger parce que contrairement aux modèles climatiques, les outils même imparfaits, ça sert à quelque chose et parce que la « base physique très forte des modèles », il la sort du chapeau : les modèles sont d’un simplisme à pleurer et ne sont mêmes pas fichus par exemple de dire s’il y aura plus, ou moins, de nuage avec un réchauffement !

Bref, c’est du même niveau que la litanie de son coreligionnaire Jouzel, alias monsieur « les modèles arrivent à prédire le passé » : stupidité et tromperie en permanence.
Mais hé, c’est la « science » climatique.

55.  volauvent | 25/06/2014 @ 9:12 Répondre à ce commentaire

MichelLN35 (#52),

Les remarques que vous faites sur le texte sont très justes, et me confortent dans l’idée que ce texte (peut être un peu trop ancien, il date de 2005) aborde de façon assez complète toute la problématique du débat qu’il soit purement scientifique, épistémologique et sociologique (le dernier paragraphe, en effet, est sidérant puisqu’il « officialise » en quelque sorte le militantisme scientifique dirigé vers le monde socio-politique.)
Il y a à la fois de l’arrogance et de la naïveté puisque si on l’analyse, le texte met involontairement en évidence les incohérences et faiblesses de la démarche.
Y a t il un texte du même tonneau mais plus récent?

56.  de Rouvex | 25/06/2014 @ 10:12 Répondre à ce commentaire

MichelLN35 (#52), Lyssenko disait la même chose, les ordinateurs en moins !

57.  Scaletrans | 25/06/2014 @ 12:00 Répondre à ce commentaire

de Rouvex (#56),

Le RCA, c’est le Lyssenkisme + l’électricité ? ➡

58.  Stephane | 25/06/2014 @ 15:30 Répondre à ce commentaire

Il y a pas mal d’années, j’avais discuté avec un informaticien de la SNCF, qui bossait sur le système de réservation, si je me souviens bien. Il me disait que le coeur du système avait été développé il y a longtemps, et qu’il n’y avait plus personne avec les connaissances nécessaires pour le maintenir. Du coup, pour faire des modifs hors du coeur, ils considéraient celui-ci comme une boite noire et faisait des tests en envoyant des inputs et en regardant les outputs correspondants. Et là, on parle pas de systèmes complexes chaotique eu quoi que ce soit. Donc j’imagine le niveau de fiabilité de modèles ultra-complexes modifiés mille fois depuis des années !

59.  MichelLN35 | 25/06/2014 @ 16:06 Répondre à ce commentaire

volauvent (#55),

Je viens d’aller sur un blog de l’express où HLT s’exprimait jusqu’en juin 2010. Il y a pas mal de perles très intéressantes dans les textes et les discussions scientifiques ou politiques.
C’est ici : http://blogs.lexpress.fr/le-climatoblog/

J’y ai vu JPB29 dans une discussion sur l’acidité des océans.

60.  MichelLN35 | 25/06/2014 @ 19:37 Répondre à ce commentaire

volauvent (#55),
miniTAX (#54),

Voici une deuxième séries de citations du texte de HLT qui me semblent, comme dit miniTAX relever soit de la débilité, soit de mesures caractérisées d’enfumage des politiques et du public, même un tout petit peu éclairé ou savant.

H. Le Treut : Les modèles incluent aussi une représentation, elle aussi nécessairement simplifiée, des sources de chaleur : il s’agit de décrire la chaîne des processus qui permettent que l’énergie reçue du Soleil soit exactement compensée par l’énergie émise par le système terre-océan-atmosphère.

Plus loin :

…. Pour rendre à l’espace l’énergie qu’elle reçoit du Soleil, la Terre émet elle aussi un rayonnement électromagnétique, dans le domaine infrarouge, c’est-à-dire dire dans une gamme spectrale allant de 5 à 100 micromètres.
L’émission provient de la surface de la planète, mais aussi de certains gaz minoritaires de l’atmosphère – dits gaz « à effet de serre » – et des nuages. L’étude du transfert radiatif dans l’atmosphère constitue un problème physique assez bien compris, même s’il subsiste des incertitudes – par exemple en présence de nuages à la géométrie complexe.

A mon avis il y a ici une conception des échanges énergétiques qui considère la terre majoritairement comme un corps noir ou gris, dans ses échanges avec son environnement, seul le corps noir (ou gris) émet sous forme électromagnétique et de façon équilibrée toute l’énergie électromagnétique qu’il reçoit, sans en réfléchir ni en transmettre dit Wikipedia.

Certes Il n’est fait aucune autre hypothèse sur la nature de l’objet (Wiki) ; mais seule une surface dans le vide peut convenir, car s’il y a un gaz (atmosphère) ou un autre fluide (océan) il va forcément y avoir transfert d’énergie cinétique, ou chaleur, par conduction, en outre, et dans la réalité la meilleure approche de ce corps idéal est la cavité isolée non conductive et non réfléchissante. Même une sphère solide, comme la lune n’approchera pas d’UN corps noir du fait de sa géométrie de la nature de son « sol » et de son mouvement.

Ce qui me fait pencher vers l’enfumage savant c’est 1) d’abord la présentation par Bard de cette théorie des réchauffistes et carbocentristes français dans La Recherche.

Bard La Recherche 356 bac to basics 09 2002 : Qu’est-ce que l’effet de serre ?
En deux mots, c’est un réchauffement de la Terre, des océans et de l’atmosphère dû à la rétention, par un certain nombre de gaz atmosphériques, d’une partie de la chaleur induite par les rayons du Soleil.

Pour bien comprendre de quoi il s’agit, il faut se remémorer quelques notions de physique du rayonnement électromagnétique. Tout corps émet un rayonnement dont l’intensité et la longueur d’onde principale dépendent de sa température. Ainsi, un objet tiède, comme un radiateur, émet des infrarouges. Le filament d’une lampe émet de la lumière visible, car il est porté à plusieurs milliers de degrés. Le Soleil aussi rayonne, principalement dans les longueurs d’onde visibles.

Admirez l’entourloupe du « radiateur » qui certes émet des infrarouges mais ne chauffe pas les appartements de cette façon, au moins ceux du chauffage central ou les convecteurs électriques qui comme leur nom l’indique augmentent l’énergie cinétique des molécules d’air, plus de 99% par ailleurs insensibles aux IR émis. Cet abus de langage n’est pas d’un débile mais d’un prestidigitateur mal intentionné.

Et 2) dans le texte de HLT il y a ensuite ceci :
… Tout d’abord, malgré la sophistication croissante des modèles la fourchette dans laquelle se situent les résultats évolue peu. De plus, aucun modèle ne se montre insensible à l’augmentation des gaz à effet de serre. Personne n’a réussi à mettre en évidence de rétroaction négative suffisamment forte pour modérer efficacement la réponse climatique, dans le cadre fortement contraint par les lois de conservation de la physique que constituent les modèles.
Les modèles étant construits sur la base de l’EdS des gaz, ce serait vraiment bête qu’ils y soient insensibles. C’est un raisonnement parfaitement circulaire pour enfumer les crédules. Et il poursuit en imposant des lois de la physique qui ne s’appliquent pas au sujet, donc personne ne pourra mettre les modèles en défaut. De la parfaite fausse science, à mon avis HLT en est tout à fait conscient et ce n’est pas débile mais intentionnel.

Enfin, il tente d’enfermer les contestataires dans une nasse en leur retournant la charge de la preuve. C’est digne d’un bonimenteur, pas d’un scientifique épris de vérité.

Au fil des années, la complexité des processus réels a été prise en compte, et l’éventail des futurs possibles s’est ouvert. Mais rien n’est revenu mettre en cause la prévision initiale, et la charge de la preuve est désormais entièrement retournée : le dossier scientifique est désormais instruit suffisamment en profondeur pour que ce soit à ceux qui prétendent que le climat ne peut pas changer d’apporter des éléments à l’appui de leurs assertions.

Pour le coup, personne ne prétend que le climat ne peut pas changer, c’est un strawman, rien d’autre, destiné à berner les gogos, pour le plus grand profit de son « employeur » d’occasion, Greenpeace.
(cf http://acces.ens-lyon.fr/eedd/climat/do…/climpact/ ) avec Jouzel en 2005.

61.  scaletrans | 25/06/2014 @ 20:42 Répondre à ce commentaire

MichelLN35 (#60),

Normalement (mais nous ne sommes pas dans un monde normal), HLT ne devrait pas s’en remettre. J’aime beaucoup le coup du radiateur qui émet des IR, mais chauffe par convection: je la ressortirai !

62.  phi | 25/06/2014 @ 20:54 Répondre à ce commentaire

MichelLN35 (#60),
Votre dernier point sur le retournement de la charge de la preuve est bien vu mais je ne comprends pas pourquoi vous focalisez tant sur ce corps qui ne serait ni noir ni gris.

Le fait est que notre planète absorbe continûment une grande quantité d’énergie provenant du soleil et qu’elle doit bien l’évacuer. Elle ne dispose pour cela que du rayonnement IR et on observe qu’une partie de ce rayonnement n’est pas issu de la surface mais de l’atmosphère grâce aux GES.

Le dit effet de serre n’est rien d’autre que cela, que trouvez-vous de problématique là-dedans ?

63.  lemiere jacques | 25/06/2014 @ 23:36 Répondre à ce commentaire

fascinant l’énergie que les gens déploient pour infirmer une affirmation idiote qui est que le fait que des modèles aient réussi à reproduire le climat du passé « correctement » prouve qu’ ils ont des capacités prédictives…

non… tout simplement.

la complexité permet juste de dissimuler les hypothèses et de faire passer une possibilité non rejetable comme une espèce de vérité ou de scénario …

et le fait qu’n modèle prédise un peu ne prouve absolument pas qu’il repose sur des hypothèses qui sont la réalité.

64.  MichelLN35 | 26/06/2014 @ 18:41 Répondre à ce commentaire

phi (#62),

Voici une deuxième série de réflexion sur les textes de HLT Bard, ensuite je commenterai votre remarque.

Merci de votre intervention, vous posez je crois la bonne question, à laquelle un non physicien comme moi ne devrait pas pouvoir proposer de réponse. Cependant, c’est celle à laquelle je me suis heurté depuis bien longtemps et pour laquelle en ma « qualité » de profane (layman) en physique, j’ai cherché l’origine de mon incompréhension.

Tous les corps astronomiques gravitant autour du soleil reçoivent de ce dernier en permanence de l’énergie électromagnétique proportionnellement à leur distance 1/r2 et cependant leur température de surface (agitation moléculaire, vibration ou chocs) ou, lorsqu’ils ont une atmosphère ou sont gazeux, leur gradient adiabatique, sont considérés peu variables. En déduire que c’est en raison d’une évacuation de l’énergie reçue de manière radiative et justifier ainsi un « bilan radiatif équilibré, » comme des corps noirs, est à mon avis une fausse bonne idée.

Nous avons un bon objet d’étude à notre disposition, c’est la lune depuis Apollo 15 et 17. Sans atmosphère, certains y ont tout de même trouvé une situation qualifiée ironiquement d’ « effet de serre ». Notre satellite voit sa température de surface varier considérablement tous les jours lunaires (28 j. terrestres), par exemple à l’équateur lunaire, du lever du jour ~ -193 °C, à midi (7j.t. plus tard), ~ +100 °C (et non 385 K = 112°C comme le voudrait la loi du Corps noir en tenant compte de l’albédo), puis retour au crépuscule (+ 7j.t.) vers –173°C et enfin, la nuit (14 j.t.) perte d’environ 20°C. voir la bibliographie ici : http://dropcanvas.com/00rhf

La perte nocturne correspond au fameux « effet de serre » et est attribuée à un retour vers la surface de la chaleur emmagasinée dans la régolite pendant le jour. Les mesures à différentes profondeurs ont montré que l’effet jour-nuit disparaît vers 0.5m. L’observation de la rapidité d’une baisse de température de surface lors d’une éclipse de ~2 heures, indique, à mon avis, que la remontée de l’énergie du fond vers la surface se fait probablement par conduction dans une poudre (régolite) par les points de contact entre grains et non par radiation.

L’analogie proposée par différents auteurs avec l’effet de serre, correspond au fait que la température de jour est plus faible que celle prévue pour un corps noir et que la température de nuit est plus élevée, non seulement en raison du clair de terre mais, en outre, en raison d’un stockage de chaleur (énergie cinétique) dans la régolite.

Cette gestion de la partie de l’énergie électromagnétique incidente transformée en énergie cinétique (chaleur) est relativement faible sur la lune parce que la conduction possible est faible en raison du vide. Mais en aucune façon il n’y a de possibilité d’un « emballement »

Pourquoi la lune ne stocke-t-elle pas de chaleur sur une plus grande épaisseur au niveau de son équateur, car ailleurs en latitude, bien sûr, la température maximale de surface (à midi) est beaucoup plus basse ? La principale raison de cette limite c’est le caractère poudreux, donc isolant du substrat de stockage de la chaleur ; mais il a pu y avoir stockage plus profond sur une durée importante, par exemple en fonction des variations de l’albédo terrestre.

Sur terre l’océan, la végétation, et même les 99+% de gaz sans prétendu effet de serre, ont une capacité thermique beaucoup plus importante et aussi des mouvements qui permettent de répartir la chaleur vers les endroits les plus froids, car recevant moins d’énergie électromagnétique, en latitude comme en altitude. Les fluides essentiellement sont donc responsables d’une régulation homéostatique dans la répartition de l’énergie calorique en équilibre avec l’énergie électromagnétique incidente et ses variations en fonction de l’activité solaire et des paramètres orbitaux.

65.  MichelLN35 | 26/06/2014 @ 18:52 Répondre à ce commentaire

phi (#62),

Vous dites : Le fait est que notre planète absorbe continûment une grande quantité d’énergie provenant du soleil et qu’elle doit bien l’évacuer. Elle ne dispose pour cela que du rayonnement IR et on observe qu’une partie de ce rayonnement n’est pas issu de la surface mais de l’atmosphère grâce aux GES.

Je réponds non, l’énergie que nous recevons sous forme électromagnétique est partiellement transformée de manière irréversible en énergie calorique (chaleur), ou potentielle susceptible de redonner de l’énergie calorique, ou de l’albédo mais en réalité très, très peu d’énergie électromagnétique, contrairement au cas d’un corps noir ou gris.

C’est pourquoi je pense qu’il n’est pas raisonnable de proposer un bilan (budget) radiatif équilibré. La température en chaque point de la planète terre et à chaque instant témoigne de l’équilibre entre énergie électromagnétique reçue et la part de cette énergie transformée de façon irréversible en chaleur qui caractérise ce lieu, d’où qu’elle vienne, rien d’autre.

Il n’y a pas de nécessité de refroidissement, la conduction transfère d’un lieu chaud à un lieu froid les calories qui lui manquent, et la convection, dans l’atmosphère, transporte l’air des hautes pressions vers les basses.

La succession des périodes glaciaires et interglaciaires sur plus d’un million d’années dans des limites parfaitement expliquées pour la chaleur et les transferts de masse de l’eau des océans vers les zones polaires et retour, par les paramètres orbitaux, est la meilleure preuve de cette régulation homéostatique, sans besoin de faire appel à des GES. (cf le fil Lindzen)

HLT et Bard comprennent bien le système comme je le présente :
Bard en 2003 : Le système Terre-atmosphère reçoit un flux solaire moyen de 342 watts par mètre carré (fig. 1) (I). La plus grande partie de ce rayonnement (environ 70 %) est absorbée soit par l’atmosphère (20 %), soit par la surface de la Terre (50 %), et transformée en chaleur. La surface terrestre ré-émet un rayonnement infrarouge vers l’atmosphère.

Or, plusieurs composants chimiques de celle-ci absorbent les infrarouges, puis les ré-émettent dans toutes les directions. Une partie retourne vers la surface terrestre, laquelle s’échauffe encore un peu plus : c’est l’effet de serre (II, III).
Celui-ci assure actuellement à la surface de la Terre une température moyenne de 15 °C. Sans lui, elle plongerait à environ – 18 °C.

Et HLT en 2005 : La valeur de l’insolation au sommet de l’atmosphère (aux alentours de 1 370 W/m2) a été estimée dès le siècle dernier à partir des observatoires en altitude ; elle est désormais mesurée par satellite. Cette énergie solaire n’est pas absorbée dans sa totalité par la Terre : 30 % environ sont réfléchis vers l’espace, 50 % traversent l’atmosphère et chauffent le sol ou les océans, 20 % chauffent directement l’atmosphère.

Avez-vous bien vu les différences ? HLT ne parle plus de 342 W.m2, il ne parle pas non plus de chaleur mais de l’action de chauffer, plus haut nous avons vu qu’il ne parle que de transferts énergétiques radiatifs équilibrés pas d’énergie cinétique, son langage n’est pas incorrect mais il ne dit rien des conditions de transformation de l’énergie cinétique (chaleur issue du chauffage) en énergie électromagnétique.

Bard n’en dit rien non plus sauf qu’il suggère fortement un rayonnement calorique : La plus grande partie de ce rayonnement (environ 70 %) est absorbée … et transformée en chaleur. La surface terrestre ré-émet un rayonnement infrarouge vers l’atmosphère.

Il ne l’a pas vraiment dit mais !!!! Y croit-il ? À son niveau de connaissance cela ne devrait pas être possible, donc je crois qu’il veut tromper le profane.

En tout cas, moi j’ai été abusé pendant longtemps, en croyant à l’existence d’un rayonnement thermique spécifique ; j’ai entrevu la lumière quand j’ai compris la notion de dégradation de l’énergie, et que le 2e principe disait qu’une agitation moléculaire intense ne pouvait que devenir moins intense en se transmettant par conduction à un corps plus froid. Bob, dans le fil sur Spencer, m’a ensuite conforté définitivement en insistant sur la différence de nature entre énergie radiative et énergie calorique.

Pour conclure, je voudrais éclaircir la notion de budget, ou de bilan énergétique qui induit une analogie trompeuse avec l’aspect financier d’un budget équilibré, d’un ménage ou d’un voyage à l’étranger. Chacun sait que l’on ne peut acheter plus de valeur que l’on ne dispose d’argent, disons d’Euros pour un voyage en Afrique dans la zone Franc CFA.

Pour régler vos dépenses locales vous devez acheter du Franc CFA (énergie calorique) avec des Euros (énergie électromagnétique), équilibrer le budget est pratiquement impossible, il reste toujours des CFA, comme l’énergie calorique, ils ne sont pas convertibles, il n’y a pas de perte d’énergie 1er principe (valeur) mais l’excédent ne peut être dépensé que sous forme CFA sur place, 2e principe.

66.  jdrien | 26/06/2014 @ 19:28 Répondre à ce commentaire

MichelLN35 (#64),
Une petite question au sujet de la Lune; celle-ci n’ayant pas d’atmosphère, quelle température mesure-t-on ? celle du sol en surface sans doute ? Or sur Terre, on mesure la température dans l’atmosphère à 1 m du sol -parce que c’est là qu’on vit- mais qu’en est-il de la température du sol ? est-elle la même ? il me semble que non…

67.  MichelLN35 | 26/06/2014 @ 20:00 Répondre à ce commentaire

jdrien (#66),

Juste rapidement pour ce soir vous pouvez voir cette publi qui donne une première idée de la variabilité.

http://www.cder.dz/download/cer07_58.pdf

En mettant sur google : « Profil de température dans un sol » il y a pas mal de choses.
Cordialement
Michel

68.  phi | 26/06/2014 @ 23:08 Répondre à ce commentaire

MichelLN35 (#64),
Merci pour votre longue explication.

Je connais mal les données pour la lune mais je suppose que le cas est beaucoup plus simple que pour la terre, chaleur spécifique, insolation, albedo, conductance, j’ai l’impression que nos grand spécialistes en modèles informatiques sont capables de nous résoudre tout ça assez efficacement et je ne m’attends pas à de grandes surprises ni de grandes controverses de ce côté là. Les valeurs que vous donnez ne paraissent pas être a première vue incompatibles avec la compréhension physique classique. C’est juste un peu trop compliqué pour des calculs de coin de tables avec des données trop partielles.

Pour le reste, je reprendrai la partie significative de votre citation de Bard 2003 :

La surface terrestre ré-émet un rayonnement infrarouge vers l’atmosphère.
Or, plusieurs composants chimiques de celle-ci absorbent les infrarouges, puis les ré-émettent dans toutes les directions. Une partie retourne vers la surface terrestre, laquelle s’échauffe encore un peu plus : c’est l’effet de serre (II, III).

La surface ré-émet bien un rayonnement infrarouge vers l’atmosphère, mais, si je retiens les chiffres de Trenberth, il s’agit d’une puissance de 23 W/m2, soit le 9% du flux sortant total (239 W/m2). Le raisonnement néophlogistique de Bard est épouvantable.

Les GES ne se comportent pas non plus comme décrit, ils acquièrent essentiellement leur énergie par conduction et ne jouent un rôle déterminant qu’en la libérant vers l’espace, ce sont les agents refroidissants de l’atmosphère.

Du point de vue de la surface, les GES ne captent, comme je l’ai dit plus haut, que le 9% du flux énergétique sortant et n’ont donc qu’un effet direct très marginal.

Ce texte de Bard n’est pas anodin et n’est pas de la mauvaise vulgarisation, c’est l’exact reflet de la pseudo-science du climat.

Je comprends donc parfaitement vos interrogations. La thermodynamique de l’atmosphère n’a rien à voir avec ce qui est soutenu par les néophlogisticiens du giec, rien à voir avec la pseudo-physique des modèles.

Il n’en demeure pas moins que le bilan radiatif global n’est pas une sottise, l’énergie qui entre doit ressortir. L’ajout de GES ne change rien à ce bilan, ni ce qui entre ni ce qui sort n’est altéré; simplement, cela implique une légère modification du profil des températures qui ne concerne probablement que très faiblement la surface.

Je ne m’aventurerai pas à discuter ce que serait une terre enveloppée d’une atmosphère sans GES mais j’ai l’impression qu’elle ne serait pas très hospitalière.

69.  phi | 26/06/2014 @ 23:44 Répondre à ce commentaire

En illustration :

70.  cf | 26/06/2014 @ 23:55 Répondre à ce commentaire

phi (#69),

A mon avis, il n’y a pas d’explications autres que la maladie mentale pour soutenir que cette figure ainsi corrigée est correcte.

71.  Bob | 27/06/2014 @ 0:13 Répondre à ce commentaire

phi (#68),

Il n’en demeure pas moins que le bilan radiatif global n’est pas une sottise, l’énergie qui entre doit ressortir.

Certes. Cependant, l'énergie ne fait pas qu'entrer et ressortir. C'est aussi elle qui fournit l'énergie aux courants océaniques et à une foultitude d'autres processus plutôt mal modélisés et/ou mal compris.
S'il est probable que le bilan énergétique devrait être équilibré, en moyenne, la question se pose de savoir au bout de combien de temps cet équilibre est atteint s'il l'est jamais: Une journée, un mois, une année, une décennie voire plus.
Compte tenu de la complexité des couplages et des non linéarités intrinsèques au système, je pencherais plutôt pour un ensemble d'oscillations couplées et décalées dans le temps comme on l'observe dans d'autres systèmes complexes en physique et aussi en chimie. De fait, je ne vois pas de raison que l'équilibre énergétique soit jamais atteint ou seulement transitoirement comme une pendule en panne qui ne marque l'heure exacte que deux fois par jour.

72.  cf | 27/06/2014 @ 0:35 Répondre à ce commentaire

Bob (#71),

Une journée, un mois, une année, une décennie voire plus

En fait, au moins quelques décennies, et évidement, sans perturbation radiative externe. Or ce n’est pas le cas.

73.  phi | 27/06/2014 @ 0:47 Répondre à ce commentaire

Bob (#71),
Bien entendu. Je voulais seulement exprimer le fait que l’énergie entrante, pour son immense majorité à court terme, devait bien ressortir sous forme de rayonnement. A ce que je comprends, Michel n’en n’est pas convaincu.

cf (#70),
Oh, vous savez, cher cf, il y a même certains cas désespérés qui s’arrangent de l’original. Alors, ne vous emballez pas.
cf (#72),

sans perturbation radiative externe

Vous pensez au soleil ou c’est encore du jargon de votre asile ?

74.  phi | 27/06/2014 @ 1:15 Répondre à ce commentaire

Bob (#71),
Une des corrections opérées dans la figure ci-dessus est justement liée au problème que vous soulevez. Il s’agit de 0.9 W/m2 sensés être absorbés par les océans. Pourquoi sont-ils supprimés ? Parce qu’ils n’y figuraient que pour compenser un supposé déséquilibre radiatif à la surface. Dans la figure corrigée, l’équilibre est compensé par une augmentation du transfert par convection conforme à la saine thermodynamique.

Cela dit, ces déséquilibres périodiques existent évidemment mais certainement pas de cette ampleur ni forcément dans ce sens entre mars 2000 et mai 2004.

75.  scaletrans | 27/06/2014 @ 15:09 Répondre à ce commentaire

Bob (#71),

C’est aussi elle qui fournit l’énergie aux courants océaniques et à une foultitude d’autres processus plutôt mal modélisés et/ou mal compris.

Mais ce qui continue à me préoccuper, c’est le rôle des divers processus de dissipation d’énergie dans le bilan énergétique global. Pouvez-vous éclairer le pékin que je suis ?

76.  Bernnard | 27/06/2014 @ 16:53 Répondre à ce commentaire

scaletrans (#75), Bob (#71),

Notre atmosphère et les océans ne sont pas inertes vis-à-vis de l’énergie qui nous est envoyée du soleil. C’est vrai qu’une foultitude de déplacements de masses d’eau et de gaz peuvent se produire et qu’une partie non-négligeable de l’énergie transite par une forme mécanique avant de se dissiper.

Une question que je me pose est la suivante :

Imaginons une Terre, avec une lune, et un axe de rotation penché, mais sans océans, sans eau, sans CO2 et autres gaz « sataniques » mais avec une atmosphère d’azote et d’oxygène générant une pression au sol 1013,25 hPa .

Ni aucun composé ayant une transition de phase dans une grande zone de température, mettons de -100 à +150°C.

Supposons aussi une activité solaire constante (une planète improbable en quelque sorte!).

Que se passerait-il ? Je ne pense pas que nous observerions des tempêtes, peut être des tourbillons plutôt statiques géographiquement, des « courants d’air, toujours les mêmes aux mêmes heures et endroits, mais pas de courants d’air imprévisibles et de cyclones destructeurs. Peut-être que le climat en deviendrait prévisible ?

En fait, sur notre planète, je pense que c’est seulement l’eau qui prend une part prépondérante dans l’évolution du climat, avec l’ ensoleillement bien sur! Mais l’eau c’est aussi la vie,la planète décrite ci-dessus serait morte.

77.  Hug | 27/06/2014 @ 19:22 Répondre à ce commentaire

MichelLN35 (#65), phi (#68),

Ce texte de Bard n’est pas anodin et n’est pas de la mauvaise vulgarisation, c’est l’exact reflet de la pseudo-science du climat.

A propos de Bard (qui pour moi incarne l’antipathie), on peut télécharger ici ses articles dans la presse grand public.
Le dernier (La Recherche d’avril 2013) concernant le processus de passage d’une ère glaciaire à un interglaciaire, c’est un autre bel exemple de pseudo-science.
@ MichelLN35, vous pensez qu’au vu de son niveau de connaissance, il trompe le profane. Je ne pense pas. Il ne faut pas le surestimer. Il a fait une école d’ingénieur certainement respectable (ENSG), mais ça n’est pas une preuve qu’il est un physicien de haut niveau. Il est comme la grande majorité des scientifiques, il a gobé sans réfléchir plus loin que le bout de son nez cette farce qu’est l’effet de serre d’autant qu’il a assis sa renommée là-dessus.

78.  phi | 28/06/2014 @ 11:30 Répondre à ce commentaire

cf pour caille folle, pour confere ou encore pour clef ?

70. cf | 26/06/2014 @ 23:55 Répondre à ce commentaire
phi (#69),
A mon avis, il n’y a pas d’explications autres que la maladie mentale pour soutenir que cette figure ainsi corrigée est correcte.

Essentiellement, la figure en question ne fait, selon la théorie en vigueur, qu’une correction sans importance, elle agrège les flux radiatifs pour ne plus représenter que les flux nets. Pour les climatologues, les deux représentations se valent, du moins, vous n’obtiendrez d’eux aucun argument rationnel qui permette d’en privilégier l’une plutôt que l’autre.

Dès lors, pourquoi cf donne-t-il dans l’emphase ?

cf pour clef.

79.  the fritz | 28/06/2014 @ 12:00 Répondre à ce commentaire

Bernnard (#76),
La température moyenne serait plus chaude , mais chut , faut pas le dire ; sans GES, pas de nuage , un albédo bien moindre et une température effective voisine de zéro au lieu de -18°C
Par ailleurs , vu que l’atmosphère serait transparente aux Radiations , seule la conduction (qui éventuellement entrainerait la convection) assurerait un réchauffement de l’atmosphère ; et comme la conduction de l’air (et encore en surface ) est à peu près le 1/100 eme d’un granit, faut pas trop compter sur elle pour réchauffer l’atmosphère et assurer un effet de couverture ; les écarts de température seraient donc énormes entre jour et nuit , peut-être pas autant cependant que sur la Lune
Yves Lenoir dans Climat de Panique aux éditions FAVRE (2001) s’est penché pas mal la -dessus ; mais je pense que les modélisateurs ne devraient pas avoir trop de difficulté à modéliser un tel système beaucoup plus simple , sans nuages , sans chaleur latente avec des paramètres physiques beaucoup mieux connus

80.  the fritz | 28/06/2014 @ 12:09 Répondre à ce commentaire

phi (#78),
Je pense qu’en demandant à cf de concevoir , ne serait-ce que dans un but de discussion , un schéma radiatif dans lequel ne figurent pas les b-radiations et la complication des GES , c’est lui demander un effort qui perturbe son bilan thermique interne et lui provoque des crises mentales qu’il ne peut pas contrôler

81.  Bob | 28/06/2014 @ 13:22 Répondre à ce commentaire

phi (#78),

Il faudra encore beaucoup de temps pour que les météo-climatologues qui se piquent d’être des toutologues mais dont le niveau en physique est carrément primaire, comprennent enfin qu’il ne faut pas confondre la photométrie avec la thermodynamique.

Ce qu’ils font tous, sans sourciller et sans se poser la moindre question.
ça dépasse de très loin leurs compétences.

82.  cf | 29/06/2014 @ 10:19 Répondre à ce commentaire

phi (#78),

Flux net (pour le LW), c’est écrit nul part. On lit que la figure est corrigée en accord avec le les principes de la thermo. On serait tenté d’en déduire que le flux lw descendant reçu en surface (pourtant observé) n’existe pas…
Vous dites que c’est un flux net mais plus haut vous dites que la surface émet 23 W/m2 … Tout faux,: la surface émet en moyenne environ 400 Wm-2 (pas de bol, c’était une des 2 flèches « corrigée »). L’atmosphère absorbe environ 160 Wm-2 par effet de serre.

83.  volauvent | 29/06/2014 @ 11:07 Répondre à ce commentaire

cf (#82),

Le 23 est bien un flux net; c’est la différence entre les 356 W/m2 émis par la terre vers l’atmosphère hors son émission directe et le 333 W/m2 de la « back radiation »; cette nouvelle présentation a l’avantage de s’affranchir des remarques que l’on peut faire sur l’utilisation des vecteurs de Poyinting dans ce cas et permet de dire que les principes de la thermo sont respectés.
De toutes façons, ces types de schémas sautent à pieds joints sur tellement d’approximations qu’ils ne font que provoquer des débats inutiles.

84.  the fritz | 29/06/2014 @ 13:31 Répondre à ce commentaire

phi (#78),
Bon courage ; il faudra expliquer à cf les différences subtiles entre énergies , chaleur, température , flux , chaleur spécifique et chaleur latente , capacité et conductivité thermique , autant de notions qui pour lui passent au second plan

85.  phi | 29/06/2014 @ 14:05 Répondre à ce commentaire

the fritz (#83),
Il est surtout complètement perturbé par les concepts de la néophlogistique.

cf (#82),

Flux net (pour le LW), c’est écrit nul part.

1. La légende dit : The annual mean Earth’s energy budget.
2. Il n’est pas précisé, ni pour la chaleur sensible ni pour la chaleur latente qu’il s’agit de flux nets et apparemment, cela ne vous géne pas.

On serait tenté d’en déduire que le flux lw descendant reçu en surface (pourtant observé) n’existe pas…

Seul le flux net est observable directement, il est le seul à exister du point de vue de la thermodynamique. Par analogie, modéliser deux flux IR opposés serait un peu comme modéliser deux flux liquides opposés dans une canalisation en pression, chaque flux étant déterminé par la pression absolue régnant à chaque extrémité. Je suis impatient d’assister à la construction d’un réseau de distribution d’eau calculé selon les principes dérivés de la néophlogistique.

vous dites que la surface émet 23 W/m2 … Tout faux,: la surface émet en moyenne environ 400 Wm-2 (pas de bol, c’était une des 2 flèches « corrigée »).

Non, vous lisez mal, j’ai écrit exactement :
La surface ré-émet bien un rayonnement infrarouge vers l’atmosphère, mais, si je retiens les chiffres de Trenberth, il s’agit d’une puissance de 23 W/m2

Il s’agit donc de la part interceptée par l’atmosphère.

la surface émet en moyenne environ 400 Wm-2

Non. Les flux effectifs radiatifs sont des flux nets. En terme de puissance, il s’agit en moyenne de 63 W/m2.

L’atmosphère absorbe environ 160 Wm-2 par effet de serre.

Encore non, l’atmosphère absorbe un flux d’environ 23 W/m2 issu de la surface.

86.  Bob | 29/06/2014 @ 14:42 Répondre à ce commentaire

phi (#84),
Belle démonstration de patience !
A la base de tout se trouve leur confusion mentale permanente entre les flux d’énergie électromagnétique qui , eux, vont effectivement dans les deux sens et les flux (nets) d’énergie correspondants aux transferts de chaleur qui, eux, sont forcément unidirectionnels.

Comme je le disais, ils n’ont pas encore fait la distinction entre la photométrie et la thermodynamique… d’où un grand nombre d’absurdités qui perdurent dans leurs discours.
Malheureusement, on trouve ça dans les articles de l ‘OMM et dans les bouquins de cours de climato-météorologie, mais évidemment jamais dans les bouquins de physique.
Ils ont réinventé une nouvelle sorte de physique avec un néo-vocabulaire qui, effectivement, a l’apparence de la physique mais relève plutôt de la néo-phlogistique comme vous dites.
Pour nous, c’est évident, mais je crains qu’il ne faille beaucoup de temps avant qu’ils osent réfléchir et remettre en question les cours de Météo-France et autres officines du même niveau.

87.  volauvent | 29/06/2014 @ 14:56 Répondre à ce commentaire

Bob (#86),

Comme l’a montré Gerlich, ces diagrammes n’ont aucun sens; représenter les flux par des vecteurs de Poynting et appliquer les lois de Kirchoff dans le cas d’un problème tridimensionnel n’a pas de sens.

En plus, toutes les valeurs indiquées sont connues ou estimées avec de telles incertitudes qu’aucun calcul crédible ne peut en être tiré.

En plus ils prennent des moyennes globales par unité de surface alors que les phénomènes ne sont pas linéaires et les propriétés des surfaces hétérogènes (ex, albedo…)

Ils devaient servir à vulgariser la théorie, en fait ils ne servent qu’à créer de faux débats inutiles.

88.  phi | 29/06/2014 @ 15:29 Répondre à ce commentaire

Bob (#85),

…mais je crains qu’il ne faille beaucoup de temps avant qu’ils osent réfléchir et remettre en question les cours de Météo-France et autres officines du même niveau.

Possible. D’un autre côté, je crois que nous divergeons sur certains points; de ce fait, leur situation me paraît beaucoup plus précaire que ça. Mais j’ai toujours mal évalué la durée de vie de cette pseudo-science, alors, vous avez peut-être raison.

89.  Bob | 29/06/2014 @ 16:11 Répondre à ce commentaire

volauvent (#86),
Oui Gerlich (le grand Satan) avait raison. Surtout dans un milieu hautement diffusif vis à vis de l’Infra rouge comme l’atmosphère dans laquelle chaque point est un point source qui émet dans toutes les directions comme le fait une gouttelette d’eau dans un brouillard.
En bref, ils font de la photométrie dans le brouillard en croyant faire de la thermo. C’est de la physique de Gribouille.

90.  Bernnard | 29/06/2014 @ 16:44 Répondre à ce commentaire

Bob (#88), phi (#87), volauvent (#86),

On peut quand même se poser la question de savoir comment tombera l’échafaudage bancal de cette pseudo-science quand, ils se seront rendus compte de l’absurdité de leur théorie basée sur l’électromagnétisme en occultant une bonne partie de la thermo.
La remise en question sera difficile.
On en a les prémices…

91.  chercheur | 29/06/2014 @ 17:53 Répondre à ce commentaire

Bob (#85),

dans les bouquins de cours de climato-météorologie

Je suppose que vous parlez de bouquins qui sont utilisés dans l’enseignement supérieur. Serait-il possible d’avoir un exemple précis, à savoir le titre du bouquin ainsi que le passage où ces absurdités sont écrites? Cela me serait fort utile pour le livre que j’écris actuellement.
J’ai déjà découvert des énormités dans les cours d’écologie de l’enseignement supérieur, mais je n’imaginais pas qu’il y en avait aussi dans des cours qui relèvent de la physique de l’atmosphère.
Il me semble que ce type d’information doit être diffusé. Il me parait impensable que ces cours puisse présenter des absurdités sans demander à ce qu’elles soient corrigées.

92.  Bob | 29/06/2014 @ 18:03 Répondre à ce commentaire

chercheur (#90),
C’est dans les cours de MF. Je les ai vus autrefois, il y a 7 ou 8 ans. Je vais voir si je peux retrouver ça.
Mais les diagrammes « à la Trenberth » sont très courants. Avec les mêmes raisonnements et les mêmes présentations.
Cependant, il faut savoir que ce genre de bilan énergétique n’est nullement utilisé dans les modèles informatiques du climat où ils ne s’avèrent pas nécessaires. Disons qu’il a surtout un rôle « pédagogique », si l’on peut dire.

93.  cf | 29/06/2014 @ 20:58 Répondre à ce commentaire

phi (#85),

Sans effet de serre (atmosphère transparente) la surface rayonnerait 240 Wm-2 (le flux sortant). Avec, elle rayonne ensiron 400 Wm-2 donc 160 Wm-2 de plus à cause de l’effet de serre. C’est trivial.
Vous niez l’existence du flux longwave descendant en surface (le shortwave ne vous dérange pas lui…), c’est votre droit. Vous croyez qu’un unique instrument peut mesurer le flux net, c’est votre droit aussi… Mais vous restez un cancre.

94.  the fritz | 29/06/2014 @ 21:22 Répondre à ce commentaire

cf (#93),
Wouah ,
164 in , 400 out , et puis on se demande pourquoi la bande d’écolocons eil n’a pas encore remplacé le pétrole par l’effet de serre . surtout avec tout le CO2 qui traîne partout
Cf vous feriez mieux de discuter avec Nyang , c’est un degré en dessous , mais visiblement encore trop haut pour vous

95.  cf | 29/06/2014 @ 21:35 Répondre à ce commentaire

the fritz (#94),

Vous avez mal lu. Pour vous aider un peu, cherchez le schéma original (non « corrigé » donc le schéma qui, d’après vos copains, viole le second principe de la thermo…)

96.  the fritz | 29/06/2014 @ 21:43 Répondre à ce commentaire

cf (#95),
Mais si, mais si , cf , tel que présenté la théorie de l’effet de serre viole les lois de la thermo; si vous voulez on reprend le cas de Vénus que tous les catastrophistes citaient en exemple pour montrer que le principe de l’effet de serre , tel qu’ils l’interprétaient, allait mener la Terre à la catastrophe climatique

97.  volauvent | 29/06/2014 @ 23:31 Répondre à ce commentaire

cf (#93),

Avec, elle rayonne ensiron 400 Wm-2

Ah bon, pourtant le schéma indique qu’elle rayonne 63; alors c’est 63 ou 400? smile

98.  phi | 30/06/2014 @ 0:17 Répondre à ce commentaire

Bob (#92),

Cependant, il faut savoir que ce genre de bilan énergétique n’est nullement utilisé dans les modèles informatiques du climat où ils ne s’avèrent pas nécessaires.

C’est exact mais je vous rappelle la simplification de Ramanathan pour la convection. Cette simplification est cohérente avec le schéma de Trenberth.

99.  phi | 30/06/2014 @ 0:22 Répondre à ce commentaire

cf (#93),
Dans les grandes lignes :

Sans effet de serre (atmosphère transparente) la surface rayonnerait 240 Wm-2 (le flux sortant).

Ouaip.

Avec, elle rayonne ensiron 400 Wm-2 donc 160 Wm-2 de plus à cause de l’effet de serre.

Ben Non. L’effet de serre réduit la capacité de radiative. La surface ne se refroidit radiativement plus que de 63 W/m2. Le reste, soit 98 W/m2 est évacué par convection. 98+63=161 W/m2 étant la quantité d’énergie transformée en chaleur à la surface.

C’est trivial.

Cela devrait l’être, nom d’un chien !

Vous niez l’existence du flux longwave descendant en surface

Nier n’est pas le bon mot. Je ne suis pas bien au clair sur ce point. A mon avis, la physique n’est pas catégorique sur ce point. La photométrie dont parle Bob n’a, je crois, pas un domaine de validité très bien défini; cela dit il en sait certainement bien plus que moi sur le sujet. Mais cela importe assez peu pour la question du climat. On parle ici thermodynamique. Pour la thermodynamique, la réponse n’est pas ambiguë, seul le flux net a une signification.

le shortwave ne vous dérange pas lui…

Hum, vous avez une idée de l’angle solide que représente le soleil vu de la terre ? Je vous laisse calculer et réfléchir pourquoi cela répond à votre remarque.

Vous croyez qu’un unique instrument peut mesurer le flux net, c’est votre droit aussi…

Comprend pas ce que vous voulez dire.

100.  chercheur | 30/06/2014 @ 0:31 Répondre à ce commentaire

Bob (#92),

Merci d’avance pour cette recherche.