CO2 Report Debunks Climate Change Catastrophes.
==================================
Depuis des décennies, les alarmistes du changement climatique ont produit une foule de scénarios apocalyptiques, tous fondés sur la théorie du réchauffement climatique anthropique : les émissions de CO2 d’origine humaine vont forcer le climat de la Terre à se réchauffer de manière incontrôlable, ce qui causerait toutes sortes de désagréments. Une nouvelle étude, publiée par le Centre d’études du Dioxyde de Carbone et du Changement Global ("Center for the Study of Carbon Dioxide and Global Change"), aborde frontalement les plus importants effets prédits du réchauffement climatique. Faisant un ample usage de papiers de recherche revus par les pairs, les sinistres prédictions des alarmistes du climat sont démolies pierre par pierre. En définitive, les auteurs concluent que les concentrations atmosphériques croissantes du CO2 découlant du développement de la Révolution Industrielle ont, en fait, été bonnes pour la planète.
Le rapport de 168 pages, "Le Dioxyde de carbone et l’avenir de la Terre : sur le chemin de la prudence" ("Carbon Dioxide and Earth’s Future: Pursuing the Prudent Path"), écrit par Craig D. Idso et Sherwood B. Idso, aborde l’ahurissant marécage de la désinformation du changement climatique, en utilisant des données scientifiques solides, pour réfuter les prédictions de désastres environnementaux futurs. Comme les auteurs le font remarquer, le méchant de l’histoire est l’industriel, qui a « altéré le cours de la nature » en émettant de grandes quantités de dioxyde de carbone dans l’air, par la combustion du charbon, du gaz et du pétrole. Les questions abordées par le rapport sont formulées dans le résumé :
Dans sa composition actuelle, l’atmosphère de la Terre contient un peu moins de 400 ppm du gaz incolore et sans odeur que nous appelons dioxyde de carbone ou CO2. Cela représente seulement quatre pour-cent de un pour-cent. En conséquence, même si la concentration de l’air en CO2 était triplée, le dioxyde de carbone ne représenterait toujours qu’un petit peu plus d’un dixième de pour-cent de l’air que nous respirons, ce qui est beaucoup moins que ce qui imprégnait l’atmosphère terrestre il y a quelques éons, lorsque la planète n’était qu’un jardin. Néanmoins, on prédit souvent qu’un petit accroissement de cette quantité minuscule de CO2 produira un enchaînement de terribles conséquences environnementales, incluant du réchauffement global, une élévation catastrophique du niveau des mers, et la destruction de beaucoup d’écosystèmes naturels, aussi bien que de spectaculaires augmentations des phénomènes météorologiques extrêmes tels que les sécheresses, les inondations et les cyclones.
Aussi étrange que cela puisse paraître, ces effrayants scénarios d’avenir sont dérivés d’une seule source d’information : les modèles climatiques sur ordinateur, en permanente évolution, qui prétendent réduire la somme des processus physiques, chimiques et biologiques, qui se combinent pour produire l’état du climat terrestre, à un ensemble d’équations mathématiques d’où ils tirent leurs prévisions. Mais savons-nous vraiment ce que sont tous ces processus complexes et leurs interactions ? Et même si nous le savions – ce qui n’est pas le cas – pourrions nous les capturer correctement en un programme informatique gérable nous produisant des prévisions fiables à 50 où 100 ans ?
Craig D. Idso, qui est le fondateur et ex-président du "Centre d’études du Dioxyde de Carbone et du Changement Global" (“Center for the Study of Carbon Dioxide and Global Change", est titulaire d’un Doctorat de Géographie de l’Université d’état de l’Arizona. C'est le frère de Keith E. Idso et le fils de Sherwood B. Idso. En 2009, il a co-signé avec son père le livre "CO2, Réchauffement Global et perspectives d’extinction des espèces pour le futur" ( “CO2, Global Warming and Species Extinctions: Prospects for the Future”).
Sherwood B. Idso assume la Présidence du Centre d’études du Dioxyde de Carbone et du Changement Global depuis le 4 octobre 2001. Auparavant, il était Physicien Chercheur au Département de Recherche en Agriculture de l’agence de protection des eaux à Phoenix en Arizona.
Le Docteur Idso est auteur ou co-auteur de plus de 500 publications, en particulier « Le dioxyde carbone : ami ou ennemi ? » (1982) et « Dioxyde de carbone et Changement Global : La Terre en Transition (1989). Il a fait partie du comité de rédaction de la revue internationale « Agriculture et Météorologie de la Forêt » de 1973 à 1993 et depuis 1993 fait partie du comité de rédaction de « Environnement et Botanique Expérimentale ». Au cours de sa carrière, il a été critique invité de manuscrits pour 56 journaux scientifiques différents et 17 agences de financement différentes, représentant un spectre inhabituellement ouvert de disciplines. En d’autres termes, il fait largement partie du courant principal des scientifiques de l’environnement.
D’après l’analyse détaillée d’Idso & Idso, les observations du monde réel sont en contradiction avec à peu près toutes les prédictions alarmistes faites par les catastrophistes du réchauffement climatique et, en ce qui concerne les modèles climatiques, ceux-ci révèlent beaucoup de lacunes et d’insuffisances. L’observation de la nature démontre que, même si le monde s’est substantiellement réchauffé sur le dernier siècle et un peu plus, aucune des conséquences environnementales désagréables prédites par les alarmistes du climat ne s’est manifestée.
587 réponses à “Un rapport sur le CO2 déboulonne les Catastrophes du Changement Climatique”
joletaxi (#497), Oui, nous attendons toujours René pour les précisions ! Mais dans ce qu’il a dit, je retrouve à peu près le mécanisme classiquement décrit de l’ES que j’ai rencontré de nombreuses fois au cours de mes lectures et qui ne m’a jamais choqué sur le principe… peut-être parce que je n’y ai pas assez réfléchi. En fait, en attendant René, je ne comprends pas où se situe le problème : au niveau des mécanismes fondamentaux de l’ES (rayonnement thermique, absorption, émission, etc.) ou de son application à l’atmopshère terrestre ou de ses effets sur les T …?
Salut à tous,
Désolé, dimanche bricolage, pas le temps d’être au clavier ! Je vais essayer de répondre à tout le monde, mais ne m’en voulez pas si j’oublie quelqu’un.
Pour ceux que ça intéresse, je recommande le bouquin
Atmospheric radiation: theoretical basis de Richard M. Goody, Y. L. Yung qui peut être trouvé en partie sur Google book
ici
Marot (#462),
skept (#466),
Il faut distinguer l’absorption de la ré-émission.
Il y a quelques (1/1000 aux températures et pression de la haute atmosphère) molécules qui vont ré-émettre immédiatement avant d’être entré en collision avec une voisine. Ceux-là n’influence pas la température locale du gaz.
Les autres entrent en collision, donc augmente légèrement la température locale du gaz.
Le gaz à la nouvelle température (légèrement plus haute) a un peuplement de molécules à l’état excité légèrement supérieur (selon Boltzman). Donc on a une ré-émission de photons légèrement (désolé j’ai la flemme de calculer des ordres de grandeur) supérieure, ce qui a tendance à refroidir le gaz qui va donc revenir à sa température initiale.
Tout cela avait déjà été discuté à propos d’un papier de Vonk, sur Skyfall en août dernier.
AuchD (#473),
Je ne complique pas le problème, je cherchais simplement à expliquer pourquoi la phrase « la molécule de CO2 absorbe un photon et le ré-émet à une longueur d’onde plus courte » est erronée. Et cette phrase est lue très très souvent chez les vulgarisateurs de l’effet de serre !
Et même si la physique moléculaire est complexe, surtout quand on veut l’appliquer à une population, je suis désolé, mais c’est elle qu’il faut appliquer pour un gaz parfait, et pas la loi du corps noir.
skept (#478),
Si l’atmosphère était un solide (et si ma tante en avait…) on appliquerait la loi de Planck, et la longueur d’onde ré-émise serait fonction de la température.
L’atmosphère est un gaz, et assez proche du gaz parfait. Donc la ré-émission est une affaire moléculaire. Aux effets de second ordre près (couplage vibration/rotation, effet Compton…) la ré-émission se fait à la même longueur d’onde que l’absorption.
the fritz (#475),
J’ai rajouté des numéros pour répondre :
1 : je n’ai pas compris la question. Si c’est pourquoi le CO2 absorbe-t-il les photons pil poil à la fréquence correspondant au maximum de la courbe de Planck pour la température de la surface de la terre, à part demander à Dieu, je n’ai pas la réponse.
2Oui et non. La ré-émission est une possibilité, à la même longueur d’onde, les émissions multiphoton étant rares, mais aussi et majoritairement dans les conditions de pression et température de l’atmosphère (jusqu’à 70 km je crois) se désexciter par collision (chauffer les voisines).
3 non. On parle là d’états vibratoires. On est très loin en énergie de l’ionisation qui pourrait advenir avec des UV, mais sûrement pas avec des IR.
4 oui, mais c’est négligeable.
5 oui, ça s’appelle être transparent.
lemiere jacques (#485),
Encore une fois, je n’essaie pas de tout expliquer. Je faisais juste une remarque sur les modes d’émission d’un gaz, par rapport à un solide… Effectivement si on doit se taper toute la description microscopique, on n’est pas sorti de l’auberge. Cf. le bouquin que je cite en début de post pour ceux que ça intéresse.
Ceci dit, je n’ai toujours pas compris l’argument de la durée de vie des molécules qui serait quelque chose de fondamental. A partir du moment où les flux s’équilibrent à peu près, on est dans un état quasi-stationnaire, donc on se fout de connaître l’âge de la molécule. Si quelqu’un peut m’éclairer…
skept (#500),
Voilà, c’est fait…
Bonne soirée
René
« Euh… je ne conclus rien de tel et on examine seulement le mécanisme radiatif de base. Il contribue à clarifier un des points que vous signalez, à quel T la couche émet un photon de quelle longueur d’onde ? »
Il ne faut pas raisonner en couche, mais intégrer sur toute l’épaisseur de l’atmosphère, en utilisant la low de Beer-Lambert
La solution est du style:
Iλ(0) = Iλ(τm)e-τm + ∫ Bλ(T)e-τ dτ
A savoir que l’émission sortant de l’atmosphère (Iλ(0)) est égale a l’émission de surface atténué par l’atmosphère ( Iλ(τm)e-τm ) auquel s’ajoute toutes les contributions de la radiation atmosphérique, chaque contribution atténuée par la tansmittance du lieu de l’émission au sommet de l’atmosphère (∫ Bλ(T)e-τ dτ). Bien sûr, l’indice lambda indique une dépendance en fréquence, la solution est pour une radiation monochromatique. Il faut intégrer sur tout le spectre pour avoir le flux total..
René (#502), Merci! Donc en n’attendant plus René ;-), et pour joletaxi, je redemande où se situe le « problème » : au niveau des mécanismes fondamentaux de l’ES (rayonnement thermique, absorption, émission, etc.) ou de son application à l’atmosphère terrestre ou de ses effets sur les T …? Le fait est que je vois régulièrement suggérer que l’ES est une « rigolade » (dans certains sites sceptiques), mais je ne saisis pas bien à quel niveau se situe finalement l’objection à cet ES.
Pas moi, demandez au voisin du dessus (c’est lui ou Titoune qui s’embourbait plus haut dans la distinction forçage-rétroaction à propos de H2O comme GES)
Perso je soutiens que la vapeur d’eau n’est pas un forçage mais une rétroaction, c’est minitax qui se mélange les panards et qui ne sait pas ce qu’ est un forçage.
Titoune (#505),
Ce que tu soutiens à l’aide d’assertion alambiquées et ridiculement fausses, qui ne font que démontrer ton incompréhension des mécanismes physiques.
La seule chose qui différencie un « forçage » d’une « rétroaction », c’est que le premier est sensé résulter d’une action extérieure (émissions anthropiques) à un supposé équilibre « naturel ».
Autrement, les mécanismes physiques invoqués pour la contribution à « l’effet de serre radiatifs » sont strictement équivalent dans le cas du dioxyde de de carbone (qu’il soit d’origine anthropique, et donc un « forçage », ou « naturel » et donc une rétroaction, comme certains l’explique quand ils prétendent que la rétroaction du CO2 amplifie les cycles de Milankovitch) et de la vapeur d’eau.
Bah non… c’est toi…
Ton affirmation de base sur le rôle de forçage du CO2 d’origine anthropique est correcte (dans le sens ou elle est conforme à la doctrine carbocentriste), mais tes explications sont vides de sens, fausses et montrent une ignorance totale de la physique atmosphérique.
Laurent (#506)
C’est certain que ta façon d’utiliser des strawman pour amener la confusion est parfois efficace. Il n’empèche que lorsque la quantité d’eau devient trop importante par rapport à la température à cause des phènomènes convectifs (on parlera d’humidité réelle) il y a précipitation et assèchement de la masse d’air.
Tu as une autre explication ? je serai enchanté de la connaître.
Laurent va avoir du boulot avec le tas.
Le nouveau bidule humidité réelle, alors qu’on a déjà la relative et l’absolue.
L’appel aux phénomènes convectifs.
La confusion permanente entre les trois phases vapeur, liquide et solide.
L’assèchement de la masse d’air.
L’ignorance abyssale de l’effet de Bergeron.
Si je prends le schéma de Lindzen posté par Auchd, le « forçage » peut aussi bien se définir (en sortant de l’approche descriptive par physique moléculaire) comme la variation d’altitude (donc pression et T) de la couche atmosphérique à laquelle la Terre est en équilibre (rayonnement sortant LW compensant le rayonnement entrant SW). Et comme Lindzen le rappelle, c’est dans une large mesure la troposphère tropicale qui mène la dense. Si on regarde cette couche d’émission et ses variations sur 30°N-30°S, que représentent CO2, CH4, etc. à côté de H2O et nuages dans la détermination de la T radiative effective et donc du rayonnement thermique depuis cette couche? C’est là que situe l’un des noeuds du problème, non? La distinction forçage/rétroaction y perd un peu de son sens. J’ai l’impression qu’elle ne sert pas tant à comprendre l’ES qu’à estimer la sensibilité (qui est juste le ∆T en surface, mais pour l’ES ce n’est pas la surface qui importe, la terre rayonne depuis son atmosphère, à 5,5 km d’altitude en moyenne de mémoire, plus haut aux tropiques et plus bas aux pôles).
Titoune (#507),
Toujours inverser la charge de la preuve, ça commence à bien faire ! Le forçage du CO2, prouvez le ! En fait vous ne pouvez pas, alors SVP arrêtez, vous et vos semblables, de polluer ce site avec des affirmations cent fois renouvelées et cent fois réfutées.
Titoune (#507),
Il n’y a que toi qui utilise le Strawman ici…. ce que tu dis en est un: on se fout totalement des cycles évaporation/condensation) en ce qui concerne « l’effet de serre radiatif », il ne dépend que du contenu atmosphérique moyen en H20 (comme je te l’ai déjà expliqué, et comme tu peux le lire dans la littérature carbocentriste conforme).
Je passe bien sur sur ton phraséologie très approximative (tu n’a sans doute jamais entendu parlé de sursaturation…) vu que cela n’a de toute façon rien à voir avec le sujet.
La physique ne se réduit heureusement pas à quelques théories simplistes. Ceci dit, je ne sert pas de la confiture aux cochons…. contrairement à ton affirmation mensongère, tu n’a absolument aucune envie de « connaitre » quoi que ce soit. La seule chose qui t’intéresse, c’est de mal défendre ce que tu croit savoir…
skept (#509),
C’est exactement la même chose, vu que la variation d’altitude n’est sensément due qu’à la variation d’opacité atmosphérique aux IR, donc aux émissions anthropiques de CO2.
Le problème du schéma de Lindzen, c’est qu’il reste simpliste… et faux… il ignore les échanges thermiques entre les couches atmosphériques, les variations de densité et de pression. Le gradient adiabatique n’est rien d’autre que la description simplifiée de la relation entre le gradient thermique et le gradient de pression dans une « atmosphère standard »…. objet purement théorique…
La réalité n’est ni adiabatique, ni figée en ce qui concerne le gradient de densité (donc le gradient de pression). La seule façon de comprendre, et éventuellement de mesurer, ce qu’on appelle très improprement « l’effet de serre », c’est de comprendre et mesurer les flux de chaleurs traversant l’atmosphère, et d’en faire un bilan convenable.
Scaletrans (#510)
Les preuves sont nombreuses augmentation du taux de CO2 dont l’analyse isotopique révèle l’origine fossile ce qjui est d’ailleurs confirmer par une diminutions du taux d’oxygène qui prouve qu’il y a eu combustion.
Lire ça aussi (c’est quand même mieux que Duran) :
http://www.skepticalscience.co…..tural.html
Laurent (#506)
J’aimerai bien une explication.
Pas du tout je suis au contraire très intéressé par ce que tu vas dire.
Laurent (#512), Nous sommes bien d’accord. Lindzen sait pertinemment (amha) que le schéma simplifié n’a pas tellement de sens, il l’utilise pour montrer où se situent les enjeux dans la théorie de l’ES (et pour signaler qu’à un point-clé prédit par cette théorie, le fameux point chaud tropical vers 100-300 hPa, les mesures actuellement disponibles ne sont pas concluantes).
Titoune (#494),
La modélisation est à la limite de la science.tant elle échappe à une analyse rigoureuse…
en clair à part faire tourner des modèles en changeant les paramètres on ne sait rien faire d’autre pour les évaluer….et c’est faible….très faible….
le meilleur exemple est celui des modèles météo…
météo france a du inventer un indice de confiance pour parait il nous indiquer la fiabilité des previsions….pour moi il est very likely que cet indice est juste une proportion de runs de modèles donnant ces previsions….
Et les modèles météo ont été testés….et soyez sur que des gens expérimentes ajoutent une étape de vérification des résultats pour les zones accidentés pour lesquels ils utilisent une prevision d’après des situations meteo analogues….
non je le répète on n’a pas besoin de connaitre ni la physique ni le contenu des modèles pour tester leur validité…. le lien que vous faites avec l’operation par un généraliste n’a aucun rapport….
en l’occurence, nul besoin d’être chirurgien pour savoir si l’opération que vous subissez vous sauve ou non!!!!!!
La prétendue compréhension physique de l’effet de serre dans l’atmosphère fait sourire….il s’agit du monde réel….
prenez une simple serre justement….
pour un « forçage équivalent » et une proportion de co2 à l’interieur va s’établir une température durant la journée…. et sauf votre respect pour être capable de la connaitre par le calcul..je vous paie des prunes…
il faut connaitre l’absorption du substrat..il faut connaitre et modéliser les »fuites d’air », il faut connaitre la perte de chaleur par émission du contenant….il faut évaluer la quantité de buée qui se forme sur les parois ( horreur! ça) a propreté des parois……etc etc…
il faut être capable de comprendre les mécanismes de réchauffement de l’air ….
un conseil ne vous fiez pas aux calculs théoriques faites des mesures in situ…
en clair…pour une simple serre il faut déjà un super calculateur pour déterminer la température qui va y régner avec précision et un certain nombre de mesure empirique…
et pour vérifier les prédictions ..je prends un thermomètre adéquat et je mesure….
j’adore cette anecdote ..la raison pour laquelle le rideau de douche entre dans la douche a demandé un super calculateur pour être résolue……et de memoire l’explication canonique n’etait pas la bonne….
Laurent (#512),
oui…car le transport de la chaleur se fait ..par tous les moyens possibles…de fait des simulations sont incontournables..mais avant de faire des spéculations sur les conséquences d’un doublement du CO2…il faut être certain que les résultats des dits modèles sont très réalistes..
On peut y voir une des tares fondamentale de ce débat…donner des prévisions avant d’avoir bien compris le détail des mécanismes…
lemiere jacques (#516)
Et hélas, sans jamais avoir fait une quelconque vérification expérimentale.
Lemiere Jacques (#515)
Lisez ces deux liens, et si ça vous intéresse j’ai une ou deux thèses à vous proposer sur diverses modélisation. Je crois que vous n’avez pas compris à quoi servent les modèles climatiques.
http://www.centre-dalembert.u-…..connot.pdf
http://www.cea.fr/content/R…..-marti.pdf
Titoune (#518),
A impressionner les gogos
Titoune (#518),
Premier lien : nul (bla bla que tout le monde connaît depuis dix ans, en forme présentation power point pour attardés)
Second lien : rien à l’arrivée, page vide
Pour le centième fois, la modélisation est quelque chose de très commun en science, mais aucune science à part celle du climat n’a la prétention de conclure des choses très robustes quand ses modèles sont très médiocres, ni d’ajouter à cette prétention l’absurdité d’un « consensus ».
Voilà dans Nature une des nombreuses observations de bon sens rapportée par Judith Curry
Alors que cette proportion s’inverse, que les chercheurs améliorent leurs modèles et que le GIEC fasse un peu profil bas, il en a bien besoin amha.
Punaise, quel boulet ce troll T.itoune-E.nisor-R.obert-C.oca… ! Il change de pseudos pour revenir nous recoller sans fin ses mêmes foutaises. C'est vraiment une machine perpétuelle à c.nneries. (….)
skept (#520)
Je t’ai déja dit que ton avis ne vaut rien, c’est celui du sceptique de base qui critique mais sans en faire la démonstratrion. tout ce qu tu es capable de faire c’est d’aller piquer dans les rapports les phrases qui t’intéressent les sortir de leur contexte en omettant tout le reste. Si tu veux ciritiquer les modèles tu t’attelles au boulot tu les reconstitues et tu publies.
Lis ça et fais m’en un synthèse on verra bien si tu piges quoi que ce soit.
http://tel.archives-ouvertes.f…..Samuel.pdf
Bon … toutes ces considérations hautement scientifiques et aussi indémontrables que contradictoires ne devraient pas trop nous éloigner de notre réalité.
En attendant LA théorie qui nous apportera LA lumière, la mesure de température RSS pour février est tombée. Anomalie = 0,051°C.
Tous à vos poêles à frire !
Le graphique de RSS depuis le début des mesures est :
On admirera en particulier le fait que, depuis 1998, l’année la plus chaude est 1998, et que le réchauffement est donc bien en panne depuis 13 ans, malgré la profusion de CO2 nouveau …
Si on transformait ces « anomalies » en vraies températures, avec une échelle qui correspond un peu mieux à des phénomènes du monde réel … on « pourrait » obtenir quelque chose comme cela :
Sans commentaire.
Lis ça et fais m’en un synthèse on verra bien si tu piges quoi que ce soit.
C’est typiquement le ton et la phraséologie de Robert.
Il n’en a jamais tourné un rame et veut faire travailler les autres.
Titoune (#518),
????? pas terribles ces liens
Ecoutez plutôt Morel…
Je n’ai pas compris à quoi servent les modèles climatiques….je ne sais pas mais je ne comprends l’usage qu’on en fait…
car je ne les crois pas capable de « suivre le climat historique » en raison de variations naturelles non comprises…il suffit de dire le mot océan….
je les verrais capable de calculer l’effet CO2 mais sans aller très loin de l’etat initial.ou avec des conditions impossibles du genre doubler le taux de coé sans rien changer autrement ,à part ça….
vous avez peut être raison.
Papyjako (#523),
Si si… ça ressemble à l’encéphalogramme d’une théorie moribonde. On distingue même le dernier sursaut avant la mort du sujet… un spasme de douleur peut être…
Titoune (#518),
je ferais quand même une simple remarque ( 100 fois faite forcement) ..les modèles nous prédisent de 1,5 degré à 6 degrés d’augmentation de température globale moyenne et ce en prenant comme pour acquis l’amplification par l’eau….incertitudes liées aux modèles;…il faut nécessairement ajouter les incertitudes liées au hypothèses premières des modèles….
par exmple concernant les incertitudes giec…c les augmentations du niveau de la mer…on tout simplement été surevaluées au cours des ar successifs ( ceci dit je dis ça de mémoire pas si sur) autrement dit..le giec oublie d’évaluer des incertitudes liées à des hypothèses de fond qu’il considère comme des certitudes à un moment donné.
lemiere jacques (#524)
Oh mais je l’ai écouté, et je souris d’ailleurs qua
Oups, mauvaise manip.
Je disais, je l’ai écouté et je souris quand je vois ce qu’on lui fait dire. En fait Morel disait que les modèles marchent plutôt bien sur les tendances à long terme et sur la globalité du phénomène du réchauffement; là où ils coincent c’est sur leur capacité à prévoir des évènements ponctuels (localisation et importance).
Les modèles ne prédisent rien, ils donnent des possibilités selon les différents scénarios, ceux-ci dépendant essentiellement de notre action future. Par contre jusqu’à présent les modèles sont plutôt conformes aux observations et parfois même un peu trop optimistes (arctique par exemple).
Lisez la thèse dont j’ai fourni le lien vous constaterez la complexité de la modélisation et la difficulté à la critiquer de manière objective et constructive si on n’est pas compétent. Maintenant quand on est dans le déni c’est une autre histoire (Minitax, papyjako Marot etc….) on peut dire tout et n’importe quoi.
Titoune (#522),
Lis ça et fais m’en un synthèse on verra bien si tu piges quoi que ce soit.
—————————————————
Titoune, tu peux toujours aller te brosser; quel culot
Titoune (#528),
hé branl… quand tu te fous ouvertement du monde, tu pourrais au moins essayer de le faire avec une certaine classe, du doigté, un soupçon d’intelligence…
Les modèles sur les tendances à long terme, tu veux parler des modèles sortis il y a deux siècles ? De quel long terme tu parles petit enf… ? En climatologie, la plus petite unité de temps, c’est 30 ans. Alors t’as un modèle de 1981 qui marche bien sur la tendance ? Va te faire frire à la poêle ailleurs…
Titoune (#522), Tiens, je vais te faire une remarque constructive, il manque un « d » à Meiterranean » en annexe A pagination pdf 256. Sinon, je jetterai un oeil plus attentif, j’ai appris des choses intéressante sur l’influence locale du barrage d’Assouan en lisant le début. Dans le chapitre 2.2.2 Etat de l’art de la modélisation numérique en Méditerranée, notre doctorant indique en mots polis à ses patrons qu’il reste du boulot à faire, c’est-à-dire que l’état actuel (2005) de la simulation régionale n’est pas fameux. Ce que l’on pouvait observer en lisant l’AR4 chapitre 11.3.2. Donc mention très bien pour Samuel Somot et qu’il suive le conseil de Curry, 80% de son temps à améliorer ses modèles qui en ont bien besoin…
Papyjako (#523), C’est une des premières fois que je vois superposées ainsi les courbes à deux échelles… très efficace! 😉
Titoune (#528),
C’est totalement faux au niveau des évolutions régionales, les modèlent se trompent partout et il suffit de lire le rapport GIEC pour le constater. Quant aux T moyennes globales, ils les reconstruisent avec 20 sensibilités transitoires variant du simple au double sans pouvoir classer la plus réaliste, ce qui est la meilleure preuve de leur nullité prédictive, ce n’est même pas la peine d’aller plus loin pour comprendre que la copie est à revoir et sérieusement. Alors arrête un peu de mentir, tu n’y connais que dalle, je pense que tu n’as même pas lu l’intégralité des AR GIEC, encore moins la littérature primaire, tu ne fais que copier les liens qui te passent sous la main sans aucune réflexion sur le sujet.
Titoune (#522), déjà vu mais sur une plus longue période : http://www.skyfall.fr/?p=78
Ceux qui comptent sur le RCA pour avoir le climat de Marrakech à nos portes vont devoir attendre.
Celle-là aussi est pas mal :

Papyjako (#523),
Soyez assez aimable pour donner le lien SVP. La série RSS ne paraît pas mise à jour.
http://www.remss.com/data/msu/….._v03_2.txt
Merci
Titoune (#528),
Les modèles sont calibrés sur les observations passées. C'est donc bien le moins qu'ils y soient "conformes" étant donné la profusion de paramètres et l'infinie flexibilité de leurs dosages. Il est facile, avec les moyens de calcul modernes, de touiller toutes les possibilités jusqu'à obtenir le "best-fit" de nos rêves.
Donc, pour la "prévision du passé", super !… Par contre, supposer que cette "conformité aux observations" recèle – en elle même – le caractère explicatif qui permettrait de considérer que le "modèle" obtenu va éclairer le futur, est une erreur de débutant.
En effet, à partir d'un certain niveau de complexité des phénomènes modélisés – et je crois savoir qu'en matière de complexité le climat se "pose un peu là" – une myriade de modèles différents, avec de subtiles différences en poudre de perlimpinpin, seront tous de bons candidats au "best fit", tout en donnant, confrontés à l'avenir, des résultats divergents.
Un très joli exemple jouet est donné par Craig Loehle dans son article : "The estimation of historical CO2 trajectories is indeterminate: Comment on "A new look at atmospheric carbon dioxide". J'e avais traduit en Français et largement commenté de larges extraits dans mon post : "Les modèles sont-ils des outils de prévision ?"
Un exemple en plus vraie grandeur est donné par la courbe des températures depuis 1998, qui donne ceci …
… alors qu'en 1998, "les modèles", qui avaient été calibrés sur les mesures d'avant, prévoyaient une explosion des températures …
La règle cardinale de la modélisation – hélas oubliée – est que le modèle doit être basé sur une compréhension de la réalité, et que le "good fit" ne peut pas servir de substitut à cette compréhension.
Lorsque la réalité physique sous-jacente est bien comprise, le modèle qui est construit dans le respect de cette réalité est inappréciable pour compléter la connaissance. C'est ainsi que l'on construit des ponts, des barrages et des avions. Et encore, c'est bien en soufflerie que se terminent – au sens "disparaître" – beaucoup de projets très beaux conceptuellement.
Et, justement, en climatologie, on est encore très éloigné de cette compréhension. Et la compréhension ne sera jamais apportée par les ordinateurs, au contraire. On ne pourra pas espérer de progrès en climatologie tant qu'on n'aura pas retiré aux climatologues leurs coûteux jouets.
Papyjacko. Au temps pour moi : voici la série à jour :
ftp://ftp.ssmi.com/msu/monthly….._v03_3.txt
miniTAX (#533),
Mais c’est vrai … au fait … les taux de CO2 sont constants, sauf quand on les regarde à la loupe. Come la surface du marbre est lisse, sauf quand on la regarde au microscope …
Abitbol (#530)
Les mecs qui insultent bien planqués derrière leur pc je leur dis d’aller se faire voir chez les druzzes et je les ignore donc économise ta bave, tu parles pour rien.
papyjako @
Reprends donc les données de la courbe RSS et refaits le calcul par rapport à la moyenne utilisée par le HADCRUT ou le GISS et ensuite gommes les variabilités internes et tu verras si ça ne chauffe pas toujours.
Comparer deux courbes qui ne sont pas basées sur la même moyenne n’a aucun sens. Mais bon comme tu es dans le déni le plus total pour toi ce n’est pas pareil.
papyjako
Voici la courbe RSS pour la période climatique (trente ans) et j’ai ajouté le trend pour la dernière décennie.
http://tinyurl.com/6eaqlqd
Ca chauffe.
Titoune (#538),
… avec la gomme à Hansen je suppose ? 😆 😆 😆
La crédibilité des relevés de température terrestre est mise à mal (c’est un euphémisme) dans l’article de McKitrick dont une traduction en cinq parties a été donnée sur skyfall.
Personne n’a encore démontré que si on « gomme les variabilités » naturelles, on obtient autre chose qu’une courbe plate. C’est justement l’objet du débat.
Etant donné que, dans le passé, il a fait significativement plus chaud – sans nous – et significativement plus froid – sans nous – il est extraordinairement arrogant de nous attribuer – à nous – les malheureux 0,7°C d’augmentation de température sur 160 ans, soit, il faut tout de même le rappeler … 0,004°C par an.
L’histoire étant de notre coté, il est normal que l’histoire vous gêne.
Titoune (#539),
Oui oui oui, et même en partant de 1998 en obtient encore un « trend » légèrement positif, bien que 1998 n’ait jamais été atteint et qu’aujourd’hui on soit au point zéro.
D’ailleurs, si pendant les 10000 prochaines années l’anomalie de température oscille entre +0.4 et +0,6, on aura, sur la période 2000-12000 un « trend » positif. Et donc, seuls les membres de la secte des adorateurs du « trend » pourront continuer à dire : « regardez le trend, ça chauffe !… »
Il suffirait par ailleurs de réchauffer un peu les années 1999 et 2000, pour obtenir, sur 1998-2010, un « trend » refroidissant. Cela montre bien que le « trend » est une très pauvre indication de la réalité, car incapable – par construction – de saisir les retournements.
Revenons aux fondamentaux :
Exercice 1 : trouver, dans l’histoire du climat de la terre, un seul cas de tendance (« trend ») qui n’ait pas été interrompue par la tendance inverse. 👿
Exercice 2 : démontrer que le fait que la température, depuis treize ans, n’ait pas atteint le sommet atteint en 1998, n’est pas l’indication du fait qu’en 1998 on « pourrait » avoir atteint un de ces points de retournement. 👿 👿
Papyjako (#541)
Bel aveu d’ignorance, je vous laisse deviner pourquoi.
Ben si c’est fait, ça prouve que tu ne te tiens pas au courant et que tu ne lis pas les bonnes sources ou que tu fais l’autruche. C’est comme ça qu’on fait quand on est dans le déni, la vérité fait peur il vaut mieux l’éviter.
Papyjako (#541)
Bel aveu d’ignorance, je te laisses deviner pourquoi.
Ben si c’est fait, ça prouve que tu ne te tiens pas au courant et que tu ne lis pas les bonnes sources ou que tu fais l’autruche. C’est comme ça qu’on fait quand on est dans le déni, la vérité fait peur il vaut mieux l’éviter.
Titoune (#543),
Tu vas arrêter un peu avec tes conneries psychologisantes ? La discussion démontre que tu nies à toute force les échecs, limites et incertitudes des modèles, même quand on reproduit noir sur blanc les textes de tes idoles qui admettent la médiocrité de leur travail. D’ailleurs tu ne les lis pas toi-même, c’est la seule raison pour laquelle tu prêtes encore foi à la version officielle dont tu te contentes (les résumés, les blogs engagés). Tu es un croyant et un militant, dont l’objectif affiché n’est pas le débat.
Quel est l’apport concret de :
je te laisses (sic) deviner pourquoi
tu ne te tiens pas au courant
tu ne lis pas les bonnes sources
tu fais l’autruche
la vérité fait peur
Encore un message vide, toujours du même.
Papyjako (#535),
Oui et non. Les paramétrisations sont en effet dotées de coefficients empiriques censées reproduire au mieux les observations, notamment de petite échelle. Et une partie des modèles ont encore certains flux ajustés pour éviter une dérive vers des valeurs irréalistes (mais ils sont minoritaires… du moins le GIEC l’affirme). Ensuite, le modèle tourne sur différentes hypothèses de conditions initiales, fait ses itérations 1900-2100, conservent celles qui approchent le mieux les T globales moyennes observées pour 1900-2010.
Et quand on regarde le détail, les itérations ne sont justement pas conformes aux observations en dehors de cette Tm. Il y a des erreurs systématiques qui sont énumérées dans le chapitre 11 de l’AR4, là où chaque sous chapitre décrit l’aptitude des modèles à reproduire les évolutions régionales sur un demi-siècle (1950-2005). La variation spatio-temporelle des T terrestres et océaniques, de la densité, pression ou contenu d’eau de l’atmosphère, des nuages, des précipitations, des oscillations, des déplacements zonaux… rien de cela n’est reproduit correctement, les simulations d’ensemble multimodèles se trompent et chaque modèle pris isolément c’est souvent pire, sauf certaines zones où il sera un peu plus près des observations au détriment des autres régions.
C’est pour cela que les gogos comme Titoune qui s’extasient de la reproduction de la Tm globale ne comprennent rien de rien : ce résultat mis en avant partout (et en effet sélectionné comme best fit) masque la misère des calculs qui le produisent et qui eux ne simulent pas du tout ce qui se passe réellement sur Terre. On tient le même discours depuis quarante ans : « malgré le défaut de réalisme, les modèles reproduisent les mécanismes essentiels », mais c’est absolument faux, l’essentiel reste en « low level of understanding » et « low level of confidence ».
Personnellement, je suis à peu près d’accord avec cette évaluation de Judtih Curry sur le degré de confiance dans ce que l’on sait ou ne sait pas aujourd’hui (même si je pense que cela n’a guère de sens, la science progresse et il n’y a aucune raison que nos estimations actuelles ne soient pas demain remise en cause par des avancées imprévues).
skept (#504),
Oui, l’expérience de Spencer me turlupine.
Lorsque l’on parle d’émission de photons,c’est une vue de l’esprit.Il s’agit d’un rayonnement, le photon n’a pas de réalité sinon celle d’exprimer l’incrémentation de l’énergie au niveau atomique;C’est l’équivalent du quanta d’énergie échangé par chocs ou conduction.
Dans l’expérience de Spencer, la plaque émet un rayonnement en fonction du niveau d’énergie apporté,mais ce ne doit pas spécialement être des IR, si l’on chauffe plus elle va émettre dans la gamme du visible par exemple.
La plaque réceptrice , elle capte tout le rayonnement ,IR ou autre en fonction des caractéristiques de son organisation cristaline,et moléculaire.Elle émet en fonction de sa t° comme la plaque émettrice,et renvoie donc un rayonnement qui est capté dans les mêmes limites que plus haut,et elle va donc avoir une t° plus élevée.
Si on refaisait l’expérience en disposant au lieu de plaques, des fioles transparentes contenant un mélange de N2 et de CO2,la fiole émettrice ne serait pas plus chaude.
Qu’en pensez-vous
Titoune (#543),
Bel aveu de stupidité, et vous ne saurez jamais pourquoi.
Les « bonnes sources » étant, bien sûr, vos sources … Celles qui ont obtenu l’imprimatur de la hiérachie religieuse de LA FARCE !… après vérification soigneuse de la conformité au dogme du GIEC.
Nous n’avons pas les mêmes valeurs, et ce n’est pas pour me déplaire.
skept (#546),
Ce n’est pas bien de se moquer des honnêtes travailleurs. Titoune fait son travail, même si, par manque de moyens intellectuels, ses résultats ne sont pas à la hauteur des espoirs que ses employeurs ont placé en lui. Peut-on vraiment lui en vouloir ?