• • • • •
Par Steve Goddard
Il semble que GISS travaille dur pour que 2010 soit l’année la plus chaude jamais enregistrée. Comme vous pouvez l’observer, le graphe ci dessus montre que 2010 a beaucoup plus d’aire au dessus de la courbe de 1998 qu’en dessous. J’ai fait une intégration numérique du graphe, en montrant qu’on y trouve 2,8 fois plus d’aire où la courbe est au dessus de 1998 qu’en dessous.
Que nous disent d’autres sources d’information? HadCrut a ajusté ses données à la hausse, mais même avec cet ajustement, nous trouvons seulement 0,04 fois d’aire au dessus de la courbe de 1998.
UAH a 0,12 fois d’aire au dessus qu’en dessous. C’est 25 fois moins que GISS.
RSS a 0,07 fois autant d’aire au dessus que dessous la courbe de 1998. C’est 40 fois moins que GISS.
Le graphe ci dessous nous montre l’écart entre GISS et les autres indicateurs:
L'index du GISS est le seul indicateur de température globale qui montre 2010 comme année la plus chaude jamais enregistrée. Les autres en sont loin. Celà est sans doute dû à leur formidable couverture des zones arctiques non existante bien meilleure que celle des autres :
Conclusion: Dr. Hansen pense que le réchauffement continue de façon sans précédent depuis 1998, tandis que les indicateurs HadCrut, RSS et UAH pensent qu’il y a eu stabilisation ou pause.
GISS
Had crut
Source : WUWT, traduction par Julien
671 réponses à “Le GISS veut faire de 2010 l’année la plus chaude”
williams (#600),
on continue en plein délire…
Donc, si je comprends bien, dans un fil destiné à discuter de l’évolution de la température 2010, on ne doit pas parler de l’évolution des températures en 2010, parce que l’année n’est pas finie ?
Warm (#563), les classiques de la thermo ont la vie dure
Warm (#601),
Pour 2010 on ne peut pas savoir si l’anomalie annuelle de la température de 2010 va être au dessus ou dessous de 2005 ou 1998 car on voit bien que ça se joue au 100ème de degrès celsus près.
Puis imaginé que le Mérapi qui est entrain d’entré en eruption qu’il exploserait ceci pourait faire que 2010 passe sous 2005 alors que si il n’exploserait pas ça serrait l’inverse.
Tout n’est pas prévisible surtout quand ça ce joue de si près.
Williams
williams (#603),
Les fluctuations annuelles étant de l’ordre de l’erreur de mesure, je me moque de ces tendances comme de mon premier bandage herniaire. Sans parler de la notion fantasmagorique de moyenne de température bien évidemment.
Warm (#593),
Tu n’a donc aucune idée de comment fonctionne un modèle?
Tu ne sais même pas ce qu’est un paramètre… c’est grave…
Merci, cela se voit rien qu’en regardant les courbes (le fit avec les données pre-2000 suivi du non-fit post-2000).
Mais non, une donnée n’est pas un paramètre….
D’après toi, dans l’équation y = ax+b, c’est quoi les paramètres?
Scaletrans (#604), notez que le Warmichou n’hésite pas à brandir triomphalement l’incertitude sur les mesures de la banquise en Antarctique, pour sous-entendre bruyamment que c’est une hausse non significative, mais dès qu’il devait « démontrer » que la température a augmenté depuis 12 ans, l’incertitude, qui est de 0,2°C, donc supérieure au « réchauffement » sur 12 ans, il se garde bien de la citer. Et encore, c’est parce qu’on admet très généreusement que cette incertitude a été calculée correctement en fermant bien les yeux, parce qu’elle reste miraculeusement à 0,2°C ces 30 dernières années alors que le nombre de stations de mesures a été divisée par 3 sur la même période, incertitude qui est de toute façon impossible à répliquer puisque Jones a avoué publiquement avoir paumé des séries brutes.
Mais hé, c’est la science climagique !
Collector ce gloubi-boulga !
Surtout mélanger incertitude de mesure et variabilité inter-annuelle…
Warm (#607), Mince, dire que vous m’aviez demandé des « preuves »…. Et là, même pas besoin d’aller chercher dans les archives
Allez-y doucement warm : vous remplissez trop vite votre « collector de warm »
Ah mais c’est parfait… donc si vous vous y connaissez si bien vous allez pouvoir nous faire une courbe de projection qui répond à vos critères de qualité !!
Pour info, Lucia explique ici comment elle calcule sa courbe de projection montré dans le graphe ci-dessus:
http://rankexploits.com/musing…..ervations/
Marco33 (#608),
Toujours aussi vide, vos interventions ! bravo ! belle constance !
Warm (#610), Pas de soucis : vous êtes une source d’inspiration et de rires !!!!!
En fait, vous êtes un parfait sparing partner pour démonter les manipulations, mensonges et autres mauvaises foi !!!!
Continuez !!!
Marco33 (#611),
il a déjà abondamment servi, le bougre, il doit être patatoïde ! S’il continue, c’est que c’est un sac de son ou un paillasson…
M, voilà qui devrait vous intéresser: qui vote Républicain aux US ? La classe moyenne : http://libertesinternets.wordpress.com/
Goddard nous a déniché encore un -gate de plus : http://stevengoddard.wordpress…..ington-dc/
A propos de -gate, je ne me souvenais pas que PapyJako et Abitbol avaient parlé de celui-là : http://www.rechauffementmediat…../kiwigate/
Il faudrait ne pas l’oublier
http://stevengoddard.wordpress…..o-the-mwp/
Le National Geographic enfonce un clou de plus dans le cercueil de Mann…
Patrick Bousquet de Rouvex (#599), A propos du rattachement de la Wallonie à l’Allemagne (?) ou à la France, j’opterais pour ma part, en tant que Rémois d’origine, au rattachement à la Champagne-Ardennes, comme au bon vieux temps de l’Empire Romain et même des Gaules quand Durocortorum (Reims) était la capitale de la Gaule Belgique : ainsi on aurait un ensemble où bulles et mousse se marieraient à merveille (chacune son tour)… 😉
Warm (#609),
Bah, des courbes de projection comme celles-là, je peux t’en sortir autant que tu veux…. et contrairement aux modèle SRES utilisé par Lucia (qui est tunné avec une tétra-floppée de paramètres, et je ne parle toujours pas de données… 😉 ) , je pourrais faire un meilleur fit, avec un seul paramètre… 😉
Elle n’explique rien qu’on ne sache déjà…. par contre, en ce qui vous concerne, vous ne semblez toujours pas savoir ce qu’est un paramètre (envoyez donc un mail à Lucia… elle vous expliquera peut-être… 😉 )
Je vous repose donc la question, dans l’équation y = ax+b… c’est quoi les paramètres?
Laurent (#618),
N’importe quoi, Laurent…
La courbe de Lucia n’est absolument pas paramétrée chaque moi pour coller au donnée, comme vous semblez le dire.
Pour preuve, elle utilise toujours la même courbe:
IL PEUT LE FAIRE ! Il est extraordinaire !!
Bon, à par nous refaire un remake de Dac & Blanche, vous pourriez nous faire une courbe en utilisant les modèles et vos fameux paramètres en nous montrant que les runs calculés en octobre 2010 donne des résultats foncièrement différents qu’en 2008 ou 2004 ?
Laurent (#618), Warm ne te répondra pas à part éventuellement avec une crétinerie HS dont il a le secret.
Son objectif, ce n’est pas de justifier ses inepties, c’est de pondre sa bouse du jour en prenant l’air le plus intelligent possible (il a beaucoup d’espoir le bougre) avec les platitudes typiques des escrologistes comme « c’est de la science », « c’est pirerivioude », « c’est Monsieur ou Madame qui l’a dit »… et quand on lui met son nez dans son oeuvre, il fait comme ses âneries n’ont jamais été dites.
Warm (#619),
Tu prouve un peu plus à chaque intervention ta bêtise crasse…. et qu’en plus tu ne sais pas lire…
C’est évidement pas la « courbe de Lucia » qui est paramétrée, mais le modèle SRES (comme dis clairement dans mon post précédent)….et ce comme TOUS les modèles dans TOUS les domaines. Un modèle non paramétré (dans lequel on ne peut pas faire varier les constantes physiques ou pseudo-physiques) n’a strictement aucune utilité….
Il faut être scientifiquement totalement ignare pour ne pas connaitre ces évidences.
Pour qu’un modèle soit considéré prédictif, il ne suffit pas de lui faire utiliser APRES COUP des données d’entrées sur une période limité. Il est ABSOLUMENT NECESSAIRE que la prédiction ait été PUBLIEE avant l’évènement prédit.
Tout le monde peut faire des prédictions d’évènements passés, et ce en s’imposant toutes les restrictions que l’on veut.
Avant de demander quelque chose, répond déjà aux questions que l’on te pose…. et montre au moins que tu te trompe de bonne foi, et que tu n’es pas un pur escroc…
La en essayant d’entretenir sciemment la confusion entre données et paramètres, l’escroquerie est évidente… 😉
Puisqu’on peut les faire varier, rien n’empêche donc de garder ces paramètres à l’identique au cours du temps… Enfin, on s’entend, les paramètres « variables » dans l’histoire, ce sont ceux du scenario d’émission A1b, qui concernent les taux de GES atmosphérique. Et là encore, on ne prend pas le taux réel de GES mesuré !! Le reste des parmètres physico-chimiques ne bougent pas (quoique j’ai un doute sur le cycle solaire, je ne connais pas assez tous les modèles sur ce point, mais là aussi, pas de mesures !).
Voilà une courbe de realclimate de décembre 09. Pareille à celle de Lucia:
SRES ??? un modèle ??
Bon, ben pas trop la peine de discuter avec vous, en fait… vous ne savez pas de quoi vous parlez…
SRES c’est l’acronyme de Special Report on Emissions Scenario. Ce n’est pas un modèle climatique !!
Comment vous dites, déjà ?
Mais les courbes de prédictions des modèles selon les scénarios d’émissions sont publiés dans l’AR4 depuis plusieurs années déjà…
Et vous… ignorant ou escroc ?
Warm (#622),
Oui, mais ils ont été déterminés APRES 2001, comme le précise clairement la réponse de Lucia aux questions qui lui ont été posées:
Et montrant donc des runs encore plus récents…. vous vous enfoncez….
Abus de langage de ma part (du a une réponse rapide), il fallait bien entendu comprendre « modèles utilisant les scénarions du SRES ».
Ca… c’est ce que tu essaie de faire croire….
Par contre, ta réponse (la première quotée), montre que tu sais parfaitement ce qu’est une paramétrisation…. ce qui donc est bien plus grave qu’une simple ignorance… tes réponses précédentes étaient volontairement « idiotes ».
Rapelle-moi quand l’AR4 a été publié?
PLus tu finasse, plus tu t’enfonce…
En ce qui te concerne, c’est définitivement établi…. escroc… et de la pire espèce…
Fixé une fois pour toute, et pas comme vous essayez de le faire croire, adapté au cours du temps. N’essayez pas de vous rattraper, ce que vous avez dit ici:
Prouve que vous vouliez nous faire croire que les runs des modèles sont paramètrés pour coller avec les données actuelles. Mais vous admettez maintenant le contraire. Dont acte.
Non, la courbe de realclimate date de décembre 2009. Le premier graphe que j’ai montré de novembre 2010. Ce qui montre que la paramétrisation des modèles ne changent pas…
Et vous de même… vous abandonnez l’idée de modèle que l’on paramètre en permanence pour coller à la réalité. On progresse !
J’ai l’impression qu’il y a comme un défaut dans l’heure inscrite ci-dessus à côté des dernières interventions : heure d’été non changée ??
Laurent (#623),
Bonjour Laurent,
franchement ? Est-ce que tu penses que la discussion de sourd engagée par warm mène quelquepart ?
warm me fait penser à une scène dans « Sacré Graal » de Monty Python, celle du chevalier noir qui se fait couper les deux bras et les deux jambes et déclare le match nul parce qu’il ne peut plus combattre…
Warm (#624),
… ben voyons… et ce depuis la nuit des temps tant que tu y es…. 😉
Et maintenant tu va peut-être prétendre que les paramètres des différents runs de MEMES modèles en 2010 seront les mêmes qu’en 2005????
Tu es un vrai pitre… 😉
Les paramètres des modèles sont ajustés pour coller à la « réalité » (aux mesures), c’est même ce à quoi ils servent (et qui permet de « déterminer », par exemple les différentes rétroactions dans le cas de modèles climatiques).
Tu essaie encore de faire croire que tu ne le sais pas…. escroc toujours… 😉
Donc OUI, les runs donnant la courbe sont largement postérieurs à 2000…
Tu joue encore au débile qui fait semblant de ne pas comprendre…
Tu dis vraiment n’importe quoi…. 😉
Encore une fois, le but premier d’un modèle, c’est de déterminer la meilleure valeur possible pour un ensemble de paramètres, c’est même sa raison d’être…
Donc évidement que si un meilleur jeu de paramètre permet de mieux coller à une réalité, il sera choisi… c’est le travail de fond du modélisateur… prétendre le contraire est soit de l’ignorance, soit de l’escroquerie.
Dans ton cas, nous avons maintenant la preuve que c’est de l’escroquerie…
Maintenant, quand tu a plusieurs jeux de paramètres qui permettent d’avoir à peu prêt le même résultat sur la période « de référence » ou on utilise les données « réelles » en entrée du modèle, et qui donnent des résultats différents sur la période « prédite » A POSTERIORI, devine quelle est la tendance « naturelle » du modélisateur???
C’est la raison pour laquelle, un protocole de validation normal (rigoureux) d’un modèle ne peut utiliser que des prédictions faites AVANT les évènements prédits.
Patrick Bousquet de Rouvex (#625),
Reportez-vous sur le « Fil Info des Sceptiques » ; vous aurez la réponse.
1967. Araucan | 3/11/2010 @ 16:58
JG2433 (#1965),
Je suis contre le changement d’heure ! … : )
Abitbol (#626),
Elle ne mène à rien sinon à démonter le type d’escroquerie intellectuelle que propose warmichou…
Dans pas longtemps, warmichou va passer à un autre sujet, c’est sa technique habituelle quand il est arrivé au fond du trou dans une de ses démonstration de mauvaise foi… 😉
JG2433 (#628), moi aussi, je suis contre, mais ne pas le reporter sur les posts, c’est quand même gênant !!
Il n’y a qu’à mettre l’heure GMT, ça clôt la question et on peut tous s’y retrouver aux 4 « coins » du globe.
Pas forcément tous les modèles, mais pour les courbes dont on parle, c’est bien le cas.
Les données viennent d’ici:
http://climexp.knmi.nl/selectf…..@somewhere
qui puisent les données d’ici:
http://www-pcmdi.llnl.gov/ipcc/about_ipcc.php
Donc, montrez-moi une preuve de la re-paramétrisation régulière des modèles ??
Je vous renvoie le compliment
Warm (#632),
Dernière pitrerie avant changement de sujet? 😉
Je te vois bien, la main sur le coeur « c’est bien le cas, juré, craché, si je mens, je vais en enfer… »
La suite est une nième tentative de confusion entre données et paramètres… juste lamentable… 😉
Et vous une énième tentative pour ne pas nous montrer ces fameux paramètres modifiés
Warm (#634),
Laurent (#627),
Oh le dialogue de sourds….
« Et maintenant tu va peut-être prétendre que les paramètres des différents runs de MEMES modèles en 2010 seront les mêmes qu’en 2005???? »
Non, la recherche avance, les paramétrisations ont sans doute été améliorées grace à diverses expériences en labo ou in-situ. Mais cela vous ne pouvez le comprendre que si vous ne partez pas du principe que les scientifiques cherchent « à tout prix » à avoir un modèle « parfait » rapidement, modèle qui n’aurait en effet sans doute aucune valeur prédictive.
A vous écouter, les modélisateurs modifient des « paramètres » purement arbitrairement pour mieux coller à la courbe de t° globale…hmmm…
Je vais vous apprendre quelque chose: Ce n’est pas comme cela que les modèles sont testés. Alors la sous détermination des modèles par les données, je veux bien, encore faut-il savoir à quelle diversité de données les modèles sont comparés, et dans quelle mesure les paramètres sont modifiables. Et vous verrez qu’on en est pas encore là…et j’en veux pour preuve les désaccords, parfois profond, entre modèles et données.
– Peut-on etre sur qu’un modèle n’arrive pas à un bon résultat que par « chance », avec des mauvaises représentations des mécanismes physique et chimique ou des influences oubliées ? Non.
– Peut-on essayer de diminuer la probabilité que cela soit le cas ? Oui. C’est ce que la recherche a fait et fait aujourd’hui.
– A quel niveau de confiance est-on aujourd’hui ? Je ne sais pas trop. Mais ce qui est sur c’est que les modèles ont de plus en plus de « physique » incorporé, et qu’ils ne sont pas si mauvais dans la reproduction de bien des phénomènes climatiques, et ce sur diverses échelles spatiales ou temporelles.
Que la « postdiction » vous dérange un peu, ok, mais que faire d’autre, quand pour l’instant les échelles courtes ne sont pas vraiment atteignables? Et ces « prédictions dans le passé » ne sont pas si triviales que vous le pensez, et certainement pas sans valeurs.
Des floppés de paramètres arbitraires qui pourraient etre modifiés à souhait pour coller à des données en nombre très restreint ? Ce n’est pas la réalité, désolé.
En ce qui me concerne, il y a longtemps que la démonstration est faite. Mais bon, pour les nouveaux lecteurs, c’est toujours utile.
Oui pour les modèles « en général », pas pour ceux dont on discute, qui sont « figés » depuis 2005 (et pour plusieurs, même avant), et guère changé depuis 2001. Ils sont à disposition de la communauté scientifique comme archive pour servir d’étalon de référence.
XLM (#636),
Pas uniquement. Je le répète, le tuning de paramètres est la principale raison d’exister pour les modèles.
Vu la suite… je pense que c’est vous qui faite exprès de ne pas comprendre… 😉
Je ne pars pas de ce principe, vous divaguez….
Expliquez-moi comment vous arrivez à cette conclusion d’après ce que j’ai dis (qui est pourtant simple et clair…) ?
Autre divagation…. vous « entendez » des voix. Vous vous prenez pour Jeanne d’Arc?
Si vous voulez discuter, repartez de ce que j’ai écris, et n’inventez pas n’importe quoi…
Quelle prétention… 😉 Les « voix » que vous avez entendu vous auraient donc passé une couche de cirage sur les pompes?
C’est comme cela que les jeux de paramètres sont affinés, au cours de multiples runs avec des paramétrages différents… c’est vous qui n’y connaissez rien… 😉
Un paramètre est par essence modifiable… c’est la définition du mot…
En quoi cela montre-t-il quelque chose d’un tant soit peu relié à ce que j’ai dis?
Décidément, vous divaguez…
De « plus en plus », si tu veux…. mais la plus grosse partie est composée d’immenses pans d’équations pseudo-physiques (il n’y a d’ailleurs pas moyen de faire autrement avec des modèles maillés, une équation physique s’applique à un univers continu, pas à un univers échantillonné).
Ton idée sur les modèles me semble plus relever du fantasme que de la connaissance… 😉
Cela ne me dérange pas. C’est toujours intéressant à faire… justement pour confronter des affinages de paramètres…
Par contre, en terme de « validation » d’un modèle, cela ne vaut pas un clou. Prétendre qu’un fit d’une post-prédiction vaut quoi que ce soit et conforte un modèle relève de la méconnaissance totale des protocoles de validation normaux des modèles.
La divagation continue… ou vous allez pécher toute cette inventivité dans le strawman? 😉
Effectivement… mais comme vous n’avez visiblement aucune idée de ce « qu’est la réalité », cette affirmation reste comique venant de vous… 😉
Warm (#638),
2005 > 2000
-« Bah, des courbes de projection comme celles-là, je peux t’en sortir autant que tu veux…. et contrairement aux modèle SRES utilisé par Lucia (qui est tunné avec une tétra-floppée de paramètres, et je ne parle toujours pas de données… 😉 ) , je pourrais faire un meilleur fit, avec un seul paramètre »
Donc quand je dis: « A vous écouter, les modélisateurs modifient des “paramètres” purement arbitrairement pour mieux coller à la courbe de t° globale. » Ou « Des floppés de paramètres arbitraires qui pourraient etre modifiés à souhait pour coller à des données en nombre très restreint ? » , ce n’est pas sans aucune raison.
-« Un paramètre est par essence modifiable… c’est la définition du mot… »
Je pointais juste le fait qu’ils ne peuvent pas être modifiés n’importe comment, et jusqu’à un certain point.
– « Prétendre qu’un fit d’une post-prédiction vaut quoi que ce soit et conforte un modèle »
Étrange, pourtant au vu de vos autres réponses à mon commentaire vous avez l’air d’être d’accord avec le fait qu’il n’y a pas sous détermination des modèles par les données. Or à partir de là, il est donc possible de trouver des données auxquelles comparer les modèles, qui n’ont pas été « utilisés » lors du « fittage » de paramètres. Cela relève donc bien de la prédiction. Et cela a donc de la valeur. Il n’y a donc pas que dans des projections futurs que l’on peut tester des modèles dans ce cas. Tester un modèle dans le passé lointain par exemple , s’il n’a jamais été utilisé dessus est d’une certaine facon prédictif. Tester un modèle contre des mesures de telle variable alors que l’on vient de modifier un paramètre pour mieux fitter un autre, idem.
Parler de postdiction/prédiction seulement avec un rapport au temps est en fait un peu trompeur je me rend compte…
Ce qui compte c’est que une meme version d’un meme modèle soit testé sur un maximum de données disponibles.
Vous avez mieux compris ?
Laurent (#640),
Je vous rappelle Laurent que vous avez dit ceci:
Déjà que vous avez parlé d’un « modèle SRES » qui est un non sens (admettons le raccourci), mais à vous lire on comprend que vous voulez « fitter » les modèles aux données en modulant la paramétrisation, et que vous supposez que c’est ce que font les modélisateurs, et que c’est ce qui est fait dans la courbe que je vous montre (« tunné avec une tétra-floppée de paramètres). C’est ce que je comprends, et ce que XLM a compris.
Donc n’essayer pas de vous défiler: soit vous vous exprimez mal, soit vous avez tort. Parce que je vous ai montré que la courbe de Lucia sur Blackboard n’est pas « tunné avec tetra floppée de paramètres » selon le bon vouloir du modélisateur de novembre 2010…
Warm (#641),
C’est pas moi qui veut…. c’est ce pourquoi les modèles sont fait… (relire #635)…
Je ne suppose pas… c’est ce que je fais quand je modélise, et ce que fait tout modélisateur quand il modélise… c’est la seule façon d’affiner le paramétrage d’un ensemble d’équations pseudo-physiques d’un système maillé.
Vous pouvez raconter ce que vous voulez, il n’y en a pas d’autres. Les valeurs de paramètres ne sortent pas toute seules de la cuisse de Jupiter par je ne sais quel enchantement…. 😉
La seule personne qui se défile en permanence, en maniant le strawman en rafale, c’est toi…
Vous n’avez rien montré du tout….
Surtout que ce n’est pas la « courbe de Lucia » qui est tunnée (La courbe de Lucia n’est pas un modèle mais une moyennes de runs de divers modèles), et les modèles ayant fait les différents runs ont biens été tunnés postérieurement à 2000, pour les besoins de l’AR4, comme l’indique Lucia explicitement dans ses réponses aux questions (que j’ai déjà quoté auparavant), votre nième tentative de strawman n’y change rien…
C’est donc bien vous qui avez tort (mais sciemment, je l’ai reconnu, c’est bien de l’escroquerie que vous essayez maladroitement de perpétrer…)
J’ai parié 100 euros avec mes trois voisins Warmichette, Warmichou et Warmichon que l’année 2010 ne serait pas plus chaude que l’année 1008, euh pardon, 1998.
Eux prétendent que l’année 2010 est la plus chaude jamais enregistrée depuis qu’on enregistre. Il faut GISS que j’attende un peu pour en avoir confirmation. GISStement, je n’en peux plus d’attendre.
Je demande GISS qu’on me dise qui a gagné.
Laurent (#643),
il y a des articles intéressants au sujet des modèles sur le site de l’IPSL:
http://www.ipsl.fr/fr/Pour-tou…..t/(page)/2
Lagneau-du-ruisseau (#644),
Pour GISS, c’était 2005 le plus chaud.
Donc si 2010
Si 2010
Caille folle (#646),
Le « petite Caille sotte » fait semblant de ne pas savoir que le grand spécialiste du rétropédalage historique des températures – j’ai nommé James Hansen, Directeur de la Nasa-Giss et militant extrémiste à la fois – a effectivement rétrogradé, a la mano, l’année 1998, lorsque le pic est devenu gênant après des années de baisse de température qu’il n’arrivait pas à cacher.
Le sordide c’est que le même Hansen qui avait poussé les feux sous 1998 – comme il le fait avec ardeur aujourd’hui pour 2010 – pour créer l’illusion que la température de 1998 avait dépassé celle du pic des années 30 …
Et le plus sordide encore c’est qu’en définitive on parle toujours de dixièmes de degrés, voire de centièmes, bientôt de millièmes … calculés avec des instruments qui sont bien en peine de donner la température à 1 ou deux degrés près !…
Et le plus con est qu’il y en a encore pour accorder une once de crédibilité aux simagrées du docteur Hansen …
Caille folle (#645),
Mon Dieu !… des articles « intéressants » sur le site de l’IPSL ?… allons vite voir, ce doit être du nouveau !… 😆 😆 😆
Mais, ma petite caille sotte, les modèles sont plantés … irrémédiablement plantés … et ils le resteront tant qu’on n’aura pas décidé d’y remplacer les hypothèses idéologiques par des hypothèses scientifiques.