Scoop : les éditoriaux qui nous attendent après l’échec de Copenhague

(redirigé depuis Le Mythe climatique ; commentaire à faire ici, sur Skyfal)

Maintenant (samedi 19 décembre, 00h15) que la conférence de Copenhague est terminée et que son échec est patent, voici quelques uns des éditoriaux à paraître, peut-être, dans les prochaines heures…

L’éditorial du docteur Coué :

Copenhague : un goût amer, mais des ambitions intactes
Bien sûr, la déception est là au lendemain d’une conférence à l’issue de laquelle les pays riches ont une nouvelle foi démontré que leur portefeuille compte davantage que la planète et l’avenir de nos enfants. Faut-il pourtant s’abandonner au pessimisme ? Loin de là. En réalité, l’issue immédiate de Copenhague n’est une surprise pour aucun observateur bien informé, car plusieurs facteurs conjoncturels étaient venus gâcher la fête. En particulier, Barack Obama, empêtré par l’action délétère des lobbys pétroliers et de son opposition néo-conservatrice, a dû temporairement revoir ses ambitions à la baisse pour la cause climatique dans son propre pays. Les hasards du calendrier électoral n’ont pas joué en faveur de Copenhague, mais le charisme du président américain, nouveau prix Nobel de la paix, reste intacte et, une fois ces élections passées, nul doute que le pays historiquement le plus pollueur de la planète saura prendre ses responsabilités, sous l’autorité d’un leader à l’honnêteté qui tranche avec celle de son prédécesseur honni. Les plaies ouvertes par ce dernier finiront par cicatriser mais, profondes, elles mettront un peu plus de temps que prévu.
D’autre part, tout le monde s’accorde à dire que Copenhague et sa mobilisation citoyenne sans précédent pourrait être un succès après coup, qui ne manquera pas de se renouveler et de peser lourd dans les prochaines réunions, notamment celle de Mexico. La bonne surprise pourrait fort bien venir de là, et les partisans du laisser-faire, les négationnistes climatiques et autres lobbys de l’industrie pétrolière auraient bien tort de se réjouir trop vite.

L’éditorial du docteur Tant Mieux :

Copenhague est mort ? Vive Copenhague !
James Hansen, l’un des principaux artisans de la prise de conscience de l’urgence climatique, souhaitait l’échec de la conférence de Copenhague. Un succès, expliquait-il, ne pouvait être qu’illusoire, car entaché de compromis. Or si le compromis est une nécessité démocratique, il ne peut être utilisé pour traiter de l’affaire du climat, car on ne négocie pas avec les lois de la physique et de l’effet de serre.
L’échec de Copenhague, c’est d’abord l’échec d’un système à bout de souffle : celui dans lequel l’élite dirigeante est seule habilitée à prendre les décisions. La capitale danoise a été le théâtre de cette grave rupture entre les citoyens et les dirigeants. Comme toujours, ces derniers pensent qu’ils seront toujours vainqueurs : vain espoir qui rappelle l’aveuglement de Louis XVI juste avant la Révolution. En convoquant les Etats Généraux en 1789, le roi pensait asseoir son autorité : il n’a fait qu’accélérer un processus alors déjà irréversible. De même, la conférence de Copenhague n’aura fait que structurer davantage les initiatives citoyennes en faveur d’une action forte pour lutter contre le réchauffement climatique. Incapables de prendre la mesure de l’exigence de l’opinion, les élites dirigeantes sont involontairement en train de passer la main aux défenseurs de l’environnement qui, par des actions directes et résolues, se montrent les plus en phase avec l’attente citoyenne. Cette impulsion nouvelle donnée aux actions des ONG, la prise de conscience écologique toujours plus profonde de l’opinion internationale, montrent que l’écologie, loin de n’intéresser qu’une élite urbaine, fait désormais partie du paysage politique de manière durable. L’exigence de l’opinion va se renforcer encore au gré des manifestations de plus en plus préoccupantes du dérèglement climatique, au point que, bientôt, les décideurs ne pourront plus se dérober. Et les efforts qu’ils devront consentir leur feront regretter le confortable compromis dilatoire qu’ils auraient pu se donner à Copenhague. En ce sens, donc, l’échec de la conférence est en effet une bonne nouvelle.

L’éditorial du Grand Inquisiteur :

Nos enfants nous accuseront
Si la Planète pouvait parler, elle nous condamnerait à mort. Mais elle n’aura pas besoin de le faire : l’humanité vient de tracer elle-même la route de son funeste destin. La courte vue de nos dirigeants, incapables de s’entendre à Copenhague malgré la pression unanime des scientifiques et des ONG, annonce un bien sombre avenir.
Ce matin, lorsque ma petite fille de sept ans est venue me réveiller, j’ai eu la gorge nouée en songeant au monde que nous lui préparons. Un monde fait de famines, de crises, de guerres, de tempêtes et de larmes. Tandis qu’elle s’émerveille devant la neige, le sapin de Noël et les décorations de la maison, aurai-je le cœur de lui dire que, dans quelques années tout au plus, elle ne pourra plus jamais jouer dans la neige, car celle-ci ne tombera plus ? qu’il n’y aura plus d’éclairage pour Noël ? que les sapins auront peut-être disparu ?
Depuis des années, les scientifiques les plus éminents se penchent sur la question du climat. Leur conclusion a été, et est toujours, sans appel : sans un effort à l’échelle mondiale, les températures vont augmenter de 6 degrés, avec le cortège de drames que cela implique. La cupidité des possédants, l’incurie des dirigeants, la complicité des médias, tout cela a contribué à la situation actuelle d’une humanité qui avance résolument vers le gouffre climatique. Il fallait voir ces mines hypocrites, ces Sarkozy, ces Merkel, faussement abattus par l’échec de la conférence de Copenhague, mais en réalité ravis d’être parvenus à vendre l’avenir du monde pour un plat de lentilles, qu’ils se partageront sans tarder avec les autres puissants de ce monde, tous ces affameurs, ces pollueurs et ces parasites de la Planète.
Lorsque nos enfants vivront ce que nous leur préparons, ils se retourneront vers cette tragique conférence de Copenhague. Ils auront le droit de nous demander des comptes. Et nous ne pourrons pas dire que nous ne savions pas.

Toute ressemblance avec les vrais éditoriaux à venir sera, bien sûr, la preuve d’un scandaleux plagiat de leur part…

Benoît Rittaud.

101.  Laurent Berthod | 22/12/2009 @ 1:21 Répondre à ce commentaire

Mon éditorial à moi n’est pas vraiment dans la ligne de ceux que vous prévoyez !

Longue vie à Skyfal ! (Enfin, peut-être non, parce que si le débat existait vraiment entre scientifiques, experts et responsables politiques, Skyfal aurait-il encore une utilité ?)

102.  Blanc Cassis | 22/12/2009 @ 8:27 Répondre à ce commentaire

Quand un scientifique est obligé de se faire accompagner par la police pour se rendre à une conférence pour présenter son exposé sur le climat :

http://bit.ly/7ntTqE

103.  Volauvent | 22/12/2009 @ 10:07 Répondre à ce commentaire

Blanc Cassis (#102),

Je ne comprends pas votre remarque. Cette histoire est racontée par Hansen lui même; dans son introduction il se pose en victime mais nous ne savons pas si cette mesure de protection était justifiée ou non; Hansen a t il reçu des menaces? Si c’était le cas il l’aurait dit.
Par contre ce que nous savons c’est qu’il traite publiquement les producteurs de pétrole et d’électricitéde criminels et demande des sanctions pénales pour les dirigeants; nous savons qu’il va témoigner au procès d’extrêmistes ayant intenté des actions illégales et défend leur position, oubliant l’obligation de réserve que tout fonctionnaire devrait avoir.
Enfin, quand on lit son texte et qu’on connaît un peu le contexte, on est abasourdi. Ce type a complètement pété les plombs et s’est forgé une sorte de paradigme scientifique à part, complètement déconnecté de la réalité. Juste un extrait savoureux:

« As discussed by Hansen et al. (2006) the main difference between these analyses is probably due to the fact that British analysis excludes large areas in the Arctic and Antarctic where observations are sparse. The GISS analysis, which extrapolates temperature anomalies as far as 1200 km, has more complete coverage of the polar areas.

Ce type nous explique que ses mesures sont meilleurs sur les pôles, non pas parce qu’il a plus de données, mais parce qu’il les extrapole plus largement! C’est le niveau zéro de la science!

104.  abb | 22/12/2009 @ 11:24 Répondre à ce commentaire

Volauvent (#103),
Pas nécessairement, mais par contre je suis tres tres tres curieux de voir comment ces extrapolations sont faites, et comment on a pu les valider… Deja que pour Darwin Zero, alors qu’il y a des thermometres, ça tiraille dans tous les sens et à juste titre, alors si en plus on « extrapole » des temperatures….
Ce qui est sur, c’est qu’il y a qq semaines encore je ne me rendais pas compte à quel point ce que je croyais etre des « données » étaient à ce point eloignées des observations empiriques

105.  Marot | 22/12/2009 @ 11:41 Répondre à ce commentaire

abb (#104),
Vous raisonnez comme un scientifique moyen, pas comme un « climatologue ».
Le climatologue connaît le climat mieux que ne le relèvent ces bêtes thermomètres.

Que fait-il alors ?
Il ajuste la valeur de la température relevée à ce qu’elle doit être selon sa science connaissance conviction, non selon ses objectifs.

Rappelez-vous pas loin de chez nous, la station de Pau ses relevés et sa photographie actuelle.

1) les températures jusqu’en 21 étaient mal repérées, on ajuste à la baisse.
2) les températures actuelles sont mal relevées de par l’emplacement à côté d’un parc à voitures et d’une allée en dur. Là, on n’ajuste rien car cela va dans le « bon sens ».

106.  abb | 22/12/2009 @ 11:52 Répondre à ce commentaire

Je suis en train de regarder ce qu’on fait subir aux données GISS, pour l’instant les descriptions que je trouve sont presentées de façon parfaitement anodines (c’est le but, je pense), cela ressemble aux methodes d’homogeneisation qu’on retrouve ailleurs (mais qui sont critiquées de la meme façon). Si qq a plus d’infos ou une analyse comparative avec d’autres methodes, merci je suis preneur

107.  abb | 22/12/2009 @ 15:22 Répondre à ce commentaire

Bon je viens de lire quelques informations sur le GISTEMP. En fait je n’ai pas trouvé d’explications sur les procedures d’homogeneisation des series temporelles a proprement parler, cad les methodes qui sont en ce moment mises en cause comme sur Darwin Zero (plus exactement, ce qui est mis en cause est le fait que la methode decrite ne semble pas correspondre a celle reellement appliquée sur les données).
Bref, a moins que vous ayez une source là dessus, pour le moment j’ai l’impression que la façon dont les « données instrumentales » (si je reprends les termes qu’on trouve sur le site officiel du GISS) sont traitées « avant » leur inclusion dans les stats est un grand flou et donc permet de faire certainement ce que l’on veut.
Par contre j’ai lu la méthode expliquée sur le site du GISS pour calculer les tendances de T a l’echelle de la planete. Ca m’a franchement laissé un gout de « simplisme » mais je vous laisse faire d’autres commentaires plus éclairés:
donc dans « Global Trendsof Measured Surface Air Temperature (Hensen Lebedeff 1987) » (accessible sur le site GISS)
je resume la méthode:
– A partir des données mensuelles moyennées sur l’année, pour toutes les stations.
– On decoupe le globe en 80 boxes puis 100 subboxes de superficie egales,
– dans chaque subbox on prend pour chaque station, la liste de toutes les autres stations dans un périmètre de 1200km (ce qui peut inclure, donc, des stations en dehors de la subbox ou meme box initiale), du moment que ces autres stations ont des periodes de mesure qui recouvrent la station de reference,
– La limite de 1200km est estimée en calculant, au préalable, les correlations de toutes les stations prises par couple, quelque soit la distance. Hansen arrive a la conclusion empirique que du moment que deux stations sont separées de 1200km au plus, leur correlation est supérieure a 0.5 (environ). Hansen en deduit que cette distance est donc une bonne limite pour dire que deux stations a 1200km ou moins, et _quelque soit leur correlation effective ensemble_, sont eligibles pour « s’ajuster » l’une l’autre dans son calcul global. A noter que cette distance donne des correlations de l’ordre 0.5 si on est aux hautes latitudes (nord), mais cette correlation est tres mauvaise pour les latitudes moyennes, et elle me parait relativement difficile a calculer sur les latitudes antarctiques (du fait du faible nombre de stations). Notons aussi que cette absence de bonne correlation aux latitudes moyennes ne gene pas apparemment pour appliquer un algorithme identique partout.
– Donc dans chaque subbox et pour toute station, on trie les stations « dans la limite de 1200km » en fonction de la plus longue periode de recouvrement (de 5 a 20ans minimum suivants les essais de Hansen). On prend la 1ere station de la liste, on calcule le T moyen sur la periode de recouvrement, puis le T moyen sur la meme periode sur la station de reference, et la seconde station est « ajustée » du deltaT pondéré par la distance (plus exactement, deltaT est divisé par la distance, ie une station a 1200km implique une variation nulle, une station a 0km implique une variation egale a deltaT). Par contre on ne tient pas compte d’autre chose, comme la correlation des series temporelles, ou la direction, ou meme du signe du deltaT. Ensuite les deux series (de reference, et celle ajustée) sont moyennées ensemble pour donner une « nouvelle » serie de reference, et on recommence avec la station suivante de la liste… etc.
– jusqu’à obtenir une serie pour la subbox, et on applique ensuite ce type d’algorithme pour la box au dessus, etc.
Je ne sais pas pour vous, mais je trouve que c’est vraiment brutal comme methode, et faire des moyennes de temperatures ajustées a 1200km car le coeff. de correlation est « plutot au dessus » de 0.5 quand on le calcule sur un échantillon totalement différent, me parait … audacieux.
Quant à dire que les résultats correspondent a « une meilleure couverture (que ceux du HadCRUT) », c’est plutot optimiste !
Nota: je pense que l’algo a été modifié et qu’on n’applique plus exactement celui decrit, je vais voir les updates. Je pense cependant que l’esprit est toujours exactement le meme, y compris cette distance magique de 1200km puisqu’elle est encore citée par Hansen.

109.  pastilleverte | 22/12/2009 @ 18:14 Répondre à ce commentaire

Dans la série
1/ j’ai l’esprit de l’escalier
2/ je comprends vite, mais il faut m’expliquer longtemps,
je reviens à Nouméa, et j’inverse ma remarque
Le niveau de la mer n’a pas augmenté à Nouméa, ce qui supposerait que la température de surface de leau n’ a pas augmenté (puisque pas de dilatation thermique)
Si la SST de Nouméa n’a pas augmenté, la mer étant le réservoir de chaleur majeur, pourquoi la température moyenne de l’air a t elle augmenté (4X4 canaques ou caldoches, pets et rots des ruminants néo calédoniens, urbanisation suavage avec effets UHI ?)

110.  Abitbol | 22/12/2009 @ 20:01 Répondre à ce commentaire

L’Expansion donnait la parole à Vincent Courtillot dans un interview daté du 10 décembre de cette année, voici un court extrait :

Qu’attendez-vous de Copenhague ?
Il est fort probable que la Chine, et donc les Etats-Unis, ne fassent rien. Il restera le bon soldat Europe, qui va se retrouver au premier plan, alors qu’il ne dégage que 1% des émissions de gaz à effet de serre

111.  Volauvent | 22/12/2009 @ 22:43 Répondre à ce commentaire

abb (#104),

J’ai exactement le même sentiment, et je suis effrayé de ce que je lis; par exemple, le spécialiste de l' »homogéneisation » qui est venu brièvement sur ce site, (et que certains ont fait fuir malencontreusement) qui me paraissait quelqu’un de raisonnable, m’a fait comprendre en quoi consistait ce que j’appelle moi, pauvre ingénieur, des tripatouillages, fût ce avec des techniques statistiques servant d’écran de fumée. A l’évidence, c’est de la mauvaise science. Au lieu de nous rassurer, il n’a fait que renforcer l’idée que la « climatologie » a pété les plombs.

112.  the fritz | 22/12/2009 @ 23:31 Répondre à ce commentaire

laurent (#100),
Laurent, et tous ceux qui sont interessés par le contenu en chaleur des océans et la remontée du niveau de la mer; il y a Météor qui a fait le point sur son site
http://www.climat-evolution.co.....nts.html#c

Vous pouvez voir les courbes et ignorer les conclusions; cela pose quand même de sérieux problèmes concernant le relevé altimétrique des océans

113.  laurent | 23/12/2009 @ 0:15 Répondre à ce commentaire

the fritz (#112),

Oui, je pense que GOCE permettra de lever, au moins en partie, les incertitudes.
Pour le moment, tout cela montre que les mesures ne sont pas assez précises pour en tirer des conclusions robustes (trop de traitement du signal statistique, problème de caractérisation de débruitage et de caractérisation du signal, etc….)

114.  laurent | 23/12/2009 @ 0:31 Répondre à ce commentaire

Volauvent (#111),

Non, c’est pas de la mauvaise science. Par contre, on ne dit jamais assez qu’à la base on a de la mauvaise donnée, peu représentative spatialement, et très bruitée. En traitement du signal, on dit familièrement que le peigne de Dirac n’a plus qu’une dent… 😉
Les tentatives de reconstruction sont scientifiquement justifiées, mais ont forcément des limites. Pour faire une parabole, c’est comme si on tentait de reconstituer une photo brulée à 99% avec 3 micro confettis quasi intacts (mais quand même jaunis par la chaleur et noircis par la fumée).
Ce n’est pas pour rien que depuis 30 ans qu’on dépense des centaines de millions de dollars (et même des milliards) pour créer des instruments de mesures satisfaisants (depuis qu’on a commencé à lancer des satellites meteo)…. c’est bien que les moyens terrestres (ou maritimes, ou aériens, ou les radiosondes) dont on disposait ne l’étaient pas.
Et c’est seulement maintenant qu’on commence à disposer d’instruments valables…. je dirais donc que les vraies mesures climato commencent aujourd’hui… 😉 …. et qu’on en verra le résultat dans 30 ans.

Bref, la science est intéressante, mais on omet juste de dire qu’on ne peut pas cuisiner un homard au caviard quand on a juste des chiures de mouches comme ingrédient…
Maintenant on a les alevins d’esturgeons… attendons donc d’avoir les esturgeons adultes et de les pécher pour se lancer dans des recettes de haut niveau…
C’est la communication qui est mauvaise… pas la science.

115.  antoniosan | 23/12/2009 @ 6:59 Répondre à ce commentaire

Dans la serie tout « Le Monde » peut se tropmer…
Le Monde a recueilli une interview du philosophe Michel Serres a propos du sommet de Copenhague. L’article debute ainsi:

« Professeur à l’université de Standford, Académicien, Michel Serres est l’un des rares philosophes contemporains à proposer une vision du monde qui associe les sciences et la culture. »

Pourquoi pas « Cetandefored »? Moi je ne connais que Stanford, en Californie…

116.  abb | 23/12/2009 @ 8:54 Répondre à ce commentaire

laurent (#114),

C’est la communication qui est mauvaise… pas la science.

Hum, disons qu’ensuite il ne faut pas affirmer qu’on est « sur a 90-99% »… Donc ce n’est pas que de la comm, c’est aussi de la mauvaise science…

117.  abb | 23/12/2009 @ 10:09 Répondre à ce commentaire

abb (#108),

Je rajoute une précision:
Les methodes d’interpolation, quelles qu’elles soient, produisent des erreurs (absolues) de l’ordre de 0.5°C en extrapolant les valeurs de T sur des zones ou les stations sont peu nombreuses relativement a la superficie (sparse network). On pourrait croire que les « sparse network » concernent les zones « eloignées » type arctique/antarctique par exemple: Non, en fait on constate que l’amplitude de l’erreur est inversement proportionnelle au nombre de stations tout court, et notamment sur les periodes 1880-1950 et 1970-1988 (date des donnees de l’etude), car le reseau de stations etait moins developpé/entretenu,
Donc avant 1950 par exemple, et meme aux latitudes moyennes, l’amplitude des erreurs liées aux interpolations spatiales pouvait aller jusqu’a 0.4 ou 0.5°C…

A noter que l’auteur de l’etude indique que les erreurs regionales atteignent ces valeurs de 0.5°C, mais qu’ensuite leur inclusion dans des moyennes globales (terrestre) est faible, le MBE (mean bias error) de l’ordre de +0.05°C => cad que les erreurs grosso modo se compensent des lors qu’on commence a faire des moyennes, il y aurait un tres tres leger biais a la hausse
Je dirais cependant ceci:
– Dès lors, il n’y a pas d’interet a faire des interpolations spatiales au niveau du globe pour calculer la courbe de T globale terrestre. Sans interpolation le resultat terrestre serait aussi précis
– Par contre il ne faut pas utiliser les interpolations pour indiquer des variations regionales sur des zones « sparse » puisque l’erreur est de l’ordre du rechauffement affiché. le GISS ne s’en prive pas pourtant.
– je soupçonne que la façon de calculer le MBE ci dessus n’est pas représentative des algorithmes de type Hansen Lebedeff car l’erreur introduite sur une zone type antarctique par exemple ne va pas etre compensée par le reste des erreurs du reseau en moyennant, mais va etre incorporée dans la box au dessus et encore au dessus, donc a mon sens les erreurs peuvent s’empiler.

118.  Manu95 | 23/12/2009 @ 10:32 Répondre à ce commentaire

Mais personne ne s’inquiète de savoir si une température moyenne globale a un sens.

Lu sur un blog :
« A “mean world temperature” is meaningless. Think about having one foot in boiling water and the other frozen in an ice bucket. On average, you would be fine. « 

119.  abb | 23/12/2009 @ 10:58 Répondre à ce commentaire

Manu95 (#118),

Entierement d’accord, c’est une approximation de plus sur une liste d’approximations deja longue comme le bras:
– reseau historiquement faible et peu fiable, spatialement heterogene et sans demarche d’assurance qualité (evaluer la marge d’erreur d’une station en alaska en 1850, chapeau…)
– series reconstruites localement (homogeneisation) selon des principes louables mais dont l’application donne des resultats au mieux surprenants, parfois inexplicables (darwin zero), avec un soupçon que les methodes reellement employées ne sont pas celles énoncées
– interpolations en sus, qui ne peuvent que rajouter des erreurs aux erreurs precedentes (l’idée de Hansen que « grace aux interpolations » notamment sur les zones peu mesurées, on puisse affirmer que « 2005 etait plus chaude » me fascine)
– et on moyenne tout cela selon des methodes qui n’ont aucun sens physique (on « ajuste » des sous series en ajoutant des delta de moyennes sur des zones larges de 1200km) pour arriver a un chiffre unique…

Tres franchement, si ce genre de methode devait servir à calculer la distance de freinage d’une voiture, je ne sais pas si je monterais…

120.  the fritz | 23/12/2009 @ 11:45 Répondre à ce commentaire

laurent (#114),

C’est une bonne analyse de la situation

121.  the fritz | 23/12/2009 @ 11:47 Répondre à ce commentaire

abb (#116),

Je crois que tu confonds GIEC et sciences

122.  Murps | 23/12/2009 @ 12:05 Répondre à ce commentaire

laurent (#114), et
Manu95 (#118)

De manière brutale, personne ne se pose la question la notion de température globale pour la planète a un sens.

Il me semble que c’est pourtant la première question qu’on devrait se poser.

En fait, j’ai beau tourner le problème dans tous les sens j’ai du mal a me faire à cette idée de température globale et le pire c’est que je ne suis pas certain qu’on puisse me prouver que j’ai tort.
C’est en cela que ce n’est peut-être pas de la « mauvaise science » mais pas de la science du tout.

Je suis absolument effaré de voir qu’il n’y a nulle part de la physique dans ces bidouillages de températures, pas de thermique, pas de conduction, pas de convection, pas de rayonnement, pas de mécanique des fluides, pas chimie… Rien.
Juste une collecte très imparfaite dans l’espace et le temps de mesures de températures dont on ignore la signification et ensuite un énorme pudding statistique et numérique auquel on fait dire ce qu’on veut…

Nos enfants vont drôlement se marrer en revoyant tout ça…

123.  abb | 23/12/2009 @ 12:18 Répondre à ce commentaire

the fritz (#121),

Bof on joue sur les mots
il n’y a pas de « Science » avec un grand S qui serait pure, et une « communication » faite par le GIEC qui serait un amalgame ou un dévoiement de cette Science: Il y a une montagne d’articles scientifiques bien réels, publiées par des universitaires ou laboratoires scientifiques (plus ou moins interessés dans l’affaire, c’est toute la question) dans des revues scientifiques (avec un bon process de peer-review, c’est toute la question), qui se basent sur des théories scientifiques (bonnes ou mauvaises, c’est toute la question), qui donnent des resultats scientifiques (fiables ou non, c’est toute la question) et qui servent a faire des previsions (plus ou moins justes). Les contributeurs du GIEC ont bien evidemment un biais marqué pour le rechauffisme, mais le GIEC n’est que le concentré d’un biais plus général fait de mauvaise science (pas peer-reviewée, pas critique, pas cross-validée, pas reproductible, etc etc etc.) produire par des scientifiques tout a fait ordinaires…
Mais bon ça devient de la philo…

124.  abb | 23/12/2009 @ 12:25 Répondre à ce commentaire

il vaudrait mieux calculer la quantité de chaleur contenue dans l’ocean

125.  the fritz | 23/12/2009 @ 13:46 Répondre à ce commentaire

abb (#124), abb (#123),

Difficile de la calculer, la mesurer serait mieux;

Mais bon ça devient de la philo…

Dès que cela derappe , je décroche

126.  Murps | 23/12/2009 @ 14:26 Répondre à ce commentaire

abb (#123),

Il y a effectivement une montagne d’articles qui dans leur majorité ne font pas avancer le schmilblick d’un iota.
Pourrait-on me citer une avancée significative de ces dernières années en climatologie ? Je veux dire quelque chose d’irréfutable, qui soit considéré comme un clef dans la compréhension d’ensemble du mécanisme ?
Il n’y a rien du tout.

Le « peer-review » ne vaut pas un clou. Si Pasteur y avait été soumis stricto-sensu, ses découverte auraient probablement été cachées pendant des années.
Le peer-review à la sauce climatologie est totalement dévoyé et politisé.
Seuls compte l’épreuve des faits et en climatologie on voit ce qu’on veut voir.

Dans le cas qui nous intéresse, il n’y a même pas de théorie, à part cette misérable règle de trois entre le taux de CO2, parfois mesuré, parfois extrapolé et une température « globale » évaluée au doigt mouillé, dont on ne peut même pas montrer qu’elle est représentative de quoi que ce soit.

Quant aux prévisions, clef de voute de toute science digne de ce nom, elles ne valent rien du tout, elles changent sans arrêt selon les sources.

Ce qui va se passer, c’est que toute cette « climatologie » va se retrouver dans les poubelles de l’histoire des sciences, aux côtés du rayon N et du Lyssenkisme. Il n’en restera rien.

127.  Volauvent | 23/12/2009 @ 14:57 Répondre à ce commentaire

laurent (#114),

Je confirme: mauvaises données, mauvaise science. Votre allusion au traitement du signal (Dirac, Fanno-shannon etc …) ne s’applique pas ici; si on avait du bruit, on saurait l’extraire; si on manquait de points, on saurait les reconstituer. Mais à condition d’avoir des mesures homogènes. Or on est ici en face soit de ruptures d’instrumentation ou de dérives lentes de capteurs… Il ne peut pas y avoir de miracle. Aucun algorithme ne peut corriger cela.
Encore une fois, je suis abasourdi par ce que je découvre.

128.  abb | 23/12/2009 @ 15:08 Répondre à ce commentaire

Murps (#126),

Murps, on est d’accord et vous le savez bien. Je ne defendais pas le GIEC, je disais simplement que la science climatologique qu’on voit depuis 30 ans est de la « mauvaise science », tout a fait ordinaire mais à grande echelle, mais pas de la « bonne Science » d’abord, et qui serait « dévoyée » ensuite par un organisme quelconque. C’est tout.

129.  abb | 23/12/2009 @ 15:11 Répondre à ce commentaire

the fritz (#125),

mesurer, bien sur
je vois que vous aimez jouer sur les mots

130.  Murps | 23/12/2009 @ 15:19 Répondre à ce commentaire

abb (#128),
je le sais bien qu’on est d’accord !
:-))

Mais mon petit post ne faisait qu’abonder dans votre sens.

Après tout c’est un des rares sites dans lequel on ne se fait pas traiter de gros con en disant qu’on pense qu’il n’y a pas de réchauffement…

131.  abb | 23/12/2009 @ 15:27 Répondre à ce commentaire

Murps (#130),

héhé, a la fin sur BI (avant la secession) les rechauffistes perdaient pied, tout de meme

132.  the fritz | 23/12/2009 @ 15:32 Répondre à ce commentaire

abb (#131),
C’est quoi BI

133.  abb | 23/12/2009 @ 15:34 Répondre à ce commentaire

the fritz (#132),
un forum sur lequel nous avons sévi

134.  joletaxi | 23/12/2009 @ 15:39 Répondre à ce commentaire

@112 The fritz

concernant la chaleur des océans comme indice du réchauffement,(CO2 ou pas) je vous recommande la lecture de ceci

http://pielkeclimatesci.wordpr.....b-tisdale/
http://pielkeclimatesci.wordpr.....009-paper/

Curieux que tout le monde dispose des mêmes données et arrive à des résultats opposés?

135.  the fritz | 23/12/2009 @ 16:52 Répondre à ce commentaire

abb (#133),

Toujours pas plus avancé

136.  Laurent | 23/12/2009 @ 20:04 Répondre à ce commentaire

Murps (#122),

De manière brutale, personne ne se pose la question la notion de température globale pour la planète a un sens.

Si, mais pas dans ce fil. J’ai déjà dit par ailleurs que s’il y avait un sens physique, il m’échappait…
C’est pour cela que je me contente ici de parler de mesures et de reconstructions locales.

Murps (#126),

Pourrait-on me citer une avancée significative de ces dernières années en climatologie ? Je veux dire quelque chose d’irréfutable, qui soit considéré comme un clef dans la compréhension d’ensemble du mécanisme ?
Il n’y a rien du tout.

Permet moi de ne pas être d’accord. Il y a eu d’excellents articles sur les bascules océaniques (AMO, PDO, etc….) et leur influence sur les climats régionaux, qui de mon point de vue ont beaucoup fait progresser le schmillblick.
De plus, les instrumente de mesures spatiaux ont été mis en place. La constellation A-train est un outil extraordinaire, dont l’exploitation prendra des années. Je pense que grâce ) ces outils, la compréhension du climat va faire un bond considérable dans les décennies qui viennent.

137.  the fritz | 24/12/2009 @ 0:29 Répondre à ce commentaire

joletaxi (#134),
je vais lire cela à tête reposée; merci et bon noel

138.  Araucan | 28/12/2009 @ 21:47 Répondre à ce commentaire

A regarder pour ceux qui s’intéressent à ce « drame » diploclimatique et au changement de centre de gravité du monde :

http://www.dailymotion.com/vid.....de-14_news
http://www.dailymotion.com/vid.....de-24_news
http://www.dailymotion.com/vid.....de-34_news
http://www.dailymotion.com/vid.....de-44_news

(On peut passer sur l’intervention de JJ … genre léchage de bottes c’est pas mal).

139.  Araucan | 28/12/2009 @ 22:55 Répondre à ce commentaire

(Suite…) Bon il y a faire du tri mais quelques éclairs de lucidité … notamment sur la bulle climatique … européenne !

Sinon, il ne faut pas longtemps pour que l’intox redémarre :

http://www.lemonde.fr/planete/.....L-32280184

http://fr.news.yahoo.com/64/20.....141e8.html

Avec le retour des paris en ligne …

Ainsi, le climat de la Terre ne devrait pas attendre le prochain retour de flamme du Soleil pour battre des records. Le Met Office fait le pari que l’année 2010 sera la plus chaude mesurée. Alors que « la température moyenne globale a été de 14ºC entre 1961 et 1990″, explique l’institution britannique, celle de 2010 devrait se situer autour de 14,58ºC.

James Hansen, directeur du GISS, estime dans son analyse de l’année écoulée qu' »il y a une haute probabilité – supérieure à 50 % – que 2010 soit l’année la plus chaude » jamais mesurée. Cependant, ce record « n’est pas une certitude, surtout si le phénomène El Nino venait à décliner de façon inattendue au début de 2010 », note le Met Office.

laugh et les pieds dans la neige !(mais la météo n’est pas le climat !)

140.  floyd | 28/12/2009 @ 23:12 Répondre à ce commentaire

Araucan (#139),

James Hansen, directeur du GISS, estime dans son analyse de l’année écoulée qu’”il y a une haute probabilitésupérieure à 50 % – que 2010 soit l’année la plus chaude” jamais mesurée. Cependant, ce record “n’est pas une certitude, surtout si le phénomène El Nino venait à décliner de façon inattendue au début de 2010″, note le Met Office.

J’adore!
Une haute probabilité est supérieure à 50%! Et quelques mots après : ce n’est pas une certitude!
Bref comment l’art de dire une chose et son contraire dans la même phrase ! laugh

141.  floyd | 28/12/2009 @ 23:14 Répondre à ce commentaire

Araucan (#139),

Sans parler que le Met Office a fait les mêmes prévisions les années passées, sans grand succès:

http://wattsupwiththat.com/200.....more-14295

142.  pecqror | 28/12/2009 @ 23:16 Répondre à ce commentaire

143.  floyd | 28/12/2009 @ 23:22 Répondre à ce commentaire

Araucan (#139),

2009, une des cinq années les plus chaudes

En dépit de la ritournelle donnant le réchauffement de la planète pour stoppé net en 1998, l’année 2009 aura bien été une des cinq plus chaudes mesurées depuis la Révolution industrielle. Au total, depuis environ un siècle et demi que les températures sont régulièrement relevées et compilées, aucune décennie ne s’est révélée plus chaude que 2000-2009.

http://fr.news.yahoo.com/64/20.....141e8.html

Bref, depuis 10 ans les températures n’augmentent pas, mais comme on prend nos lecteurs pour des cons et que le réchauffement est un dogme, on parle de la décennie la plus chaude!

144.  Araucan | 29/12/2009 @ 1:21 Répondre à ce commentaire

floyd (#143),

J’aime beaucoup ces prévisions … (au fait tp terrestres ou tp terrestres plus océan)
Mais on sent dans la prose de SF, une certaine jubilation et comme une certaine revanche après le Climategate, mais en fait pour le moment, la situation reste stable pour la décennie.
On verra l’année prochaine ce que donnera El Nino et aussi le volcan qui commence à s’énerver aux Philippines.

Et puis il ne faut pas oublier que pour les tp mondiales, les données d’avant 1950 … : donc que compare-t-on ? Des indices de cernes d’arbres avec des données homogénéisées ? 😉

pecqror (#142),
Quelles sont les 30 stations prises en compte dans cette moyenne ? (pour mon info).

145.  Marot | 29/12/2009 @ 7:55 Répondre à ce commentaire

Araucan (#144), pecqror (#142),

Quelles sont les 30 stations prises en compte dans cette moyenne ? (pour mon info).

Tant que MétéoFrance n’aura pas fait faire un audit de ses stations, ses données ne seront pas crédibles et seront à mettre à la poubelle directement.

Exemple : La station de Pau Uzens est de classe 3 ou 4 c.-à-d. susceptible d’un biais d’au moins +1°, sinon +2°, selon une photo fournie par un officiel.

Les définitions du Climate Reference Network Rating Guide sont

Class 1 (CRN1)- Terrain plat et horizontal entouré d’une surface claire avec une pente inférieure à 1/3 (au moins 100 mètres. Pas d’ombrage lorsque la hauteur du soleil est supérieure à 3 degrés.

Class 2 (CRN2) – Comme la classe 1 avec les différences suivantes. La végétation environnante a moins de 25 centimètres de hauteur. Aucune source de chaleur artificielle à moins de 30 mètres. Pas d’ombrage pour une hauteur du soleil supérieure à 5degrés.
Class 3 (CRN3) (erreur >=1° C) – Comme la classe 2, excepté qu’il n’y a pas de sources de chaleur artificielle à moins de 10 mètres.
Class 4 (CRN4) (erreur >= 2° C) – Sources de chaleur artificielles à moins de 10 mètres.
Class 5 (CRN5) (erreur >= 5° C) – Capteur de température situé près ou au dessus d’une source artificielle de chaleur, telle qu’un bâtiment, un toit, un parc à voitures ou une surface en béton.

On voit hélas à Pau Uzens :
le cheminement bétonné tout proche;
le parc à voiture me semble-t-il à 10 mètres environ;
une borne d’éclairage au moins;
des appareils que je n’identifie pas.

146.  Manu95 | 29/12/2009 @ 8:03 Répondre à ce commentaire

Moi j’adore qu’on m’annonce une température moyenne globale « autour de 14.58 °C ».
Tout dépend de la valeur de l’ « autour », qui pour moi doit être nettement supérieur à 0.5 si pas 1 °C, quand on sait comment on a torturé les données pour calculer ces moyennes annuelles.

147.  andqui | 29/12/2009 @ 8:34 Répondre à ce commentaire

Manu95 (#146),

Il me semble bien que, même dans les milieux scientifiques (en tous cas chez les étudiants en science), la notion d’erreur et d’incertitude sur les mesures ainsi que le calcul d’erreur soit passés à la trappe. On trouve courament un résultat au 1/10è alors que la mesure est précise à l’unité sans que cela

148.  Manu95 | 29/12/2009 @ 9:19 Répondre à ce commentaire

andqui (#147),

Eh oui, les jeunes ne savent plus calculer mentalement ou faire une opération par écrit. Il leur faut une calculette ou un ordi auxquels bien sûr ils font une confiance absolue.
La calculatrice de Windows affiche Pi avec 32 chiffres significatifs, qui sont corrects mais parfaitement inutiles en pratique.
Pi = 3.1415926535897932384626433832795

À l’univ, fin des années soixante, je faisais tous mes calculs avec une règle à calcul. La précision était de 3 à 4 chiffres significatifs au mieux et cela suffisait vu les erreurs des mesures expérimentales. Nous faisions bien sûr un rapide calcul d’erreur sur le résultat qui était toujours arrondi à trois ou quatre chiffres significatifs.

J’ai relevé sur un bloc une remarque bien pertinente :

Back in the ‘stone age’, we in engineering had to use a slide rule to solve problems. There were two things that you knew about the results. Using a slide rule will give an approximate answer accurate to maybe… three places. And the other was that to get the answer, you had to have a rough idea of how big that answer was going to be: i.e. One thousandth, one hundred, one thousand, ten thousand,…etc.
I was always amused to watch the younger engineers look at their computer answers and see that they got an exact answer out to sixteen decimal places. Therefore it must be accurate.
Our faith in computers is almost magical and having done my own programming, I know that I was just the man behind the curtain making all that smoke and mirrors.

Une réponse :

It is a fundamental rule that any scientific calculation or prediction can be no more precise than the measure being used. With global warming, we see graphs showing historical temperature variations, based completely on proxy data, moving up or down by .5 degrees. In order for those calculations to be valid, the proxy data (tree rings and ice cores, mainly) would have to be reliable and valid to an accuracy of less than .5 degrees. Somehow, I doubt that is the case.

149.  Araucan | 9/01/2010 @ 1:19 Répondre à ce commentaire

POur ceux qui ont Canal + : chronique d’un échec … prévisible !

http://blog.lefigaro.fr/climat.....hague.html

150.  JG2433 | 9/01/2010 @ 9:54 Répondre à ce commentaire

France Inter (9h10) aujourd’hui : « … Avec 29 °C relevés. record de chaleur en Polynésie française. Le réchauffement climatique est toujours d’actualité. »
À bon entendeur…

En voilà une info. qui va franchement réchauffer les métropolitains qui se pèlent de froid !

Sorry, the comment form is closed at this time.