La religion de la catastrophe


(Article paru dans le Monde, le 27 mars dernier)

• • • •

Henri Atlan

Devant la quasi-unanimité de la classe politique sur le climat, voilà que le Front national embouche les trompettes de la contestation du consensus, déjà existante mais encore très minoritaire à droite comme à gauche. Mais ce n'est pas parce que le FN s'empare d'un problème que le problème n'existe pas. Heureusement Claude Allègre et d'autres ont commencé à tirer la sonnette d'alarme. Je veux m'intéresser ici à la question des modèles. Il y a un problème de crédibilité des modèles de changements climatiques et des prédictions qui en sont déduites. Ces modèles concernent en effet un domaine – le climat – où le nombre de données disponibles est petit par rapport au nombre de variables qui sont prises en compte dans leur construction, sans parler des variables encore inconnues.

Cela implique qu'il existe un grand nombre de bons modèles, capables de rendre compte des observations disponibles, alors même qu'ils reposent sur des hypothèses explicatives différentes et conduisent aussi à des prédictions différentes, voire opposées. Il s'agit là d'une situation dite "des modèles par les observations", cas particulier de "sous-détermination des théories par les faits", bien connue des chercheurs engagés dans la construction de modèles de systèmes complexes naturels, où le nombre de données ne peut pas être multiplié à l'envi par des expérimentations répétées et reproductibles. Conséquence : les modèles sur les changements climatiques ne peuvent être que des hypothèses, mises en formes informatiques très sophistiquées mais pleines d'incertitudes quant à leur relation à la réalité ; et il en va de même des prédictions qui en sont déduites.

Le rapport du Groupe intergouvernemental d'experts sur l'évolution du climat (GIEC) ne fait pas exception et certaines de ces incertitudes y sont d'ailleurs mentionnées. Mais comme le rapport complet est supposé difficile à lire et à comprendre pour le grand public et les décideurs politiques, il est complété par un document plus bref de recommandations aux gouvernants. Et là, plus d'incertitude, sinon à l'intérieur d'une fourchette de quelques degrés prédisant l'augmentation de température moyenne de la terre à court et à moyen terme. Le résultat est la croyance aveugle en la valeur de vérité du modèle établi par les scientifiques experts du climat et le caractère inéluctable des prédictions plus ou moins apocalyptiques.

Cette croyance, reprise et amplifiée par des oeuvres et des discours à grand retentissement médiatique, a pris la forme dans une grande partie de l'opinion publique mondiale d'un dogme et d'une religion du "sauvez la planète", alors que celle-ci, qui en a vu bien d'autres, n'est pas en danger. Certes des glaces polaires fondent, certes des glaciers reculent après avoir avancé, certes des terres basses et des îles risquent d'être submergées dans un proche avenir, tandis que c'est un certain refroidissement qui menace peut-être d'autres régions du globe. Réunir ces données dans un modèle global est plus que risqué car rien n'est moins sûr que l'efficacité des mesures préconisées pour "sauver la planète".

Des changements du même ordre se sont produits dans le passé. L'importance des activités humaines dans les changements observés depuis quelques décennies est l'une de ces incertitudes qui dépendent du modèle adopté. Même si la température moyenne augmente dans les décennies à venir, si tant est qu'il s'agit là d'une variable pertinente, il est loin d'être certain que la réduction de production de CO2 soit une mesure efficace pour prévenir ce réchauffement global éventuel. On nous dit que malgré les incertitudes et même les erreurs qui ont pu être relevées, les conclusions restent ce qu'elles étaient. Mais cela ne fait que renforcer le doute sur la valeur de ces modèles : ils sont si complexes et sous-déterminés qu'ils conduisent aux mêmes conclusions malgré des modifications non négligeables des données.

Il faut reconnaître que l'expertise scientifique en situation d'incertitude est difficile. Peu d'experts ont le courage d'annoncer qu'ils ne peuvent pas répondre à la demande même en probabilité. La tentation est le plus souvent de donner quand même une réponse, soit pour rassurer, soit pour mettre en garde. Le sang contaminé a été un tournant. La tendance à rassurer qui semblait dominer auparavant s'est renversée en même temps que le fameux principe de précaution s'imposait de plus en plus.

Aujourd'hui, les experts préfèrent de loin être prophètes de malheur ; comme l'avait bien compris le prophète Jérémie, on risque moins à annoncer une catastrophe qu'une bonne chose car en cas d'erreur on pourra toujours arguer de ce que la catastrophe a été évitée grâce à ceux qui l'avaient annoncée. Le principe de précaution étant passé par là, émettre des doutes sur la catastrophe annoncée est déjà dangereux pour les experts de qui on attend certitudes et recommandations fermes.

Dans le cas présent, le GIEC a été constitué avec une mission bien précise, très orientée dès le départ vers ce qui devait être la conclusion de son rapport. Il s'agissait d'évaluer de façon claire et objective "les informations d'origines scientifique, technique et socio-économique nécessaires pour mieux comprendre les fondements scientifiques des risques liés au changement climatique d'origine humaine" pour ensuite en apprécier les conséquences possibles et envisager des mesures d'adaptation et d'atténuation. C'est dire que les risques en question et leur origine humaine sont d'emblée supposés être là et il ne s'agit pour le groupe d'experts que d'en apprécier les "fondements scientifiques" et d'en déduire des recommandations. On les voit mal dans ces conditions émettre des doutes sur la réalité même de ces risques ainsi définis. Cela aurait constitué, pour le coup, un risque certain d'être déconsidérés et de perdre toute crédibilité aux yeux des instances politiques qui leur demandaient leur avis.

Plutôt que de vouloir imposer des mesures qui risquent de mettre en danger le développement de pays émergents et en voie de développement ainsi que l'économie de pays développés au nom de cette nouvelle religion à vocation universelle, il vaut mieux s'attaquer aux problèmes d'environnements locaux, pollution atmosphérique des grandes villes, pollution des mers et des rivières par le surcroît de déchets dû à la surpopulation. L'épuisement à terme des ressources en énergies non-renouvelables est un problème en soi, qui ne met pas en danger la planète, mais qui doit être géré de façon raisonnable, sans culpabiliser leurs usagers, tout en préparant la transition, qui prendra encore quelques dizaines d'années au moins, vers le développement des énergies renouvelables.

Comme le disait un expert du climat en vue de la conférence de Copenhague, le réchauffement climatique n'est pas vu de la même façon au Danemark et au Bangladesh, régulièrement confronté aux catastrophes naturelles amplifiées par l'état des villes et des campagnes. On pourrait en dire autant d'Haïti et d'autres pays pauvres. Plutôt que de tenter de prévenir des risques globaux incertains par des mesures globales à l'efficacité tout aussi incertaine, mieux vaut résoudre les problèmes localement en corrigeant ce qui peut l'être et en s'adaptant à ce qui ne peut pas être évité à court terme par des mesures d'urbanisation et de déplacements de populations si nécessaire.

Plutôt que "sauver la planète" sauver les populations dénutries et sans eau potable. Gérer raisonnablement la transition énergétique en permettant aux pays émergents et pauvres d'utiliser les énergies fossiles pour leur permettre de rattraper leurs retards tout en développant en parallèle les utilisations d'énergies renouvelables pour préparer l'épuisement des premières, inéluctable bien que dans un avenir encore bien difficile à déterminer avec certitude.

La religion écologique du "sauver la planète" risque de nous emporter dans des débordements idéologiques, non sans danger de totalitarisme, comme certaines gouvernances mondiales qui sont déjà préconisées ; tout cela évidemment pour le bien de l'humanité et au nom de "la science", comme ce fut le cas des idéologies totalitaires du XXe siècle. Avec une nouveauté, toutefois, le "principe de précaution".

Même si les catastrophes annoncées ne sont pas certaines, nous dit-on, nous ne risquons rien à appliquer les mesures préconisées, au nom du principe de précaution. Mais c'est faux. Le développement des populations pauvres, et l'économie des sociétés de consommation à laquelle ces populations rêvent de parvenir sont en fait mis en danger par certaines de ces mesures. Le bon sens l'a emporté à Copenhague. Les applications du principe de précaution comportent toujours des risques, aussi difficiles à évaluer que ceux qu'il est censé prévenir. C'est pourquoi, en tant que principe général d'action, il se détruit lui-même.

Après tout, il n'est pas certain mais il est possible qu'existe le Dieu des théologiens. Le fameux pari de Pascal n'est pas autre chose qu'une application du principe de précaution, avec en plus une estimation des risques acceptés en pariant pour un gain bien plus grand, la félicité éternelle infinie. Appliquant le principe de précaution dans ce domaine, nous aurions dû tous depuis longtemps, avec en plus mauvaise conscience et culpabilité, nous résoudre à appliquer les mesures de restrictions et de renoncements de toutes sortes préconisées par les experts, c'est-à-dire les théologiens experts de Dieu, comme nos nouveaux experts le sont du climat. Heureusement ; il n'en a rien été. Espérons que les générations qui viennent seront aussi sages que celles qui nous ont précédés.

 

, ,

114 réponses à “La religion de la catastrophe”

  1. Araucan (#18),

    Re-bonjours à tous

    Mais ces incertitudes ne sont aucunement dues, contrairement à ce qu’écrit Henri Atlan, au fait que le nombre de coefficients a ajuster dans les modèles est beaucoup plus grand que le nombre d’observations disponibles. La situation est d’ailleurs inverse : dans l’état actuel des modèles, le nombre de coefficients incertains est de l’ordre de quelques dizaines, tandis que plusieurs dizaines de millions d’observations météorologiques (et donc climatiques) sont recueillies chaque jour. Il n’y a guère de place pour un ajustement des coefficients aux observations.

    Ce paragraphe ne veut pas dire grand chose

    Ce paragraphe montre surtout que Talagran ne comprend rien à la modélisation.
    Le nombre de coefficients à ajuster a un impact direct sur la robustesse de la modélisation, et donc sur les incertitudes des résultats… et ce quel que soit le nombre d’observations disponibles….

    Je suppose (peut-être à tord…) que quand Atlan parle de « variables », il fait références aux inconnues du modèles (qui sont calculées pour chaque maille), et non pas aux coefficients ajustés empiriquement….
    Le problème (mal exprimé par Atlan) n’est pas que le nombre de ces variables soient important par rapport aux « observations » auxquelles on les compare, mais que les modèles climatiques, dérivés directement des modèles météo, sont naturellement divergents, et que cette divergence n’est « contrée » que grâce aux équations aux limites (et donc aux hypothèses)….. le résultats de ces modèles vient donc toujours confirmer (dans la limite de variation autorisée) les hypothèses….

    Bref… il me semble que l’on a un bon exemple d’une critique idiote d’une phrase idiote…

  2. Dans le débat supposé se mettre en place en France, à la suite de la pétition initiée par des scientifiques du Giec, quelle influence auront les arguments avancés – entre autres – par le Pr Henri Atlan (ci-dessus), ou encore ceux du Pr Said Rachafi, « Pour en finir avec un débat extravagant » (cf le lien ci-dessous) ? :

    http://www.fahayek.org/index.p…..;Itemid=63

  3. Allons nous voir le pire se produire ou alors la fin d’un consensus et l’ouverture d’un débat scientifique ?

  4. Marot (#2), Lévy-Leblond est chroniqueur dans La Recherche aux côtés de Hervé le Bras (qui avait en son temps démonté le chiffre de « 300.000 morts climatiques par an » de l’agence de propagande réchauffiste mise en place par Kofi Annan). Si un gars aussi médiatique se met à voler dans les plumes des pétitionnaires (sans pour autant prendre parti, courage, fuyons), c’est que ça sent le roussi.
    Le Titanic réchauffiste prend l’eau de toute part et la FARCE continue de jouer au violon (ou plutôt au pipeau) tout en se désolant de voir les rats quitter le navire. C’est dur, la vie hors du consensus…

  5. miniTAX (#5),
    oui j’ai bien remarqué qu’il ne prend pas parti.
    à mon avis, se présentant comme physicien et épistémologue, il aurait affaibli la force de son discours en prenant parti dans une affaire où il ne peut pas présenter de contribution au fond.

    Il n’empêche que des voix plus autorisées que la mienne disent bien que cette pétition est une faute.

    Pour ma part, elle révèle plus que l’infantilisme des premiers contributeurs-auteurs.

    Elle mène à penser d’abord qu’ils sont de piètres scientifiques hors de leurs carottes, de leurs modèles et de leurs congrès ensoleillés et :
    . qu’ils ont une sensibilité maladive au bruit médiatique;
    . qu’ils sont littéralement embrigadés.

  6. notons que Wikipedia s’est empresse d’ajouter qu’ilk est controversé à cause de son article qui contribue à le ranger parmi les supporters des climato-sceptiques. La dénonciation et la censure de ce site continuent.

  7. Marot (#6),
    et surtout qu’ils sont terrorisés à l’idée de perdre les prébendes attachées à leurs sinécures, basées sur une science dont ils sont loin d’être assurés (cf Lovelock dans le Guardian : en privé ils reconnaissent combien leur science est fragile ..).

    Aussi dès qu’une théorie scientifique contraire surgit (ex Gerlich et Tcheuchner, Svensmark, …) surtout quand elle est étayée par des expériences (dont ils sont dépourvus) ils font tout avec l’appui des gouvernements pour la réduire au silence: pression sur les éditeurs, « management » du peer reviewing, privation de crédits de recherche publics, etc …
    En son temps Einstein avait été très controversé: un des arguments était que ce n’était qu’un simple employé de l’office des brevets face à des physiciens prestigieux (mais qui n’avaient pas prouvé grand chose). Ces derniers avaient surtout leur réputation à perdre dans l’affaire ….et leurs livres à mettre à la poubelle. Aujourd’hui l’establishment scientifique a beaucoup plus à perdre , cherchez l’argent ….

  8. Marot (#2),
    pas terrible de citer Katrina maintenant qu’on sait :
    qu’il n’y a pas de corrélation prouvée entre réchauffement et activité cyclonique
    que le désastre de Katrina est dû à des blocages du renforcement des digues au nom de la préservation d’une espèce de poisson soi-disant menacée.
    Ce n’est qu’une erreur mais elle vaut toutes celles d’Allègre, car elle est flagrante, c’est même un mensonge ou alors les signataires sont coupables de n’être pas informés du sujet dont ils sont censés être spécialistes …

  9. En ce qui me concerne la pétition des malheureux réchauffistes constitue une preuve de plus qu’il s’agit de politique. Il me semble que s’il s’agissait de rechercher la vérité, un bon scientifique saurait que le temps, le travail et le débat la mettront au jour, en revanche s’agissant d’une lutte du bien réchauffiste contre le mal sceptique (et effectivement une problématique religieuse comme l’avait prévu Malraux) la pétition rentre tout a fait dans l’agenda politique des réchauffistes.

  10. Sur Climate audit; analyse des mails du climate gate.
    Avez vous vu les échanges d’Overpeck avec différents interlocuteurs sur les optimums de l’holocène? On devine que V MD est mouillée jusqu’au coup.

    Subject: the new “warm period myths” box
    Hi Keith and Tim –

    In reading Valerie [Masson-Delmotte]’s Holocene section, I get the sense that I’m not the only one who would like to deal a mortal blow to the misuse of supposed warm period terms and myths in the literature.

  11. En reponse au post de OLIVIER TALAGRAND Directeur de Recherche, Modelisateur au LMD, sur TV5 Climat:

    « Les modèles utilisés pour les prévisions climatologiques ne sont pas guidés par les observations, mais par les lois qui régissent l’évolution de tout système physique : les lois de la conservation de la masse, de l’énergie et de la quantité de mouvement, familières à tout étudiant en licence de physique. »

    Et cela devrait nous rassurer sur leur qualité ?
    Olivier Talagrand, Directeur de Recherche au LMD illustre parfaitement le mépris des praticiens de sciences dures envers l’approche naturaliste, et en particulier, montre comment l’application dogmatique conduit a des aberrations parfaitement logiques. Et voila, l’idée que se font les physiciens modélisateurs de la machine climat à travers un bilan radiatif supposé relègue l’observation au rang anecdotique.
    Cette arrogance est bien connue dans d’autres domaines où se présenter comme naturaliste fait ringard et l’application de modèles assure une impunité intellectuelle, seulement démentie lorsque le résultat escompté n’est pas au rendez-vous…
    C’est la le nœud du problème car si l’on peut et l’on doit essayer de modéliser, le modèle ne peut et ne doit se substituer a l’observation directe et la compréhension des phénomènes. Cela me rappelle un dessin de Gottlieb dans la Rubrique-a-brac qui montrait que les extra-terrestres étaient au fond comme nous : une tête, un torse, deux bras et deux jambes, dix doigts etc… dont certains 9 doigts sur une main et un doigt dans l’autre, ou bien plats comme des limandes !

    « Le développement de tels modèles, destinés d’abord à la prévision météorologique, a commencé, il y a maintenant plus de soixante ans, grâce aux premiers calculateurs électroniques. L’amélioration lente mais continue des modèles, ainsi que la disponibilité d’observations de plus en plus nombreuses et précises (ces observations ne servent pas à guider le modèle, mais simplement à définir le point de départ de la prévision, à partir duquel le modèle évolue suivant sa dynamique propre) contribuent à l’augmentation régulière de la qualité des prévisions météorologiques.
    À partir de la fin des années soixante, les mêmes modèles numériques, ‘intégrés’ sur des périodes de plus longues »

    Et pourtant, malgré la débauche de moyens, la prévision météo sur 7 jours est simplement aussi bonne qu’un pile ou face.
    Tout un chacun osant suggérer que l’absence de prévision solide à l’échelle des saisons n’inspire pas vraiment la confiance en des prévisions à l’orée 2100 se retrouve immanquablement taxé d’ignorance car les modèles climatiques sont bien évidemment différents…

    « Des approximations sont bien sûr nécessaires, ne serait-ce que pour les calculs puissent être menés à terme avant que leurs résultats ne soient devenus totalement obsolètes. »

    Cela veut dire en langage courant que le modèle diverge (en clair, part en couille). Loin de se poser la question du pourquoi et de rechercher dans les observations et leur conséquence naturelle, la compréhension des phénomènes réels, nos accros du terabyte préfèrent approximer…

    « Des approximations inévitables doivent aussi être faites, en particulier en ce qui concerne le rôle de la végétation, dans la description des échanges complexes d’eau et de quantité de mouvement entre l’atmosphère et les océans et continents sous-jacents »

    Alors là commence la litanie des raisons pour lesquelles les modèles sont en fait impropres à la consommation puisqu’ils ne reflètent pas la réalité mais l’idée que les modélisateurs s’en font.

    « À l’intérieur de ces incertitudes, les modèles numériques climatologiques ont largement été validés, directement et indirectement. Ils simulent pour l’essentiel les grandes variations passées du climat, sous l’effet en particulier des variations de la distribution spatiale de l’insolation. »

    Il ne manquerait plus que cela qu’après tout ils n’offrent aucune ressemblance avec ce qu’ils sont supposés étudier… et cela serait une victoire de la science?

    « Les expériences de simulation du climat effectuées par J. Hansen et S. Manabe à la fin des années 1960 et au début des années 1970 ont prévu une élévation de la température en réponse à l’augmentation de la quantité de gaz à effet de serre (un rapport de l’Académie des Sciences américaine dirigé par Jules Charney en fait état en 1979, donc bien avant que les premiers signes du réchauffement global ne soient détectés dans les observations). »

    Là Monsieur Talagrand se prend les pieds dans le tapis ! Donc 1979 se situe « bien avant que les observations détectent les premiers signes du réchauffement ». Et voilà, le réchauffement dit anthropique n’a vraiment commencé que 20 ans plus tard. Quelle coïncidence ! Et surtout quelle chance de savoir que l’optimum climatique moderne centré sur 1945 n’était donc pas du comme le GIEC l’annonçât d’abord au CO2 de la révolution industrielle : ouf ! De 150 ans à quelques dizaines d’années sur le vu d’une courbe globale elle-même hautement suspecte, réduits à une peau de chagrin, on peut dire que la course contre la montre est engagée puisqu’au fond il s’agit plus de météo que de climato au sens strict. Et c’est là bien sûr que tout peut basculer pour ces messieurs. On comprend aisément que les modèles se doivent encore plus de n’être pas guidés par les observations… Ce sont ces observations qui fâchent les habitants de la forêt de Sherwood si bien qu’ils ne répondent même pas après deux semaines à la simple question sur le réchauffement local de la péninsule antarctique…

    « Cette élévation a été observée 20 ans plus tard. »

    Ainsi, le réchauffement anthropique supposé ne concerne même pas la trentaine d’années nécessaire à la réflexion climatique.

    « Et, comme il est mentionné dans le dernier rapport du GIEC, les modèles ne peuvent expliquer l’élévation de température par aucun autre mécanisme (variation de l’activité solaire, éruptions volcaniques, …) que l’augmentation de l’effet de serre. Mais la meilleure preuve de la qualité physique de ces modèles est peut-être ce qu’ils produisent quand on les ‘transporte’ sur les autres planètes. »

    Ainsi les résultats des modèles en question ne peuvent s’expliquer que par l’élévation des GES, CQFD… raisonnement circulaire.
    Et pour enfoncer le clou, il est encore préférable d’aller sur des planètes où suivant la formule consacrée la main de l’homme n’a jamais mis le pied ! Non seulement ces messieurs ne sont pas intéressés par le fait que des observations directes de la Terre guident leur modèles mais il faut valider les modèles là où les observations directes sont par définition beaucoup moins précises, ce qui explique aisément l’accord moyen des modèles sur la complexe Venus… Heureusement, avec Mars ça repart !

    « Une telle opération est dans son principe facile à effectuer. Il suffit de changer les valeurs numériques des paramètres pertinents : insolation, rayon et vitesse de rotation de la planète, masse molaire et propriétés radiatives du gaz atmosphérique, » ….
    « Les modèles, ainsi adaptés, par exemple, aux atmosphères de Mars et Vénus, y produisent une structure thermique et un régime de circulation en très bon accord avec les observations (dans le cas de Mars, l’accord n’est rien moins qu’excellent). Ces deux atmosphères sont pour l’essentiel constituées de gaz carbonique, et l ‘effet de serre qu’y simulent les modèles est conforme à ce qu’on observe. Un tel accord serait bien peu plausible si, comme le suggère Henri Atlan, la qualité des modèles n’était dûe qu’à un ajustement ad hoc aux observations terrestres. »

    Donc sur Mars, en atmosphère quasi CO2, sans océan, sans végétation, un modèle radiatif est en « excellent » accord. Heureusement a-t’on envie d’ajouter puisque c’est le principe même du modèle en question et que les conditions aux limites sont par nature Martienne simplifiées! Ah que si seulement nous étions des petits hommes verts chanterait Johnny…

    « Leur qualité physique est établie et le degré de confiance qu’on peut leur accorder a été démontré, à l’intérieur de limitations clairement identifiées. »

    Eh oui, sur Mars ça gaze alors c’est bien que notre application des lois de la physique est correcte. CQFD. Pire les modélisateurs du climat sont visiblement les détenteurs de la « vérité modélique » car tout autre scientifique utilisant des modèles depuis des lustres ne peut bien sûr pas comprendre ce qui se fait en sciences du climat…
    Le recours de plus en plus fréquent à la mantra castratrice « du respect des lois de la physique » cache en fait une méconnaissance crasse de l’objet d’étude : la planète Terre et son atmosphère. Que l’on modélise les trajectoires de la matière au sein du noyau terrestre, c’est bien normal car personne encore ne pourra s’y aventurer. Mais que l’on s’affranchisse à ce point du lien naturaliste en matière de climatologie relève d’un choix délibéré de pratiquer une science partielle et partiale, qui se démasque enfin surtout depuis la pétition des 400.
    Mr Talagrand vit et travaille sur une planète imaginaire qu’il semble bien connaître. Pourtant, il lui suffirait de lever le nez pour s’apercevoir que la Terre n’est pas cette planète et les découvertes à venir, pour peu que les chercheurs qui les ont faites et les feront ne soient pas éliminés le prouveront. Vu le climat délétère en France, où la « climato-censure » est devenue une discipline de plus à ajouter au crédit des sciences du climat composant le GIEC, ces découvertes viendront en toute probabilité de l’étranger. Une fois de plus…
    Un candide Scientifique.

  12. Marot (#2),
    Ajout à ma liste :
    l’interview d’Axel Kahn à Marianne lisible ici.

    La volée de bois vert aux pétionnaires est splendide.
    Extraits :

    …modèle de ce que la science ne doit pas se permettre…
    démarche … abracadabrantesque !
    ce texte … trahit plutôt l’infantilisme extravagant d’une partie de la communauté scientifique…
    aujourd’hui, la technophobie est malheureusement dominante dans la gauche française…
    l’alliance avec les verts est devenue incontournable pour la gauche.

    La maison Foucart et Huet tripes et volailles (merci h16) en prend pour son grade :

    ce qui fait problème et ne me semble pas acceptable, c’est que certains journaux choisissent leur camp, et épousent une cause en vouant ceux qui s’en écartent aux gémonies.

    Merci à chch pour le signalement.

  13. volauvent (#11),
    Jusqu’au cou surtout, je viens de suggérer sur Le Mythe Climatique que cette pétition pourrait bien être pour brouiller les cartes en vue d’éloigner notre attention de « icecore gate » qui veut à tout prix supprimer le réchauffement médiéval.

    Il semble aussi arranger Allègre d’ailleurs qui modifie la courbe de Grudd afin que plus personne n’y fasse référence car elle est très dérangeante pour tout le monde carbocentriste, que ce mot est bien trouvé, y compris ceux qui craignent l’acidification de l’océan.

    En effet ce que Grudd montre c’est que la largeur des cernes ne correspond pas à une élévation de température, contrairement à leur indice de densité. Mais alors à quoi correspond-elle ?

    La seule solution c’est le CO2 car pour une forêt dans un lieu donné la température est optimale, courbe en cloche, ou peu éloignée de l’optimum, variation de environ 15% pour + ou – 10 °C. Tous les autres facteurs limitant sont à saturation, (eau, éléments nutritifs, lumière etc.) sinon l’arbre ne pourrait y vivre longtemps. Le seul facteur qui puisse augmenter et non réduire la croissance est le CO2 et c’est ce que l’on observe autour de l’an mil.

    Cette observation était dans le livre de Leroy Ladurie déjà et les augmentations de largeurs des cernes étaient considérables, 2 à 3 fois, ce qui supposerait 2 à 3 fois plus de CO2 dans l’atmosphère que maintenant.

    Ceci sans acidification notable de l’océan à ma connaissance.

  14. antoniosan (#12),

    Sur Vénus, ça ne marche pas du tout. La seule explication est la théorie adiabatique rapidement exposée par Jean sur Pensée unique.

    La température mesurée au sol est de environ 730 k (457°C), la pression de 94 bars mais il ‘y arrive que 67w/m2 soit 2.6% de la radiation totale de 2621 W/m2 et seulement 10% dans la basse atmosphère. C’est entièrement incompatible avec les 96.5% de CO2 et les 3.5% d’azote dans une tentative de bilan radiatif.

    Il y a eu une présentationsimplifiée de la théorie adiabatique par un allemand, H Thieme mais il semble que l’on ne puisse plus avoir accès à la traduction anglaise sur le site http://freenet-homepage.de/klima/indexAtmos.htm
    Il serait intéressant de traduire ce texte.

  15. antoniosan (#12),

    En complément de votre commentaire sur l’article de Talagrand

    Mais ces incertitudes ne sont aucunement dues, contrairement à ce qu’écrit Henri Atlan, au fait que le nombre de coefficients a ajuster dans les modèles est beaucoup plus grand que le nombre d’observations disponibles. La situation est d’ailleurs inverse : dans l’état actuel des modèles, le nombre de coefficients incertains est de l’ordre de quelques dizaines, tandis que plusieurs dizaines de millions d’observations météorologiques (et donc climatiques) sont recueillies chaque jour. Il n’y a guère de place pour un ajustement des coefficients aux observations.

    Ce paragraphe ne veut pas dire grand chose (ou alors c’est du codé de codé) : tout dépend où sont ces coefficients dans les équations et de l’effet de leurs variations ! Si l’on prend les aérosols par exemple, je doute que l’on ait de quoi alimenter le taux par carré de modélisation sur la colonne d’air (sauf à avoir un modèle sur les aérosols qui fonctionne : on le saurait, non ?).
    La fin de la première phrase et la seconde laisse à penser que les données météo sont réinjectées tous les jours dans les modèles, ce qui n’est pas le cas, puisqu’il dit auparavant que le modèle tourne sur les lois physiques connues avec juste un point de départ.
    Y’a un truc manifestement.

  16. MichelLN35 (#14),

    La seule solution c’est le CO2 car pour une forêt dans un lieu donné la température est optimale, courbe en cloche, ou peu éloignée de l’optimum, variation de environ 15% pour + ou – 10 °C. Tous les autres facteurs limitant sont à saturation, (eau, éléments nutritifs, lumière etc.) sinon l’arbre ne pourrait y vivre longtemps. Le seul facteur qui puisse augmenter et non réduire la croissance est le CO2 et c’est ce que l’on observe autour de l’an mil.

    Des détails plus ou l’accès à cette publi m’intéressent. Car le coup de « tous les autres éléments nutritifs sont à saturation » cela n’existe qu’en laboratoire !

    Par contre, le fait que nombre de végétaux réagissent positivement à une augmentation du taux de CO2 devrait interpeller : une hypothèse est que dans le passé, les taux de CO2 ont varié suffisamment pour que cette caractéristique perdure (et donne un avantage aux génotypes plus réactifs), une autre est que par « construction » la photosynthèse est fonctionnelle dans une gamme assez large de teneur en CO2. Mais comme tous les végétaux, ne répondent pas positivement à l’augmentation de CO2, il serait intéressant de regarder ce qui chez ces plantes limite la photosynthèse (seuil atteint plus vite) … Les deux hypothèses sont testables.

  17. Le climato-sceptique est un névrosé alors que le carbocentrisme relève de la psychose :

    Le névrosé tout en fuyant, reconnaît l’existence du monde réel, garde ses réflexes sociaux et prend grand soin de rester dans les limites, fût-ce à l’extrême frontière.

    Au contraire, dans la psychose, qui est plus grave, le malade sort du monde réel. ..

  18. Emission de Denis Cheyssoux, à l’instant sur France-Inter: Jean-Michel Teulière, l’animateur (excellent) du Centre La Loutre en Corrèze est interviewé de chez lui, à St Bonnet les Tours de Merle en Xaintrie, face au Cantal et il dit que le printemps a trois semaines de retard cette année : catastrophe pour les animaux, et en particulier les oiseaux, qui ont du mal à trouver leur nourriture ! Questions :
    1/ Je croyais qu’on était en plein réchauffement ?
    2/ Je croyais que c’était le réchauffement qui était catastrophique pour les animaux ?
    3/ Que faire quand la réalité diffère des prévisions de M. Le Treut et de ses épigones ? Changer la réalité ou changer les modélisateurs ?

  19. @Frederic

    Je peux débloquer en leur achetant de l’espace de base de données en passant à 50 Mo (que je n’ai pas besoin normalement sans leur trucage) mais ça triple le prix de l’abonnement mensuel !

    Quel prix pour ton abo Frédéric ?

    Perso je suis sur 1and1 et leur première offre est à 4,99 €/mois (promo 6 premiers mois à 50% : à 2,49 €/mois) pour ce prix 6Go d’espace disque, trafic mensuel illimité, jusqu’à 5 bases de données de 100 Mo chacune, bref yapaphoto !

    Ou bien j’ai mal compris ton pb smile

  20. Patrick Bousquet de Rouvex (#27),
    bien vu effectivement j’avais ce post depuis un moment non publié et à la faveur du relais de la réponse de Benoît Rittaud suite à « l’appel des 400 » je l’a publié aussi. Il date un peu cependant le sujet est mieux traité dans le livre Le Mythe Climatique. En particulier je n’ai pas décrit le traitement statistique de Mann avec la pondération renforcée des mesures récentes qui fait apparaître une crosse de hockey quelques soient les entrées anciennes comme l’a montré Stephen Mc Intyre en introduisant des données tirées au hasard.
    je me suis limité à décrire la manipulation contestable (ce qui a été relevé par l’IOP britannique) consistant à greffer les données de température réelles après 1960 car celles issues des arbres ne collaient pas du tout.

  21. Araucan (#19),
    Voici la publi de Grudd en PDF :
    http://people.su.se/~hgrud/doc…..202008.pdf

    Quand je parle de facteurs limitant la croissance, il n’y a que trois formes de courbe réponse pour toutes les plantes, y compris les algues.

    1) avec un palier de saturation sans toxicité à faible dose, eau, nitrates, lumière etc. et CO2 pour les plantes en C4. Ces facteurs répartissent les plantes dans le paysage.

    2) avec un optimum, c’est la réponse à la température des plantes en C3 c’est à dire tous les arbres ayant des cernes. Elle commande la répartition géographique (latitude et altitude) des plantes.

    3) croissance presque proportionnelle à la quantité, si les autres facteurs et en particulier la température ne sont pas limitant.

    Il peut y avoir des effets perturbateurs du profil que GRUDD montre très bien dans les profils d’ages cambiaux lorsque l’échantillon comprendra trop darbres de moins de 150 ans, ou lorsqu’un éclaicissage naturel (tempête par exemple) aura permis à la lumière de pénétrer une zone autrefois couverte.

    Ce que je propose c’est que si l’échantillonnage n’est pas biaisé, une ou des augmentations transitoires de la taille des cernes est expliquée par l’augmentation du seul facteur qui n’a pas d’optimum, le CO2.

    Si on mélange deux paramètres comme la densité (MXD) et la largeur (TRW), surtout en moyennant sur 30 ans ou plus (climat et non météo), on fait tout disparaître et en particulier les cycles solaires.

    On ne voit pas ainsi que la croissance est décalée d’un demi cycle environ par rapport à la température prise par exemple dans les glaces du Groenland. J’ai fait les coubes et je pourrais utiliser la technique de free que quelqu’un (Manu ?) a proposé il y a peu mais je ne retrouve plus où. A l’aide !!!

    J’ai agrandi la figure 5 de GRUDD et je vais tenter de voir les correspondances des pics et des creux mais l’échelle est vraiment serrée. En cherchant sur Google j’ai vu que McIntyre avait obtenu les données, je vais aller chercher de ce côté :
    http://climateaudit.org/2008/0…..on-hooray/

  22. MichelLN35 (#29),
    Merci pour ce texte.
    Deux points restent obscurs pour moi :

    croissance presque proportionnelle à la quantité

    s’agit-il de la quantité de CO2 ?

    je pourrais utiliser la technique de free

    dites en peu plus svp.
    Merci

  23. Frédéric, admin skyfall (#21),

    Avant que de payer pour quelque chose dont tu n’a peut-être pas besoin :

    Recrée le site (et donc la base) en local sur ta machine.

    Recompacte ton SGBD (je ne sais pas comment on fait, je suis un ex-Oracle)

    Upload le site avec la base et fait les réglage.

    (Uploader 20Mo en ADSL, c’est très lent, mais ça se fait en une nuit sans pb)

    Après imports suivis d’update/delete/insert intensifs, les SGBD peuvent « exploser » car les extents se multiplient et il est souvent nécessaire de la restructurer (en tout cas, c’était très vrai pour Oracle : export/import dans une base vide => gain de place de 50% en μ).

    Mes deux eurocentimes.

  24. Les océans sont pollués ?!?

    Tout au plus quelques plages très localisées proches des zones urbaines, d’accord, mais pour polluer 1,3+ milliards de km³ d’eau, faudrait quand même se lever de bonne heure (71% de la surface du globe et jusqu’à 6000+ m de profondeur, c’est pas rien…).

    Et puis le temps (aidé par les petites bébêtes) fait son œuvre : le pétrole, par exemple est 100% naturel et 100% biodégradable. Pour certaines matières, j’avoue, c’est vraiment très très long. Mais ça fini de toute façon sur les plages (très probablement inhabitées)…

    C’est comme pour les déchets radioactifs, POURQUOI vouloir à tout prix s’en débarrasser dans le 29% de terre restantes, qui sont les seules habitable par nous ? Si on les déposaient par grands fonds dans les océans, ça ne modifierait pas d’un iota la radioactivité naturelle de ceux-ci. Même après plusieurs siècle de stockage (un réacteur produit environs 1m³ de déchets vraiment gênants par an…) Il y a quand même des choses que je ne comprends pas très bien dans le raisonnement humain, bien que j’en soit (du moins, je le crois, mais je suis peut-être un E.T. psychotique 😀 ) un…

    Bon, il faut penser au pauvres extrêmophiles, me direz-vous ? On peut y réfléchir, au moins, non ?

  25. Un article sur Lovelock dans pensee-unique : extrait : « Ainsi, je ne vois pas comment ils peuvent prédire le climat avec précision. Ce n’est pas la puissance de calcul qui nous manque aujourd’hui mais notre capacité à prendre ce que nous savons et le mettre sous une forme que les ordinateurs comprendront. Je pense que nous avons une trop bonne opinion de nous mêmes. Nous ne sommes pas des animaux si brillants que ça. Nous avançons à tâtons avec succès et il est parfois étonnant que nous le fassions, mais nous avons tendance à être trop sûrs de nous pour nous rendre compte de nos limites. Si vous faites un modèle, après un certain temps, il va vous engloutir. Vous commencez à oublier que c’est un modèle et vous allez le voir comme s’il était le monde réel. Vous commencez réellement à le croire. »
    A transmettre à Le Treut…

  26. MichelLN35 (#29),

    Merci pour la publi !

    Les tiges proviennent du nord de la Suède près de la limite de croissance des arbres : dans ces zones, il n'y a pas couverture complète par la forêt et les arbres connaissent peu de concurrence des autres arbres (sinon on ne fait pas de telles reconstructions) : l'auteur signale que ce pourrait être une des causes de la divergence constatée au début du XIX siècle …

    Il est à noter que si la période autour de l'an 1000 était plus chaude, la densité d'arbres pouvait être soit plus importante (d'où une plus forte compétition à certains ages) soit rester plus faible si la pression de pâturage était augmentée.
    Sans indications sur les paysages de l'époque, il est difficile d'attribuer à un facteur donné une influence. D'autre part, l'auteur estime que tous les autres facteurs affectant la croissance sont répartis au hasard mais avec 50 réplications vers l'an mil pour les accroissements et une dizaine pour les densités, c'est un peu léger. (Le pin sylvestre est rustique).

    Mais c'est intéressant de comparer avec les teneurs en CO2 des carottes de glace pour autant que l'on puisse caler les deux courbes.

    http://hurricane.ncdc.noaa.gov…..es.icecore

    NB : autre aspect pour la densité : les pins ont des cernes de printemps et des cernes d'été de densité différente. Il est a noter que si la croissance annuelle est faite dans le dernier cerne, les cernes des années antérieures sont fonctionnels, d'où la corrélation avec l'année antérieure.

    Pour free, il faut utiliser cela : http://dl.free.fr/

  27. Pour info j’ai recherché le site de météo de UZEIN, à l’aéroport.
    grace à info climat.

  28. pecqror (#36),
    Merci pour le cadrage via Google earth

    Pourquoi donc Mestre donne-t-il la station de l’aéroport comme la bonne dans son papier de 2008 ?

    Pourquoi enfin les données depuis 1980 sont-elles corrigées à la hausse ?

  29. Tatcher c’est servi du CO2 pour délocaliser la production de charbon de GB a l’autre bout de l’Empire en Australie beaucoup plus rentable puisque qu’a ciel ouvert et dema…C’est encore elle qui a convoqué le G7 en 88 ou fut décidé la création du Giec…

  30. Tatcher c’est servi du CO2 pour délocaliser la production de charbon de GB a l’autre bout de l’Empire en Australie beaucoup plus rentable puisque qu’a ciel ouvert et exigeant bien moins de personnel…C’est encore elle qui a convoqué le G7 en 88 ou fut décidé la création d’un organisme intergouvernemental… qui sera baptisé le Giec… Alors j’ai comme un doute sur la mission première du Giec qui me semble t il ne peut être qu’ économico spéculatif plutôt que scientifique… surtout que la bourse spéculative carbone détourne et capte quelques milliards d’euros… pris ou ????

  31. « Pour autant, leur démarche [des pétitionnaires] est conforme à l’idéologie sciento-politique qui a présidé à l’édification du GIEC, cet improbable magma de science et de politique, par lequel des politiques se donnent la caution de la science, et des scientifiques, l’illusion de faire de la politique. »

    Et pan dans les dents !!!!!
    smile
    http://www.fahayek.org/index.p…..;Itemid=63

    Excellente analyse que celle de ce lien cité plus haut !

  32. Dans un interview en février sur swissinfo «L’essentiel: maintenir la pression sur les décideurs»

    Martin Beniston Vice-président du Giec entre 1992 et 1997, professeur à l’Université de Genève participera sans doute à la rédaction d’un ou deux chapitres du prochain rapport du Giec, prévu dans quatre ans.
    « Le consensus évoqué au sujet du Giec se situe sur un autre plan. Pour que ses rapports soient ratifiés par les gouvernements, ces derniers doivent se mettre d’accord sur la terminologie et la formulation des conclusions. Un processus assez ardu. Mais il ne s’agit pas d’un consensus scientifique. Sur le plan scientifique, le débat a bien lieu. »

    http://www.swissinfo.ch/fre/do…..id=8291138

    Donc il s’agit d’un consensus politique et non d’un consensus scientifique !

  33. Marot (#37),
    Cette photo date des années 1990, il y a une clio (elle est sortie en 1991).

    Pour moi cette station a été redéployer pour agrandir le parking, peut-être?

    Pourquoi enfin les données depuis 1980 sont-elles corrigées à la hausse ?

    La magie de la science!!

  34. pecqror, je trouverais anormal qu’elle n’ait pas été bougée et que le parking soit venu la réchauffer tout autour ! Là où elle est placée maintenant doivent justement régner des temp. proches d’avant son déplacement ; la question est effectivement de savoir où elle était avant la photo des années 90 ! Y a t-il des différences notables dans les temp de cette station dans les années 80 ?

  35. plombier (#41),

    Juste une précision : on ne ratifie pas un rapport.
    Selon les cas les pays en prennent note, l’accueillent favorablement, en acceptent les conclusions, les endossent ou y apportent de modifications, demandent des compléments …
    Un des pièges du GIEC, c’est le résumé pour décideurs, qui conduit les gouvernements à ne pas faire le tri …

  36. on ne ratifie pas un rapport ?
    Dictionnaire de la langue française
    Sens 1 Confirmer sous une certaine forme un texte de loi qui a été écrit [Droit].
    Synonyme accepter Anglais to ratify
    Sens 2 Approuver. Synonyme accepter Anglais to ratify
    Synonymes accepter, adopter, approuver, autoriser, confirmer, consacrer, entériner, homologuer, sceller, valider.

    « Le GIEC est un organe scientifique » annonce le site du GIEC, pourtant mu et vertébré par une assemblée plénière (ou panel) majoritairement composée de diplomates qui sont investis, comme il sied dans toute organisation intergouvernementale, du pouvoir de dernier mot sur les scientifiques.

    http://www.fahayek.org/index.p…..;Itemid=63

    l’article a été publié sous le titre Trônant entre science et politique, le GIEC court à sa perte, dans Le Temps, 11 mars 2010 (Suisse) et sous le même titre dans L’Echo (Belgique).

  37. pecqror (#42),
    Station déplacée dites-vous, pourquoi pas mais quand ?
    à moins que Mestre fournisse des faux en 2008 ou ne sache rien de la station qu’il illustre, on n’en sort pas.

    En plus le prétendu « ajustement » à la hausse depuis 1980 n’est justifiable ni pour l’une ni pour l’autre implantation.

    Enfin, la fiabilité d’info-climat est plus que douteuse.
    Regardez la station de Toulouse-Blagnac

    sa première photo :


    sa deuxième photo :

    Est-ce le même site ?

  38. Marot (#46),

    Pour l’angle de vue de la seconde photo (celui à la droite de la porte), cela ne me semble pas la même chose (cf place du pluviomètre et de la station de tp, nbr de boites au sol -4 dans la première et 3 dans la seconde-) : sous réserve de débat contradictoire ou de volontaire pour aller faire les photos appropriée !

    @plombier
    Regardez les déclarations et décisions de l’UNFCCC : jamais le terme ratifier n’est utilisé. Il n’est plus utilisé maintenant que dans son sens juridique de ratifier un traité ou une convention, voire une loi.

  39. Si la photo est prise sous l’angle qui est au Nord-Est (2h10mn) de la première photo cela semble coller, sauf qu’il manque dans la seconde photo la boite au pied du pylône.

  40. Cela semble bien correspondre, y compris pour la lumière, qui, bien que plus faible dans la seconde, provient du même endroit ; mais n’est-ce pas une conformation standard ?