par Benoît Rittaud.
Aujourd’hui s’est tenue la conférence débat à l’Académie des sciences sur le système climatique, à laquelle j’ai finalement pu aller, ce qui m’a donné le plaisir de rencontrer un pilier de Skyfall ainsi que retrouver une vieille connaissance. Un coucou tout particulier à eux, donc, qui auront sans doute également des réactions intéressantes à faire partager.
Nous avons eu droit à cinq interventions, ou plutôt quatre plus une : les quatre premières dans la ligne du GIEC (il devait y en avoir cinq avec celle de Thierry Dudok de Wit, sauf que l’avion de celui-ci n’a pas décollé), la cinquième de Vincent Courtillot. Enfin, il y a eu une séance de débat, pour le moins animée.
Ce qui suit est écrit à chaud, moins de deux heures après la séance, alors pardon d’avance pour les erreurs et omissions. (N’hésitez pas à me les signaler.)
Des quatre premières interventions, celle de Christophe Cassou a été la plus engagée et, de mon point de vue (pas que du mien d’ailleurs), la plus contestable. L’exposé avait pour objet de séparer, dans l’évolution climatique, la partie variabilité naturelle de la partie forçage (anthropique ; le CO2, quoi). Côté variabilité naturelle, l’orateur a évoqué les classiques El Niño, La Niña, oscillation décennale du Pacifique et oscillation multidécennale de l’Atlantique, affirmant qu’en ce moment la « variabilité interne [i.e. « naturelle »] est forte », et qu’elle explique très bien le plateau de températures de ces quinze dernières années. Je cite : « le plateau de 2000-2010 n’est absolument pas une surprise pour les climatologues. » Cette affirmation a fait bondir Marc Fontecave lors de la séance de question à la fin des interventions, qui a évoqué divers articles parus dans Nature et Science posant la question du fameux « hiatus », puis fielleusement signalé avoir vu une conférence de 2010 sur le réchauffement climatique qui montrait une courbe de température s’arrêtant… en 1998, l’année du fameux super-El Niño. Il n’a pas eu la présence d’esprit (pas plus que les autres intervenants) de faire aussi remarquer que Christophe Cassou a, lui, présenté une courbe de tendance de température sur la période 1980-2010 (si ! si !), ainsi qu’un diagramme de l’activité cyclonique dans l’Atlantique tropical qui s’arrêtait… en 2005 (n’ayant, paraît-il « pas trouvé » les données les plus récentes !). Selon l’orateur, les vents, plus forts depuis 1999 à l’échelle globale, ont déplacé la chaleur captée par les océans et l’ont d’une certaine manière enfouie dans les couches profondes. On reconnaît là la ligne de défense classique du carbocentrisme pour expliquer la fameuse « chaleur manquante » de Kevin Trenberth. L’orateur a aussi voulu opérer une distinction entre « prévisions climatiques » et « projections climatiques ». Selon lui, parce qu’elles ne s’intéressent qu’aux forçages (anthropique, toujours) et pas à la variabilité naturelle, les « projections » n’ont pas pour fonction d’être comparées aux observations futures de la même façon que des prévisions classiques. Pas sûr que Christophe Cassou ait vraiment compris l’essence de la théorie des probabilités, en tout cas il ne s’est pas donné la peine de nous expliquer comment, dans ces conditions, accorder du crédit à des modèles qui ne sont pas censés pouvoir être confrontés à l’observation. (Je ne dis pas qu’il n’a pas de réponse à cette question, juste qu’il ne l’a pas abordée dans son exposé, et je trouve ça gênant parce qu’il est ici question de la méthode scientifique elle-même, dans ses aspects les plus fondamentaux.) Selon l’orateur toujours, le climat tropical n’est plus compatible avec des évolutions purement naturelles, et il en ira de même pour le climat des États-Unis dans les années 2030-2040 et celui de l’Europe en hiver (pour l’été, ça devrait venir plus vite). Enfin, l’orateur nous a vertueusement mis en garde : « attention aux impostures », proclamait l’un de ses transparents qui s’en prenait à un absent (en l’occurrence Bernard Beauzamy) qui aurait montré des tendances de températures trompeuses car portant sur des durées trop courtes. Il me semble que l’usage excessif du mot d’imposture a suffisamment été reproché à Claude Allègre pour qu’on évite de l’employer contre quelqu’un qui n’est pas là pour se défendre. Mais bon, lorsqu’on sait que Christophe Cassou a plusieurs fois parlé de « dérèglement climatique » et que l’expression apparaissait même sur l’un de ses transparents, l’on comprend sans peine que l’exposé n’était pas destiné à être neutre.
L’exposé suivant, d’Anny Cazenave, a été beaucoup plus mesuré, et très intéressant même s’il y a quelques reproches à faire de ci de là. Il s’agissait de la question de la montée du niveau des mers, expliquée par trois facteurs qui, par ordre décroissant d’importance, sont la fonte des glaciers, l’expansion thermique de l’océan (dû au réchauffement) et les échanges d’eau avec les bassins hydrographiques des continents (les barrages, d’une part, qui retiennent l’eau et font donc un peu baisser l’Océan, le pompage des eaux souterraines, d’autre part, qui remet de l’eau dans le circuit et fait, lui, monter l’Océan). Au rayon reproches, on a carrément eu droit au « +1,7 mm de plus au XXe siècle, +3,2 mm depuis 1992 et les mesures satellitaires, donc ça va plus vite, » escamotage en règle des problèmes de calibration (sans parler du « Jusqu’à la fin du XIXè siècle, la hausse n’a pas dépassé 0,5 mm/an » : y z étaient précis, à l’époque, hein ?…). OK, c’est juste un exposé, et je suppose qu’elle a des arguments à faire valoir. C’est juste que c’est un peu agaçant quand ce genre de problème, maintes fois évoqués, est à ce point glissé sous le tapis. Autre critique, de forme cette fois : cet ours polaire sur son glaçon (toujours le même, évidemment), dont l’exposé se serait bien passé. Mais à part ça, l’exposé était vraiment très mesuré, je crois même que le CO2 n’a même pas été évoqué, pas plus que le « forçage anthropique ». C’était du solide, qui présentait les fortes corrélations entre le niveau des mers et les événements El Niño/La Niña, et a fini sur un constat sans équivoque : la hausse du niveau des mers ne montre aucune accélération. Quiconque a pris le temps de regarder la courbe l’a déjà remarqué en un coup d’œil, mais ça fait quand même plaisir de l’entendre dit de façon aussi nette.
Avant de passer à l’exposé suivant, peut-être trouverez-vous intéressant d’avoir un petit aperçu de l’ambiance feutrée qui a régné dans la salle avant la discussion finale. La Grande salle des séances est une pièce qui doit faire quelques kilomètres de haut, avec des murs en bois où trônent portraits et bustes des grands anciens de l’Académie. Bien que située au deuxième étage, il n’y a aucune fenêtre. La chaleur, la lumière un rien tamisée pour permettre de mieux voir les diaporamas… tout cela exerce un effet apaisant propice à des séances calmes, y compris sur un sujet aussi explosif que celui du climat. Même les d’ordinaires tapageuses sonneries de portables (messieurs les Académiciens, tout de même, un peu de tenue !…) se faisaient clairs gazouillis sans importance au milieu de la docte assemblée de sages, habillés de gris et de sombre (avec mon polo orange, j’ai pas mal détonné…). Ambiance apaisante sur les esprits, et parfois soporifique sur les corps : plusieurs personnes se sont assoupies durant les exposés. J’ignore si les architectes de la salle l’ont précisément conçue à cette fin de pacifier des débats potentiellement orageux, mais si c’était l’intention, alors c’est réussi.
Le troisième exposé était celui de Sandrine Bony sur les nuages, et je dois dire que c’est là que j’ai moi-même été un peu saisi par l’ambiance cotonneuse régnante, d’autant que l’exposé a été un peu longuet (l’oratrice s’est d’ailleurs un peu fait reprendre à ce propos par l’orateur suivant ; ça aurait quand même été bien que le président de séance fasse un peu mieux respecter les temps de parole). Il a d’abord été rapidement question de Fourier, un classique du genre toujours énervant pour un climatosceptique. Sandrine Bony s’est ensuite très longuement étendue sur le rapport Charney, pour en louer le caractère visionnaire à tout point de vue et les conclusions « incroyablement correctes ». Elle n’est malheureusement pas allée jusqu’à remarquer que les incertitudes du GIEC n’ont toujours pas diminué depuis ce rapport, malgré les milliards de dollars engloutis dans les recherches et les téraflops des modèles, mais bon. L’oratrice a ensuite comparé les approches de la théorie (étudier le climat à partir de la physique) et des modèles, expliquant que la divergence entre eux sur une question comme la sensibilité climatique tient à une source principale d’incertitude qu’est le comportement des nuages bas au-dessus des océans (dont on ignore jusqu’au signe de la rétroaction). Sandrine Bony a distingué entre une composante thermodynamique, qui a tendance à exacerber les extrêmes (« wet get wetter, dry get drier ») et une composante dynamique, indiquant que celle-ci peut donner une réponse très rapide à un accroissement de CO2, à l’échelle de la dizaine de jours.
Le quatrième exposé, de Jean-Pierre Gattuso, portait sur la question de l’acidification de l’Océan. Gros reproche de forme : son diaporama intégralement en anglais, la marque la plus sûre d’un copié-collé d’un exposé antérieur. Il me semble que si, éventualité plus qu’improbable, m’échoyait un jour l’honneur de présenter un exposé à l’Académie des sciences, je ferais quand même l’effort de reprendre mes diapos pour les adapter. Passons. Première diapo : une bonne vieille cheminée d’usine avec la fumée qui en sort… grrrrr… Passons. Une fois encore, ce n’est que de la forme (mais qu’est-ce que c’est agaçant, rogntudju !). Jean-Pierre Gattuso est revenu un instant sur le terme « acidification », qui, selon lui, n’était pas utilisé, a été inventé en 1995 et « les médias l’ont repris… » Les scientifiques aussi, donc. L’orateur n’a pas semblé plus troublé que ça de cette contamination du scientifique par le médiatique. Un peu comme lorsque les orateurs de cet après-midi ont parlé du « CO2 » au lieu des gaz à effet de serre (ce qui n’empêche pas qu’on me reproche le terme de « carbocentriste », soi-disant injurieux). L’exposé était intéressant, même si là encore il y avait de quoi être dubitatif sur l’affirmation selon laquelle le pH de l’Océan devait être de 8,2 en 1800 (trop fort, la précision), de 8,05 en 2000 et sera de 7,75 en 2100. C’était d’autant plus étonnant que l’orateur a par ailleurs convenu que « les séries temporelles sont jeunes et inégalement réparties ». Autre moment de gloire : la présentation de la courbe exponentielle du nombre de publications sur le sujet de l’acidification des océans, avec comme message subliminal que c’est vachement branché et vachement nouveau : 50% des articles sur la question ont moins de 3 ans ! Pour moi, c’est se tirer une balle dans le pied, parce que c’est la marque d’un domaine qui n’est pas encore mature. Mais bon, dans notre monde qui ne jure que par les classements de Shangaï, impact factor et autres h-index, je suppose qu’il faut voir les choses autrement. Côté positif de l’exposé, nous avons eu une présentation de l’évolution de la capacité des capteurs pour mesurer le pH. Là, c’était vraiment de la belle science en marche. De gros progrès ont été faits, au point qu’on a maintenant un niveau de résolution à l’échelle journalière, avec une précision de 20 milliunité de pH. D’ici quelques années, 10% des balises Argo seront équipées, ce qui permettra aussi des mesures en profondeur, et non plus seulement en surface. On devrait donc apprendre des choses passionnantes (du moins si… enfin vous voyez). J’ai aussi appris l’existence d’un site, Ischia, situé juste à côté du Vésuve, où se trouve une source naturelle de CO2. Ce site présente un certain nombre d’avantages qui permet de l’utiliser pour faire des prévisions sur l’évolution à venir du niveau de pH de l’Océan et de la réponse de l’écosystème marin.
Des exposés intéressants bien que sans grande surprise, donc. Un spectateur extérieur au sujet pouvait se dire que la science avançait sans grand souci dans l’ombre du GIEC, et que la messe était dite.
Et puis est venu le tour de Vincent Courtillot. Dix minutes. Dix petites minutes lui avaient été allouées pour renverser la tendance et bousculer les certitudes. Bon, lui non plus n’a pas vraiment respecté son temps de parole… Mais quelle densité ! Quelle force ! Je sais, j’en fais trop, et vous allez dire que j’idéalise. C’est sûrement vrai, alors je vous fais confiance pour faire une lecture prudente de mon ressenti. Vincent Courtillot a raconté comment ses recherches sur le magnétisme terrestre et ses liens avec l’activité solaire l’ont conduit à s’intéresser à la question du climat. Son exposé a brillé sur deux points fondamentaux : d’une part, il parlait vraiment de ce qu’il connaissait bien pour l’avoir travaillé lui-même à fond avec son équipe (notamment les longues séries de données de qualité variable), d’autre part il s’est, conformément à l’intitulé de la conférence-débat (et contrairement à plusieurs autres intervenants), centré sur les observations. Rappelant que les organismes internationaux lui ont refusé les données de température (tiens, ça me rappelle que la CADA va rendre très bientôt son avis sur ma demande de données à Météo France…) et qu’il a lui-même dû effectuer un travail de fourmi de deux ans pour reconstituer ce dont il avait besoin, il a ensuite souligné la différence de nature des courbes de réchauffement de l’Amérique du nord et de l’Europe, la première montrant une évolution en dent de scie avec un fort refroidissement intermédiaire là où la seconde a connu au contraire un grande stabilité avant un saut spectaculaire dans les années 1980. D’où ses doutes sur ce que dit l’AR4 des réchauffements régionaux. Vincent Courtillot est ensuite revenu sur la crosse de hockey, « je l’ai même enseignée », a-t-il confessé, avant de se rallier aux observations de Moberg sur le fait que les cernes des arbres sont de filtres passe-haut, c’est-à-dire qui réagissent bien aux fluctuations rapides de températures mais pas aux fluctuations à de grandes échelles de temps (parce qu’ils s’adaptent mieux à ces changements-là). Le cycle de mille ans qui s’observe sur la courbe de Moberg se corrèle avec l’activité solaire. Pour Vincent Courtillot, l’Optimum médiéval n’est probablement pas qu’un phénomène climatique régional comme le pensent certains. Pour la période récente (le XXe siècle, en gros), l’orateur propose de corréler la température non pas au CO2, mais aux changements de régime des oscillations océaniques, selon une échelle de temps d’une soixantaine d’années. (Pour les prochaines décennies, les astrophysiciens prévoient pour l’activité solaire un nouveau minimum de Maunder : préparez vos doudounes ?) Enfin, une autre trace cruciale de l’influence du soleil selon Vincent Courtillot est celle de la durée du jour, extrêmement corrélée aux indicateurs solaires. Son explication : la durée du jour est affectée par les vents zonaux, que la Terre « intègre » (au sens mathématique, c’est-à-dire qu’elle en fait en quelque sorte la moyenne, en modulant la durée du jour). L’un des travaux de l’équipe de Vincent Courtillot, particulièrement frappant, a consisté à considérer, pour chaque cycle solaire, l’indicateur tout bête : « plus haut » ou « plus bas » que la moyenne des cycles depuis trois siècles, pour ensuite le comparer à des relevés de températures disponibles sur toute la période. Bilan : à Prague comme à Bologne, la température locale « sait » si l’on est dans un cycle « plus haut » ou « plus bas ». Vincent Courtillot a ensuite copieusement dézingué les modèles : « très peu d’entre eux sont compatibles avec les observations » a-t-il dit, montrant la figure comparative qui figurait dans le second draft de l’AR5 (la fameuse figure escamotée dans le rapport final, mais Vincent Courtillot s’est abstenu de le rappeler). « 95% des modèles ont prévu une température au-dessus des observations, 5% au-dessous : moi, j’appelle ça une certitude à 5%, pas à 95%. » Débordé par le temps, Vincent Courtillot n’a ensuite que brièvement évoqué le niveau des mers ou les événements météorologiques extrêmes, préférant proposer une expérience de pensée originale : imaginons la création en 1900 du GIETP, le Groupe Intergouvernemental d’Experts sur la Tectonique des Plaques. En 1920, quelques années après les travaux fondateurs de Wegener, la théorie aurait peiné à rassembler 5% d’approbation du GIETP. Lorsqu’en 1930 Jeffreys montre les failles du modèle de Wegener, le rejet est encore plus net. C’est seulement à partir des années 1950 que les choses évoluent, mais il faut attendre 1965 et le colloque de l’AGU (notamment une conférence de Xavier le Pichon) pour que la tectonique des plaques s’impose, tout en n’atteignant un consensus de 90% que vers 1980. Selon l’orateur, le GIEC est un peu aujourd’hui dans la situation où aurait été le GIETP dans les années 1940.
De mon point de vue, Vincent Courtillot est celui qui a donné sa pleine mesure à cet après-midi. Il a réveillé l’assemblée, et la séance animée de discussion qui a suivi lui doit beaucoup. Le détail des questions, qui allaient de la modélisation régionale aux récifs coralliens, compte à mon sens moins que l’engagement des uns et des autres. S’il faut décerner la palme de l’indignité, je crois qu’elle revient haut la main à Édouard Brézin, qui s’en est pris à Vincent Courtillot d’une manière à la limite de l’abjecte, en lui demandant pourquoi il avait dû faire appel à des mathématicien de Moscou (c’est loin, Moscou) pour des analyses qui, si elles étaient vraies, « devraient se voir plus facilement », avant de lui reprocher d’avoir invoqué Richard Lindzen, ce « chercheur controversé » qui s’était déjà illustré en affirmant l’innocuité du tabac. Dommage que Vincent Courtillot (particulièrement remonté contre cette intervention) n’ait pas réagi sur ce second point. Encore aurait-il fallu trouver le meilleur angle : fallait-il dire qu’un bon chercheur peut très bien avoir raison dans son domaine et tort lorsqu’il s’exprime sur un autre, ou tout bêtement signaler qu’Édouard Brézin a confondu Richard Lindzen avec Fred Singer ? Bref, même dans les murs les plus policés de l’Académie des sciences, l’on ne rechigne pas à la mauvaise foi et aux arguments les plus odieux. Quand je pense que, dans le train qui m’emmenait à la conférence, ma voisine avec qui j’avais engagé amicalement la conversation me demandait si être scientifique n’était pas le plus sûr moyen pour apprendre à dire moins de bêtises…
Ce qu’il faut retenir de la discussion, je crois, c’est que l’Académie est loin d’être unanime. Les chimistes semblent particulièrement portés au scepticisme, mais d’autres aussi. La vénérable institution semble vraiment divisée sur la question. Difficile de faire un sondage précis, toujours est-il que la presse aura du mal à prétendre que cette séance a été une ode au carbocentrisme. Le questionnement est désormais admis, et il semble que le bon vieux temps du consensus tacite est définitivement terminé.
115 réponses à “Compte-rendu du débat à l’Académie des sciences”
yvesdemars (#47),
Je fais peut-être un rapprochement hasardeux…avec le domaine de la physiologie.
Ne dit-on pas que ce n’est pas en s’acharnant sur la gorge du rossignol qu’il sera possible de comprendre le mystère de son chant ?
the fritz (#49),
Connais pas, j’ai juste récupéré l’adresse de l’image sur google.
Le robinet n’est pas fermé, il a juste cessé de s’ouvrir encore plus, la température est stable depuis 18 ans et donc le débit l’est aussi. Pour un arrêt de la hausse, il faudrait tourner le robinet dans l’autre sens et revenir à des températures comme on les avait dans les années 60 ou au début du XIXème.
Murps (#48),
Comme le rappelle Jdrien, Philippe de Larminat a fait l’exercice. Je n’ai pas encore acheté son livre mais l’extrait semble dire qu’il a modélisé le système climatique par les outils classiques de l’automatique avec comme entrée le CO2, le rayonnement solaire et les éruptions volcaniques, et en sortie la température.
Les outils en question sont performants, mais vous avez raison: au départ, il y a déjà polémique sur la pertinence des mesures…GIGO!
Ceci dit, cette vision automaticienne me paraît plus efficace que les modèles soit disant basés sur la science, en fait très « bidouillés ».
the fritz (#50),
Vous doutez des mesures altimétriques ?
Vous n’êtes pas le seul.
Avec tout les filtres que l’on veut, je doute qu’on puisse y voir quelque chose de sérieux !
Les variations minuscules du champ gravitaire (planète géante) qui modifient un chouia les paramètres orbitaux du satellite qui observe, additionnées aux vaguelettes à hautes fréquences , peut être aussi, une oscillation du fond marin à faible fréquence ( pourquoi pas?), ce n’est pas immuable le fond doit avoir une petite élasticité ! Etc.
Enfin, il y a trop de mouvements possibles avec des fréquences inconnues !
Ce n’est pas sérieux d’être sûr (pour moi) de ces faibles variations de niveau.
Comme je ne suis pas spécialiste, je demande à être convaincu.
phi (#52),
C’est conforme au deuxième principe de la thermodynamique ce que dites ?
the fritz (#55),
Qu’est-ce que le second principe de la thermodynamique vient faire dans cette baignoire ?
phi (#56),
Vous trollez là ou quoi ? si vous êtes en régime haut ou bas , où mettez vous d’ailleurs une limite , si vous arrêtez le forçage solaire ou un effet d’albédo , vous n’avez plus que le gradient géothermique à votre disposition pour changer quoi que ce soit dans la chaleur du système climatique; mais peut-être que comme votre Berrurier ( antonio san doit se marrer) sur son site « les crises » vous êtes un fin fervent de l’effet de serre du CO2
the fritz (#57),
Je ne vois pas où vous voulez en venir. Je ne fais aucune supposition sur l’origine des variations des températures de surface. Il y a certainement de nombreux facteurs en jeux mais il est généralement admis que l’essentiel de la montée vient premièrement de l’apport et deuxièmement de la dilatation des eaux supérieures. Un plateau de température en phase haute n’est donc pas sensé correspondre à une stabilisation du niveau.
Bernnard (#54),
OUI, je doute sérieusement ; comme vous , je ne suis pas spécialiste mais je pense que la part de corrections dans les données est énorme et que les barres d’erreur sont optimistes
Avez vous une idée concernant la question que j’ai posé à phi au post n°50 ?
Peut-être que Bob a raison en disant que c’est un sujet très(trop) difficile. Bref, merdique.
Pourtant la conf de l’académie portait sur ce sujet , comme sur un autre encore plus merdique qu’est l’acidification des océans ; si j’ai bien compris les commentaires de Ben , concernant les nuages on ne progresse pas ; heureusement qu’il y a les modélisations qui permettent de mettre tout çà d’aplomb
the fritz (#59),
C’est, en effet, compliqué !
À mon avis, ce phénomène s’il est bien établi, (ce qui est déjà une difficulté) doit être regardé sans idée préconçue. Le site que vous avez indiqué en lien cite deux causes évidentes, mais je ne crois pas que cela suffise.
Vous posiez la question de la variation du niveau marin pendant les phases El Nino, El Nina.
À vrai dire, je ne pense pas que c’est la bonne manière de voir ce problème de niveau marin en le liant seulement à la température.
Comme je l’ai dit plus haut les paramètres qui peuvent avoir comme conséquence une augmentation objective du niveau des océans sont peu connus et nombreux. Parmi ceux-là, je pense qu’on devrait regarder de plus près la variation du champ gravitaire extérieur à la terre et pas seulement la variation du champ gravitaire terrestre provoqué par des déplacements de masses, elles même provoquées par une variation du champ gravitaire externe à la terre (comme le deplacement de masse d’eau des marées).
Bernnard (#60),
Pour moi, tout ça est en réalité très simple: la Terre avec son atmosphère et ses océans constitue une énorme machine thermique dont on connaît très mal le fonctionnement. Mais l’Homme est tellement arrogant qu’il croit qu’il pourra modifier quelque chose. Il se prend pour Dieu.
Murps (#48), en automatisme, on fait couramment l’identification de fonctions de transfert multivariables d’une « boîte noire » et il y a des outils très performants même en milieu fortement bruité, je pense en particulier à tout ce qui tourne autour du filtre de Kalman. Et contrairement à la CAO (la climastrologie assitée par ordinateur), on a la preuve que ces outils sont performants, parce qu’ils sont utilisés pour asservir des tourelles de chars ou pour réguler des raffineries, s’ils étaient aussi à la ramasse que les modèles réchauffistes, ses promoteurs seraient depuis longtemps au chômage. Les critères de qualité en ingénierie, c’est autre chose que ceux de la « science » climatique.
Bon bref, l’identification d’une fonction de transfert est performante sur un processus linéaire, ou du moins qui varie peu pour que l’espace d’état reste à peu près linéaire. On aurait donc pu en toute logique utiliser les outils de l’automatisme pour déterminer l’attribution en climatologie ou quantifier la sensibilité étant donné la remarquable stabilité du climat depuis 1 siècle (pensez donc, un réchauffement ridicule de… 0,7°C que la FARCE s’évertue à qualifier de « catastrophique » !). Si on ne l’a pas fait, c’est probablement parce qu’aucun automaticien digne de ce nom (çàd qq qui a vraiment régulé de vrais processus dans la vraie industrie) ne peut croire que la climatologie réchauffiste relève de la science.
Bernnard (#60),
http://www.canalacademie.com/I…..juin09.pdf
Ya des avis éclairés sur cette diapo ?
the fritz (#63),
Désolé , c’est la diapo n° 10, celle qui concerne les erreurs ; il faut faire défiler
the fritz (#64),
J’ai regardé cette diapo
Il est indiqué sur ce document (page 17) que:
Comme vous le voyez, l’incertitude prend en compte beaucoup de contributions à la mesure comme la correction de troposphère humide et sèche.
Là-dessus, je n’ai rien à dire si ce n’est qu’avec le résultat obtenu et la marge d’erreur, on est bien dans le brouillard et les causes données ( dilatation et fonte) sont toujours les seules qu’on propose.
the fritz (#64),
D’après la dia en page 8 Evolution de l’expansion thermique de l’océan (moyenne quasi globale) depuis 1955 serait passée de -9 à +16 mm en 54 ans. Un ~1 pouce !!!
Y a vraiment de quoi paniquer.
Bernnard (#65),
Ce qui m’ a interpellé, c’est que j’ai appris à l’école qu’on additionnait les incertitudes de chaque variable ; or on est loin du compte
the fritz (#67),
Oui, on doit additionner les incertitudes.
J’ai remarqué cette incohérence.
Telle qu’est présentée la diapo, on s’attend en effet à l’addition de chaque incertitude sur le résultat final. Je crois qu’il faudrait savoir comment est établi ce résultat, comment ces variables interviennent. Mais en tout état de cause ce n’est pas compréhensif présenté comme ça ! Il manque quelque chose. Je suis d’accord.
miniTAX (#62), en gros vous semblez avoir plus de compétences que moi sur ces outils mais vous êtes de mon avis…
Cdt Michel e.r. (#61), j’aurais pas dit cela de la même manière.
On ne connait pas « mal » le fonctionnement du climat ; on ne le connait pas du tout. Rien. Nada. Que dalle.
Bernnard (#68),
J’ai bien aimé celle-là aussi
the fritz (#70),
La température monte, l’océan se dilate et les glaciers fondent ! Le niveau marin doit monter.
Voilà le fil directeur de toutes ces études.
Sauf que la température stagne depuis un bon moment et que le niveau marin mesuré continue de monter.
Je me marrerai que les températures redescendent et que le niveau marin continue encore à monter !
On se posera d’autres questions ! Qu’est-ce qui cloche ? La température mesurée ? Le niveau ? l’eau cachée qui resurgi ? quoi d’autre ?
Bernnard (#71),
Exactement. Et que le taux de CO2 se mette à descendre…
Avec ces hivers successifs très très froids. Comme actuellement au Japon et aux US.
La totale.
Bernnard (#71),
D’ici là, on enverra un nouveau satellite et le problème sera réglé
Murps (#72),
Bienvenu dans le club des pichuileux
Bernnard (#65), Ce qui est très agaçant dans cette thèse pour un métrologue, et grave dans l’absolu, c’est que l’auteur ne fait pas la distinction entre incertitude de mesure et erreur. De plus, il utilise un terme qui est à l’heure actuelle banni du vocabulaire de la mesure, qui est ‘Précision’. Ce terme n’a plus aucune définition normalisée. Pour ceux qui souhaiteraient en savoir plus sur ces définitions, on peut télécharger le VIM-2008 (Vocabulaire Internationale de Métrologie) sur le site du BIPM.
L’incertitude peut être évaluée par une somme quadratique si les sources d’incertitude sont indépendantes entre-elles. Si elles ne le sont pas, il faut prendre en compte des termes de corrélation qui peuvent augmenter ou diminuer cette somme.
Mais, ce qui compte avant tout c’est l’exactitude, c’est à dire l’écart par rapport à une référence, de cette technique de mesure, et ça je ne l’ai vu nulle part.
Ecophob (#75),
Oui. Toutafé.
Ecophob (#75),
Calcul d’incertitudes
Par Mathieu ROuAUD
Un livre numérique gratuit (PDF)
Calcul d’incertitudes – Un livre de 198 pages qui traite le calcul d’incertitudes de manière détaillée.
Sans doute plus abordable par le commun des mortels que la documentation du BIPM
Cité dans les Références externes de l’a page Wikipédia : Calcul d’incertitude
Une vidéo du débat est demandée !
Cdt Michel e.r. (#77), le livre de Mathieu Rouaud est excellent effectivement au niveau pédagogique et je ne le connaissais pas. L’article de Wikipédia est beaucoup plus contestable car il n’explique pas la méthode du GUM et part sur l’explication du calcul des dérivées partielles qui n’est qu’un élément de la méthode du GUM.
Il n’empêche qu’un rapport ou une thèse doivent se référer à des documents normalisés, en particulier s’ils se veulent expertiser un domaine et une technique de mesure. Les documents du BIPM font référence et sont repris (sous forme de normes) par ceux qui maîtrisent réellement le monde de la mesure, ce qui n’est visiblement pas le cas de l’équipe de Casenave. Si les climatologues en tout genre étaient capables de placer des barres d’incertitudes sur leurs graphiques, cela changerait probablement l’interprétation que l’on peut en faire. C’est particulièrement le cas pour le niveau des mers qui est un domaine que je connais de loin mais que fréquente de près.
Ecophob (#79),
Ils ne veulent pas tremper dans le monde de la métrologie ! Se poser des questions sur la précision des mesures ? vous n’y pensez pas ! C’est si simple de mettre des zones sur les graphiques. Surtout que les logiciels font ça très bien.
Ecophob (#79),
Tout à fait d’accord avec vous.
Mais … je me suis inscrit en Sciences Chimiques à l’ULg en 1964, après des humanités latin-grec.
Ma formation en maths anciennes n’était donc pas très poussée.
Les maths ont donc toujours été ma bête noire, mais en redoublant la première candi j’ai fini par réussir les examens. Je me demande toujours comment.
Les statistiques, les probabilités et les maths supérieures, j’en ai bavé assez pendant mes 2 candidatures en Chimie.
Du calcul d’erreur élémentaire, j’en ai fait tout au cours de mes études, mais je serais bien en peine d’en refaire maintenant. À l’époque, tout se faisait encore avec le papier et le crayon, alors les calculs compliqués, c’était le strict minimum ) On n’avait que les tables de logarithmes et la règle à calcul pour nous aider.
N’ayant pratiquement plus fait de maths (même anciennes) depuis le début des années 1970, il y a un tas de choses qui me passent maintenant par-dessus de la tête. Calcul intégral, équations différentielles, matrices, etc. c’est maintenant du chinois et ce n’est pas à 69 ans que je vais m’y remettre.
C’est pour cela que je trouve le bouquin de Rouaud intéressant pour quelqu’un qui n’est pas/plus matheux.
Cdt Michel e.r. (#81), je ne suis pas non plus un cador en mathématiques, mais j’ai appris la technique du GUM dans les années 80 avec ceux qui ont participé à son élaboration. En le mettant en pratique j’ai fini par en saisir les subtilités et depuis quelques années j’essaye de l’enseigner, avec plus ou moins de succès.
Pour les chimistes, il y a une autre d’évaluation des incertitudes qui est celle de la norme 5725. Elle repose essentiellement sur l’analyse de la variance et elle est plus adaptée à la prise en compte des incertitudes liées à l’opérateur.
ITW d’Anny Cazenave sur Atlantico, voici ce qu’elle dit:
Alors la hausse s’accélère ou ne s’accélère pas (ce qu’elle aurait dit à la conférence si je comprends bien les propos de Ben) ?
Hug (#83), 20 ans, c’est le début des mesures par satellite, et donc avant ce ne peut être que les marégraphes. On passe donc de 1,8 à 3,2 si on raboute les 2 vers 1994, d’où l’apparente accélération; le hic, c’est que les marégraphes continuent à donner 1,8 jusqu’en 2010 (voir les courbes sur PU)
Hug (#83),
Il me semble avoir compris (mais je ne suis pas sûr, peut être Ben rectifiera) que sa théorie est que les marégraphes sont sur les côtes, et donc ce n’est pas représentatif de la totalité des océans, ce que mesurent les satellites. Il faudrait donc en déduire que la mer monte plus au large que sur les côtes; ce n’est pas foncièrement idiot, car la dilatation y est peut être plus forte, il y a la déformation des bassins etc…
Auquel cas, cela confirmerait que seule la mesure des marégraphes nous importe, car personne ne vit en pleine mer…Mais cela n’explique pas une accélération. Le discours d’Anny Cazenave n’a pas été clair à ce moment de la présentation, en tout cas pour moi.
Il faut regarder la vidéo de Willie Soon sur le sujet, visible facilement sur youtube. Si ses informations sont exactes, (ce que je n’ai pas de moyens de vérifier) c’est impressionnant. Pratiquement tout est bidon. L’essentiel des 3 mm serait en fait obtenu en ajoutant aux mesures une correction modélisée, liée à la dynamique des réajustements isostatiques.
volauvent (#85),
La précision des mesures du niveau des océans par les satellites me paraît très exagérée, sachant tous les tripatouillages que cela suppose.
jdrien (#84),
Et vu les discussions sur les précisions instrumentales ci-dessus, il me semble qu'un bémol sur la vitesse d'augmentation du niveau marin et sa valeur ne serait pas de trop !
volauvent (#85),
un autre effet sur le niveau des océans ce sont les gyres en fonction de la pression sur les zones océaniques les variations au centre (au bord) des océans peuvent diverger, ce qui explique les écarts entre mesures satellitaires et marégraphes
voir http://www.pensee-unique.fr/oceans.html#gyre
jdrien (#84),
volauvent (#85),
Ce qui me semble clair, c’est que le passage des marégraphes au mesures satellitaires induit cette accélération et que cela n’est pas précisé dans l’information délivrée au public. C’est un peu du mensonge par omission.
Hug (#89),
Oui, c’est bien connu et depuis longtemps. Ne disait-on pas que les satellites détraquent le temps ?
J’aimerai bien savoir ce qu’en pense Ecophobe, lui qui s’intéresse à la métrologie…
volauvent (#85),
En principe non ; puisque les continents se réchauffent plus vite que la mer , cela devrait plus se réchauffer et se dilater près des côtes
volauvent (#85),
C’est presque du Devos ; et puisque la mer monte plus au large , on l’appelle » la haute mer «
the fritz (#92),
Je pense que même Devos n’aurait pas osé atteindre le surréalisme qu’on rencontre dans ces histoires climatiques.Le hiatus…il en aurait fait tout un sketch.
the fritz (#92),
Le seul sketch dont je souviens vraiment, c’est le fameux Car pour Caen
Wikipédia
Cdt Michel e.r. (#94),
On retrouve ses sketch sur You Tube
volauvent (#85), dans mon souvenir, Anny Cazenave a vraiment complètement escamoté la questin de la calibration. Que la haute mer soit plus haute ou pas que la pas-haute-mer, ou monte plus vite ou moins vite, n’était pas son sujet : elle a comparé les marégraphes au satellites sans se soucier du changement d’instrumentation. Pour la question de la hausse du niveau des mers, elle a juste reconnu, de façon explicite, que les mesures satellitaires ne montrent pas d’accélération. D’où cette lancinante question à laquelle je n’ai jamais vu de réponse nulle part : où se cache donc l’accélération qui a conduit à un doublement de la hausse ? À quelle époque s’est-elle produite, et quand s’est-elle arrêtée ?
Ben (#96),
LOL !
Cette situation est assez fréquente en physique expérimentale. Par exemple quand on change de système de mesure en passant d'un cryostat à un autre pour explorer un vaste domaine de température.
Les résultats de mesures exécutées dans ces conditions sont très rarement "raccord". Et une erreur (ou des erreurs) se cache quelque part…Pas facile à identfiier. Aucun doute là dessus. La plupart du temps la physique est continue même quand les mesures ne le sont pas.
Quand il y a un "hiatus" exactement lorsqu'on change d'instrumentation, c'est qu'il y a un os dans le potage.
J'ai assisté à de furieuses polémiques à propos de ce genre de truc dans d'autres domaines.
Bob (#97),
Si j’ai bien compris la vidéo de Willie Soon, que ce soient les marégraphes, ou les 3 satellites, en mesures brutes ils indiquent tous… zéro. Ce qu’on nous présente comme une montée (et même une accélération) ne serait qu’un calcul issu de modélisation pour tenir compte des mouvements géophysiques.
https://www.youtube.com/watch?v=1gmW9GEUYvA
volauvent (#98),
Absolument, d’après ce que j’ai également pu comprendre. Ce que j’ai remarqué aussi, c’est la bassesse des accusations portées contre Willie Soon: on a beau y être habitué… Rien que ces comportement devraient ouvrir les yeux des gens de bonne foi.
Hug (#89), complètement d’accord avec le mensonge par omission. Il ne faut pas idolâtrer Anny Cazenave pour son abnégation, comme je l’ai lu dans un échange précédent. Elle a toujours eu un discours concordant avec la pensée réchauffiste, même quand ça coince dans les faits.