par Benoît Rittaud.
Dans ce nouvel épisode au sujet du rapport sur le climat en France au XXIe siècle pondu par six climatologues sous la direction de Jean Jouzel (et dont le point principal qui a été retenu par les médias est « jusqu’à +5,3°C en France en 2100 »), il est question des précipitations. Comme dans les épisodes précédents (températures en France métropolitaine et en outre-mer), il s’agit de repérer les incohérences les plus manifestes. Qui, faut-il le dire, ne manquent pas.
Pour commencer, voici le tableau-qui-voudrait-faire-peur de la page 23 :
Pour les températures, le lien causal avec le CO2 nous a toujours été présenté dans le même sens par le GIEC. Sans qu’il y ait nécessairement dépendance linéaire entre les deux grandeurs, il y a en principe toujours dépendance monotone : plus de CO2 implique températures plus élevées. Une dépendance monotone étant moins directement exigible des modèles du GIEC pour la relation entre CO2 et précipitations, il faut donc accorder un relatif bénéfice du doute aux cas où cette dépendance ne serait que légèrement prise en défaut.
Sauf que là, c’est du grand art.
Passons rapidement sur le cas des hivers 2071-2100 pour le C25 du RCP4.5, qui propose un -0,8 dont on peut imaginer qu’il n’est qu’une coquille. Je suppose (enfin… j’espère) qu’il faut lire en réalité -0,18. Regardons mieux en revanche le cas des hivers 2021-2050, pour lequel deux choses étonnent :
- le scénario médian en CO2 donne moins de précipitations que les deux extrêmes (pour tous les modèles)
- les deux scénarios extrêmes donnent des niveaux de précipitations à peu près identiques.
J’entends d’ici la remarque : ce tableau ne présente que des moyennes, qui cache des disparités régionales présentées ailleurs dans le rapport. D’accord, mais alors de deux choses l’une : ou bien ces moyennes signifient quelque chose et il est donc légitime de questionner le tableau, ou bien elles ne signifient rien et, dans ce cas, le tableau ne devrait pas avoir sa place dans le rapport.
Quoi qu’il en soit, rien dans ce tableau ne permet d’exclure l’éventualité que les précipitations restent à un niveau stationnaire au XXIe siècle, même dans le scénario avec le plus d’émissions. En effet, dans tous les cas sauf un, la valeur 0 figure quelque part entre les 25e et 75e centiles. Le cas unique où cela ne se produit pas est celui des étés 2071-2100 dans le scénario à fortes émissions (RCP8.5)… sauf que dans ce cas le fameux modèle WTF WRF propose une évolution carrément inverse à ce qui est suggéré par C25 et C75 (qui sont eux obtenus avec des modèles européens).
Une même évolution étrangement inverse s’observe aussi pour les étés 2021-2050 dans les scénarios RCP4.5 et RCP8.5, aussi bien pour WRF que pour Aladin-Climat…
Si l’on montrait ce tableau à n’importe qui capable d’un peu d’esprit critique sans lui dire exactement les données et les scénarios dont il est question, je pense que la conclusion qu’il en tirerait serait invariablement celle-ci : les modèles ne sont pas suffisamment au point pour délivrer un message cohérent, et le peu qu’ils suggèrent est que l’évolution de la grandeur étudiée ne devrait pas être très marquante sur la période considérée. Cette impression est fortement renforcée par la figure de la page 22, qui montre que, en 2100, les intervalles de confiance attachés aux scénarios futurs sont encore loin d’exclure l’anomalie 0.
Pour l’outre-mer, les dessins-qui-voudraient-faire-peur présentent une mystérieuse bizarrerie, dont je n’ai trouvé nulle part l’explication dans le rapport (qui par ailleurs se donne la peine de nous expliquer pp 14-15 ce que c’est qu’un quartile — je le signale pour qu’on ne me rétorque pas que ce rapport serait réservé à des sachants qui connaîtraient déjà les conventions en usage). En effet, les courbes ne sont pas ajustées pour coller à la valeur de la courbe de l’historique jusqu’en 2005. Si quelqu’un a une explication…
Antilles |
Réunion |
Polynésie : Tahiti |
Nouvelle Calédonie |
En-dehors de ce point peut-être mineur, ce qui me frappe le plus est qu’en 2100, à part pour Tahiti, la courbe verte du scénario médian ne se trouve pas au milieu des deux autres. J’y pense : ce serait-y pas là un indice comme quoi le taux de CO2 n’est pas le facteur principal régissant les précipitations ? Hmmmm ?
27 réponses à “Le ciel est-il tombé sur la tête des modèles ?”
En résumé, pour ajuster à la hausse leurs modèles ils ont ajouté tellement de variables que les modèles leur ont échappés : ils sont devenus sauvages.
Le lion est entrain de dévorer le dompteur !
Personne n’aurait pu envisager ce scénario. La réalité et bien facétieuse !
Bah!
Il faut juste arranger les modèles pour qu’il sortent des courbes qui oscillent ça fait plus « naturel » 😆 , quant à l’explication ne demandez pas l’impossible !
Et dire que ces absurdités sont financées avec notre pognon !
Heureusement pour ces « scientifiques », leurs travaux n’ont pas d’application directe dont le résultat dépendrait de leur qualité… sinon ils seraient virés rapidement (ou au moins mis sur une voie de garage). Les climatologues peuvent compter sur 2 éléments clés pour assurer leurs arrières : il faut trop de temps pour infirmer leurs travaux, et quand ils le sont, ils peuvent toujours jeter la pierre sur un facteur quelconque (à choisir : les volcans, l’océan, les nuages, la pollution etc.)
Je mets ce post ici, mais il aurait pu être là à propos des modèles du climat :
Le moins qu’on puisse dire, c’est qu’ils doivent décrire le passé et s’accorder au présent, c’est vrai, mais ce n’est pas une garantie de fiabilité, et ce, ne peut être une certitude de description correcte de l’avenir !
En effet si on est incapable d’expliquer un phénomène climatologique en identifiant de façon certaine le mécanisme qui est à son origine, un modèle du climat ne sera qu’une construction mathématique sans prise avec le réel.
Je ne dis pas ça pour minimiser l’apport des mathématiques sans lesquelles la science ne serait pas devenue ce qu’elle est, mais je le dis parce qu’on utilise cette discipline (très utile et importante) comme un moyen de cautionner « une croyance » et c’est d’autant plus grave que ce sont des « scientifiques » qui le font. Je vous remets le lien suivant.
Bernnard (#4), il y a un apport des mathématiques dans les modèles climatiques ?
J’ai du rater un épisode.
A moins que vous ne considériez que l’écriture
Tmoyen = A*Log[CO2]moy
représente un « apport mathématique ».
Bon, rigoureusement, c’est une équation.
Pour le reste, comparer ce « modèle mathématique » à ceux utilisés sur catia ou sur MCNP ou même un modèle météo comme Arpege (qui utilise probablement du Navier-Stokes à outrance ???)…
Murps (#5),
Hein ? Les modèles météo ont plus de « mathématiques » que les modèles de climat ?
Murps (#5),
L’apport des Mathématiques au sens large en effet et dans la science:
La dose de « math » dans les modèles est une question de point de vue.
Dans ma phrase:
Je ne parlais pas tant des données (qui peuvent de leur côté subir toute sorte de tortures) que des courbes : quand on veut à tout prix avoir des courbes fantaisistes qui passent par des points qu’on estime importants, un moyen n’est-il pas de forcer les équations de ces courbes qui normalement ne montreraient pas ce que l’on veut ? Je me trompe peut-être !
Ensuite, c’est une question d’honnêteté scientifique.
dontcare (#6), les modèles de météo – ça dépend desquels – sont nourris par les équations de conservations qui viennent de la physique.
C’est du Navier-Stokes à donf avec toute l’analyse numérique derrière (puisque NS n’est pas solvable autrement que numériquement).
Les modèles météo valent ce qu’ils valent, mais sont au moins basés sur des hypothèses à priori raisonnables et surtout vérifiables dans le temps.
Les modèles climatiques sont basés sur… heu… basés sur… basés sur quoi ??? je vais vous le dire, moi !
Par exemple sur des modèles météo qu’on fait tourner longtemps. La !
Mais comme ça marche pas, on les remplit de trucs mystérieux qui ne viennent probablement pas de la physique (puisqu’on ne connait pas le modèle général de circulation du climat) mais qui ont été créés ad-hoc pour la climatologie.
Enfin voila, ils sont basés sur des trucs très très importants, comme les « forçages », les températures moyennes et les « fudge factors ».
Du vent, quoi…
Bernnard (#7), bien d’accord, je ne cherchais pas à vous mettre en boîte.
😉
Murps (#8),
Les modèles météo ont au moins ceci de bien, c’est qu’on peut vérifier leurs prévisions à brève échéance. Et force est de constater qu’aujourd’hui, ils savent prévoir la météo (à 3 ou 4 jours) dans 80% des cas. On peut en déduire 2 choses: 1) que l’on est assez proche de la vérité puisque cela marche 4 fois sur 5. 2) qu’il y a encore des choses qui nous échappent puisqu’on se trompe 1 fois sur 5.
En comparaison, les modèles climatiques se sont TOUJOURS trompés, il n’y a qu’à regarder les prédictions (c’est à dessin que j’emploie ce terme) qui étaient faites il y a 20 ans et plus sur notre époque… On peut donc en déduire que, dans ce domaine, la plupart des choses nous échappent et que nous sommes bien ignorants…
François (#10),
Et ils se tromperont toujours, étant donné qu’ils ne pourront jamais intégrer tous les paramètres influents avec leur importance relative. Postma a raison lorsqu’il préconise l’approche holistique.
François (#10), et scaletrans (#11), tout à fait, j’abonde.
François (#10),
Franchement, de nos jours, ce n’est pas bien sorcier avec les photos satellites,les images radar animées et les mesures permanentes des champs de pression.
Par contre, on peut admirer les météorologues anglais qui, avec des moyens beaucoup plus réduits, avaient prévu une accalmie sur la Manche vers la Normandie, pour le 6 Juin 1944 qui permettait le débarquement.
Bernnard (#4),
On tend à nous vendre l’idée que les modèles sont une description, totale, exhaustive ,et parfaite et complète du climat pas les lois de la physique, auquel cas les observations du passé servent juste à déterminer les rares inconnues qui existent encore sur le climat ; en fait les modèles reposent sur une liste d’hypothèses longue comme les bras de guan-yin,sur des tas de lois ad-hoc et sur des approximations mathématiques nécessaires pour pouvoir mener les calculs, et bien sûr une approximation de l’état initial du système.
d’ailleurs…les modèles…et non…le modèle..au lieu d’un modèle le plus parfait possible qui s’autorise à explorer un espace d’incertitude pour calculer générant une « plage de résultats » qui a un peu de sens ..on additionne des modèles et on ne comprend rien,du moins en ce qui me concerne.
.
lemiere jacques (#14),
et ce qui est fascinant est que quasiment TOUTE la polémique depuis le début tient au fait que l’on croit ou non à la capacité prédictive des modèles, les sceptiques étant, au mieux, prêt à accorder du crédit aux modèles à partir du moment où ils auront montré quelques capacités prédictives les croyants se suffisant de leur capacité à reproduire le passé. Et ça fait 25 ans que ça dure.. 25 ans que le moindre désaccord simulation observable est non significatif car en plus les modèles ne donnent vraiment pas une observable instantanée mais une espèce de genre de moyenne de cette observable prise sur une certaine durée nécessaire pour la « climatiser », tandis que le moindre événement extraordinaire lui est supposé avoir sens…
Bob (#13), d’autant qu’il y a une autre approche à la prévision météo qui est que pour une situation situation météo similaire, l’évolution sera similaire, il suffit donc d’avoir beaucoup de recul et pas besoin de calculs don sauf un calcul pour évaluer la différence entre deux situations météo..il faut avoir beaucoup de données historiques, mais pour des prévisions à deux jours, ce ne doit pas être impossible..
Bob (#13),
Ce n’est peut être pas bien sorcier au regard des moyens mis en œuvre, je n’en sais rien. Et il est licite d’admirer les météorologues anglais qui ont su faire des prévisions qui se sont révélées justes en 1944 avec des moyens autrement plus rudimentaires. Mais nos « prévisionnistes » (ou prédicateurs?) du climat avec des moyens tout aussi importants et un soutient autrement plus fort ne sont jamais arrivés à approcher (même de loin) cette précision… Ne dit on pas « jugez l’arbre à ses fruits »?
L’évolution du temps lors du passage d’une dépression (et particulier en Manche) est relativement facile à suivre et à prévoir à 24/48 h, avec un baromètre et une bonne observation du ciel. (J’ai fait de la voile en Bretagne dans les années 60)
Bernnard (#4),
Murps (#8),
Vous parlez tous d’une catégorie de modèles, les GCM, qui sont bâtis sur « une base physique » forte comme dit Le Treut et qui se plantent tous allègrement depuis le début, c’est à se demander s’ils ne sont pas faits pour cela.
Mais il y a une catégorie de modèles, celle qui part, pour prévoir l’avenir, de l’observation du passé, notamment dans les séries de traces (proxies) les plus longues possibles (glaces, cernes des arbres sédiments marins …) et par l’observation des périodicités construisent des modèles prédictifs.
Ce sont les modèles de Scafetta mais aussi de Courtillot et de bien d’autres, dont les premiers chercheurs sur l’évolution climatique, qui ont illustré et démontré la validité des cycles de Milankovitch, par exemple.
Sur une échelle plus proche de notre époque, il faut rappeler que les prévisions de Leona Marshall Libby en 1979, traduite sur un fil skyfall dont je ne retrouve plus le nom par Marot au n°224 du 01 06 2011, continuent à être juste avec une assez bonne approximation :
Voici un extrait de cette traduction : « Quand elle et Pandolfi projettent leurs courbes dans l’avenir, ils montrent des températures moyennes plus basses de maintenant jusqu’au milieu des années 1980. Le Dr Libby a ajouté «Alors, nous voyons une tendance au réchauffement (d’environ un quart de °F) au niveau mondial jusqu’à environ l’an 2000. Après il va faire vraiment froid, s’il faut en croire nos projections. Il faut les vérifier».
Quel froid? «facilement un ou deux degrés», répond-elle, « et peut-être plus (trois ou quatre degrés). Il ne faut que 10 degrés pour entrer dans une ère glaciaire ».
Comment étaient construits ces modèles ? Voici deux courts résumés de papiers de Libby et al :
« Les thermomètres isotopiques des arbres
Leona marshall et al. Nature 261, 284 – 288 (27 May 1976)
Des preuves sont rassemblées ici que les arbres conservent un enregistrement de la température atmosphérique dans leurs cernes. Dans chaque cerne, les rapports de concentration d’isotopes stables de l’hydrogène et de l’oxygène varient avec la température de l’air du moment où le cerne était formé.
Nous avons montré que les enregistrements de température de trois arbres modernes semblent suivre les enregistrements locaux de thermomètres à mercure et nous avons trouvé qu’un cyprès du Japon indique une chute de température de ~1.5°C au cours des derniers 800 ans. »
Et le second mais il y en beaucoup d’autres : « Périodes climatiques dans les arbres, la glace et les marées
Leona Marshall Libby & Louis J. Pandolfi Nature 266, 415 – 417 (31 March 1977);
Dix périodes climatiques trouvées pour les taux d’isotopes stables de l’oxygène et de l’hydrogène, mesurés dans les cernes de cyprès du Japon [Cryptomeria japonica, ndt], concordent avec les périodes climatiques trouvées dans 800 ans de glaces du Groenland et avec les périodes astronomiques numérisées des amplitudes de marées du système Terre-Lune-Soleil et avec les périodes d’enregistrement de 14C de la séquence de pin bristlecone [Pinus longaeva, ndt]. Nous avons trouvé aussi une variation en antiphase des taux d’oxygène et d’hydrogène [isotopes stables, ndt] dans le cyprès du Japon d’une part et le taux de 14C dans les bristlecones, d’autre part. »
Il faut noter que dans les biblios de ces publications, son équipe n’était pas la seule à entreprendre un peu partout dans le monde, des études semblable et elles ont été poursuivies et précisées par les travaux de Kitagawa en 1993-1995, soit 10 ans plus tard, juste avant les e-mail qui seront révélés lors du climategate en 2009.
La science des modèles a été pervertie par des physiciens qui n’ont rien compris à la théorie du corps noir, celle qui constitue l’essentiel de leur prétendue « base physique forte » et qui va constituer l’enseignement de la thermodynamique en France, dans le secondaire et même une partie du supérieur, depuis la dernière loi d’orientation de l’éducation nationale.
Quelqu’un d’entre vous a-t-il entendu parler du livre de Philippe Larminat, ‘‘Changement climatique, identification et projection » (Ed. ISTE) dont j’ai lu ce résumé :
Philippe de Larminat, scientifique français dont l’expérience est plus que solide met les choses au point dans un livre »Changement climatique, identification et projection ».
Qu’est-ce que l’identification dont il est question ? C’est une façon d’analyser un phénomène, en mettant dans un ordinateur, tout ce qu’on a observé et mesuré, (en l’occurrence les taux de gaz carbonique, les radiations reçues du soleil, l’activité volcanique, et les températures, ), et voir ce qui sort. Tout ce qu’on a observé et mesuré, mais rien de ce qu’on croit comprendre.
C’est-à-dire qu’on ne rentre pas dans la machine que le gaz carbonique provoque l’effet de serre, on rentre les faits, les taux observés dans les bulles d’air incluses dans la glace. Contrairement à ce qui est fait dans toutes les modélisations utilisées partout, il n’essaie pas de construire un modèle, il ne suppose pas qu’il a compris, il observe, et il analyse les résultats.
Et là, surprise, contrairement à tout ce que le GIEC nous assène depuis des années, il trouve que l’impact de l’activité humaine n’est pas déterminant, et pourrait même provoquer un refroidissement, mais que l’impact de l’activité du soleil est beaucoup plus importante que ce que laisserait attendre la simple mesure de l’énergie reçue.
L’application rétrospective de ce qu’il met en évidence permet de dire que ce travail, si il avait été fait en 2000, aurait permis de prévoir l’arrêt du réchauffement qu’on observe depuis 1998.
En bref, il démontre qu’on nous a bourré le mou depuis des années, et qu’il n’est pas exclu qu’on aille vers un nouvel âge glaciaire.
Présentation de l’ouvrage de Philippe de Larminat par l’éditeur en cliquant ici.
L’introduction, en cliquant ici.
Laurent Berthod (#21),
On en a parlé il y a quelques jours. Sur ce fil, je crois.
Bob (#22), sur le fil Infos des Sceptiques/2 entre les posts 891 et 934.
jdrien (#23),
Apparemment, ça m’avait échappé, mais ça vaut la peine de lire.
Plus généralement, de plus en plus d’articles en arrivent aux conclusions auxquelles Svensmark était parvenu il y a …. : « c’est le Soleil (imbécile) ! »
scaletrans (#24), AMHA, les 2 points qui pourraient prêter le flan à critiques sont la pertinence de la méthode (il serait bon que Ben le lise) et la validité des mesures relatives au soleil qu’il prend en entrée.
jdrien (#23),
Oui, merci. Je me demande si ce n’est pas trop trapu pour moi. L’idée générale, que j’ai comprise, me semble tout à fait intéressante.
Laurent Berthod (#26), Certes, il y a 3 chapitres indigestes, mais rien que pour les résultats qu’il obtient ( en particulier une projection à partir de 1999 qui reproduit le palier actuel), cela vaut le coup de le lire.