Une nouvelle approche scientifique invalidant les scénarios-catastrophe du GIEC : l’identification du système climatique

par Stanislas de Larminat.

Le GIEC (IPCC), dès sa création, a reçu mission de « comprendre les fondements scientifiques des risques liés au changement climatique d’origine humaine » qui serait à l’origine de la période chaude actuelle. De fait, les travaux qu’il a expertisés s’accordent sur un réchauffement catastrophique avant la fin du siècle si rien n’est fait pour arrêter les émissions anthropiques de CO2.

A- Un plafonnement du réchauffement contraire à toutes les prévisions du GIEC

Cependant, les observations montrent un fort ralentissement depuis une quinzaine d’année. Le GIEC reconnait, avec quelque réticence, ne pas l’avoir prévu : « La plupart des simulations de la période historique ne reproduisent pas la réduction observée dans la tendance au réchauffement de surface moyen sur les derniers 10 ou 15 ans » (IPCC -WG1-AR5 – Chap 9 p. 743).

1- Comment expliquer l’échec des modèles de calcul élaborés par le GIEC à expliquer cette réalité nouvelle ?

Le GIEC qualifie ces modèles de calcul du nom de « modèles de connaissance ». Ils sont dérivés des outils utilisés par les météorologues, enrichis par la modélisation physique de multiples phénomènes additionnels. Si la « connaissance » de certains de ces phénomènes est parfois robuste, elle est malheureusement encore balbutiante dans d’autres domaines. Un exemple typique est la modélisation de la genèse des nuages, d’importance majeure sur le climat. Le GIEC reconnait que « les modèles climatiques incluent désormais d’avantage de processus décrivant les nuages et les aérosols, et leurs interactions, … mais le degré de confiance dans la représentation et la quantification de ces processus dans les modèles reste faible » (chap. D1- p. 14 du SPM) Cette extrême complexité et l’impossibilité d’expérimentation à ce sujet incitent évidemment à une très grande prudence sur la fiabilité de modélisation de tels mécanismes et de leurs interactions mutuelles.

Au fil de ses rapports, le GIEC a cherché également

  • à globaliser le système climatique et le cycle du carbone. Il consacre un chapitre entier de son dernier rapport à étudier comment « le climat répond au CO2.. comment le cycle du carbone océanique répond au changement climatique », tout en reconnaissant que « les réponses sont très incertaines » (chapitre 6.4.2.1, page 7).
  • à intégrer des phénomènes comme celui des courants océaniques tels que El Nino. Le GIEC lui attribue un rôle en disant : « le renversement de tendance du réchauffement depuis 1998 s’explique par la combinaison d’une basse activité solaire dans les 10 années récentes et par l’exceptionnel évènement qui est arrivé sur El Nino » (Chap. 10.3.1.1.3 p. 21).

Ce sont là des défauts de conception intrinsèque aux « modèles de connaissance » (GIEC) qui n’isolent suffisamment:

  • ni les systèmes complexes entre eux, par exemple, le système climatique, qui a une certaine logique propre, et celui du cycle du carbone, qui en a une autre.
  • ni les boucles de réactions entre elles :

– Les boucles de rétroactions externes. Ainsi, les émissions de CO2 constituent une donnée d’entrée du cycle du carbone et la teneur en CO2 dans l’air n’est qu’une donnée de sortie de ce cycle, tout en étant une donnée d’entrée du système climatique.

– Les boucles d’interactions internes. Ainsi, le phénomène El Niño est à la fois une conséquence de variations spatiales de températures selon les régions et une cause de variations temporelles de températures. Or le GIEC est amené à considérer El Niño comme une entrée du système climatique et à lui affecter une contribution (Fig. 10.5, page 119).

Toute cette complexification a conduit le GIEC à reconnaitre lui-même ses « erreurs de forçage et une surestimation, par certains modèles, de la réponse à l’augmentation de forçage par les gaz à effet de serre ». (IPCC -WG1-AR5 – Chap 9 p. 743).

2- Une modélisation de sous-systèmes océaniques qui n’explique rien

Le GIEC veut expliquer le « hiatus » climatique observé depuis 2000 par une accumulation de chaleur océanique au détriment de l’atmosphère. L’idée est plausible et séduisante, mais elle vaut dans les deux sens : un dégagement de chaleur océanique n’aurait-il pas puissamment contribué au réchauffement à la fin du siècle dernier ? En effet, aucune modélisation à partir des comportements océaniques n’est possible, faute :

  • de pouvoir l’isoler du reste de la mécanique climatique alors qu’il en est un effet
  • d’identifier un état initial des températures océaniques
  • d’isoler des causes indépendantes des effets affectant les équilibres océaniques. Qu’est ce qui permettrait de dire ou d’infirmer qu’un tel réchauffement viendrait :

– d’un réchauffement de la couche séparant l’atmosphère de l’océan ou d’un refroidissement des couches profondes, qui même faible et compte tenu de leurs masses importantes entre 2000 m et 4000 m, pourrait contribuer au réchauffement des 700 m supérieurs ?

– d’un réchauffement de l’atmosphère par une cause d’origine humaine ou par celle d’une activité solaire élevée ?

Rien ne permet de dire ni d’infirmer quoique ce soit, faute

  • de disposer d’évènements océaniques sur des périodes largement plus longues que les quelques décennies de mesures en notre possession.
  • de disposer de degrés de confiance sur quelques 0,015°C/an. Le GIEC évoque une « augmentation observée du contenu calorifique océanique supérieur équivalente à un flux de chaleur net moyen dans l’océan de 0.5 W/m²». (Source : AR5- Executive summary, Chap. 3, lignes 8 et 48). Il ne peut se prévaloir d’une cohérence avec le bilan radiatif à la surface de la terre ou en haute atmosphère, qui ne sont chiffrés qu’à 0,6 W/m² mais avec des approximations variant autour de ± 2 à 7 W/m² selon les mesures.

Le « hiatus » climatique ne peut donc s’expliquer à partir des comportements océaniques. Tout prétendu raffinement des modèles est source de nouvelles erreurs et ne permet en aucun cas d’annoncer « une prochaine ré-accélération du réchauffement global » (source : CNRS)

Les raisons sont à chercher dans une activité solaire qui est dans une phase de ralentissement.

3- Une validation par « détection-attribution » non robuste.

Les contributeurs aux rapports du GIEC seraient-ils des milliers de scientifiques, en thermodynamique, physique, océanographie, glaciologie, biologie, chimie, ou en sciences informatiques que cela nécessite a fortiori une méthodologie robuste pour juger l’adéquation entre la théorie et les observations.

Sur ce point, le GIEC compte sur une théorie très spécifique mentionnée comme la « détection et l’attribution », qui est exclusivement consacrée à la science climatique. Or seul un nombre minuscule de personnes revendique cette technique de validation non reconnue par les autres communautés scientifiques : Gabriele Hegerl, citée plus de 20 fois parmi les références bibliographiques du chapitre 10 (AR5), est co-auteur des recommandations aux rédacteurs du GIEC: « Good practice guidance paper on detection and attribution related to anthropogenic climate change » (2010). Le titre de cette recommandation induit que l’objectif est de valider « la cause anthropogénique du changement climatique » !

Pourquoi le GIEC n’utilise-t-il pas les méthodes universellement reconnues, comme l’identification des systèmes ? Cet isolement conduit à des lacunes graves consistant à

  • se limiter à des données portant sur les seules 150 années récentes (IPCC -WG1-AR5 – Chap 10 – Fig. 10.1- p. 107). L’imprécision des reconstructions antérieures ne peut justifier d’occulter 1000 ans d’histoire.
  • et à inverser des causalités : l’effet « El Niño South Oscillation » est traité comme une cause.

Pourtant, il y a d’autres techniques pertinentes et reconnues, en particulier la théorie d’identification des systèmes.

4- Certains hélio-centristes en mal de preuves

Par ailleurs, de nombreux scientifiques sont critiques quant aux approches du GIEC. Le discours proche du GIEC les a enfermés dans l’image du « climato-scepticisme ». Il faut reconnaître que sur ce sujet, les preuves sont aussi difficiles à apporter dans un sens que dans l’autre. Bon nombre d’entre eux se fondent sur des corrélations visuelles ou calculées entre des courbes d’activité solaire juxtaposées aux courbes de température. Approche très insuffisante lorsque les sens de causalité ne sont pas bien établis, et que la variabilité interne ou des comportements transitoires viennent perturber les phénomènes.

B- Une méthode alternative d’analyse : l’identification des systèmes dynamiques complexes

Face à ces difficultés, le Professeur Philippe de Larminat a développé une méthode d’analyse alternative, publiée en 2014 dans « Changement climatique- Identification et projections », chez Iste et Wiley, maison d’édition scientifique prestigieuse dans le monde anglo-saxon. Il se fonde sur les techniques dites d’identification des systèmes, dont il est un expert reconnu.

Ces techniques ont, à l’origine, été développées pour l’automatisation du contrôle de systèmes technologiques, et elles consistent à déterminer le modèle mathématique des systèmes, si complexes soient-ils, à partir de leur comportement global. Elles sont surtout enseignées dans les écoles d’ingénieurs et sont moins connues dans les milieux universitaires, plus traditionnellement attachés à la recherche de mécanismes physiques fondamentaux.

Appliqués à la science climatique, ces modèles ne se limitent pas à la détermination mathématique de relations causales abstraites. Les modèles incorporent également les fondamentaux de la physique et de la thermodynamique, en particulier les phénomènes d’accumulation de chaleur dans les inerties thermiques océaniques.

Ils constituent des outils d’investigation très puissants, permettant d’accéder de manière macroscopique à de précieuses informations quantitatives sur les mécanismes sous-jacents. Ils sont ainsi à parité avec les modèles « de connaissance », voire beaucoup performants que ces derniers lorsqu’il s’agit de systèmes très complexes… ce qui est très clairement le cas ici. Le GIEC le reconnait lui-même : « la moindre complexité ajoutée, bien que destinée à améliorer certains aspects du climat simulé, introduit aussi de nouvelles sources d’erreur possible » (FAQ 9.1 § 9, p. 76). !

La procédure d’identification se déroule en quatre temps :

1 – Définition de la structure du modèle. Dans le cas de l’étude climatique, elle s’articule autour d’un modèle « à bilan énergétique » (EBM : Energy Balance Model), loi simple et robuste qui assure la cohérence de la conservation d’énergie dans toutes les relations entre les divers paramètres. Dans la « structure », est fait le choix fondamental des grandeurs d’entrée et de sortie du modèle. Pour les entrées, les signaux retenus sont la teneur en CO2 atmosphérique, l’activité solaire, et l’activité volcanique. L’unique signal de sortie retenu est l’historique de la température globale sur une période donnée.

2 – « L’observation » du comportement du système. La période considérée est celle où l’on dispose de mesures suffisantes, directes ou indirectes, sur tous les signaux énoncés ci-dessus. En l’occurrence, il s’agit d’une période de l’an 843 à nos jours, durée nécessaire pour bénéficier d’un nombre suffisants d’évènements significatifs ; les historiques utilisés sont très largement issus des rapports du GIEC.

3 – L’identification des paramètres du système.        Le modèle est issu du traitement mathématique des données. Du choix d’un modèle à bilan énergétique, il résulte que les résultats du calcul donnent directement les coefficients dit de «sensibilité à l’équilibre » relatifs aux trois entrées (CO2, activités solaire et volcanique), qui se trouvent être également des résultats essentiels des évaluations du GIEC.

La différence fondamentale est qu’un modèle « de connaissance » conduit à ces coefficients à partir de modèles physiques d’une extrême complexité, alors que l’identification donne accès aux mêmes élément uniquement à partir de l’observation des données historiques, et ceci sans requérir de connaissances physiques détaillées des mécanismes sous-jacents.

Outre l’évaluation des sensibilités, la méthode permet également d’effectuer de façon rigoureuse le calcul de la probabilité qu’a un paramètre de se trouver dans un intervalle donné. Ceci par opposition aux évaluations de « confiance» ou de « probabilité » du GIEC, qui reconnait lui-même que « la probabilité n’est pas issue d’un calcul statistique. Elle exprime ce qu’on entend par « très probablement ». La probabilité donnée indique que les auteurs estiment que, sur 100 affirmations de ce type, plus de 95% sont vraies. C’est une évaluation subjective basée sur un faisceau d’indices » (Mail du GIEC adressé le 13 déc. 2014 au groupe de travail).

Notons également que la méthode d’identification permet de quantifier précisément ce que le GIEC appelle la «variabilité naturelle interne du climat ». En identification, elle se traduit par l’écart résiduel irréductible qui apparaît entre les résultats du modèle identifié et la réalité, du fait des phénomènes aléatoires ou non pris en compte dans le modèle.

Notons enfin, ce qui va sans dire, que le modèle d’identification est intrinsèquement un modèle dynamique, c’est-à-dire qu’il prend, de lui-même, en compte le délai entre toute variation d’une donnée d’entrée, et son effet différé et pondéré dans le temps, du fait notamment des inerties thermiques mises en jeu. Le modèle évalue de lui-même les effets de cette inertie par le biais de constantes de temps, là aussi sans qu’il soit besoin de « connaissance » à priori des phénomènes en jeu.

Dans l’ouvrage de Philippe de Larminat, la méthode, telle que très sommairement synthétisée ci-dessus, est appliquée à seize combinaisons de données : quatre chroniques de reconstitutions températures paléoclimatiques, et quatre reconstitutions d’activité solaire. Globalement, on peut en tirer deux types de conclusion. La première est que la période de réchauffement qui conduit à la période chaude actuelle est due, pour l’essentiel, à la conjonction des effets de l’activité solaire et de la variabilité interne naturelle du climat. La seconde est que l’éventuelle contribution de l’activité humaine ne se distingue pas suffisamment des effets ci-dessus pour qu’on puisse affirmer qu’elle soit significative avec le haut degré de certitude que lui attribue le GIEC.

4 – L’évaluation à posteriori de la validité du modèle. Les calculs d’incertitude et les tests d’hypothèse apportent toutes les validations académiques requises, mais restent assez abstraits. Une preuve tangible résulte de l’adéquation entre ses résultats et les observations et sur sa capacité prédictive. On se replace dans la situation de l’an 2000, quand personne n’aurait misé sur un possible ralentissement du réchauffement : les simulations effectuées à l’aveugle, sans y incorporer la moindre information de température postérieure à l’an 2000, prédisent avec une exactitude surprenante le palier de température que nous connaissons encore actuellement. La méthode exploite les techniques classiques dite « de reconstruction d’état » (filtrage de Kalman), où l’« état » en question correspond à des combinaisons de quantités de chaleur accumulées dans les inerties océaniques.

C- Des conclusions qui s’opposent aux scénarios-catastrophe du GIEC

En s’appuyant sur ses résultats d’identification, Philippe de Larminat pose dans son ouvrage les conclusions suivantes : « Non seulement il n’est pas possible d’estimer avec quelque précision la sensibilité au CO2, mais on ne peut même pas détecter avec certitude l’existence d’une relation de cause à effet. … L’hypothèse d’un impact insignifiant de l’ensemble des gaz à effet de serre et de l’activité humaine en général ne peut pas être écartée. … On doit considérer comme un fait établi que l’activité solaire, en tant que variable explicative causale, constitue effectivement l’explication première du « changement climatique ». … Dans le scénario envisageable d’un retour aux faibles activités solaires des années 1700 ou 1800, les modèles identifiés font craindre, au contraire, une baisse des températures qui pourrait annuler la hausse du siècle dernier. Cette éventualité est ni plus ni moins probable que la reprise alarmante que nous promet le GIEC ».

Le Professeur Philippe de Larminat est un pionnier dans l’application des techniques de l’identification au processus climatique terrestre. Nul doute qu’il sera suivi, avec toute la fécondité qui sortira de traitements croisés par d’autres chercheurs.

D- Des conclusions qui appellent à la plus extrême prudence.

Ces conclusions doivent, d’ores et déjà, inciter les observateurs à une extrême prudence. Rien n’indique que la période chaude contemporaine corresponde à un changement climatique d’origine humaine, ni qu’elle puisse devenir catastrophique.

Quand le GIEC assure le contraire avec les accents d’une certitude qu’il qualifie de « jugement d’expert » (à 95%), ce n’est pas vrai et c’est grave.

Si l’avenir lui donne tort, comme tout le laisse prévoir, on va vers une perte de confiance généralisée dans la Science, dans les medias qui colportent le catastrophisme, et même dans les religions dont les pasteurs cautionneraient l’erreur. Le Concile a d’ailleurs rappelé que les laïcs ne doivent pas attendre de leurs pasteurs qu’ils aient « une compétence telle qu’ils puissent leur fournir une solution concrète et immédiate à tout problème, même grave, qui se présente à eux, ou que telle soit leur mission » (Gaudium et spes).

54 Comments     Poster votre commentaire »

51.  Ecophob | 31/10/2015 @ 12:46 Répondre à ce commentaire

Bernnard (#48), vous ne comprenez rien au langage réchauffiste. C’est ‘grave’ car c’est un rappel de ce qu’il pourrait arriver si on ne réduit pas le CO2.

52.  Cho_Cacao | 9/11/2015 @ 12:23 Répondre à ce commentaire

Petit update : d’après la NOAA, l’indice NINO 3.4 est monté à 2.7 durant la dernière semaine d’octobre. Il semble donc qu’on se dirige bien vers un record (pour cette mesure-là en tout cas).

Affaire à suivre !

53.  Christophe Vieren | 1/06/2016 @ 16:58 Répondre à ce commentaire

Je viens de terminer l’ouvrage de De Larminat. Si son modèle, obtenu par sa méthode d’identification, permettait de prédire en 2000 la pause climatique d’une bonne dizaine d’années qui a suivi comme il le montre dans son livre (figure 11.6 p. 122), pourquoi n’a-t-il pas-t-il réalisé la même démarche pour prédire le refroidissement des années 1945-1975 ou l’accélération des années 1975-1998 et nous en montrer le même résultat prédictif ? C’est dommage car si cette pause climatique 1998-2012 constitue effectivement un hiatus selon les conclusions du GIEC, ces deux périodes plus anciennes n’en constituent pas un.
J’aurais aimé lui poser la question mais je n’ai hélas pas (encore) trouvé moyen de le contacter. Que n’a-t-il fait un blog accessible à tous pour exposer plus en détail sa méthode et résultats et nous permettre de le contacter ? Lorsque l’on fait une telle découverte, que l’on est en retraite (il avait 75 ans en 2014) et qu’on a le temps d’écrire (seul) un livre (sans comité de lecture donc), que l’on est prêt à faire des conférences, quel dommage de ne pas permettre au public de l’aider à dénoncer « l’imposture »ou l’incompétence du GIEC !!!!

SI le tenancier de ce blog connait un moyen de le contacter, je suis preneur (ne pas hésiter à m’écrire ou à m’alerter d’une réponse à mon commentaire).

54.  volauvent | 1/06/2016 @ 19:18 Répondre à ce commentaire

Christophe Vieren (#53),

La méthode d’identification étant basée sur l’évolution des paramètres passés, elle ne peut « prédire » le passé. Son objectif est de modéliser le système en identifiant les variables d’entrée significatives, tout en prenant en considération plusieurs packages, issus d’analyses différentes, de ces variables, et sans à priori sur la pertinence des analyses .
Il en déduit que certaines combinaisons de variables sont improbables car ne peuvent décrire le passé, et les derniers événements. Et pour les « packages » plausibles, il en déduit que c’est l’activité solaire (au sens large, éclairage et magnétisme), qui est la variable principale.

Tout cela dépend quand même, bien entendu, d’un minimum de réalité des mesures des variables; un petit coup de baquets versus bouées ça remet les choses en cause.

Cette méthode est largement utilisée dans d’autres sciences et dans l’industrie; il était étonnant que personne ne l’ait fait sur le système climatique. De Larminat l’a appliquée sans aucune considération de physique, purement mathématiquement. Mais on pourrait affiner en incluant quelques éléments avérés de connaissance physique du processus (si on en a )