Un appel à la modestie, à l’intégrité et à l’impartialité par Hendrik Tennekes

Comment ce problème affecte-t-il les prévisions climatiques ? S’il n’y a même pas une théorie rudimentaire du Vortex Polaire, encore moins une relation établie entre l’augmentation de la concentration des gaz à effet de serre et le changement systématique dans l’Oscillation Arctique, on ne peut absolument pas faire des prévisions sur les changements des précipitations. Nous ne savons pas, et pour l’instant ne pouvons pas savoir quoi que ce soit au sujet des changements de comportement des nuages, des tempêtes et de la pluie. Le service de météorologie nationale de Hollande KNMI contournait cette impasse l’année dernière en publiant des scénarios de changement climatique avec et sans changement dans la position des pistes orageuses du Nord Atlantique.

je découvris l’année dernière
qu’un simple algorithme d’inversion
de couche limite journalière que
j’avais conçu en 1973 est encore
largement utilisé de nos jours

Cela n’est pas venu à l’idée du porte-parole de KNMI d’être sincère à propos de leur manque de connaissance. Ils auraient dû dire : nous ne savons rien au sujet des changements possible dans les pistes orageuses donc nous ne pouvons rien dire au sujet des précipitations. Mais cela est complètement en accord avec la tradition du GIEC d’esquiver ce genre de problème. L’un de mes contacts à KNMI m’a récemment expliqué que leur choix était basé sur l’accord croissant entre différentes simulations faites sur différents modèles GCM. J’ai répondu que l’esprit du consensus du GIEC a également envahi leurs superordinateurs. C’est assez mauvais que des simulations sur ordinateurs ne peuvent pas être validées par des observations même après les faits. En l’absence d’une théorie stochastique-dynamique robuste de la circulation générale, on ne peut même pas valider les simulations avec une compréhension fondamentale.

En fait, le monopole des GCM dans le business de la recherche climatique est un objet d’enquête intéressant et non seulement juste pour des raisons sociologiques. Un GCM est un modèle de prévision du temps dans lequel les coefficients et la paramétrisation sont ajustés de manière à obtenir des résultats long-terme qui ont un air de réalisme. Le modèle est alors lancé pour plusieurs dizaines d’années. Il n’y aucune étude approfondie pour examiner comment de léger changement dans le logiciel peut affecter la valeur moyenne calculées des résultats pour d’ici 50 ans. Un modèle de prévision météo peut se contenter d’une paramétrisation relativement rustre parce que l’évolution à court terme de la circulation atmosphérique est principalement gouvernée par sa dynamique interne. La représentation approximative des conditions aux limites, des nuages, de la convection, de l’évaporation et de la condensation ne mettent pas en l’air tellement vite les prévisions. Alors que l’évolution à long terme de la circulation générale est dans une large mesure déterminée par les conditions aux limites. Je me suis rendu compte de cela avec force quand je découvris l’année dernière qu’un simple algorithme d’inversion de couche limite journalière que j’avais conçu en 1973 est encore largement utilisé de nos jours. Comment peut-on être sûr qu’un ancien algorithme de prédiction est capable de remplir la tâche qui lui est assignée dans les modèles climatiques ? Parfois, il semble que personne dans ce business n’est au courant de l’exigence de falsifiabilité de Karl Popper. C’est pourquoi, je râle contre le document du WCRP qui promeut la «prévision à toutes les échelles de temps ». Le but évident d’une telle propagande est de défendre le monopole dont jouissent les GCM depuis si longtemps. Cela relève de la stratégie, pas de la science.

Une génération entière de météorologiste a grandi avec l’idée que c'était la seule manière de faire. Ils n’ont pas été exposés à la monographie de Lorenz publié à l’Organisation Météorologique Internationale sur la Circulation Générale. Ils blêmissent quand les termes d'Energie Potentielle Disponible ou d'Energie Cinétique Turbulente sont utilisés. Comme on ne leur offre aucune alternative, ils rejoignent ceux qui affirment qu’ils ont besoin d’ordinateurs plus gros et de meilleure résolution. La tâche qui consiste à penser par soi-même semble trop lourde pour être considérée.

Tout au long de 2006, j’ai correspondu avec Tim Palmer, un scientifique de premier rang au Centre Européen pour les Prévisions à Moyen-Terme. Le point sur lequel se focalisent nos discussions était la dynamique des filaments de vortex autour des anticyclones de blocage. Palmer intuitait que des couches minces de vorticité relative positive autour d’un cœur de vorticité négative pourrait servir à prolonger la durée de vie de système à haute pression. J’avais le sentiment que c’était une hypothèse intéressante. Pendant de nombreuses années, j’avais tourné en ridicule la phraséologie dans laquelle on disait que les anticyclones de blocage détournaient les tempêtes qui sont sur leur chemin. Plus d’une fois, j’avais expliqué à un reporter qu’on peut tout aussi bien dire que des tempêtes qui divergent sont à l’origine d’un anticyclone de blocage.

Et c’est là où est le truc. Les minces filaments de vortex ne peuvent être simulés sur super-ordinateur que si la résolution horizontale est bien meilleure. Avec la taille des grilles actuelles du modèle ECMWF à 40 km, la simulation de la microstructure de la vorticité dans la troposphère demanderait une augmentation de 10.000 fois la puissance des ordinateurs. C’est ainsi que la propagande de la WCRP a été faite pour des puissances de calcul de l’ordre du petaflops, je pensais. Cent ordinateurs de la génération d’après la suivante pourraient en effet générer la puissance souhaitée. Cela demande à son tour des installations de la taille du CERN, l’ITER ou de l’absurde Super-collisionneur à Supraconducteurs.

super ordinateur
Superordinateur Columbia de la NASA au centre de
Recherche Ames (cliquer sur l'image pour agrandir)

Est ce le but que cherche à atteindre John Houghton, Bert Bolin, Martin Rees, l’équipe du GIEC et consorts ? Je me suis éloigné de ces coulisses du pouvoir il y a des années; alors je n’ai pas un début d’idée de ce qui se trame en ce moment. Palmer m’avait convaincu qu’il n’était pas l'une de leur marionnette heureusement. Nous continuâmes notre correspondance. "Alors vous être vraiment en train de faire du lobbying pour obtenir une énorme installation d’ordinateur", écrivis-je, "vous participez aux chants et aux danses qui m’ont dérangé pendant si longtemps". Pendant mes années en tant que Directeur de Recherche au KNMI, les scientifiques autour de moi avaient senti sincèrement que mon seul boulot était de promouvoir l’achat parmi les premiers du prochain super-ordinateur. Ils étaient pressés de comploter derrière moi avec les gens du hardware au KNMI et les commerciaux des fabricants de super-ordinateur. Cela résultait souvent par des rabais attractifs offerts aux alentours d’octobre, juste quand les vendeurs avaient eu vent au cours de cocktails qu’un surplus de budget serait bientôt constaté.

Je pourrais être d’accord avec l’idée de Palmer quand il argumentait en faveur d’une bien meilleure représentation des turbulences océaniques ou les couches limites atmosphériques ou les effets des changements de pratiques agricoles sur le climat. La dynamique des pistes orageuses et des anticyclones de blocage n’est qu’une des nombreuses interactions qui nécessitent plus de recherche. Ce n’est certainement pas approprié de concentrer autant de puissance de calcul sur juste un sujet. Cela pourrait être fait de manière bien meilleure sur des ordinateurs spécialisés. Dans le cas des anticyclones de blocage, un ordinateur météo serait ce qui conviendrait le mieux parce qu’il est dédié à la dynamique interne de l’atmosphère. Dans mon esprit, le sens de la mesure a manqué dans la demande de Palmer.

Je veux me battre pour la décence, la modestie, l’honnêteté, l’intégrité et l’impartialité dans la recherche climatique. J’espère et je prie que nous perdions notre obsession pour la prévision climatique. Les simulations climatiques sont au mieux des expériences sur la sensibilité, pas des outils pour décideurs. Je l’avais dit en 1990 et le dit maintenant : les contraintes sur l’écosystème planétaire demandent des ajustements continus et des adaptations permanentes. Le pouvoir prédictif est d’une importance secondaire. Nous devrons arrêter d’encourager la préoccupation pour les gaz à effet de serre à laquelle les politiciens se sont mêlés. La politique énergétique globale est leur affaire, pas la nôtre. Nous ne devrions pas laisser les politiciens utiliser des projections factices d’apocalypse pour couvrir leurs intentions réelles. Si le GIEC ne revient pas à la raison, je serais heureux de le laisser cuire dans son jus. Il y a plein d’autres tâches à faire.

En 1976, Steve (Stephen H.) Schneider publia un livre intitulé Stratégie de la Genèse. Il m’avait fait forte impression, principalement parce que Schneider ne préconisait pas des manips technologiques, mais une stratégie globale de ce qui s’appelle maintenant Adaptation, une idée qui est reprise de manière tardive et à contrecœur par le GIEC. C’était le temps de l’Hiver Nucléaire, de la modification du temps, du Projet Stormfury, de la destruction stratosphérique de l’ozone, et de l’idée malade de couvrir toute la glace arctique de suie pour prévenir un nouvel âge glaciaire. Dans la préface de son livre, Schneider cite Harvey Brooks, alors doyen en Ingénierie à Harvard.

Les scientifiques ne peuvent plus se
permettre d’être naïfs au sujet des
conséquences politiques des opinions
scientifiques déclarées publiquement.

"Les scientifiques ne peuvent plus se permettre d’être naïfs au sujet des conséquences politiques des opinions scientifiques déclarées publiquement. Si les effets de leur point de vue scientifique sont politiquement importants, ils ont l’obligation de déclarer leur conviction politique et leur système de valeur, et d’essayer d’être honnêtes avec eux-mêmes, avec leurs collègues et leur audience sur l’influence qu’a leur système de valeur sur leur sélection et leur interprétation des preuves scientifiques."

Source

 

1.  Rasse Lucien | 3/02/2007 @ 8:39 Répondre à ce commentaire

Il faudrait que de tels témoignages soient diffusés par les médias afin que le monde ne succombe pas au « Groupe d’Intoxication Ecolo-Catastrophiste ».

2.  Marot | 3/02/2007 @ 16:12 Répondre à ce commentaire

Merci pour cette traduction. En ferez-vous une de son texte du 6 janvier paru sur le même blog ?

J’ai perçu des accents comparables à ceux de Marcel Leroux sur les modèles et simulations et la faiblesse de la recherche sur les phénomènes eux-mêmes.
Exemple : «[Les modèles] ne tiennent pas compte de la circulation générale de l’atmosphère, de son organisation et de son mouvement. Pour ces modèles, les discontinuités, pourtant présentes partout dans la nature, ne sont tout simplement pas prises en considération.»

3.  Frédéric | 3/02/2007 @ 16:24 Répondre à ce commentaire

Bonjour Marot,
Si vous voulez bien faire la traduction, je veux bien l'insérer dans ce blog.
D'avance merci.

Sorry, the comment form is closed at this time.