Un nouveau commentaire, très difficile, de Robert G. Brown sur les modèles globaux du climat.
Par le Dr Robert G. Brown, de l'Université de Duke
Je ne devrais probablement même pas commenter du tout, comme je suis trop occupé pour commenter et pour continuer à discuter cette semaine (soupir), mais:
a) Les modèles prédictifs, non linéaires, avec des variables multiples nombreuses, sont l'un de mes jeux professionnels. J'ai une bonne expérience dans l'écriture personnelle de logiciels pour construire par exemple des réseaux neuronaux à base d'algorithmes génétiques optimisés, avec des centaines de données d'entrées différentes, construits pour prédire des comportements subtiles, fortement non linéaires et hautement multivariées, à partir de, par exemple, grandes bases de données démographiques et transactionnelles.
Une des premières choses que l'on apprend professionnellement dans cette entreprise est que si votre modèle est trop beau pour être vrai, et bien, c'est qu'il est trop beau pour être vrai !
Cela signifie généralement que, comme le note Willis [Eschenbach, voir l'article parent d'origine], que certaines de vos variables d'entrée sont les conséquences du facteur que vous essayez de prévoir, pas leurs cause. Cela arrive tout le temps, dans le commerce, la recherche médicale, dans la science banale. Lorsque vous essayez de construire un jeu de données d'apprentissage [NdT : les données qui vont permettrent d'ajuster les parametres du modèle, ici une "intelligence artificielle"] sur la base d'une variable qui n'est connue que pour les clients qui ont effectivement acheté certains produits, le processus d'élaboration du modèle va rapidement apprendre que, si il peut suivre le fil chaud de cette variable directement à travers la complexité, il peut obtenir un gain dans le processus d'apprentissage.
En effet, vous pouvez construire un modèle qui va même bien travailler pour les jeux de données de validation – tirées de la même procédure – qui remplissent la variable sur la base du résultat visé. Le problème vient le jour où vous essayez réellement de prendre votre modèle, que vous avez construit pour certains clients, et de l'appliquer à un million de nouvelles perspectives coûteuses qui n'ont aucune valeur connue pour cette variable prédictive – parce qu'ils n'ont pas encore acheté le produit ; et vous vous attendez à des retours financiers phénoménalement élevés à un endroit où on bat à peine le hasard, parce que votre modèle neuronal a été distrait, par une corrélation vide de sens, d'investir ses neurones dans des schémas beaucoup plus subtiles et difficiles, qui auraient pu conduire à de réels et importants – mais beaucoup plus modeste – progrès par rapport au hasard.
Le même problème existe – en pire – dans la recherche médicale. Les chercheurs doivent être extrêmement prudents dans leur processus de construction du modèle et ne pas inclure des "variables d'ombre" – les variables qui sèment la confusion dans le résultat souhaité en ayant des valeurs qui dépendent, par exemple, d'un test administré asymétriquement aux survivants d'un cancer (qui sont vivants et peuvent être testé !), mais non d'un test sur la population totale, y compris les non-survivants (qui ne sont pas testable).
b) Les modèles de régression en général supposent une compréhension fonctionnelle de la relation de cause à effet. Les modèles de régression multivariés linéaires présupposent des causes linéaires indépendantes. Autrement dit, si on double (par exemple) le forçage solaire, on double la contribution linéaire à l'ensemble de la moyenne des températures de surface (qu'on ne connait qu’approximativement à l'intérieur de barres d'erreur ce qui nous conduit à considérer le problème de l'ajustement d'un modèle linéaire avec un terme constant inconnu avec un haut degré d'incertitude). Si on double simultanément la contribution des aérosol, on doublera également la cause d'un terme soustrait. Mais il n'y aura pas de correction non linéaire du terme aérosol à partir du terme solaire – tel qu'il pourraient exister si la connexion entre rayonnement solaire et aérosol se révèle être physiquement valide et significative, tels que l'augmentation de l'activité solaire causant une diminution de la contribution moyenne des aérosols, ou pire, directement fricote avec l'albédo.
Mais ce n'est pas tout à fait correct, n'est-ce-pas ? Nous ne parlons pas de doubler l'activité solaire. Nous parlons de doubler une anomalie de l'activité solaire – si nous avions doublé l'activité solaire, nous serions dans le pétrin. Dans un sens, c'est une bonne chose. De l'humble série de Taylor, nous pouvons nous attendre à ce que, même si il y a une relation fonctionnelle directe non linéaire entre l’état du soleil et la température, pour de petits changements dans l'état du soleil, la température doit répondre de manière linéaire avec elle-même de faibles variations.
Série de Taylor : Pour les fonctions usuelles (dites analytiques), dans un intervalle autour de 0, plus le degré du polynôme de Taylor augmente, plus sa courbe se rapproche de la courbe de la fonction de départ. Cette image montre la courbe de (en noir) et les approximations des polynômes de Taylor selon le degré du polynôme 1, 3, 5, 7, 9, 11 et 13.
Le problème devient alors "qu'est ce qu'un petit changement ?" Ou, quand est-ce qu'un effet non linéaire du deuxième ordre ou plus devient important. La série de Taylor elle-même ne peut pas répondre à cette question, mais l'hypothèse de linéarité dans le modèle pose la question ! Une hypothèse linéaire de variables multiples indépendantes ne fait seulement qu'aggraver le problème. À un certain moment, on est parti pour faire remuer la trompe de l'éléphant, toujours sans proposer de modèle utile d'éléphant.
Personnellement, je pense qu'il y a peu de doute que le climat est un système non-linéaire, fortement couplé. Voici pourquoi. Parce qu'il est stable. Il oscille autour attracteurs stables sur le long terme. Il rebondit. Il varie sensiblement au fil du temps. La partie linéaire est presque toute attribuable à M. Soleil, qui fournit un flux d'énergie socle qui varie très lentement sur une échelle des temps géologiques. Dans le très large éventail de climats possibles compatible avec ce forçage global, le système climatique est non-markovien [NdT : il a une mémoire, il dépend du passé, par exemple de l'accumulation de glace ou CO2], chaotique, non linéaire, à variables multiples, fortement couplé, et avec des familles entières d'attracteurs régissant la dynamique transitoire cyclique qui font bondir l'état de la planète autour d'eux, tandis que les attracteurs se déplacent, apparaissent et disparaissent.
Linéariser cette dynamique comme si le modèle linéaire avait une valeur prédictive est tout à fait insensé. Il en est de même de l'ajustement de modèles non linéaires, des modèles vaudou, modèles avec des variables confuses, des modèles qui relient les phases des lunes de Jupiter – peu importe la qualité des corrélations. Avec un absolument superbe R2, on peut proposer un modèle avec six ou huit paramètres, je peux revenir au latin pour ça : "post hoc, ergo propter hoc" [NdT, littéralement "pour à la suite de cela, donc à cause de cela"]. Corrélation n'est pas causalité, et en fait on peut souvent obtenir la causalité dans le mauvais sens – comme dans ce cas – ou obtenir corrélation par pur hasard.
Il n'y a rien de magique a propos de la série de Taylor. Il n'y a rien magique avec le théorème de Weierstrass (une justification générale pour l'ajustement de polynômes d'ordre supérieur à des segments de données limitées, de telle sorte que ce ne sera presque jamais extrapoler en dehors des données d'ajustement).
c) OK, donc si nous ne pouvons pas juste prendre un tas de variables et ajuster un modèle de régression linéaire multiple prédictif avec un grand R2 et s'attendre à ce qu'il, et bien, prédise (surtout quand les prédicteurs inclus sont les conséquences physiques des valeurs prédites, autant qu'ils peuvent bien faire partie de leurs causes physiques futures dans un système non-linéaire, dynamique et non-markovien !) ; que pouvons-nous faire ?
C'est simple. Nous pouvons soit essayer la voie microscopique – résoudre le système de Navier-Stokes [N-S] à une résolution spatio-temporelle suffisamment fine et voir si nous pouvons éventuellement prévoir le climat, ou nous pouvons essayer de construire un modèle prédictif sérieux, non linéaire, à variables multiples (en utilisant par exemple des réseaux neuronaux) sans insérer des hypothèses a priori sur les relations fonctionnelles – les réseaux neuronaux sont des approximations de fonctions générales non-linéaires, qui sont optimisées de façon empirique pour s'ajuster aux données d'apprentissage, de façon à prédire en outre de manière optimale les données de validation, et qui a finalement prédisent la réalité avant d'être considéré comme "prouvées" dans un certains sens), ou nous pouvons essayer quelque chose entre les deux – construction de modèles semi-empiriques non-Markovien qui opèrent microscopiquement mais qui également prennent en compte les liens de causalité aux phénomènes à grande échelle climatique comme l'ENSO et la NAO. Mais ces modèles ne seront pas des ajustements empiriques simples et ils sont difficiles à abstraire théoriquement.
En physique, ce serait la différence entre la construction d'un modèle d'interaction entre, par exemple, les plasmons de surface (oscillations collectives cohérentes de beaucoup, beaucoup d'électrons à la surface entre les deux matériaux) et la construction d'un modèle microscopique qui résout le problème sous-jacent d'électrons très nombreux pour le système complet. Ce dernier nécessite des calculs excessivement lourds pour un ordinateur – comme il le sont pour résoudre les équations N-S pour la planète et ses océans entraînés par une étoile variable. Le premier exige un aperçu importants, et pour que cela fonctionne, bien sûr, les électrons ont à s'auto-organiser en oscillations collectives cohérentes dans le premier endroit qui peut alors être considéré comme une «quasi-particules» dans une théorie d'ordre plus élevé.
La science du climat est coincé parce qu'elle ne veut pas admettre qu'elle ne peut pas résoudre les équations N-S en aucune manière significativement prédictive – les modèles globaux du climat ne fonctionnent tout simplement pas suffisamment bien dans leur résolution actuellement accessible, et pourraient bien ne jamais fonctionner assez bien. Nous ne serons jamais en mesure de résoudre les nombreux modèles d'électrons précisément pour tout grand système quantique, et nous le savons, c'est ce qui a motivé la recherche de méthodes approximatives et semi-empirique qui pourraient s'en approcher, souvent basées sur des quasi-particules (comme les plasmons) ou sur des formes fonctionnelles semi-empiriques (comme une densité fonctionnelle construite avec une certaine justification théorique mais avec des paramètres ajustables qui sont définies de sorte que les modèles fonctionnent, en quelque sorte, la plupart du temps, dans les régimes limités).
rgbatduke, alias Robert G. Brown
29 réponses à “Sur les modèles, chapitre 13476”
Bien dit Mr. Brown : j’ai dû faire un effort de concentration et relire plusieurs fois l’article pour saisir l’idée générale !
J’ajouterai une phrase de Gide qui peut s’adresser au GIEC qui se croit tout puissant et omniscient au sujet du climat : « Croyez ceux qui cherchent la vérité, doutez de ceux qui la trouvent. »
C’est bien vrai. On ne sait toujours pas réellement prédire l’avenir des écoulements dans des situations un peu compliquées. Surtout en régime turbulent. Il y a encore de nombreux débats sur ce sujet même pour des objets beaucoup plus simples que le climat.
Les avionneurs l’ont bien compris qui utilisent encore la grande soufflerie de Modane.
Les météorologues (météo à court terme) le savent très bien, eux aussi. Et au delà de 5 à 6 jours, ça foire.
Le pari des climatologues n’est rien d’autre que « oui, mais après un certain temps, ça s’arrange ». Ce n’est qu’un pari insubstancié et rien n’est moins sûr.
Mais ça fait rien « Chauffe Marcel ! » et Jouz and Co sont sûrs d’eux au point de ruiner les économies des pays développés.
Article très intéressant. Quelques fautes d’orthographe, notamment Weierstrauss à la place de Weierstrass. C’est l’actualité qui fait penser à Strauss ?
Arcandier (#3),
Merci c’est corrigé.
Non cette traduction dormait depuis des mois car dure à comprendre pour le grand public. C’est la discussion sur le livre de Larminat (fil info-sceptique) qui m’a poussé à l’exhumer.
Bob (#2),
Le problème est que pour le grand public la science sait tout et peu prévoir tout ! Du moins jusque dans un passé récent.
J’ai écouté hier, l’histoire de la maladie de Creutzfeldt-Jakob. Cette écoute me l’a re mémorisée.
Avant l’explication par le prion, on ne pouvait pas soupçonner une telle possibilité dans la transmission d’une maladie entre les espèces.
La science savait tout en terme de transmission de maladie pour le public.
Mais voilà ! Une faille imprévisible dans le schéma des connaissances et c’est un événement inconnu qui arrive.
Le fait est que maintenant la science est ébranlée, rejetée en blocs, à tel point que des charlatans (subventionnés) font entendre leur voix et ils arrivent à imposer des principes comme le principe de précaution.
Ils mettent sur pied des nouvelles connaissances qui touchent à la foi sous l’apparence de la science connue. Ainsi, d’après eux les prévisions seront de nouveau possibles.
Au titre des nouvelles connaissances apparaît le gaz carbonique comme polluant !
Aussi, il y aura une faille qui retournera cette tendance, je n’en doute pas.
La science avance quand même avec des périodes d’obscurantisme et de lumière, je reste optimiste.
Bob (#2),
A ce propos, on peut lire More Is Different P. W. Anderson Science 1972
Un bon article à traduire s’il n’était pas tout aussi peu grand public que le commentaire de Brown.
Nicias (#6),
Oui, P.W. Anderson, le père de la "délocalisation" du même nom.
Excellent cet article mais passablement inabordable pour le grand public, AMHA plus difficile que Brown.
Voici le lien
Bernnard (#5),
Ou plutôt, la science progresse en zigzag par une longue suite d’erreurs et de corrections. Malheureusement, certaines erreurs peuvent perdurer fort longtemps jusqu’à ce qu’un malin les détecte et corrige le tir. Ce qui ne se fait pas sans mal.
Pour moi, l’Establishment (ou même le pal-review actuel) est un des facteurs qui augmente sérieusement la durée de vie des erreurs. Les dogmes en science ne datent pas d’aujourd’hui.
Bob (#7),
Oui, j'ai été obligé de sauter des passages car je ne comprenais pas de quoi il parlait. Je n'ai pas assez de culture.
« un nouveau commentaire » qui date de mars 2014, et qui n’est pas un « article » mais un commentaire dans un fil de discussion, ce qui explique peut être que l’on ait du mal à suivre par moment, ce qui n’enlève rien à l’intérêt du propos, juste pour préciser de quoi l’on parle.
Ps : dans les petites fautes de traduction il me semble que pour le masculin pluriel on écrit subtils…dommage que WUWT n’ait pas de version française…
Wow ! pour être technique il est technique cet article.
PAs vraiment grand public, c’est surtout de la méca flu et de l’analyse numérique.
J’aime bien la remarque sur les modèles qui semblent marcher :
Je retiens que le modèle est l’expression de la volonté du modélisateur.
et celle-ci :
Voila qui est très intéressant, même si un prof d’analyse numérique me l’avait déjà répété il y a des années. On peut faire un modèle qui semble reproduire la réalité mais qui en est très loin. Le coefficient de corrélation élevé induit en erreur le programmeur.
Une corrélation par pur hasard ! ça fait réfléchir…
Sur la partie numérique :
En analyse numérique, l’utilisation de polynômes de degrés élevés donne l’illusion d’une plus grande précision.
Je me souviens d’une manip’ avec des polynômes de Wilkinson dont les racines sont les nombres entiers successifs.
Un truc du genre x(x-1)(x-2)…(x-n)=0
La simplicité évidente de ce polynôme est un piège pour le programme qui fait le calcul : pour un n à partir de 15 ou 20, il trouve des racines à côté de la plaque, et même des nombres complexes !
Et la conclusion que je kiffe à donf :
Vous avez entendu ce qu’a dit le monsieur ?
« et pourraient bien ne jamais fonctionner assez bien »
C’est qu’est ce que je dis depuis le début…
En résumé un article que je signe des deux mains (du moins pour les parties que je pense avoir pigées…)
Ou comment dire très précautionneusement que les modèles ne prédisent rien si ce n’est le passé :
Charles II (#12),
http://www.bulletins-electroni…../77793.htm
Charles II (#12),
Charles II (#12),
Essaie encore
Lien
Charles II (#14),
Effectivement, si j’ai bien compris l’article :
les modèles sont corrects, pour l’historique, ils se plantent plus ou moins pour les projections, mais restent corrects, et tout ça c’est la faute au « chaos » climatique, mais dans le sens « mathématique », pas médiatique.
Bref les modèles ont tout faux, mais ils ont tout juste.
Quod Est Demonstrandum
pastilleverte (#15),
« accessoirement » quel budget en pépètes sonnantes et trébuchantes a t il été alloué à cette merveilleuse étude ?
pastilleverte (#16),
D’après P de Larminat, les simulation du CNRM occupent 40% de sa capacité totale de calcul pendant 1 an et demi, soit 400 To et celles de l’IPSL 2 Po (2 millions de milliards) sur 16 processeurs du plus gros calculateur de la météo nationale.
pastilleverte (#15),
Il est vrai que pour les médias le « chaos » a son sens premier, c’est à dire religieux.
C’est ce que devient la science climatique en quelque sorte . Ça tend vers une affaire de croyance.
De plus en plus, et je pense que les médias y sont pour quelque chose : le grand public croit qu’une corrélation entre paramètres implique une causalité et a valeur d’explication .
Les statistiques qui montrent des corrélations entre des paramètres à un certain moment sont prises comme expliquant l’influence d’un paramètre sur un autre alors que c’est une description d’un état à un moment donné, mais surement pas une explication. Il y a peut-être effectivement une corrélation, mais il faut en démontrer la raison.
Charles II (#14),
C’est très drôle votre article :
« Néanmoins les chercheurs insistent sur le fait que si la différence quantitative est appréciable, il n’y a pas de différence qualitative : la hausse calculée correspond bien à la hausse observée, seule son intensité diffère. Si la tendance observée devait se perpétuer, les modèles ne se tromperaient que sur la durée de la mise en place du réchauffement climatique, non sur sa réalité. »
Résumé : C’est pas grave car la pente calculée par les modèles est de même signe que celle enregistrée par les thermomètres.
Sur la dernière phrase, encore une certitude de climatologue qui souffre d’une faille logique évidente.
———————
Il manque dans ce commentaire de Brown une critique plus développée du réductionnisme qui est présente dans les trois derniers paragraphes derniers paragraphes.
Brown : Le premier exige un aperçu importants, et pour que cela fonctionne, bien sûr, les électrons ont à s’auto-organiser en oscillations collectives cohérentes dans le premier endroit qui peut alors être considéré comme une «quasi-particules» dans une théorie d’ordre plus élevé.
More is different Pour ceux qui le peuvent, lire l’article de P. W Anderson (cf Bob 7).
On peut augmenter tant que l’on veut la puissance des ordinateurs, cela ne nous avancera pas d’un pouce, sauf pour mieux prendre en compte la géographie. Ce problème de puissance de calcul pour résoudre les équations de N-S m’a toujours paru à coté de la plaque.
h/t à gammacrux chez Huet :
http://www.pnas.org/content/97/1/28.full.pdf
The Theory of Everything is a term for the ultimate theory of the universe—a set of equations capable of describing all phenomena that have been observed, or that will ever be observed (1). It is the modern incarnation of the reductionist ideal of the ancient Greeks, an approach to the natural world that has been fabulously successful in bettering the lot of mankind and continues in many people’s minds to be the central paradigm of physics. A special case of this idea, and also a beautiful instance of it, is the equation of conventional nonrelativistic quantum mechanics, which describes the everyday world of human beings—air, water, rocks, fire, people, and so forth.
[…]
Predicting protein functionality or the behavior of the human brain from these equations is patently absurd. So the triumph of the reductionism of the Greeks is a pyrrhic victory: We have succeeded in reducing all of ordinary physical behavior to a simple, correct Theory of Everything only to discover that it has revealed exactly nothing about many things of great importance.
[…]
This point is still not understood by many professional physicists, who find it easier to believe that a deductive link exists and has only to be discovered than to face the truth that there is no link. But it is true nonetheless. Experiments of this kind work because there are higher organizing principles in nature that make them work. The Josephson quantum is exact because of the principle of continuous symmetry breaking (16). The quantum Hall effect is exact because of localization (17). Neither of these things can be deduced from microscopics, and both are transcendent, in that they would continue to be true and to lead to exact results even if the Theory of Everything were changed.
Tout cela n’est pas étranger aux problèmes qu’on peut rencontrer en économie lorsque l’on passe du micro au macro (du fait fait de ces problèmes, dans un certains sens on fait plutôt l’inverse).
Dans la série des Théories Rustines :
Allons bon, la pluviométrie dans le sahel est repartie à la hausse.
Tant mieux.
Les modèles climato en vigueur ne collent pas du tout mais on peut toujours arranger ça.
Bob (#21),
L’analyse des bilans de chaleur et d’humidité issus du modèle de prévision leur a permis de démontrer que cette augmentation de la température avait été produite par un effet de serre dû à une augmentation de la quantité de vapeur d’eau. En outre, ils ont montré que cette augmentation de la température conduisait, aux échelles décennales, à une augmentation de la convergence de la vapeur d’eau dans la basse troposphère au-dessus du Sahara.
Pauvres Sahéliens, ils vont tous finir noyés comme de vulgaire habitants d’iles du Pacifique.
post hoc, ergo propter hoc
Si j’ai bien compris, c’est l’augmentation de la vapeur d’eau qui provoque l’augmentation de la vapeur d’eau.
Bob (#21),
L’important est que ce soit dû à l’effet de serre !
TOUT phénomène climatique est dû à l’effet de serre, c’est ainsi, point barre !
Bob (#21),
La mousson estivale sur l’ouest de l’Afrique. Climate Model™ AR5 chap. 14 p. 1234
Nicias (#22),
Bien compris ! Je le pense aussi… 😉
c’est pudiquement dit en fait la vérité est qu’ils sont « very likely » inutiles, leur seul effet est d’employer des hauts salaires et de consommer de l’énergie aux frais du contribuable
Oui, la seule chose que vont pouvoir faire ces modèles c’est de rétrodire les observations du passé en ajustant leurs « facteurs ajustables ». Ils sont assez nombreux pour ajuster sur n’importe quoi. Rétrospectivement.
Bref l’argent du contribuable n’aura servi qu’à engraisser les naïfs mais opportunistes promoteurs de ces modèles débiles.
Bob (#21), Nicias (#22),
Pourtant la cause de l’évolution à moyen terme des précipitations au Sahel est déjà connu puisque c’est l’évolution du AMO qui influence aussi le nombre et la puissance des cyclones dans l’Atlantique Nord dont on voit leur diminution malgré la prévision du GIEC.
Voir ici :
Williams