Petit exercice de voyance mathématique


par Benoît Rittaud.

Dans ma boule de cristal je vois… je vois… le fichier top secret des températures utilisé par Météo France pour constituer le diagramme de son Bilan climatique 2011… Je n’ai pas le temps de noter, je suis trop concentré sur la boule pour retenir les chiffres qui dansent devant mes yeux… Là ! Une formule ! Je n’en vois qu’une partie, c’est… c’est… C’est la façon dont la moyenne annuelle est calculée ! Argh… ma tête me fais mal, la vision ne va pas durer… allez, encore un effort… oui, je vois… je vois… je vois un arrondi au centième près par défaut. La vision se brouille : c’est fini. Épuisé par l’effort, je m’effondre devant ma boule de cristal.

Le caractère artisanal que j’ai employé pour reconstituer les données sous-jacentes au diagramme de Météo France me rend un peu prudent. Comme critère d’évaluation de mon travail, outre la superposition de mon propre graphique avec celui de MF (qui donne un résultat apparemment très bon), j’ai eu après coup l’idée d’un petit test complémentaire qui utilise le fait que l’anomalie est mesurée par rapport à une moyenne sur 30 ans. En conséquence, si ma reconstitution artisanale des données est exacte, alors par définition la somme des anomalies sur ces 30 années doit faire 0°. À peu près, disons.

Sauf que quand je l'ai fait, le calcul m'a donné la valeur 11,68°. Pas besoin de vous dire que j’ai eu un moment d’angoisse : me serais-je donc trompé de près de 0,4° en moyenne chaque année, sachant que la longueur des bâtons du diagramme n’est que de l’ordre de 1° ? (Allô le cabinet d'ophtalomologie ? C'est pour un rendez-vous en urgence s'il vous plaît !) C’est cette angoisse qui m’a conduit à la découverte que les 30 années de référence prises par MF ne sont pas toujours les mêmes. Ces 11,68° se fondent sur une normale calculée sur la période 1981-2010 (celle indiquée dans l’un des courriers de MF), alors que la période à utiliser, indiquée sur le diagramme, est 1971-2000.

Pour cette période 1971-2000, la somme est déjà plus raisonnable : -0,07°. C’est nettement mieux, mais tout de même encore assez significativement loin de 0°. N’oublions pas en effet que je crois mes mesures précises au centième près. Un écart de 0,07° suggère donc un nombre d’erreurs au moins égal à 7, et potentiellement même plus élevé puisque certaines erreurs peuvent se compenser. Sur 30 mesures, ça ferait beaucoup : ce serait du même ordre de grandeur que les erreurs commises par l’IPSL (sauf qu’eux c’est pour des mesures au dixième près, héhé…), c’est dire !

Il est certes plausible que mes estimations soient entachées d’erreurs, mais une autre explication peut également être avancée, la voici. Lorsque MF calcule ses anomalies annuelles, le résultat a à l’évidence plus de deux chiffres après la virgule en général. Imaginons que l’arrondi au centième se fasse systématiquement par défaut : ainsi, 0,432 est arrondi à 0,43, et 0,439 également à 0,43. La somme des anomalies de 1971 à 2000 faite à partir d’évaluations au centième sous-estime alors nécessairement la normale calculée sans cet arrondi. Plus exactement, elle la sous-estime en moyenne de 0,005° pour chaque année, ce qui donne un écart total moyen de 30×0,005.

J'ai d'abord été très content, parce que j'ai calculé mentalement ce produit selon une procédure qui revenait en fait à diviser au lieu de multiplier par 5, ce qui m'a donné le résultat très confortable de 0,06°. Calcul faux, donc, même s'il m'arrangeait. Moralité : la recherche, c'est avoir quelques idées, mais aussi et surtout corriger ses erreurs…Bref : 30×0,005, ça fait en fait 0,15°. Vu de loin, je pourrais pavoiser, vu que mes 0,07° sont loin en dessous. Le problème, c'est qu'ils sont en fait maintenant trop en-dessous. Alors il faut chercher encore… Bien sûr, il doit rester clair de bout en bout que mes données sont peut-être tout simplement mal mesurées. Mais cela n'interdit pas de chercher une autre explication cohérente. J'en ai trouvé une en me souvenant que, comme déjà noté ici, une division d'un nombre décimal par 30 produit un nombre qui est soit décimal, soit se finit par une infinité (drôle de façon de le dire !) de 3 (comme pour 1/30 = 0,03333…), soit par une infinité de 6 (comme pour 2/30 = 0,0666666…). Puisqu'il s'agit de faire une moyenne sur 30 stations, ce phénomène a une conséquence particulière, qui se manifesterait certes pour une division par un autre nombre mais de façon en général beaucoup moins marquée (parce qu'il est rare que la période, c'est-à-dire le motif qui se répète à l'infini dans l'expression décimale, ne soit composée que d'un seul chiffre). Pour une division par 31 ou par 29, on ne s'en rendrait même pas compte. Mais ici, donc, une fois sur trois les valeurs montrent des 333333…, une fois sur trois des 666666… et une fois sur 3 rien du tout : le nombre est décimal. En moyenne, donc, la différence entre mon arrondi et la vraie valeur de MF n'est pas de 0,005° (comme ce serait le cas si les arrondis se baladaient un peu au hasard entre 0° et 0,01°), mais de (1/3)×0,003333… + (1/3)×0,006666… + (1/3)×0, qui vaut 0,00333…° (c'est-à-dire, en fait, 1/300). C'est assez nettement moins que les 0,005° que j'avais pris au départ. Multiplié par les 30 stations, cela donne un écart moyen à prévoir de 0,1°, déjà beaucoup plus proche des 0,07°. On peut même s'en approcher encore plus en supposant, ce que me dit ma boule de cristal, que les vraies valeurs de MF ne contiennent pas des 333333… ou des 66666…, mais des arrondis au millième par défaut. Dans ce cas, l'écart moyen n'est plus donné par l'expression (1/3)×0,003333… + (1/3)×0,006666… + (1/3)×0, mais par (1/3)×0,003 + (1/3)×0,006 + (1/3)×0, qui vaut 0,09°, ce qui est encore mieux.

Une explication bricolée après coup, j'en conviens, et qui ne permet de toute façon pas d'exclure des erreurs de ma part dans ma reconstitution du diagramme de MF. Elle montre toutefois que le choix d'un arrondi peut avoir un certain effet dans la définition d'une normale, et renforce l'idée qu'en réalité, une température normale ne devrait pas être définie en référence à une moyenne, de toute façon imprécise car il n'est pas crédible qu'on puisse mesurer au centième de degré la température annuelle d'un lieu donné. Sans y avoir beaucoup réfléchi, je pense qu'une médiane serait une meilleure idée.


23 réponses à “Petit exercice de voyance mathématique”

  1. Pas trop le temps de lire et commenter, mais peut-être que l’effet Tchernobyl de miniTax sur la France (et plus spécifiquement, l’augmentation de l’ensoleillement sur au moins la moitié sud de la France), la destination de la chaleur perdue de Trenberth, ainsi que la « grande divergence » entre températures terrestres et maritimes ont trouvé un début d’explication :

    http://www.scirp.org/journal/P…..FSnjcn5BUp

  2. Nicias (#2),
    Splendide illustration de la pseudoscience climatique. Les températures des stations divergent d’avec toutes les variables climatique. Au lieu de se poser des questions sur le canard boiteux, on multiplie les études ad hoc bancales pour tenter de justifier chaque cas séparément.

  3. vous n’avez rien compris…

    Ignorer un problème est la façon la plus simple de le résoudre.

  4. Dans le premier paragraphe, mon œil a calé sur :

    « Argh… ma tête me fais mal, la vision ne va pas durer…  »

    Y a là comme qui dirait une petite faute de conjugaison, n’est-il pas ?

  5. Nicias (#2), la « grande divergence » entre les températures terrestres et maritimes ; la « chaleur perdue »…

    Du vent, quoi…

  6. en Nouvelle Zélande aussi on vient de s’apercevoir que l’homogénéisation avait transformé une légère baisse (-035 par siècle) en une nette hausse (+1,73 par siècle). Comme quoi l’évolution de la température est bien d’origine anthropique mais délictueuse. la Nouvelle Zélande étant un des rares lieux de l’HS disposant de séries longues

    http://wattsupwiththat.com/201…..cal-paper/

  7. yvesdemars (#7),

    oui, ça chauffe dans l’hémisphère sud, normal, c’est l’été là bas

    d’après la papier , il y aurait bien un réchauffement de ….0,28 degré par siècle en NZ
    http://bishophill.squarespace……ecord.html

    un commentateur fait remarquer
    « Our analysis, which uses updated measurement techniques and corrects for shelter-contaminated data, produces a trend of 0.28 °C per century. »

    In line with the CET at 0.23 Deg C

    curieux non?
    et en Australie, cela commence à devenir préoccupant

    http://joannenova.com.au/2014/…..o-the-bom/

    Mais qui irait s’opposer à Jouzel, qui vous recevra à coup de Kalach?

  8. Les concentrations de gaz à effet de serre dans l’atmosphère ont atteint les niveaux les plus élevés «depuis 800.000 ans», ont affirmé les experts du Groupe intergouvernemental sur l’évolution du climat (Giec) dans un rapport de synthèse publié ce dimanche à Copenhague. Conséquence: la température moyenne à la surface de la Terre et des océans a gagné 0,85°C entre 1880 et 2012. Un réchauffement dont la vitesse est inédite.
    Pour Olivier Blond, directeur éditorial à la fondation GoodPlanet, le chiffre est évidemment «alarmant» mais vient «malheureusement confirmer d’autres chiffres» comme le taux élevé de CO2 dans l’atmosphère qui joue aussi sur le réchauffement climatique. «Tout ça ne fait que renforcer l’inquiétude», ajoute-t-il.

    http://www.20minutes.fr/planet…..inquietude

    ça alors, non seulement le CO2 a augmenté, mais en plus le CO2 a augmenté ! Cela fait deux bonnes raisons de croire… qu’il a augmenté !!!

  9. de Rouvex (#9),

    vient «malheureusement confirmer d’autres chiffres» comme le taux élevé de CO2 dans l’atmosphère

    … alors qu’il vient d’évoquer la même chose quelques lignes plus haut.
    Le jounaleux rédacteur pisse-copie qui essaie de concaténer les petites phrases piquées ici ou là, est incapable de les organiser intelligemment, à moins qu’il ne subisse des attaques fulgurantes d’Alzheimer.

  10. « Les concentrations de gaz à effet de serre dans l’atmosphère ont atteint les niveaux les plus élevés depuis 800 000 ans »…
    En supposant que ce soit vrai, la terre ayant 4,5 milliards d’années, j’en déduis qu’avant ces « 800 000 ans » les concentrations de GES ont été supérieures (au moins par moment). Autrement, le GIEC nous aurait gratifié d’un communiqué nous disant que ladite concentration n’a jamais été aussi élevée…
    La terre ne semble pourtant pas s’en être si mal tirée et la vie a continué à y prospérer…

  11. de Rouvex (#9),
    moi c’est ce aussi qui me choque

    comme le taux élevé de CO2 dans l’atmosphère qui joue aussi sur le réchauffement climatique

    hein?
    que ces choses sont bizarrement dites, bon c’est une citation de citation , à vérifier…

  12. Nouvelle censure du modérateur du Figaro sur le Forum:
    Dés que je donne le nom de sites de climatosceptiques, je suis systématiquement censuré

  13. Extrait du forum du figaro
    « Si vous voulez connaitre le point de vue des climatosceptiques ( censurés dans les medias traditionnels)
    skyfall.fr
    lapensee-unique.fr
    theGWPF.com ou uk en anglais »

    sur Il y a urgence à agir pour le climat (titre de l’article)
    18:21, le 02/11/2014 Refusé

  14. Araucan (#14), merci, mais votre premier lien me donne un Error 404. Le deuxième contient un graphique du même genre que celui de MF mais sans les données. (Ou raté-je quelque chose ?)

  15. monteils (#16), sans rire ils ont censuré trois pauvres liens représentant une poignée d’internautes qui tiennent leur site en ligne avec leur bXXX et leur couteau ???

    Quel honneur on nous fait !

    Vous auriez pu citer l’article de Didier Raoult publié dans le « Poin’g » de cette semaine.
    Ca m’aurait fait marrer qu’ils le censurent.

  16. Araucan (#14), Ben (#21),

    Savez vous s’il existe des séries de températures moyennes mensuelles sur la même durée ou au moins depuis 1975 pour comparer avec les indices de mortalité de l’INSEE ?

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *