Des promesses … Toujours des promesses … Rien que des promesses. Première partie – PapyJako

Cet article est assez long, je l'ai donc divisé en deux. Voici la première partie.

• • • • •




Avertissement :
Les lecteurs qui n'apprécient pas l'exercice d'équilibrisme qui consiste, tout en citant des faits rigoureusement vrais, à pratiquer de façon constante l'humour au deuxième degré, au risque de franchir parfois la limite du troisième, sont dispensés de la lecture de cet article. Il y a des choses moins acrobatiques à lire sur skyfall. A tous, y compris ceux qui n'iraient pas plus loin, je souhaite un Joyeux Noël.

Résumé :
Depuis une bonne vingtaine d’années déjà, les Scientifiques nous bercent de prévisions rassurantes sur l’avenir de notre Planète. Une théorie nommée «Réchauffement Climatique Anthropique» (RCA) nous avait assuré que les «Gaz à Effet de Serre» (GES), en particulier le CO2, émis en quantités croissantes par l’homme du fait de son activité, pourraient avoir pour effet une amélioration notable du climat terrestre.

Cette théorie a conduit les nations, dans un effort sans précédent en faveur des générations futures, à accroitre considérablement les émissions de GES. Cet effort aurai-il été consenti en pure perte ?… La question se pose, car un certain nombre d’événements, dont certains très récents, semblent indiquer que le réchauffement qui nous avait été promis, en récompense de nos efforts, ainsi que certains autres avantages annexes, manquent à l’appel.
Faut-il perdre espoir ?


 

1. Introduction : on souffle le froid, puis le chaud


Dans les années 1970, des prophètes de malheur avaient profité d’une baisse, lente mais assez régulière, des températures du monde dans les trente années qui précédaient, pour attirer l’attention du monde entier sur le dangereux refroidissement de la terre, découlant disaient-ils de l’activité industrielle. L’affaire est allée jusqu’à alerter le grand public par des publications dans des revues à grande audience qui ont brandi le spectre d’une nouvelle glaciation, Et il est vrai que de telles prédictions avaient largement de quoi alarmer.


 
 L’histoire de l’humanité a en effet démontré – sans contestation – que les plus grandes misères et catastrophes humaines se sont produites durant des épisodes particulièrement froids. Le Petit Age Glaciaire (PAG) par exemple, qui a duré plus de cinq siècles à partir de 1300, durant lequel il arriva que l’on ramasse, au bord des chemins, des corps gelés avec la bouche remplie d’herbe. Le PAG a été de façon constante décrit par les historiens comme une période, particulièrement meurtrière pour l'homme, de froids intenses, mauvaises récoltes, avec leur corollaire macabre : la famine et ses dizaines de millions de morts.

A l’inverse, les périodes plutôt chaudes du passé ont toutes, sans exception, reçu des noms (Optimum Holocène, Optimum Romain, Optimum Médiéval) qui évoquent plus la prospérité et le bonheur que la désolation et le malheur, peut-être parce que les historiens y avaient cherché en vain des récits de catastrophes, naturelles du moins. 



2. Des promesses …


 C’est donc sans déplaisir aucun qu’on a constaté, dans les années 1980, une inflexion de la courbe de température qui, repartie à la hausse, éloignait progressivement la menace de glaciation. De ce fait les prophètes de malheur ont progressivement cédé la place aux chantres des douceurs d’un réchauffement planétaire radieux. On a d’ailleurs rapporté à ce sujet que certains, sans aucune pudeur, pour garder leur place – il faut bien vivre – ont simplement retourné leur veste.

En se basant sur des mesures et calculs – dont il est, hélas, assez difficile de vérifier la correction – les Scientifiques, regroupés dans un club intergouvernemental nommé GIEC, ont en effet déclaré avoir établi que la température moyenne du globe avait augmenté, entre 1850 et 1998, c'est-à-dire en 148 ans, de 0,5 (pour les pessimistes) à 0,7 (pour les optimistes) degrés centigrades. Ils ont également déclaré avoir la preuve que cette amélioration du climat terrestre avait sa source dans l’accroissement des émissions de GES par l’humanité.



3. Les premiers doutes …

Des rabat-joie, dont les intentions sont restées assez obscures – peut-être sont-ils simplement opposés pour des raisons religieuses à la consommation de ces combustibles fossiles essentiels à une production efficace de GES ? – avaient bien tenté de faire remarquer qu’à tout prendre 0,6°C, étalés sur 148 ans, ne représentent qu’environ 0,004 degrés par an – variation qu’ils estiment négligeable au regard des variations "naturelles" et qui en seraient donc indiscernables – simple question de "rapport signal/bruit" disent-ils de façon un peu énigmatique.

Certains de ces dissidents, particulièrement malicieux, avaient fait observer qu’il paraissait étrange d’atteindre des précisions de l’ordre du dixième de degré en basant les calculs sur des instruments qui, du fait principalement de leur implantation, et d’après les textes officiels, sont notoirement dans l’incapacité de mesurer la température «naturelle» avec une précision inférieure à un ou deux degrés.

La station de mesure de Concord en Californie, la sortie d'un climatiseur soufle dessus

                      La station de mesure de Concord, en Californie
              (note pour les non anglicistes : "A/C unit" veut dire "climatiseur")

 Les plus virulents de ces "négateurs" sont même allés jusqu'à émettre l’hypothèse selon laquelle les mesures de température auraient pu être volontairement biaisées.

La Science du climat dans ses oeuvres ?
La science du climat dans ses œuvres ?

Ces mêmes mauvaises langues avaient en effet fait remarquer que l’ampleur des corrections manuelles opérées à la hausse sur les températures était du même ordre de grandeur que l’augmentation «mesurée». Elles ont observé que cela jetait un trouble, et que leur seul point d’accord avec le GIEC est que le réchauffement climatique est bien dû à l’homme … Il le fait à la main.

Les manipulations alléguées auraient été, toujours selon les mêmes mauvaises langues, le fait de scientifiques en mal de célébrité, de crédits pour leurs laboratoires, et de voyages dans des destinations exotiques. Il faut effectivement reconnaître que les destinations exotiques sont généralement considérées comme de puissants amplificateurs de découvertes scientifiques en matière de climat. Le scientifique du climat n’atteint jamais un meilleur rendement que lorsqu’il se réunit pour travailler en conclaves, agrémentés de banquets festoyants, à Rio de Janeiro, à Bali, à Cancun ou ailleurs, mais jamais à Romorantin-Lanthenay …

51.  phi | 14/01/2011 @ 8:56 Répondre à ce commentaire

Il me semble qu’il n’a malgré tout pas été répondu exactement à votre remarque. C’est un cas particulier où la définition de la mesure est limitée (dans l’exemple à l’unité) mais sans autre imprécision. Dans ces conditions singulières vous avez raison. Ce genre de situation peut se présenter par exemple si vous effectuez des mesures de la même grandeur avec un appareil digital ultra précis mais dont l’affichage décimal est limité.

Dans le cas qui nous occupe, cette difficulté ne se présente pas pour au moins une bonne raison : on ne mesure jamais la même température (variation dans le temps et dans l’espace). Et donc l’erreur reprend une allure aléatoire gaussienne ou autre même avec un thermomètre qui aurait ces caractéristiques. Ajoutons que la mesure exacte de la température importe assez peu et que c’est surtout son évolution dans le temps que l’on cherche à déterminer avec précision.

52.  phi | 14/01/2011 @ 9:00 Répondre à ce commentaire

Oubli de l’adresse, c’était pour Murps #48.

53.  jdrien | 14/01/2011 @ 9:19 Répondre à ce commentaire

Laurent (#49),
« Un grand nombre de mesures de paramètres physiques… », oui mais pour les températures, la moyenne (journalière, mensuelle ou annuelle) est-elle vraiment un paramètre physique ? j’ai l’impression qu’on inverse les rôles en considérant la moyenne comme le signal ,et les variations de température comme du bruit. L’étude des histogrammes de température ne serait-t-elle pas plus utile pour détecter de variations de climat ?

54.  volauvent | 14/01/2011 @ 10:29 Répondre à ce commentaire

Papyjako (#50),

Vous parlez de bruit et de l’extraction d’un signal dans un bruit. Ce n’est pas la même chose que de parler (trivialement) de précision (en fait d’incertitude) de mesure.
Dans l’exemple de Laurent, 1000 mesures à 1 degré de bruit, on obtiendrait une mesure à plus ou moins 3/100 de degrés; c’est absurde; l’incertitude ne peut être d’un ordre de grandeur inférieur à la résolution de l’appareillage de mesure.
Je répète donc ce que j’ai écrit : si vous avez une incertitude de 1 degrés, qui correspond à un intervalle de confiance de x %, issue du calcul de x sigmas déterminé par un nombre suffisant de mesures pour que la distribution soit gaussienne, vous aurez beau multiplier le nombre de mesures, vous trouverez toujours vos mesures avec x % de probabilité dans la bande de la carte de contrôle tracée avec les x sigmas.

Lorsqu’on calcule les anomalies de température, on garde la même incertitude en valeur absolue sur les anomalies; lorsqu’on moyenne les anomalies mesurées en des points différents avec des appareillages et des méthodes forcément différentes, on ne sait plus très bien ce qu’on a comme incertitude à mon avis.
Sauf peut être avec les bouées ARGO lâchées dans les océans, dont on peu supposer que les incertitudes de mesures sont homogènes.
Ce qui nous importe, c’est l’incertitude sur la mesure dans un processus de mesure trivial, du niveau du collège;nous ne sommes pas dans la théorie du signal.

55.  Laurent | 14/01/2011 @ 11:18 Répondre à ce commentaire

phi (#51),

Dans ces conditions singulières vous avez raison. Ce genre de situation peut se présenter par exemple si vous effectuez des mesures de la même grandeur avec un appareil digital ultra précis mais dont l’affichage décimal est limité.

Non
C’est justement le cas parfait ou la répétition des mesures permettra d’améliorer la précision de mesure. Une « limitation de l’affichage décimal » est un bruit de quantification qui en général est un bruit blanc quasi-parfait (donc centré, et de distribution équiprobable). On a donc une mesure de la forme Vvraie + Bquantif(i), dont la moyenne de n mesures donne donc (n/n)Vvraie + somme(i=1,n)(Bquantif(i))/n, dont le deuxième terme tend vers 0 quand n tend vers l’infini.
(désolé, je ne sais pas insérer de vraies formules de math dans ce blog).

cette difficulté ne se présente pas pour au moins une bonne raison : on ne mesure jamais la même température (variation dans le temps et dans l’espace). Et donc l’erreur reprend une allure aléatoire gaussienne ou autre même avec un thermomètre qui aurait ces caractéristiques.

Non
Comme je l’ai déjà dit, la réduction du bruit de mesure (qu’il soit instrumental, de lecture, de quantif, ou autre) ne dépend que de la forme de ce bruit (centré) et de son indépendance à la donnée. Qu’il s’agisse d’améliorer la précision d’une mesure d’une valeur unique par répétition, ou de l’intégration d’une variable, la réduction s’effectue de la même façon.

c’est surtout son évolution dans le temps que l’on cherche à déterminer avec précision.

Et dans ce cas, la problématique est différente: si ce n’est pas le signal mais sa dérivée qui t’intéresse, l’erreur de mesure instrumentale s’applique plein pot… et pour la réduire, il faudra appliquer d’autres techniques, qu’elles soient basiques (lissages divers et varié, filtre fréquentiel, etc….).
Pour t’en convaincre, il suffit de regarder une série brute sur une station.
Si tu fais une double intégration (spatiale et temporelle), et que tu ne t’intéresse qu’à la dérivée de la deuxième intégration, alors effectivement le bruit instrumental sera réduit par la première intégration.

56.  phi | 14/01/2011 @ 11:19 Répondre à ce commentaire

volauvent (#54),

C’est un peu mesquin mais je ne résiste pas à citer vos amabilités à mon propos (fil l’hiver 2010/2011) :

phi (#338),
Monsieur phi,
je me joins à M pour ne pas laisser Laurent perdre son temps avec vous: votre verbiage vaseux n’est en aucun cas utile à ce débat

Nous n’ignorons plus ce que vous ne savez pas; vous seriez d’une naïveté confondante si vous vous ne rendiez pas compte que tout ce que vous écrivez nous prouve que vous ne savez rien du sujet.
J’en conclus que vous l’écrivez sciemment pour polluer le sujet.

Pour ce qui est de la substance de votre message, relisez les réponses de Laurent et Papyjako (pas la mienne naturellement, ce serait inutile).

Je me permets cette réponse car je ne désespère pas totalement et les messages de Julien à l’origine de cette discussion sont une lueur.

57.  Laurent | 14/01/2011 @ 11:24 Répondre à ce commentaire

volauvent (#54),

l’incertitude ne peut être d’un ordre de grandeur inférieur à la résolution de l’appareillage de mesure.

Bien sur que si… et j’ai essayé d’expliquer pourquoi. Reprend la formule que j’ai donné à phi, et tu comprendra.
C’est comme cela que, par exemple, depuis plus de 200 ans on fait des mesures angulaires précises avec des appareils de mesure angulaire dont les graduation limitent la précision de mesure, en répétant des centaines ou des milliers de fois les mêmes mesures, et en en effectuant la moyenne (avec un protocole bien précis).

58.  phi | 14/01/2011 @ 11:27 Répondre à ce commentaire

Laurent (#55),

C’est justement le cas parfait ou la répétition des mesures permettra d’améliorer la précision de mesure.

Ben non alors ! Si vous avez un instrument ultra précis mais n’affichant que les unités, vous pourrez faire le nombre de mesure que vous voulez de la même grandeur sans améliorer le résultat.

Pour les autres critiques, désolé mais je ne les comprends pas.

59.  Laurent | 14/01/2011 @ 11:33 Répondre à ce commentaire

jdrien (#53),

mais pour les températures, la moyenne (journalière, mensuelle ou annuelle) est-elle vraiment un paramètre physique ?

Ca c’est une question à laquelle je n’ai pas essayé de répondre.
Quelque soit la « signification physique » de la moyenne des températures (que ce soit sa représentativité en tant qu’intégrale temporelle ou autre chose)… la réduction du bruit instrumental (s’il est centré et indépendant de la mesure) ne dépend que du nombre de mesures.

j’ai l’impression qu’on inverse les rôles en considérant la moyenne comme le signal ,et les variations de température comme du bruit.

Je suis assez d’accord avec ça.
C’est pour cela que je n’ai parlé que de bruit instrumental.
Une moyenne temporelle d’un signal va forcément détruire de l’information (cycle diurne des températures par exemple dans le cas d’une moyenne journalière) en plus de réduire le bruit instrumental…

L’étude des histogrammes de température ne serait-t-elle pas plus utile pour détecter de variations de climat ?

Cela peut certainement avoir une utilité… en complément d’études fréquentielles sur le signal.

60.  Laurent | 14/01/2011 @ 11:40 Répondre à ce commentaire

phi (#58),

Si vous avez un instrument ultra précis mais n’affichant que les unités, vous pourrez faire le nombre de mesure que vous voulez de la même grandeur sans améliorer le résultat.

C’est faux… comme le montre la formule que je t’ai donné.
Cette méthode d’amélioration de précision de mesure a été utilisée par exemple, pendant plus de deux cent ans par les Géodésiens, utilisant des théodolites gradués avec une précision donnée pour faire des mesures avec une précisions 10 à 100 fois supérieures.
… j’ai plein d’autres exemples en stock….

61.  phi | 14/01/2011 @ 11:45 Répondre à ce commentaire

Laurent (#60),
Avez-vous déjà effectué une mesure au théodolite ? Moi, oui et il ne fait aucun doute que la multiplication des mesures est nécessaire dans ce cas. Mais cela n’a rien à voir avec l’exemple d’appareil digital que j’ai donné. Je m’étonne que vous ne le compreniez pas.

62.  Laurent | 14/01/2011 @ 11:52 Répondre à ce commentaire

phi (#61),

Avez-vous déjà effectué une mesure au théodolite ?

Oui

Mais cela n’a rien à voir avec l’exemple d’appareil digital que j’ai donné. Je m’étonne que vous ne le compreniez pas.

Cela a tout avoir. qu’un bruit de mesure provienne d’un bruit de lecture, ou d’un bruit de quantification, le résultat est le même.
Et je peux te donner aussi des exemples provenant de mesures avec des appareils digitaux (mesure au sol de calibration de capteurs satellites par exemple).

63.  phi | 14/01/2011 @ 12:04 Répondre à ce commentaire

Laurent (#62),
Mais c’est incroyable !

Bon, je répète.

Vous disposez d’un instrument digital infiniment précis et vous entreprenez la mesure d’une distance. Si l’affichage digital
de l’appareil est limité au cm, vous pourrez effectuer 100’000 mesures sans améliorer la précision, vous afficherez 100’000 fois le même nombre et vous n’aurez toujours aucun idée de la distance en mm. C’est évidemment un exemple purement théorique. C’est d’ailleurs intéressant et paradoxal car avec un tel instrument si vous parvenez à réduire sa précision de mesure d’une manière aléatoire vous parviendrez à améliorer la précision du résultat.

64.  volauvent | 14/01/2011 @ 12:54 Répondre à ce commentaire

phi (#56),

Le sujet était l’homogénéisation d’une station via les stations voisines; ce n’était pas la précision des mesures.

65.  phi | 14/01/2011 @ 13:28 Répondre à ce commentaire

volauvent (#64),

Le sujet était l’homogénéisation d’une station via les stations voisines; ce n’était pas la précision des mesures.

Certes et votre remarque n’en n’était que plus déplacée. Je reconnais volontiers à Laurent une excellente connaissance de la métrologie et de la théorie du signal mais il est évident que sur le sujet des homogénéisations et plus généralement sur les températures sol, il n’est guère au fait. J’en veux pour preuve, par exemple, sa référence à Hansen à propos des homogénéisations.

Si je reviens sur le sujet, ce n’est pas par susceptibilité mais parce que je me désole d’être si mal compris.

66.  volauvent | 14/01/2011 @ 13:55 Répondre à ce commentaire

Laurent (#57),

Je pense qu’il y a une incompréhension mutuelle que j’expliquerais de la façon suivante.
Si je sais que la mesure de température est affectée d’une incertitude relative de 1 degrés calculée sur un intervalle de confiance de x% , lorsque je mesure une fois cette température (et je pense que c’est la cas pour les stations à thermomètres classiques) je sais que la température réelle, à X%, est comprise dans l’intervalle d’incertitude de 1 degrés..
Mais pour centrer cette incertitude, il faut effectivement que j’effectue un grand nombre de mesures (comme je l’ai fait précédemment pour déterminer la précision de mon appareillage, c’est à dire le rapport de l’incertitude absolue sur la grandeur à mesurer.)

Mais ce n’est pas le cas des mesures de températures; on ne fait pas mille mesures pour chaque donnée transmise.
Dans le cas de mesures électroniques en continu, c’est un peu plus compliqué puisque de fait, on peut avoir une multitude de mesures dans un temps très court où la variable ne varie pas; on peut alors se permettre de faire du traitement de signal qui améliore la précision.Mais cela est dû à la typologie de l’instrumentation, cela lui est intrinsèque.

Quant à avoir une incertitude 1000 fois inférieure à la résolution de l’appareil, voire augmenter la résolution en multipliant les mesures, j’avoue qu’on ne m’en a jamais parlé, ni au Lycée, ni en classe préparatoire, ni en Grande Ecole. Mais ce sont des vieux souvenirs, et je n’ai exercé qu’en tant qu’ingénieur, pas en tant que scientifique. Je ne demande qu’à être convaincu.

67.  volauvent | 14/01/2011 @ 14:01 Répondre à ce commentaire

phi (#65),

C’est votre acharnement à vouloir démontrer qu’on peut à l’aveugle, grâce à des algorithmes automatiques, « rectifier » des mesures d’une station grâce à des stations distantes de plusieurs dizaines de km qui m’avait un peu énervé car on trouve de nombreux exemples qui contredisent cela et Laurent vous en avait donné.

68.  phi | 14/01/2011 @ 14:34 Répondre à ce commentaire

volauvent (#67),

Je ne me souviens pas avoir parlé d’algorithmes appliqués à l’aveugle. Pouvez-vous préciser ?

Le fond du problème était de savoir si cette affirmation était vraie ou non :

« Le calcul des anomalies régionales à partir des données de stations ne peut pas aboutir à un résultat utilisable quantitativement pour cause d’échantillonnage insuffisant. »

Or, j’ai donné plusieurs exemples, graphiques à l’appui, qui démontraient que cette affirmation était manifestement erronée. Laurent, lui, n’a rien apporté de concret à l’appui de sa thèse.

Concernant votre dernière question à Laurent, dans la mesure ou l’on s’intéresse à l’évolution de la température du point de vue du RCA, l’intérêt principal se porte sur des moyennes annuelles voir décennales d’une grande quantité de stations. A cette échelle là, les imprécisions instrumentales peuvent être négligées (voir les messages de Laurent et Papyjako). De plus, à quelques exceptions près, la valeur absolue de la température mesurée n’a pas d’importance. Le problème n’est qu’au niveau des biais dont celui qui tient à coeur de Laurent mais qui n’est visiblement pas le plus important.

69.  M | 14/01/2011 @ 14:50 Répondre à ce commentaire

Et si on arrêtait cette discussion de haut niveau au sujet de la métrologie, les théories du signal et autres méthodes statistiques/stochastiques, … ?

Mettez-vous à la place de quelqu’un qui n’a pas fait d’études de statistiques poussées, ou qui n’a plus que des vagues souvenirs d’études qui datent d’une quarantaine d’années, vos discussions de spécialistes lui passent complètement par dessus la tête et deviennent fatigantes à la longue.

70.  phi | 14/01/2011 @ 15:16 Répondre à ce commentaire

M (#69),

On peut toujours taper sur Hansen avec un gros marteau ou mettre Jones à la question.
A chacun ses méthodes.

71.  volauvent | 14/01/2011 @ 15:18 Répondre à ce commentaire

phi (#68),

Je ne crois pas qu’il soit utile de reprendre ce débat ancien d’autant que je n’ai aucun souvenir que vous ayez produit des courbes convaincantes.
Et, étant convaincu que même un échantillonnage important ne permet pas de calculer des anomalies globales , à fortiori je suis encore plus convaincu lorsque l’échantillonnage est insuffisant.
Ces anomalies globales de températures de surface ont été choisies pour représenter l’évolution thermique de l’écosystème. Quelque soit l’angle sous lequel on examine ce choix, il est complètement inapproprié:

– 70% sont des températures d’eau de mer et la population terrestre vit en majorité sur des continents; elles reflètent de toutes façons peu l’évolution propre à influencer l’activité humaine et ne permettent pas d’en déduire des mesures d’adaptation.
– le climat n’est pas seulement des températures, mais aussi des hygrométries, des vents…des nuits, des jours, des saisons…
– le réservoir thermique qui représente 90% de la capacité terrestre est la couche des 500 premiers mètres des océans; ce serait un indicateur plus adapté. Mais si on remonte à plus de 30 ans, on est encore moins sûrs des données que pour les données terrestres.
– même cet indicateur est imparfait parce qu’il peut indiquer des oscillations internes à l’écosystème sans forcément des « forçages »
– moyenner des températures n’est pas conforme à la loi de Stefan Boltzman en T puissance 4. Toutes les températures n’ont pas le même « poids » par rapport à un éventuel réchauffement global, selon leur localisation sur le globe. A fortiori des « anomalies » de température.
-les systèmes d’homogénéisation de ces températures au cours du temps par des algorithmes automatiques conduisent à des corrections erronées. Le fait de travailler sur des anomalies donne une importance considérable au choix de la période de référence si toutes les parties du globes n’évoluent pas en paralèle au même moment.

Ces anomalies de températures globales peuvent éventuellement donner une vague idée qualitative mais en aucun cas quantitative.
Si on regarde les courbes officielles depuis le milieu du 19ème siècle, on distingue nettement une pseudo oscillation de période d’environ 60 ans qui se superpose à un réchauffement linéaire dont la pente n’est pas très élevée, et peu significative compte tenu des difficultés méthodologiques évoquées ci dessus.
Ce réchauffement linéaire pourrait être mis en regard du Log des concentrations en CO2 mais il commence bien avant la montée exponentielle de nos émissions, après la seconde guerre mondiale.

72.  phi | 14/01/2011 @ 15:53 Répondre à ce commentaire

volauvent (#71),
Dans les grandes lignes, je partage votre opinion et au fond je n’ai aucun avis particulier sur la réelle utilité des anomalies globales. Je me suis intéressé au problème en prenant conscience de la dérive inquiétante de la climatologie et en constatant l’extrême faiblesse de certains éléments de l’établissement des séries de températures. Entendons-nous, je considère que la plus grande partie du travail est étonnamment bien faite mais que les climatologues montrent un aveuglement surprenant sur certains points précis et que le résultat est catastrophique. Encore faut-il pouvoir démontrer ce qui ne fonctionne pas et pour cela ne pas se livrer à une critique systématique sans fondement.

Par exemple, je ne pense pas que moyenner les températures à la quatrième puissance soit une bonne idée. La problématique du rayonnement ne prédomine pas au niveau du sol et la quantité de chaleur s’évalue en moyennant à la première puissance (même si cela n’a pas forcément un sens dans le cas particulier).

Les systèmes d’homogénéisation de ces températures au cours du temps par des algorithmes automatiques conduisent à des corrections erronées.

Ce n’est pas si simple (je ne parle pas des hansénisations naturellement). Les corrections des discontinuités semblent bonnes d’une manière générale mais aboutissent à accentuer les biais. Des améliorations seraient possibles mais elles nécessiteraient que les climatologues reconnaissent un phénomène qui a comme effet annexe de sérieusment écorner la théorie RCA.

Le fait de travailler sur des anomalies donne une importance considérable au choix de la période de référence si toutes les parties du globes n’évoluent pas en paralèle au même moment.

C’est un faux problème qui ne concerne en fait que les relations publiques ou la propagande.

Ces anomalies de températures globales peuvent éventuellement donner une vague idée qualitative mais en aucun cas quantitative.

En parlant des anomalies régionales, ce jugement est beaucoup trop sévère.

73.  Laurent | 14/01/2011 @ 16:16 Répondre à ce commentaire

phi (#63),

Bon, je répète.

Vous faites bien… vu qu’effectivement vous décrivez un cas purement théorique , celui du « capteur parfait infiniment précis » totalement en dehors des hypothèses de départ (qui supposaient un bruit instrumental aléatoire centré), auquel je n’ai pas pensé, vu qu’il ne se rencontre jamais…
Dans ce cas, effectivement, si la mesure de l’instrument est à un moment donné « parfaite » (ce qu’on peut approximer par d’une précision d’au moins un ordre de grandeur meilleure que l’erreur de quantification du au codage digital), alors on est plus en présence d’un « bruit de mesure, indépendant de la mesure », mais d’une « erreur systématique de mesure, dépendant de la mesure »…. vous saisissez la différence?
Mais ce cas n’existe pas en réalité, étant donné qu’aucun constructeur d’instrument de mesure ne dégradera volontairement la qualité des appareils qu’il construit en limitant volontairement leur précision en utilisant une quantification digitale de précision d’un ordre de grandeur plus grand ou égal à celui de la précision de la mesure…

Dans le cas réel, un instrument n’est pas parfait, et ne mesure jamais exactement la même chose. Le bruit de quantification (toujours présent, qu’il soit intrinsèque, consécutif à la numérisation du signal, soit externe, du à la lecture manuelle humaine du signal analogique) ne vient que se combiner aux autres bruits instrumentaux. (voir formule déjà donnée).

sur les températures sol, il n’est guère au fait

Affirmation gratuite…

Or, j’ai donné plusieurs exemples, graphiques à l’appui, qui démontraient que cette affirmation était manifestement erronée

Absolument pas, vous avez juste montré des graphique ou des courbes montrent une certaines ressemblance, ce qui en aucun cas ne montre qu’elles sont une représentation exacte de l’intégration du signal global (ou régional) de température.
Vous prenez vos désirs pour des réalités…

A cette échelle là, les imprécisions instrumentales peuvent être négligées

Correct.

Le problème n’est qu’au niveau des biais dont celui qui tient à coeur de Laurent mais qui n’est visiblement pas le plus important.

Non, vous n’avez toujours rien compris… d’autant, qu’encore une fois, je n’ai jamais parlé de biais, vu qu’une erreur de représentation du signal n’est pas un biais, c’est une absence d’information.
Si vous cherchez à calculer « l’age moyen » de Pierre, Paul et Jacques, mais que vous ne connaissez pas l’age de Jacques, ce n’est pas un biais de mesure, c’est une erreur de représentativité de la moyenne calculée….

qui n’est visiblement pas le plus important.

Quand je disais que cela ne finirait jamais…. 😉
Allez donc regarder sur le site de la NOAA une carte d’anomalies de SST (obtenues à partir des deux canaux IR thermiques 10 et 11 microns NOAA/AVHRR), et revenez prétendre qu’elles sont uniformes, même à l’échalle d’un degré carré (110km x 110km à l’équateur), c’est très loin d’être le cas.

74.  Laurent | 14/01/2011 @ 16:24 Répondre à ce commentaire

volauvent (#66),

on ne fait pas mille mesures pour chaque donnée transmise.

C’est exact, mais si le bruit de mesure est centré, si on fait 1000 mesures différentes (temporellement par exemple), ce bruit de mesure sera réduit de la même façon sur l’intégrale des mesures.

augmenter la résolution en multipliant les mesures

Il existe des exemples très concrets utilisés tous les jours… par exemple sur des imageurs embarqués sur des satellites. L’hypermode de HRG par exemple, permet de reconstruire des images à 2,5m de résolution (3m théorique) à partir de deux images à 5m de résolution.

75.  volauvent | 14/01/2011 @ 17:30 Répondre à ce commentaire

Laurent (#74),

C’est exact, mais si le bruit de mesure est centré, si on fait 1000 mesures différentes (temporellement par exemple), ce bruit de mesure sera réduit de la même façon sur l’intégrale des mesures.

C’est là où je ne comprends plus: les moyennes globales c’est mille mesures avec des capteurs différents de valeurs différentes en des lieux différents.

l existe des exemples très concrets utilisés tous les jours… par exemple sur des imageurs embarqués sur des satellites. L’hypermode de HRG par exemple, permet de reconstruire des images à 2,5m de résolution (3m théorique) à partir de deux images à 5m de résolution.

Pour moi c’est du traitement du signal, pas de l’évaluation d’incertitude de mesure; et dans votre exemple, on gagne un facteur deux, pas 1000.

76.  phi | 14/01/2011 @ 17:40 Répondre à ce commentaire

Laurent (#73),

Bon, je souhaiterais éviter une nouvelle partie de ping-pong mais quand même une ou deux précisions.

Je suis parti sur cet exemple d’affichage digital pour illustrer ma réponse à Murps qui faisait précisément référence à une configuration similaire. D’autre part bien qu’exemple purement théorique, je crois me souvenir que ce genre de problème se pose réellement dans la pratique mais n’ai malheureusement pas de cas en mémoire à cet instant. On peut imaginer des capteurs crantés qui rendent intéressant l’ajout d’un bruit aléatoire pour améliorer la précision (ou plus justement la définition) de la mesure.

Pardonnez-moi mais je ne dis pas gratuitement que vous n’êtes guère au fait des homogénéisations et des températures sols. Vous faites par exemple référence à Hansen & al. pour les homogénéisations. C’est pour le moins imprécis et prête à confusion car cela donne à penser que vous pourriez confondre comme beaucoup cette opération avec le traitement UHI du Giss.

Je n’ai jamais parlé d’intégration exacte du signal mais de la simple possibilité de tirer des informations quantitatives des courbes régionales, en cela les exemples que j’ai donné sont parlants.

Soit, considérons que le défaut d’échantillonnage n’est pas un biais mais un défaut d’information. Encore faut-il que vous démontriez que ce défaut est tel qu’il ne permet pas de tirer des informations quantitatives des courbes régionales. Je suis désolé mais vous ne l’avez pas fait.

77.  Laurent | 14/01/2011 @ 17:57 Répondre à ce commentaire

volauvent (#75),

C’est là où je ne comprends plus

Chaque mesure individuelle peut se traduire sous la forme T(i) + B(i) (Valeur réelle mesurée plus bruit de mesure). Si, tu fais la moyenne, que ce soit dans le cas de n mesures faites au même endroit ou dans n endroits différents, cela donne somme(i=1,n)T(i)/n + somme(i=1,n)B(i)/n. Dans le premier cas, T(i) est constant =Tvrai, dans le deuxième cela donne en pas forcément bien défini… mais dans les deux cas le deuxième terme de la moyenne tend vers 0 si n tend vers l’infini (si le bruit est aléatoire et centré)

Pour moi c’est du traitement du signal

Oui c’est vrai, c’était pour illustrer ta phrase.

78.  Laurent | 14/01/2011 @ 18:27 Répondre à ce commentaire

phi (#76),

On peut imaginer des capteurs crantés qui rendent intéressant l’ajout d’un bruit aléatoire pour améliorer la précision (ou plus justement la définition) de la mesure.

On peut effectivement imaginer un système ou un bruit aléatoire ajouté à un bruit structuré permet de rendre la somme suffisamment aléatoire pour pouvoir améliorer la précision par redondance de mesures.
Je ne connais pas personnellement de système de mesure qui fonctionne comme cela…. mais pourquoi pas?

je ne dis pas gratuitement

Si…

Je n’ai jamais parlé d’intégration exacte du signal mais de la simple possibilité de tirer des informations quantitatives des courbes régionales

Ca sert à quoi des « informations quantitatives », quand tu ne sais pas quelle est la représentativité des courbes d’où tu tire ces informations?

Encore faut-il que vous démontriez que ce défaut est tel qu’il ne permet pas de tirer des informations quantitatives des courbes régionales. Je suis désolé mais vous ne l’avez pas fait.

Je vous ai proposé de le faire vous-même…. étant donné que j’ai bien vu que tout ce que je pourrais dire ne servirait à rien.
Si vous voulez plus de précision, utilisez donc les anomalies de SST de la NOAA. Elles peuvent être téléchargées à 30′ de résolution sur le site de la NOAA (à la base, en repartant des données brutes, elles peuvent être calculées à 30″ de résolution, soit 60×60 fois mieux, mais pour la démonstration, les données à 30′ peuvent suffire).
Faites en une transformée de Fourier, trouvez la plus petite fréquence spatiale représentée, et déduisez-en le nombre de « stations » qu’il faudrait pour reconstruire ces anomalies de SST avec des stations de mesure (si on pouvait le faire)….

C’est facile à faire avec par exemple à partir de ceci (zone d’environ 6000 km x 4000 km, histoire d’essayer de correspondre à ta définition de « régional »… mais comme tu ne l’a jamais vraiment défini, je confesse jouer aux devinettes):

On trouve une distance minimale entre « stations virtuelle » d’environ 3°, soit une station grosso modo tous les 3 km (mettons tous les 10 km2 pour simplifier, si on rapportait au 140 millions de km2 des surfaces terrestre, il faudrait donc 14 millions de stations pour une mesure correcte du signal d’anomalie), et ce alors qu’on à déjà éliminé la plus grande partie des fortes fréquences spatiales en moyennant par un facteur 3600.
… et la variabilité des températures de surface est bien plus faible pour les surfaces océaniques pour les surfaces terrestres (avec les variations dues au substrat, à la végétation et son évapotranspiration, à l’occupation du sol, etc…), ce qui donnera donc forcément aussi une variabilité accrue pour les anomalies de température de surface.

Ceci dit, je ne pense pas que cela changera quoi que ce soit à ta conviction sur « l’homogénéïté du signal »… 😉

79.  Papyjako | 14/01/2011 @ 18:45 Répondre à ce commentaire

volauvent (#54),

Vous parlez de bruit et de l’extraction d’un signal dans un bruit.

Je précise que mon intervention (Papyjako (#50)) ne se situait pas au plan du fond (sauf la conclusion sur le bidouillage des données), mais au simple plan de la technologie Statistique, et uniquement pour signaler, dans le débat qui se déroule, que l’hypothèse « gaussienne » n’est pas nécessaire.

Ceci dit, l’analogie entre
1) celui qui cherche « la » valeur alors que celle-ci est entachée d’une erreur de mesure,
et
2) celui qui cherche à identifier un « signal », qui est brouillé par un « bruit »
me paraît parfaitement justifiée. En tout cas, les deux relèvent de la même boite à outils.

80.  phi | 14/01/2011 @ 19:01 Répondre à ce commentaire

Laurent (#78),

Ceci dit, je ne pense pas que cela changera quoi que ce soit à ta conviction sur “l’homogénéïté du signal”…

En effet et cela pour une bonne quantité de raisons, je n’en citerai que deux en relation avec votre réponse :

– les océans ne sont pas les terres et votre hypothèse concernant la variabilité spatio-temporelle des anomalies de températures océaniques qui serait moindre n’est pas étayée et probablement fausse.

– le problème a toujours été celui des stations terrestres dont il était, selon vous, très facile de montrer l’échantillonnage insuffisant. Toujours rien.

81.  Papyjako | 14/01/2011 @ 19:36 Répondre à ce commentaire

phi (#63),

Vous disposez d’un instrument digital infiniment précis et vous entreprenez la mesure d’une distance. Si l’affichage digital
de l’appareil est limité au cm, vous pourrez effectuer 100′000 mesures sans améliorer la précision, vous afficherez 100′000 fois le même nombre et vous n’aurez toujours aucun idée de la distance en mm. C’est évidemment un exemple purement théorique. C’est d’ailleurs intéressant et paradoxal car avec un tel instrument si vous parvenez à réduire sa précision de mesure d’une manière aléatoire vous parviendrez à améliorer la précision du résultat.

On peut même pousser un peu plus loin le paradoxe. On n’a même pas besoin de « réduire sa précision de façon aléatoire » si l’instrument est déjà « infidèle », mais avec une « infidélité non biaisée ». Si la loi de probabilité de l’erreur est centrée, et si l’erreur moyenne est assez grande, on va briser le mur de la résolution en faisant la moyenne d’une suite suffisamment grande de mesures fausses !…

Merci phi, pour avoir alimenté ma collection de paradoxes avec celui-ci, que je trouve très joli.

Mais je m’empresse de rappeler, pour ne pas être récupéré, que tout cela s’applique assez mal à des mesures bidouillées Hansennisées.

82.  Laurent | 14/01/2011 @ 19:38 Répondre à ce commentaire

phi (#80),
Comme je le pensais… mauvaise foi intégrale… 😉

Comme je vous l’avais déjà dit, vous pouvez faire exactement la même chose sur les terres avec les données METEOSAT, ou les données NOAA… la seule différence c’est qu’il vous faudra calculer vous-mêmes les anomalies, elles ne vous seront pas servies sur un plateau… et si par hasard vous vous y essayez, vous trouveriez une variabilité spatiale bien plus grande.

la variabilité spatio-temporelle des anomalies de températures océaniques qui serait moindre n’est pas étayée et probablement fausse.

Ben voyons… même en dehors de tous les facteurs de variabilité que je vous ais nommément indiqué au message précédent (et qui donc s’y rajoutent), la variation spatiale et temporelle des températures sol est bien plus grande sur les continents que sur les océans (ça c’est un fait).
Et vous voudriez que les anomalies de températures, elles, soient de variabilité moindre?????… ça c’est une affirmation extraordinaire…

Il n’y a pas pire aveugle que celui qui refuse de voir les évidences… 😉

83.  phi | 14/01/2011 @ 21:24 Répondre à ce commentaire

Laurent (#82),

Evitez les accusations de mauvaise foi alors que vous avez affirmé y avoir recours vous-même pour la recherche de crédits. Cela me révulse car je paye avec les miens présentement le prix de l’effort de me soustraire à ce genre de facilités.

Vous avez une opinion extraordinaire sur un sujet scientifique, c’est tout à votre honneur mais aussi à votre charge d’en convaincre les autres.

Et vous voudriez que les anomalies de températures, elles, soient de variabilité moindre?????… ça c’est une affirmation extraordinaire…

Pas tant que ça si vous réfléchissiez un peu. Tout d’abord, il faut rappeler que l’échelle intéressante est climatique soit plusieurs années. Ensuite les conditions des stations sont très diverses mais plus ou moins (et là est tout le vrai le problème) stables dans le temps. Il en va tout autrement des SST qui dépendent des courants marins. Et puis cette idée de justifier votre position avec les SST est vraiment singulière.

84.  phi | 14/01/2011 @ 21:35 Répondre à ce commentaire

Papyjako (#81),
Vous collectionnez donc les paradoxes. C’est une activité salutaire dans tous les sens du terme.

85.  Murps | 14/01/2011 @ 21:38 Répondre à ce commentaire

Laurent (#82),

Comme je le pensais… mauvaise foi intégrale… 😉

Bah… Si c’est au sens de Riemann. 😉

Blague à part, je me suis trompé et je pense avoir compris votre histoire de précision que l’on augmente avec le nombre de mesures, après la lecture de vos nombreux posts et de vieux cours de stats et de métrologie.
Mine de rien, c’est assez contre intuitif, merci de vos interventions.

Mais, au delà de la signification de la valeur d’une température moyenne (que vous avez sagement laissé de côté), pourriez vous nous dire en quelque mots (je n’exige pas de vous un cours de métrologie et vous faire perdre votre temps, hein ?) si vous pensez que les conditions sont bien réunies en climatologie pour que l’on puisse moyenner vers zéro ces erreurs de températures ?

Il faut que la véritable valeur se répartisse de manière normale autour de la mesure, c’est ça ?
Et c’est toujours le cas ?
Ou alors ça marche avec n’importe quelle distribution ?

J’aimerais bien comprendre.

86.  julien | 14/01/2011 @ 22:14 Répondre à ce commentaire

ou là, désolé pour ce débat (c’est de ma faute..)
en fait, ça se démontre même assez facilement maintenant que j’y pense:

soit E(i) un échantillon d’une série de capteur et i son index
E(i) se décompose en une partie qui est du « signal » ajoutée d’un bruit:

E(i) = S(i) + B(i)

B(i) est donc la précision relative de l’équipement de mesure.

Lorsqu’on fait la moyenne de E(i) :

sigma( E(i) ) / n =
sigma( E(i)/n ) =
sigma( S(i)/n + B(i)/n ) =
sigma( S(i)/n ) + sigma( B(i)/n )

or sigma( B(i)/n ), si le bruit est compris entre 0 et 1 la somme de n bruits tend vers 2*B(i)/n, ou un truc du genre, l’idée est là de toute façon (référence requise, il me semble que la démonstration est dans le numerical recipes, pas sur à 100%), donc plus on augmente le nombre de capteurs et plus la précision s’améliore… car on divise le bruit.

87.  julien | 14/01/2011 @ 22:17 Répondre à ce commentaire

Mais j’avoue que j’ai du mal à comprendre le débat (les gens qui en doutent), c’est exactement ce qui est utilisé dans les appareils photo numériques et argentiques après tout: quand il fait sombre il faut un temps de pose plus long pour obtenir un signal net…

88.  Laurent | 14/01/2011 @ 22:30 Répondre à ce commentaire

phi (#83),

Ensuite les conditions des stations sont très diverses mais plus ou moins (et là est tout le vrai le problème) stables dans le temps. Il en va tout autrement des SST qui dépendent des courants marins.

Vous avez l’air d’y croire…
Si un jour vous voulez vérifier, comparez donc une courbe temporelle de température de l’eau (par exemple issue d’une station marégraphique) avec une courbe temporelle de station terrestre….

Et puis cette idée de justifier votre position avec les SST est vraiment singulière.

Pas tant que ça si vous réfléchissiez un peu….

Fin du dialogue en ce qui me concerne.

89.  René | 14/01/2011 @ 22:31 Répondre à ce commentaire

julien (#87),
Bonjour,

Je ne suis pas sûr que sortir un signal du bruit en accumulant les mesures soit la même chose que d’améliorer la précision d’une série de mesures différentes en augmentant la taille de la série.
Je n’y connais pas grand chose, mais je pense qu’il y a une confusion entre l’accumulation (qu’on fait en photo en augmentant le temps de pose, ou en spectroscopie comme la RMN en accumulant le signal) où on a le même signal qu’on mesure n fois (démonstration du post 86), et la moyenne de n mesures différentes. Or dans la moyenne des températures, que ce soit au cours du temps ou dans l’espace, on fait bien la moyenne de températures différentes, et non pas l’accumulation de la même mesure répétée à l’identique. Donc, même si je ne sais pas le calculer, il me semble que la précision sur la moyenne de n mesure différentes n’a pas de raison d’être meilleure que la précision de chaque mesure (sauf hypothèses réductrices de corrélations entre les mesures).

90.  Laurent | 14/01/2011 @ 22:51 Répondre à ce commentaire

Murps (#85),

si vous pensez que les conditions sont bien réunies en climatologie pour que l’on puisse moyenner vers zéro ces erreurs de températures ?

Si on ne parle que des erreurs strictement instrumentales (liés à l’appareil de mesure et éventuellement à la lecture de la mesure), alors oui.
… mais il existe des régions du monde ou il y a bien d’autres sources d’erreurs… prenons par exemple le parcours typique d’une mesure de température sur une station synoptique sahélienne.
Ces mesures ne sont pas archivées en local, elle le sont des fois au niveau régional (archives souvent incomplètes), mais principalement à l’ECMWF ou elles arrivent via le GTS. Voilà comment cela se passe (toutes les trois heures sur les stations synoptiques):
– un observateur va relever les mesures sur les instruments et les noter (sur un carnet… mais souvent sur une feuille volante) – il n’est pas toujours super motivé – erreur possible sur le relevé
– Il transmet ensuite les mesures, par téléphone ou par radio à un centre sous-régional – erreur possible sur la transmission
– un opérateur code les mesures en messages type OMM, en utilisant le dictionnaire OMM – c’est souvent fait manuellement – autre source d’erreur
– dans certaines centres, le message est encore envoyé par telex GTS (code saisi au clavier du telex) – erreur possible sur la saisie telex.

.. pour résumer, dans certaines régions, la fiabilité des données est… très faible… et ce justement dans des zones ou la couverture spatiale en station est faible.
Alors affirmer que pour ces régions le bruit de mesure est rendu négligeable en moyennant les mesures, je n’en suis pas sur.

91.  Laurent | 14/01/2011 @ 22:55 Répondre à ce commentaire

Murps (#85),

Il faut que la véritable valeur se répartisse de manière normale autour de la mesure, c’est ça ?

En fait, si le bruit est centré, cela suffit (sans oublier la finitude de la variation.. pour papyjako… 😉 )
Mais si la distribution est normale, on sait calculer facilement le gain de précision.

Et c’est toujours le cas ?

non

Ou alors ça marche avec n’importe quelle distribution ?

Uniquement les distribution centrées.

92.  Laurent | 14/01/2011 @ 22:58 Répondre à ce commentaire

René (#89),

Je ne suis pas sûr que sortir un signal du bruit en accumulant les mesures soit la même chose que d’améliorer la précision d’une série de mesures différentes en augmentant la taille de la série.

Si on parle de réduction de bruit instrumental, si c’est exactement la même chose.
Démonstration en Laurent (#77),

93.  phi | 14/01/2011 @ 23:27 Répondre à ce commentaire

Laurent (#88),

Vous avez l’air d’y croire…

Mais, bon sang, c’est vous qui êtes dans la croyance en affirmant des énormités non démontrées !!!

94.  René | 14/01/2011 @ 23:54 Répondre à ce commentaire

Laurent (#92),
Comme je n’étais pas convaincu, j’ai fait une expérience… de simulation. Sur une feuille de calcul, j’ai généré 25 séries de nombres aléatoires chacune dans une plage de +/-10% de la valeur centrale (alea.entre.bornes(9000;11000)/1000 par exemple pour simuler une valeur de 10 mesurée à 10% près), la valeur centrale variant de 1 à 25. J’ai fait 120 tirages par valeur, et j’ai fait les moyennes.
En colonne, j’ai donc la moyenne d’une mesure reproduite 120 fois, et en ligne j’ai la moyenne de mes 25 températures, chacune mesurée une fois.
Sur chaque valeur (colonne), j’ai une « précision » (écart-type/moyenne) de 5 à 6% environ. Sur la moyenne de toutes les valeurs (en ligne) j’ai une précision de 1,35%.
Mon intuition était donc fausse.

95.  Laurent Berthod | 15/01/2011 @ 0:06 Répondre à ce commentaire

René (#94),

René vous avez l’esprit scientifique jusqu’au bout des touches du clavier. Pour cela il faut être un honnête homme avant tout. Merci de cette « démonstration ».

96.  Murps | 15/01/2011 @ 10:15 Répondre à ce commentaire

Laurent (#90), Laurent (#91), Laurent (#92), etc…

Merci bien.
Cela répond exactement à mes questions et me voila parfaitement convaincu.

Pour la petite histoire, et c’est là qu’on voit que les grands esprits se rencontrent ( 😉 ) j’ai également hier utilisé un tableur en générant 400 valeurs pour vérifier tout ça.

Juste que je ne sais pas si la fonction alea() d’excel génère une gaussienne centrée sur 0.5 ou simplement une distribution uniforme.

97.  julien | 15/01/2011 @ 11:55 Répondre à ce commentaire

J’y ai réfléchi cette nuit encore,

En fait le bruit (uniforme ou gaussien) est une fonction centrée en 0, donc sa somme tend vers 0 lorsque le nombre d’échantillons augmente.

Pour les mesures de poids, j’y ai également réfléchi. On peut faire encore mieux en réalité. J’ai réalisé que la publication de paul debevec de 1997 Recovering High Dynamic Range Radiance Maps from Photographs, qui permet notament de reconstruire une information de radiance avec 16 bits de précision à partir de photographies (seulement 3!) limités aux pixels avec 8 bits par composante RVB (et la méthode marche bien même s’il y a des artefacts de compression JPEG dans l’image!)…

Cette méthode pourrait également s’appliquer à la mesure de poids de la manière suivante: On peut mesurer le poids d’un corps contenu dans des récipients successifs de différent poids. Si la balance est précise au gramme et qu’on obtient 3 chiffres significatifs (0..999 grammes): On peut mesurer le poids d’un objet de 500 grammes contenu dans 3 récipients de poids significativement différent sur la même balance (100, 200, 300 grammes) et dont le poids est connu avec précision. En appliquant les formules de reconstruction fournies par la publication de debevec, on devrait obtenir un poids avec une précision bien plus fine que la précision initiale de la balance: je pense à 3 chiffres après la virgule..

Si quelqu’un qui a le matériel veut bien essayer…

Référence: Paul E. Debevec and Jitendra Malik. Recovering High Dynamic Range Radiance Maps from Photographs. In SIGGRAPH 97, August 1997.

98.  Murps | 15/01/2011 @ 13:49 Répondre à ce commentaire

julien (#97),

En fait le bruit (uniforme ou gaussien) est une fonction centrée en 0, donc sa somme tend vers 0 lorsque le nombre d’échantillons augmente.

Oui, d’après ce que j’ai compris.

Si quelqu’un qui a le matériel veut bien essayer…

On doit pouvoir trouver un Prof de Lycée avec sa petite balance qui tente le coup.

Tout ça est très intéressant, merci pour ce fil productif.
smile

99.  volauvent | 15/01/2011 @ 14:44 Répondre à ce commentaire

Murps (#98),

Je remercie tous également pour ces échanges instructifs.
Cela m’amène à poser une question basique à l’assemblée: où peut on trouver les incertitudes affectées aux anomalies globales de température qu’on nous sert un peu partout, et comment elles sont calculées?

100.  Laurent | 15/01/2011 @ 16:00 Répondre à ce commentaire

phi (#93),

Mais, bon sang, c’est vous …/…

Non, c’est vous qui avez affirmé que les anomalies de température terrestres sont temporellement plus stables que les anomalies de température marines… alors même que la variabilité temporelle des températures terrestres est de plusieurs ordres de grandeur supérieure à celle de températures marines (et dépend de beaucoup plus de contributeurs, tous « instables » temporellement, humidité locale, ennuagement, variation de couvert végéta, variation de d’occupation du sol, etc…..)… et c’est ce à quoi je répondais.
C’est tellement énorme que les bras m’en sont tombés et que je tape actuellement sur le clavier avec le bout de mon nez… 😉

Sorry, the comment form is closed at this time.