Liens vers les données climatiques

Températures :

HadCRUT HadCRUT 4 land/sea temp anomaly
GISSlo GISS land/sea temp anomaly
NOAAlo NOAA land/sea temp anomaly
UAH6.beta UAH lower trop anomaly
RSS-MSU RSS-MSU Lower trop anomaly
BESTlo BEST Land/Ocean
C&Wkrig Cowtan/Way Had4 Kriging
BESTla BEST Land
GISS Ts GISS Ts Met stations temp anomaly
CRUTEM CRUTEM CRU global mean Station anomaly
NOAAla NOAA land temp anomaly
HADSST3 HADSST3
NOAAsst NOAA sea temp anomaly

Océans :

Marégraphes (NOAA).

Altimétrie (AVISO).

Cryosphère

Arctic Climate Research at the University of Illinois, extent et concentration pour l’arctique.

The cryosphère Today

Arctic Sea Ice Extent -15% or Greate,  JAXA data download (CSV file of extent) here Details here.

27 Comments     Poster votre commentaire »

1.  Loiselet | 31/12/2016 @ 16:35 Répondre à ce commentaire

Bonjour,

J’ai jeté un oeil sur les données HadCRUT 4 land/sea temp anomaly (lien ci-dessus) en les transférant sous excel. J’ai, de ce fait, supposé que la première colonne correspond aux années (ce qui parait logique) que les 12 suivantes correspondent aux mois (janvier à décembre) et que la dernière à la moyenne annuelle. En effet, la moyenne coïncide à peu près à ce raisonnement. Cependant, les données relatives à une année viennent sur deux lignes, la seconde étant probablement les deux dernières décimales des moyennes mensuelles. L’analyse de ces deux derniers chiffres est très curieuse car, si c’était bien le cas, on devrait avoir une distribution aléatoire au niveau de ces deux décimales alors que ce n’est pas le cas. Que représentent donc ces deux derniers chiffres? Est-ce une signature de la base de donnée HadCrut4?
Enfin, la référence du 0 est difficile à comprendre? En supprimant les deux dernières décimales (en gardant tout de même 3 chiffres significatifs) la somme de toutes les températures de 1850 à 2015 est de -210°C? A quoi correspond le zéro? Les courbes ne sont donc pas centrées sur 0.

Cordialement.
Emmanuel LOISELET.

2.  Cdt Michel e.r. | 31/12/2016 @ 17:49 Répondre à ce commentaire

Loiselet (#1), Bonsoir Emmanuel,
Les explications sont ici sous Files format :

for year = 1850 to endyear
format(i5,13f7.3) year, 12 * monthly values, annual value
format(i5,12i7) year, 12 * percentage coverage of hemisphere or globe

Pour chaque année, la deuxième ligne correspond aux pourcentages de couverture de l’hémisphère ou du globe
Sous « Answers to Frequently-asked Questions » on apprend que les « monthly values » sont des anomalies par rapport à la moyenne 1961-1990.

3.  rpf | 31/12/2016 @ 18:15 Répondre à ce commentaire

Loiselet (#1),
Bonjour,
Pour le format vous avez en effet sur la première ligne l’année et les valeurs pour les 12 mois correspondant
La ligne en dessous correspond au pourcentage de couverture du globe terrestre :
Ainsi en 2016 nous aurions entre 83 % et 86 % suivant le mois
Alors que la première année (1850) nous aurions entre 18% et 25 % suivant le mois.
La couverture des 510 millions de km² de la terre serai donc meilleure en 2016.

Les valeurs indiquées de « températures » sont en réalité un écart relativement à une température de « référence »
Cet écart est appelé « anomalie » par les « climatologues » et dans le cas de HADCRUT , la température de référence est annoncée comme la moyenne sur 3 décennies (1960 – 1990)
Cette température de référence est estimée être voisine de 15 °C ou 288 K.

Donc, si vous souhaitez avoir la température au sens usuel (°C) il convient d’ajouter 15 à toutes les valeurs.
Pour la température physique (kelvin) il faut ajouter 288.

J’ajoute qu’une anomalie de 1 K correspond seulement à une variation de 1/288 = 0.003 soit 0.3%

4.  MichelLN35 | 2/01/2017 @ 9:19 Répondre à ce commentaire

rpf (#3),

Peut-être mais êtes-vous vraiment sûr que la moyenne de référence correspond bien à 15 degrés pour l’ensemble des 12 colonnes. Si c’est vrai pourquoi parler en anomalies et non en températures véritables. Je suggère plutôt que la référence concerne chaque colonne, c’est à dire chaque mois de l’année pour les 30 années de la période retenue.

Cependant, il faut bien insister ce type de calcul par les anomalies est fondé sur la définition du degré (Celsius comme K) comme centième partie de la variation d’un paramètre volumique (volume spécifique) et/ou quadratique (I^-2). Or, ces deux types de grandeurs n’ont pas de distribution linéaire, on ne doit ni les additionner, ni les diviser. Il n’y a pas de températures moyennes, il n’y a que des moyennes de températures et elles sont surévaluées de part et d’autre de ~50°C, milieu de la zone d’étalonnage.

5.  MichelLN35 | 2/01/2017 @ 9:43 Répondre à ce commentaire

Cdt Michel e.r. (#2),
rpf (#3),

MichelLN35 (#4),

Loiselet (#1),

Je viens de me rendre compte que le Cdt Michel avait déjà répondu à vos questions avec précision : « Sous « Answers to Frequently-asked Questions » on apprend que les « monthly values » sont des anomalies par rapport à la moyenne 1961-1990. »
Il s’agit bien des « monthly values », c’est à dire des valeurs individuelles de chaque mois et l’analyse de chaque valeur du tableau établit que ces « anomalies sont toutes sauf UNE, si j’ai bien vu, inférieures à 0°C ou K.

Il me semble tout à fait irréaliste de penser que sur une telle durée il n’y ait eu qu’un seul mois avec une différence supérieure à 1K. C’est nier la différence d’influence saisonnière entre l’hémisphère sud très océanique et l’hémisphère nord plus terrestre. Il faut aussi rappeler que chaque température quotidienne résulte de la moyenne ((Tmax+Tmin)/2) qui fait disparaître les effets des températures extrêmement froides qui sont probablement les plus surévaluées, cf le dropcanvas cité antérieurement.

Il serait déjà plus informatif de disposer des moyennes mensuelles max et min.

Bonne année à tous

6.  volauvent | 2/01/2017 @ 9:55 Répondre à ce commentaire

MichelLN35 (#4),

Il me semble que vous confondez définition (degré centigrade, Celsius, kelvin,) et incertitudes, ou linéarité, des mesures.
La définition officielle du degrés Celsius est maintenant basée sur le Kelvin; autrefois elle était fixée par rapport au point de gel et de l’ébullition de l’eau à pression normale. La conséquence est que le degré Celsius n’est plus tout à fait centésimal, mais la différence est très faible.
Quand aux erreurs et incertitudes de mesure, elles sont énormes, pour les raisons que vous citez et pour d’autres.

Mais le fait qu’on ne peut moyenner des températures de différents régions, ou plutôt que cela n’a pas de signification physique ne vient pas de ce que vous dites. La température est une grandeur intensive, intrinsèque au corps auquel elle est rattachée, indépendamment de tout aspect quantitatif.

7.  Ecophob | 2/01/2017 @ 12:58 Répondre à ce commentaire

rpf (#3), Vous faites erreur sur la dernière phrase :

J’ajoute qu’une anomalie de 1 K correspond seulement à une variation de 1/288 = 0.003 soit 0.3%

1 K = 1 °C il y a pas de facteur d’échelle entre les 2 unités mais simplement une translation d’échelle : T(K) = t(°C) + 273,15

8.  Ecophob | 2/01/2017 @ 13:18 Répondre à ce commentaire

MichelLN35 (#4), je respecte vos interventions et votre implication pour lever les bobards réchauffistes, mais concernant la physique de la mesure des températures vous faites erreur :

Cependant, il faut bien insister ce type de calcul par les anomalies est fondé sur la définition du degré (Celsius comme K) comme centième partie de la variation d’un paramètre volumique (volume spécifique) et/ou quadratique (I^-2). Or, ces deux types de grandeurs n’ont pas de distribution linéaire, on ne doit ni les additionner, ni les diviser.

Un capteur de température ou un thermomètre peuvent varier intrinsèquement de façon non linéaire en fonction d’une variation de température, leur étalonnage par rapport à l’EIT-90 permet de les linéariser. L’étalonnage consiste précisément à retrouver les coefficients d’un polynôme de linéarisation qui permet de passer de valeurs brutes non-linéaires (variations de tension, de fréquences… issues d’un convertisseur A/N) à des valeurs physiques qui varient de façon linéaire.
L’EIT-90 étant une mise en pratique de l’échelle des températures thermodynamiques, les températures physiques mesurées sont proportionnelles aux températures thermodynamiques. Les dernières expériences réalisées sur la constante de Boltzman, qui servira en 2018 à redéfinir l’unité ‘température’, ont montré que les écarts entre les températures référencées à l’EIT-90 et la température thermodynamique, tiennent dans les +/- 0,005 °C entre – 50 °C et + 50 °C.
Certes, une moyenne de température n’est pas une moyenne de quantité d’énergie, mais ça reste un indicateur valable de l’évolution d’un système, si l’étalonnage des capteurs a été réalisé correctement et à intervalles réguliers pour pallier les dérives instrumentales qui sont la principale source d’incertitude et d’erreur dans les calculs de tendances.

9.  volauvent | 2/01/2017 @ 15:04 Répondre à ce commentaire

Ecophob (#8),

Certes, une moyenne de température n’est pas une moyenne de quantité d’énergie, mais ça reste un indicateur valable de l’évolution d’un système,

Fichtre non, concernant un climat! Une température ne suffit pas: mini; maxi, il faut y associer l’hygromètrie, la pluviomètrie, la rose des vents… Sinon, Madrid et New York même moyenne temporelle, même climat? Indicateur de l’évolution d’un système à la rigueur en un point donné, mais une moyenne en plusieurs lieux? Moyenne entre Chamonix et le sommet du Mt Blanc? Quelle poids donner à chaque point de mesure? etc….etc…

10.  rpf | 2/01/2017 @ 16:00 Répondre à ce commentaire

Ecophob (#7),
Bonjour,

1 K = 1 °C il y a pas de facteur d’échelle entre les 2 unités mais simplement une translation d’échelle : T(K) = t(°C) + 273,15

Vous avez raison pour la translation, il y a bien un simple décalage entre l’échelle utilisée (pour des raisons historiques) en °C et la vrai échelle des phénomènes physiques (en kelvin).

Mais vous dites aussi:

Vous faites erreur sur la dernière phrase :
J’ajoute qu’une anomalie de 1 K correspond seulement à une variation de 1/288 = 0.003 soit 0.3%

Je ne pense pas que cela n’affecte ma remarque en #3 : la voici à nouveau mais exprimée différemment:
a) Si la « température » passe en un siècle de 15°C vers 16°C nous avons une variation de 1°C
Avec l’échelle des physiciens, donc en kelvin: la « température » passe de 288 K vers 289 K , nous avons donc une variation relative de (289-288)/288 = 0,0035 ou 0,35 %

b) La température moyenne de la basse atmosphère n’est pas connue précisément : si vous pensez qu’elle est, par exemple, plutôt de 17°C, cela affecte fort peu ce calcul :
La « température » passe en un siècle de 17°C vers 18°C nous avons une variation de 1°C
Avec l’échelle des physiciens, donc en kelvin : la « température » passe de 290 K vers 291 K , nous avons maintenant une variation relative de (290-291):290 = 0,0034 ou 0,34 %

c) En réalité les mesures de « températures » atmosphériques véritablement mondiales ne commencent qu’avec les satellites.
Les satellites donnent alors (sur les 3 dernières décennies = durée classique en climatologie) une variation de +0,4K, soit la variation relative de + 0,4 /288 = 0.0014 soit +0.14%
Dans le même temps la partie haute de l’atmosphère voit une variation de -0,8K (une baisse!) soit une variation relative de -0,5/220 =0.0023 = -0.23%

Il me semble qu’un site climato-réaliste comme Skyfall devrait parfois rappeler (aussi) les ordres de grandeur des variations relatives: +0.14% et -0.23% elles sont infimes pour les variations de « températures » alléguées par les « climatologues »
Une façon de le dire graphiquement : on peut bien sûr donner les courbes usuelles des « anomalies » fournies par divers organismes : https://i.goopics.net/Zej3.jpg

Mais parfois donner (aussi) la courbe de la température physique en kelvin: https://i.goopics.net/pE8l.jpg

11.  tsih | 2/01/2017 @ 16:45 Répondre à ce commentaire

rpf (#10),

En effet, tenez c’est comme pour un bébé (surtout si c’est celui de la voisine réchauffiste)) qui a la fièvre, il faut relativiser , voyons.

Même 40 °C par rapport à 37 °C, ce n’est jamais sur « l’échelle du physicien » que 3 / ( 273 + 37 ) = moins de 1 % !
Oubliez-ça. Pas de quoi en faire un fromage.

12.  Christial | 2/01/2017 @ 17:18 Répondre à ce commentaire

volauvent (#9),

Fichtre non, concernant un climat! Une température ne suffit pas: mini; maxi, il faut y associer l’hygromètrie, la pluviomètrie, la rose des vents…

Ecophob ne prétend pas que la température globale permet d’appréhender toute la complexité du climat, c’est un indicateur valable dit-il.
Quand on pilote un système, qu’on cherche à évaluer son comportement, on ne se contente pas d’un seul indicateur, il en faut plusieurs composant un « tableau de bord », pour utiliser le vocabulaire des gestionnaires.
Qu’une moyenne de température, grandeur intensive, gène les puristes je le comprends mais ce défaut ne lui retire pas pour autant sa qualité d’indicateur. En tout cas dans la doxa réchauffiste cet indicateur est même particulièrement pertinent puisque l’effet de serre domine et l’emporte à terme sur la variabilité naturelle, avec pour conséquence un réchauffement global.
Il se trouve que le vocabulaire et le référentiel (« depuis la fin des temps préindustriels » plutôt que « depuis la fin du petit âge glaciaire » par exemple) qui nous sert à échanger sur le climat a été construit par le GIEC sur les présupposés du RCA sans lequel il n’a pas de raison d’exister. Qu’on le regrette ou pas, il nous faut bien faire avec en attendant que la bulle éclate.

13.  Ecophob | 2/01/2017 @ 19:23 Répondre à ce commentaire

Christial (#12), volauvent (#9), effectivement, je n’ai jamais prétendu que la température suffisait pour caractériser le climat, et c’est bien le raccourci que l’on peut reprocher aux réchauffistes (augmentation de T = augmentation de CO2). Quand on a de la fièvre, prendre sa température ne permet pas de savoir de quoi on souffre, mais ça permet de savoir si on va mieux ou moins bien.
Le température est une variable d’état comme la pression qui est aussi une grandeur intensive. Et pourtant, ça paraît moins gênant de faire des moyennes de pression.

14.  MichelLN35 | 2/01/2017 @ 19:36 Répondre à ce commentaire

Ecophob (#8),

Merci pour votre remarque mais c’est justement parce que la température ne devrait pas être considérée comme une grandeur de dimension linéaire puisqu’elle est appuyée sur la loi des gaz parfaits et calibrée toujours sur un thermomètre à dilatation liquide le plus souvent mercure.

PV = nRT correspond au produit d’une masse (kg) par une accélération de la pesanteur v^2 (kgM*m*m*s^-2) le tout multiplié par un volume V. Et l’instrument thermomètre, même électrique mesure la variation d’un volume spécifique le plus souvent confondu avec une variation linéaire de volume. S’il y a 100 mm^3 entre 0 et 100°C, entre 0 et 1 °C il y a bien 1 mm^3 et la variation du volume spécifique est 1/1000 pour un thermomètre de v0=1000mm^3. Mais entre 100 et 101 °C toujours 1mm^3 mais variation de Vol spécif = 1/1100, c’est plus petit et si on dit que c’est égal on surévalue la température.

Je défends une position théorique pas une dérive instrumentale. L’erreur peut être énorme, voir ce dropcanvas les derniers items en bas de page http://dropcanvas.com/00rhf . Il faut parfois forcer l’entrée dans le dropcanvas en faisant fi du certificat. Benoît Rittaud a dès le début attiré notre attention sur la nature des moyennes de températures arithmétiques ou quadratiques (Le Mythe climatique pp89-94).

Quant à la loi de Boltzmann censée établir une proportionnalité en énergie par K elle ne s’applique qu’à un milieu en équilibre macroscopique et pour mesurer l’entropie. Une moyenne quotidienne de T min et max fait référence à deux systèmes très différents qui ne sont surement pas en équilibre thermodynamique à aucun moment. La moyenne ainsi conçue et appliquée à l’ensemble de la terre me semble tout à fait non pertinente.

15.  Ecophob | 2/01/2017 @ 19:36 Répondre à ce commentaire

rpf (#10), si vous faites un zoom de la courbe rouge, c’est à dire une mise à l’échelle, vous verrez les variations du premier graphique. Tout est une question d’échelle sur un graphique, de gain sur un oscilloscope ou un microscope. Il faut se placer à l’échelle du phénomène que l’on cherche à observer si on veut comprendre ce qu’il se passe.

16.  MichelLN35 | 2/01/2017 @ 19:44 Répondre à ce commentaire

Christial (#12),

Vous dites : « Qu’une moyenne de température, grandeur intensive, gène les puristes je le comprends mais ce défaut ne lui retire pas pour autant sa qualité d’indicateur. En tout cas dans la doxa réchauffiste cet indicateur est même particulièrement pertinent puisque l’effet de serre domine et l’emporte à terme sur la variabilité naturelle, avec pour conséquence un réchauffement global. »

Si quand même, un peu s’il suffit d’introduire quelques températures très basses sans changer la moyenne arithmétique pour voir augmenter considérablement la moyenne parce que les températures les plus basses seraient les plus surévaluées. C’est ce que signale Benoît sur les moyennes quadratiques qui peuvent inverser les tendances.

17.  Ecophob | 2/01/2017 @ 20:07 Répondre à ce commentaire

MichelLN35 (#14),

la température ne devrait pas être considérée comme une grandeur de dimension linéaire puisqu’elle est appuyée sur la loi des gaz parfaits

Non, la température traduit l’énergie cinétique de particules et les échelles de température sont basées sur la théorie de Bolztmann ou (et) sur la relation de Kelvin issue des travaux de Carnot sur les échanges de chaleur et le 2sd principe de la thermodynamique.
La température est la grandeur la plus mesurée au monde, que ce soit dans l’industrie ou pour l’environnement, et cela depuis fort longtemps. Remettre tout en cause comme vous le faite, ne tient pas la route, où il faudrait tout de suite arrêter les centrales nucléaires, les régulations de chauffage industrielles ou chez les particuliers…
Pour le reste de vos remarques, j’ai vraiment du mal à vous suivre.

18.  volauvent | 2/01/2017 @ 21:35 Répondre à ce commentaire

Christial (#12),

Qu’une moyenne de température, grandeur intensive, gène les puristes je le comprends mais ce défaut ne lui retire pas pour autant sa qualité d’indicateur.

Indicateur de quoi? d’un réchauffement? c’est à dire de plus de chaleur? La chaleur, c’est la température multipliée par quelque chose pour en faire une grandeur extensive, justement.

Et le réchauffement de quoi? De l’atmosphère? mais 70% de ces températures, c’est une température de l’eau…Alors, où est le trop plein de chaleur? Au fond des océans? Mais alors, ça ne chauffe plus en surface?

Vous voyez bien que ce n’est pas un bon indicateur.
Quand à la pression, si un de vos pneus dégonfle, pas de problème, la moyenne avec les 3 autres rétablit l’équilibre?

19.  Christial | 3/01/2017 @ 12:14 Répondre à ce commentaire

volauvent (#18),
J’ai précisé dans la doxa réchauffiste qu’on peut rejeter en totalité ou partiellement.

Vous avez une maison ancienne très mal isolée. Selon l’air du temps il y fait parfois très froid dans les pièces du bas, un peu moins dans celles de l’étage et celles exposées au Sud et à l’Ouest.
Vous l’isolez, il n’est alors pas stupide de prendre comme indicateur d’amélioration de la performance thermique la moyenne des températures des pièces et de les comparer, sur la durée, à celle avant la rénovation, non ? Où sont passés les calories ? Dans les murs, dans le sol, dans le toit, dans l’air ambiant.

Le pneu c’est pas moi, je gonfle bien mes 4 pneus, je peux même souffler dans le ballon sans crainte.

20.  volauvent | 3/01/2017 @ 13:11 Répondre à ce commentaire

Christial (#19),

Vous l’isolez, il n’est alors pas stupide de prendre comme indicateur d’amélioration de la performance thermique la moyenne des températures des pièces et de les comparer, sur la durée, à celle avant la rénovation, non ?

Prendre la moyenne pour chiffrer, à consommation énergétique identique, l’amélioration du confort est stupide. Vous pourriez crever de chaud dans certaines pièces pour être juste bien dans d’autres.
Et à confort identique, avec pour objectif de diminuer la consommation, on ne peut pas non plus partir de la moyenne; il faut partir de la pièce la plus froide, ou la plus chaude, selon ce qu’on veut, et surtout pas de la moyenne.

C’est un des points majeurs de cette affaire climatique: pour s’adapter, c’est local, pas global. Il faut donc des prévisions régionales. Or les modèles sont très loin d’atteindre une maille régionale , de l’aveu même des modélisateurs.

21.  Christial | 3/01/2017 @ 18:47 Répondre à ce commentaire

volauvent (#20),
Non, pas de ça avec moi ! Je ne suis pas champion de la rhétorique mais pas un bleu non plus.
Ne dénaturer pas mes propos, je ne parle pas de mesurer le confort, ni la consommation énergétique. Ce serait mieux sans doute et alors ? Je ne vous vends pas des travaux de rénovation, je fais à dessein une comparaison avec ce qui se passe dans la tête d’un réchauffiste convaincu de l’effet de serre qui réchauffe(rait) globalement la planète et l’isolation d’une maison qui augmente la température moyenne.
Alors oui la température moyenne est un indicateur pertinent, mesurable avec les moyens existants (dans la vie il faut savoir être pragmatique), à défaut d’être parfait et complet. Indicateur de quoi, c’est toute la question.
Pas un indicateur de confort ou de consommation, un indicateur de la performance thermique du bâti dans mon cas imagé et d’un réchauffement global dans l’autre, si effet de serre dominant il y a.

22.  volauvent | 3/01/2017 @ 19:32 Répondre à ce commentaire

Christial (#21),

sauf qu’on se fiche de l’effet global car ce qu’on vit, c’est du local. Et les écarts de températures globales ne disent rien sur le local.

23.  Christial | 4/01/2017 @ 14:22 Répondre à ce commentaire

volauvent (#22),
OK, on ne va pas polémiquer entre nous sur la qualité d’un indicateur d’une théorie fumeuse qui finira en fumée.

24.  shayabe | 25/11/2017 @ 17:48 Répondre à ce commentaire

Dans la colonne de gauche, rubrique « Mesures Données », Liens vers les données climatiques », les deux liens de la Cryosphère ne fonctionnent plus. L’université de l’Illinois a changé l’adresse et j’ai beau chercher je ne trouve pas les nouveaux URL. A moins qu’ils n’existent plus. Je n’ai rien vu qui y menait dans le site de l’Université. De même dans la rubrique Températures les liens menant à un ftp (NOAAIo, -Ia et -sst) sont inaccessibles. Si on pouvait retrouver les bonnes adresses… Merci

25.  Murps | 25/11/2017 @ 21:49 Répondre à ce commentaire

shayabe (#24), dés que j’ai 5 minutes je corrige le bouzin.
Merci de l’avoir signalé.

26.  Cdt Michel e.r. | 26/11/2017 @ 3:39 Répondre à ce commentaire

Murps (#25),

Chez moi, la page Cryosphère sur le site de Hacène Arezki est accessible.

Par contre, les images provenant du site de l’Université de l’Illinois ne s’affichent pas.
Le serveur http://artic.atmos.uiuc.edu est en effet « Down » pour tout le monde (Test du serveur via Flagfox)

27.  Cdt Michel e.r. | 26/11/2017 @ 5:56 Répondre à ce commentaire

Christial (#23),

Le dropcanvas J.von Hann – Handbook of Climatology 1897 a été vu et téléchargé de nombreuses fois (46/31 fois depuis le 25 février 2017). Mais combien l’ont lu complètement, surtout le chapitre 1 sur les Températures ?

Extrait du document hours-of-obervation.pdf (une seule page A4, 43 Ko) concernant les heures d’observation.

The means derived from the daily extremes (that is, from the readings of the maximum and minimum thermometers) also give values which are somewhat too high, the difference being about 0.4° in the majority of climates throughout the year.

Il est remarquable qu’à la fin du XIXe siècle Julius von Hann montrait déjà que ½ (Tmin + Tmax) ne reflétait pas la vraie température moyenne sur vingt-quatre heures (moyenne de 24 mesures horaires).

En supposant donc que les températures, qui ont été enregistrées, ont été relevées et notées avec le plus grands soin, il est impossible maintenant de calculer une moyenne précise des températures les plus anciennes.
Ajoutons à cela qu’avant 1900, la plupart des stations terrestres étaient situées en Europe, que maintenant la plupart sont situées aux USA, beaucoup moins en Europe et en Asie et très peu en Afrique et en Amérique du Sud.
Les mesures anciennes de températures des océans (70 % de la surface terrestre) sont rares et peu fiables : mesures sur le pont des bateaux, en surface avec des seaux, à des profondeurs variables sur la prise d’eau de refroidissement des moteurs, etc.

Je vous engage aussi à lire le quatrième document little_age_thermometers.rtf

J’y explique comment j’ai trouvé ce document, comment je l’ai édité et pourquoi je n’utilise plus que la suite bureautique Libre Office, alors que je disposais d’une version de MS Office Pro (celle que j’ai utilisée à l’armée en 1995 et 1996).