De Le Verrier à Al Gore.

Faire du climat un objet virtuel par les statistiques pour les modèles.

La « science nouvelle » du 19e siècle est une connaissance construite sur des principes évidents, démontrables ou expérimentables. Quels que soient les domaines d’application, les méthodes employées pour obtenir le savoir sont identiques.

Le souci d’éliminer progressivement le subjectif en science conduit les ingénieurs à automatiser, à « libérer » l’homme de la tâche répétitive de la mesure. Peu à peu les appareils enregistreurs vont donc remplacer l’œil humain. D’abord par le stylet, lorsque sont utilisés les premiers thermographes à enrouleur Richard dès la décennie 1880. Ensuite avec les inventions militaires reconverties pour la météo : le radar dont le premier exemplaire est installé en France dans les années 1930 sur la ligne Maginot et qui entrera en service pour l’atmosphère en 1949 ; enfin le satellite : le premier est russe en 1957 et trois ans plus tard, le satellite météo Tiros 1 financé par le département américain de la défense, est lancé… Ils « photographient l’invisible » à des échelles hors de proportion avec la vision humaine. Pas étonnant donc que l’objet de plus en plus abstrait du climat passe progressivement de local et synoptique à planétaire et que la recherche sur le climat de la Terre se réduise souvent à un système atmosphère/océan, à un géoïde parfait en quelque sorte, sans sociétés humaines…

Le nombre est devenu le descripteur unique de la réalité. C’est sous Le Directoire qu’est créé un département des statistiques modernisé au milieu du 19e siècle en un Bureau de statistique générale, puis en Statistique générale de la France (Sgf), ancêtre de l’Insee. L’intérêt pragmatique du « chiffre » est évident puisque les mathématiques permettent de le traiter. Il est possible de compter, calculer, déchiffrer, dénombrer, estimer… grâce au calcul statistique et aux probabilités qui après Pascal et Fermat, se perfectionnent au 18esiècle avec les frères Bernoulli et leur loi des grands nombres, avec Condorcet, etc. Pour la météorologie, ce sont les Cassini puis Pierre Simon Laplace et Ramond, qui vont transformer les objectifs de la mesure en mettant en avant la comparativité de données enregistrées dans des conditions dissemblables. On doit à ces derniers, d’avoir imaginé de ramener des grandeurs à ce qu’elles seraient en gommant le relief terrestre. Des calculs de correction vont permettre de définir des pressions et des températures « ramenées au niveau de la mer ». La statistique va donner des méthodes pour « harmoniser » des séries de données. Dans l’affaire Mathieu de la Drôme, Le Verrier avouera que sous son prédécesseur (Arago) au Service des probabilités, car tel est le nom du service météorologique, on falsifiait les données. De même pour prévoir le temps du lendemain, compte tenu du peu d’information en mer, on pratique « l’assimilation ». Complexes à manier, les méthodes statistiques semblent opaques aux néophytes et au service d’idées préconçues. Ne dit-on pas : « Les chiffres sont comme les gens. Si on les torture assez, on peut leur faire dire n’importe quoi » ou encore « Les chiffres ne mentent pas, ce sont les menteurs qui chiffrent ». Et Jancovici (conseiller énergie-climat de N. Hulot) peut dire à un journaliste du Monde : « en intégrant la hausse des prix, la croissance pourrait être positive quand bien même la ménagère verrait son pouvoir d’achat diminuer ! ». Autre exemple, en 2007, le Giec vient tout juste de reconnaître que des erreurs de calculs avaient laissé croire que 1990-99 était la décennie la plus chaude depuis le début des relevés, or c’est 1930-39, avec un maximum en 1934 !

En 1954, un calculateur sera mis en service par les suédois. Et dans la décennie 1960, des modèles numériques, qui représentent l’atmosphère par
un ensemble de lois physiques codées en langage informatique, vont permettre de calculer très vite des paramètres de sortie à partir d’un état initial défini par des paramètres d’entrée (des nombres). Ainsi sont calculées « rapidement des solutions approchées » (site Internet Météo France). Les modèles français d’échelle globale (Arpège, de résolution 35 km) ou d’échelle régionale (Aladin, 7 km) donnent la prévision du temps à huit heures à 90% de confiance, à deux jours à 80% mais au-delà ce n’est qu’une tendance suite au fameux « effet papillon ». Un battement d’aile sur Tokyo déclencherait un cyclone dans la Caraïbe ! Les modèles numériques initialement développés pour la prévision météorologiques sont utilisés pour la prédiction du climat. Ces modèles de climatologie, qui envisagent le climat en 2050 ou 2100, n’ont cessé de se complexifier ; aux données de l’atmosphère et de l’océan, se sont ajoutées les glaces de mer, les aérosols, la dynamique de la végétation. Des incertitudes subsistent toujours concernant le rôle des nuages, la renverse de certains courants océaniques, le rôle de variabilités cycliques comme l’Oscillation nord atlantique, ou acycliques comme l’El Niňo Southern Oscillation, etc. Enfin les modèles mixtes avec l’économie introduisent, entre autres, des variables démographiques et des taux de croissance, afin de simuler les émissions de gaz à effet de serre. C’est ainsi qu’ont été définis les quatre
scénarios de B1 « vertueux » à A2 « tout croissance » concernant le changement climatique. La loi française a pris en compte ces scénarios et propose de diviser par quatre les émissions de gaz à effet de serre (« facteur 4 »). Tous ces modèles du futur remontent à la fin des Trente Glorieuses. Le Massachusetts Institut of Technology publie en 1970 Man’s impact on Global environment, qui remanié est repris en 1972 sous le nom de The Limits to Growth, ou rapport Meadows, commandité par le Club de Rome. Ce rapport prévoit pour l’avenir une pénurie de matières premières avant la fin du 20e siècle, une hausse insupportable de la pollution, la fin de la croissance et finalement l’effondrement inéluctable de l’écosystème mondial. C’est dans cet ouvrage que sera vulgarisée « la courbe de Keeling » montrant la hausse vertigineuse des teneurs en CO2 atmosphérique. Encore aujourd’hui, nombre d’alarmistes sur le climat revendiquent ce travail comme leur livre de chevet.
51.  phi | 14/11/2010 @ 23:38 Répondre à ce commentaire

Patrick Bousquet de Rouvex (#50),
Ben, faut lire le saint livre du giec. Mais comme certains exégètes intègrent Ladurie au corpus, ça se complique un peu pour nous autres du petit peuple. Bourg, moinillon de son état, propose de réintroduire la science en latin stratosphérique. Heureuse initiative favorable à la paix de nos âmes, lesquelles, au fond, n’ont que faire des réglages fins de la fournaise de ce bas monde. Vaquons donc pedibus ignorants, obéissants et satisfaits sous le soleil tant qu’il chauffe et ne rôtit point.

52.  miniTAX | 15/11/2010 @ 0:39 Répondre à ce commentaire

On doit à Emmanuel Le Roy Ladurie, dans sa thèse de 1967, une critique synthétique sans complaisance de cette conception de l’histoire comme étant gouvernée par le climat. En fait, dès 1885, Angot avait soupçonné, pour le cas particulier de la culture de la vigne dans le triangle Bourgogne-Vosges-Jura, que les pratiques techniques des viticulteurs rendaient compte des dates des vendanges et non le “climat”. Mais c’est à Le Roy Ladurie qu’on doit la réfutation la plus complète de cette idée que le climat gouverne l’histoire des hommes : c’est tout l’objet de sa thèse, souvent citée, mais peu lue.

Petite fleur des Alpes (#43),
Super, il ne reste plus à Le Roy Ladurie des années 70 qu’à se mettre d’accord avec Le Roy Ladurie des années 2009. Et à faire lire à LRL2009 la thèse-peu-lue de LRL1967 :

Pour ce dernier tome, je suis allé chercher les dates de début et de fin de vendanges, les récoltes de blé et les rendements des producteurs de pomme de terre.
On m’a pris au départ pour un illuminé mais en auscultant les dates de début de vendange, on peut assez facilement deviner quel fut le climat de l’année.

Sorry, the comment form is closed at this time.