Pourquoi le Met Office se trompe-t-il ?

(Rappel : la météo n'est pas le climat. Mais où se situe la limite dès que l'on parle de prévisions saisonnières ou pour l'année à venir ? Pour la France, voir également, en nettement moins médiatisé, il est vrai, ce document de MétéoFrance : et ,  ainsi qu'un rappel sur les grands froids –ici– . Merci à Volauvent et à Manu95 pour leurs contributions.)

• • • • •

Avec un super-ordinateur géant, 1500 employés et un budget de 170 M£/an, pourquoi le Met Office se trompe-t-il ?

Par Richard North
Source

Son superordinateur fait 1.000 milliards de calculs par seconde, et il nous dit de s'attendre à un hiver doux.  Mais qu'attendre d'un « organisme scientifique » qui pendant 20 ans a été dominé par des fanatiques du changement climatique, et dont le président actuel est l'ancien patron du World Wildlife Fund ?

"Un froid tel qu'il n'a pas été vu depuis plus de 25 ans à cette échelle, va poser des problèmes aux zones grandes consommatrices d'énergie de l’hémisphère nord. Les 15 premiers jours de 2010 seront les plus froids depuis plus de 25 ans au-delà de 30 degrés de latitude nord."
C'est le jugement refrigérant rendu par Joe Bastardi, prévisionniste météo sur la chaîne de télévision américaine AccuWeather.

Alors qu'il y a plusieurs mois, lui et plusieurs de ses concurrents avaient correctement prévu des gelées avant Noël, l’organisme qui nous disait l’an dernier de se préparer à un « été barbecue », a encore tout faux.

Il s’agit de notre fameux Met Office national, qui prédisait encore avec assurance début septembre un hiver plus chaud que la moyenne pour la Grande Bretagne. Allez dire ça aux passagers d’Eurostar bloqués dans le tunnel sous la Manche pendant 18 heures avant Noël, l’arrêt de leurs trains ayant été imputés au temps le plus froid depuis 15 ans.
Ce n’est que fin novembre que le MET OFFICE a changé de ton et a baissé ses prévisions en disant qu’il y avait « 50 pour cent de chances » d'avoir un hiver doux.
Lancer une pièce de monnaie aurait donné le même résultat, ce n’est pas ce que vous attendez d’une organisation qui dépense près de 170 millions de £ par an, a 1500 employés et une équipe de scientifiques travaillant avec un super-ordinateur de 30 millions de £ capable de 1.000 milliards de calculs par seconde, avec une empreinte carbone digne d’une petite ville.
Pourtant, même avec ce tout nouvel ordinateur fonctionnant depuis le mois d’août, ce 10 décembre, le Met Office prévoyait qu’il était « plus probable qu’improbable que 2010 soit l’année la plus chaude depus que des données mesurées existent, en dépassant le précédent record de 1998 » . Cette prévision reste inchangée.

Une saleuse près de Huddersfield (UK)

Saleuse près de Huddersfield (UK).

Comment le Met Office peut-il autant se tromper, tant sur l'« été barbecue » et que sur l'hiver doux? Et est-ce que la réponse à cette question ne n'aurait pas à voir avec son étonnante transformation ces dernières années?

D’une agence vieillote créée en 1854 au service des marins, puis des aviateurs, le Met Office est devenu un service du Ministère de la Défense. Mais il a été depuis, transformé en un service de propagande puissant dont la principale mission semble être de convaincre le monde que nous sommes victimes d'« un changement climatique dangereux ».
C'est dû en grande partie à un seul homme –  John Houghton (maintenant Sir John) –  qui fût directeur général puis directeur général exécutif du Met Office entre 1983 et 1991.

C’est lui qui, en 1988, a assisté à la première Conférence mondiale sur l’évolution de l’atmosphère à Toronto et qui plus tard devint le premier président scientifique du Groupe d’experts intergouvernemental de l’ONU sur les changements climatiques.

Il a été avec l'un de ses principaux conseillers, Sir Crispin Tickell, celui qui a convaincu le Premier ministre Margaret Thatcher de financer une nouvelle unité, le Hadley Center for Climate Prediction and Research. Créé en 1990, il est situé actullement à Exeter et emploie plus de 200 personnes, étant devenu le temple de ce que d'aucuns considèrent comme la "religion" du changement climatique.

Son rôle crucial est  désormais bien connu car c'est ce centre, en collaboration avec l’Unité de recherche climatique (CRU) de l’Université d’East Anglia, qui produit l’un des ensembles de données les plus fiables utilisés pour suivre la température globale et nous raconter que la planète se réchauffe.

Il est important de noter que c’est ce même CRU qui a été impliqué dans le soi-disant « scandale du Warmergate », où une fuite d’e-mails suggère que des climatologues auraient pu manipuler les données quand elles ne fournisaient pas les réponses qui prouvaient que le réchauffement planétaire se poursuivait. L’Université d’East Anglia a ordonné un audit indépendant sur l'affaire du Warmergate et les allégations faites à l'encontre du CRU.
La question – qui est souvent mal comprise – est que la soi-disant "température globale" produite par ces chercheurs  et sur laquelle repose toute l’affaire du « réchauffement climatique dangereux », n’est pas une observation directe.

Le système de collecte des données est loin d’être parfait, conçu initialement pour la météorologie, et non pour des prévisions climatiques à long terme. Conformeément aux origines militaires du Met Office, beaucoup de stations météorologiques sont situées sur des terrains d’aviation. Elles fournissent des observations en temps réel pour les aviateurs et les données pour les prévisions à court terme. Ce ne sont pas des stations de  climatologie et ne devraient sans doute pas être utilisées comme telles.

De plus, des aéroports comme Manchester, Aberdeen, qui étaient jadis des pistes d’atterrissage enherbées, sont désormais en béton, conduisant à des variations des températures bien au-dessus des alentours. C'est l’effet d’îlot de chaleur urbain.

En raison de cet effet, des changements d’instruments, des erreurs de compilation et des énormes lacunes dans les mesures, les données brutes doivent être « corrigées » – parfois à plusieurs reprises. Puis, des techniques statistiques sophistiquées doivent être appliquées avant qu’un chiffre global unique ne soit produit.

La complexité des calculs, et la part considérable de jugement humain pour choisir un nombre limité de données de température à utiliser à partir des milliers de stations météorologiques du monde entier, laisse le processus largement ouvert à l’erreur et aux préjugés. Ainsi, les résultats définitifs n’indiqueraient guère plus que l’opinion des scientifiques qui les produisent.
C’est là que la bonne foi et l’impartialité des scientifiques impliqués est si importante, et pourquoi le scandale du Warmergate a été jusqu’à présent si dommageable. Loin d’être d'impartiaux dépositaires de la vérité, certains scientifiques ont montré qu’ils ont des faiblesses, plus attentifs à préserver leur pré-carré plutôt que la science.
Le Warmergate a été renforcé peu de temps après, lorsque des analystes russes se sont plaints que le Centre Hadley avait fait une sélection orientée à partir des données de températures mises à disposition par la Russie, en utilisant seulement celles qui étaient anormalement élevées. Des plaintes similaires ont été faites sur les données des États-Unis où l’effet d’îlot de chaleur urbain et les erreurs de positionnement pourraient invalider 80 pour cent des stations météo. Le mois dernier, le Met Office a réfuté l’accusation de sélection orientée et a dit qu’il a utilisé les données provenant d’un réseau de stations spécifiques conçu par l’Organisation météorologique mondiale.
Mais il y a une raison plus grande de douter de l’impartialité du Met Office et du  Hadley Centre. Ayant eu à sa tête Sir John Houghton, un « réchauffiste convaincu », en 2006, il a recruté un nouveau président très controversé – Robert Napier.
Décrit comme un « écologiste engagé » puis comme un « environnementaliste passionné », avant de prendre la direction du Met Office, Napier avait été pendant sept ans le directeur général du World Wildlife Fund-UK, l’un des groupes activistes les plus en vue dans les affaires de changement climatique.

Jusque-là, le WWF avait été principalement concerné par les questions de faune et de biodiversité. Il est largement admis que Napier y a ajouté le changement climatique durant son mandat, usant de sa position pour « tirer parti de la puissance et l’expérience de l’organisation tout entière », en changeant son orientation jusqu'à en faire la principale activité de l’organisation.

Entre autres choses, Napier a été particulièrement efficace pour monter des accords avec de grandes entreprises, par exemple avec Allianz le géant de l’assurance, en le convaincant qu’il y avait de l’argent à gagner avec le changement climatique.
Bizarrement, bien que le Met Office fasse toujours partie du ministère de la Défense et que son personnel soit constitué de fonctionnaires (qui, selon le Met Office lui-même, « ne peuvent mener d'actions individuelles en faveur du changement climatique »), l’organisme a suivi son nouveau chef. Il est devenu un lobby de poids qui se fait entendre, contribuant énormément à la conférence sur le changement climatique de Copenhague le mois dernier, lors de laquelle il prédit que cette année sera la plus chaude jamais enregistrée.
La question se pose de savoir si l'on peut toujours faire confiance au Met Office pour donner des prévisions correctes. Prédire le temps – à court et à long terme – n’est pas une science exacte. Les ordinateurs peuvent manipuler les chiffres, mais les programmes ou les « modèles » qui y tournent sont conçus par des êtres humains.
Les modèles informatiques utilisés pour prévoir que nous allons cuire en 2030, 2050 ou même 2080, sont les mêmes que ceux utilisées pour produire les prévisions à plus court terme. Ce sont ces modèles qui nous ont dit en septembre que nous allions avoir un hiver doux.
Mais les problèmes ne s’arrêtent pas là. Initiallement organisme technique, le Met Office est devenu le producteur et le pourvoyeur d'une propagande sans fin sur le changement climatique. Sa dernière production est une coûteuse brochure de 20 pages sur papier glacé. Elle est bourrée d’affirmations hautement controversées et débatues, qui sont proférées avec l’autorité d’un organisme gouvernemental, comme si elles étaient des faits incontestables.
Il n’y a pas de place pour le doute, par exemple, dans l’affirmation que les êtres humains sont à l'origine du changement climatique.
«Les activités humaines comme la combustion de charbon, de pétrole et de gaz ont conduit à… un réchauffement supplémentaire. En conséquence, au cours du siècle passé, il y a eu une tendance à l'augmentation des températures moyennes qui se poursuit encore.

Or, aucun réchauffement visible n'a été enregistré depuis 1998.

En effet, il a neigé au Royaume-Uni ces trois dernières années, notamment en octobre dernier lorsque les députés ont voté la loi sur le changement climatique. Chaque hiver a été plus sévère que les précédents, et de nombreux chercheurs indépendants, y compris Joe Bastardi, croient que la terre est entrée dans un cycle de refroidissement.

Ce qui fut un organisme très respecté risque de devenir la risée de la communauté météorologique et un danger pour nous.

Les agriculteurs qui comptent sur le Met Office risquent la mort de leurs animaux et la destruction de leurs cultures. Les autorités locales, qui ont réduit leurs stocks de sel, car le Met Office avait déclaré que l’hiver serait doux, mettent la vie des automobilistes et des piétons en danger. Les compagnies aériennes, non averties de la neige, ont perdu des millions de livres sterling, tandis que les voyages de centaines de milliers de personnes ont été perturbés.

Le Met Office semble avoir oublié ce pourquoi il avait été créé : prévoir la météo pour chaque jour. A la place, il consacre ses énergies au fantasme qu'il peut prédire le climat des décennies à venir quand il ne peut même pas vous révéler si il va neiger la semaine prochaine, ou si nous pourrions avoir un « été barbecue ».

• • • • •

1.  Abitbol | 6/01/2010 @ 9:28 Répondre à ce commentaire

Merci pour cet article lumineux !
Napier (le nom du Joker dans Batman) ne démisionnera pas, mais j’ai une petite consolation en pensant que les incompétents et les malhonnêtes dans la météo et la climato ne sont pas une spécialité française…

2.  chria | 6/01/2010 @ 9:56 Répondre à ce commentaire

Article intéressant, mais surfant un peu trop sur l’amalgame météo-climato pour moi.

Les modèles informatiques utilisés pour prévoir que nous allons cuire en 2030, 2050 ou même 2080, sont les mêmes que ceux utilisées pour produire les prévisions à plus court terme. Ce sont ces modèles qui nous ont dit en septembre que nous allions avoir un hiver doux.

Ah bon ? Les mêmes modèles ?

plus probable qu’improbable que 2010 soit l’année la plus chaude depus que des données mesurées existent, en dépassant le précédent record de 1998

Puisque, d’après leur système, on vit la décennie la plus chaude des 15 dernières, alors effectivement il y a plus de chance de battre le record que si on était en 1880 ! Ils sont pas très crédibles ces gens-là.

3.  chria | 6/01/2010 @ 10:21 Répondre à ce commentaire

Bon et alors, on ne fait pas un concours de pronostics pour cette année ?

4.  Bof | 6/01/2010 @ 11:39 Répondre à ce commentaire

Bon article, on aimerait en voir un semblable dans la presse française. En 2010, peut-être ?

Finalement, le Met Office c’est comme Rantanplan (le chien de Lucky Luke)
Quand il dit d’aller à droite, il vaut mieux aller à gauche !

5.  Daniel | 6/01/2010 @ 11:49 Répondre à ce commentaire

Le superordinateur du Met Office est bon pour la ferraille
Les contribuables et les entreprises feraient de sacrées économies en s’abonnant aux prévisions d’ AccuWeather
Les prévisions de Joe Bastardi se basent sur des observations et non sur des calculs de probabilités d’une machine

6.  floyd | 6/01/2010 @ 11:54 Répondre à ce commentaire

Avec un super-ordinateur géant, 1500 employés et un budget de 170 £/an, pourquoi le Met Office se trompe-t-il ?

Ben avec budget de 170 livres sterling par an, qu’est-ce que vous voulez faire? C’est pas étonnant que leur prévision soit totalement foireuse! 😉

7.  Volauvent | 6/01/2010 @ 12:36 Répondre à ce commentaire

chria (#2),

La relation modèles météo/climat n’est pas claire pour moi; intuitivement, cela semble plein de bon sens qui si on ne sait pas prévoir le climat à 1 mois, on ne sait pas le faire à 100 ans.
Mais l’ambiguité est peut être sur ce qu’on entend par climat: si c’est climat régional, je serais enclin à approuver. Si le terme climat recouvre une sorte d’indicateur de l’état thermique de l’éco système, alors oui, cela n’a sans doute rien à voir.
Mais les consèquences pratiques d’une évolution sont bien à intégrer au niveau régional; et c’est là qu’on retrouve une problématique type « météo » il me semble. Qu’en pensent les spécialistes?

Sur la probabilté d’avoir l’année la plus chaude, normalement c’est blanc ou noir, donc 50%? Donc si le MET dit que c’est plus probable, il sous entend qu’il a des données qui permettent de le dire.(non pas basées sur le passé, mais sur une modélisation de l’avenir). En effet, la comparaison porte sur toutes les années antérieures, dont celles qui ont déjà été les plus chaudes, et pas seulement sur les années froides)

8.  Nowarm | 6/01/2010 @ 13:26 Répondre à ce commentaire

Je ne vois pas comment on peut faire confiance à une machine qui prédirait le climat à venir sur plusieurs mois, voire plusieurs années.

Il y a tant de paramètres en jeu, dont les inconnus sont certainement encore très nombreux, que bien avant de pouvoir prédire le climat sur cent ans, il saurait vous donner la combinaison gagnante de l’euromillion !

Bref, on pourrait s’en amuser si ces guignols ne se prenaient pas au sérieux et si les politiques n’engageaient pas des programmes sur ces hypothèses abracadabrantes !

9.  chria | 6/01/2010 @ 14:17 Répondre à ce commentaire

Volauvent (#7),
On ne prévoit pas le climat à 1 mois, cela n’a pas de sens. Le climat c’est une donnée tous les trentes ans, donc on prévoit le climat sur plus de trente ans. D’ailleurs les modèles climatiques du Giec ne prévoient pas grand chose avant 2030. Mais on essaye aujourd’hui d’affiner en intégrant des phénomènes comme El nino pour essayer de simuler la variabilité décennale, mais de toute façon cela reste très improbable parce certains phénomènes sont imprévisibles (éruptions…).
Le but de ces modèles est de jouer sur les paramètres pour voir comment le système simulé évolue sur de très longues périodes.
Ensuite il y a des modèles météo qui normalement ne pourront jamais dépasser l’horizon de 15 jours, c’est lié au chaos je crois, et simulent l’atmosphère. Ces modèles ne ressemblent pas aux modèles climatiques. En tout cas ils n’ont pas le même objectif. Maintenant je ne sais pas si le Metoffice utilise des modèles climato pour la prévision du temps à 3mois. Ils doivent mélanger un peu tout…
Quant à l’aspect régional, ce n’est qu’une question d’échelle, en météo comme en climato. Toutefois la notion de climat mondial n’a pas de sens, alors que l’état de l’atmosphère à un instant t, cela existe.

Enfin le Met utilise de gros ordis pour simuler le futur alors qu’il suffit de regarder dans le passé pour faire exactement le même genre de prédictions probabilistes débiles.

Sinon cette page de MF est marrante, surtout le point 9
http://climat.meteofrance.com/.....questions/

10.  Volauvent | 6/01/2010 @ 14:38 Répondre à ce commentaire

chria (#9),

9. A-t-on des preuves que l’homme est responsable du changement climatique ?

Oui.

Les premiers travaux sur le sujet datent d’une quinzaine d’années. Ils sont basés sur une comparaison entre les observations et des simulations du climat qui prennent en compte de manière séparée les différentes origines possibles de l’évolution du climat à l’échelle du siècle (la variabilité solaire, le volcanisme, les concentrations de gaz à effet de serre et de particules liées aux activités humaines). Au cours de ces dernières années ces travaux se sont multipliés et ont concerné un ensemble plus étendu de paramètres. Les conclusions des experts du GIEC sur le rôle des activités humaines sur le réchauffement récent s’appuient sur l’analyse de la littérature scientifique qui fait l’objet d’un chapitre du rapport de 2007.

Très drôle en effet; on travaille dessus, donc ça prouve qu’on a raison. Et en plus, on arrive à prévoir le passé, donc tout baigne.

lire aussi:
« il n’est pas exclu que des variations naturelles du climat conduisent à une baisse des températures dans les 10 prochaines années » Mais la hausse des températures, alors, elle n’est jamais naturelle?

11.  Volauvent | 6/01/2010 @ 14:43 Répondre à ce commentaire

chria (#9),

Quand j’ai écrit « climat  » à 1 mois, je pensais évidemment météo. C’est un lapsus.
Mais je ne suis toujours pas clair sur modèles météo/ climats. Si l’évolution météo est chaotique, l’évolution « climat » l’est elle? Les modèles utilisés sont ils de nature très différentes , utilisent ils les mêmes équations? C’est cela que je vois mal, n’ayant jamais regardé de près ces modèles.

12.  Fabge02 | 6/01/2010 @ 15:02 Répondre à ce commentaire

J’avais entendu une conférence, lors d’un colloque de l’Association Internationale de Climatologie, d’un professeur de Montpellier (dont je ne me rappelle pas le nom à ce moment, il fait -10°C dans l’Aisne, cela doit ralentir mes neurones déjà usagés) qui décrivait les oscillations climatiques depuis la deuxième moitié du XIXè siècle sous forme de pseudo-périodes de 47 ans. Beaucoup de chercheurs en climatologie travaillent actuellement sur ces oscillations, en général océaniques, et ça marche plutôt bien. Il est donc possible, même à des échelles de temps plus courtes que les temps géologiques, de faire des prévisions à long terme. C’est, pour beaucoup d’entre eux, en combinant ces oscillations de pas de temps différents (de l’analyse harmonique en somme), une voie de recherche prometteuse.
Il faut, pour celà, plus de travail interdisciplinaire, et on n’en est pas là, je me souviens, lors d’une réunion de l’AIC, d’une intervention d’une astronome sur les cycles solaires, ses observations collaient bien aux évolutions climatiques séculaires récentes, il n’y a pas eu beaucoup de réactions de mes collègues climatologues.

13.  Araucan | 6/01/2010 @ 15:09 Répondre à ce commentaire

chria (#9),

J’aime bien aussi la réponse à la dernière question …. 😉

11. Les données climatiques sont-elles accessibles ?

Oui.

A Météo-France, les données climatiques nationales sont accessibles sur demande, pour la recherche et la formation. Les données météorologiques dont elles sont extraites sont partagées à l’échelle mondiale. Ainsi, d’après le Climate Research Unit, 95% des données que ce centre a utilisées pour étudier l’évolution climatique de la température globale sont disponibles dans la base de données du « Global Historical Climatology Network » du National Climatic Data Center aux USA.

Mais les données brutes ne peuvent pas être utilisées sans un travail scientifique préalable. En effet, au-delà des contrôles techniques « de routine » effectués pour éliminer les valeurs erronées (mauvaise transcription, dysfonctionnement d’un capteur, ?.), l’analyse des tendances climatiques nécessite la correction des biais de mesure (liés à un mode d’observation, ?) et l’homogénéisation de longues séries de données (identification et correction des effets de déplacement de station de mesure, de changement de capteur, ?).

La réponse se résume par : oui mais en fait non (seulement aux membres du club et pas de données brutes).

Fabge02 (#12),

J’ai l’impression qu’il y a d’une part l’école de ceux qui aime les gros ordinateurs avec plein de systèmes d’équations plus ou moins simplifiées et qui les font tourner avec des pas de temps donnés sur 30 à 8/0 ans et d’autre part l’école de ceux qui soutiennent la présence de cycles (depuis les cycles solaires ou astronomiques jusqu’aux cycles des oscillations océaniques, sans préjudice de leurs liens éventuels) donc en fait au final peu d’équations relativement simples éventuellement à combiner.

14.  Laurent | 6/01/2010 @ 15:24 Répondre à ce commentaire

Mmmmmm…..
les modèles climatiques sont basés sur les mêmes structures de calculs des mouvements fluides que les modèles météo (équations de navier-stokes). La différence est que les modèles météos sont contraints par les conditions initiales, et les modèles climato par des équations aux limites (et couplent en plus différents modèles, circulation océanique, interface atmosphère/biosphère, transfert radiatif, etc…. avec des implémentations variables suivant les modèles).
Les modèles climatiques ne font pas des calculs « pour dans 30 ans », mais, comme les modèles météo, mettent à jours une situation en « continu » avec un pas de quantif de quelques heures … on les fait juste tourner pendant longtemps…
Les sorties de modélisation du Met Office sur les prévision saisonnières à 3 ou 6 mois sont issues du même modèle (climatique) que celui utilisé pour les prévision en 2100. Elles peuvent donc servir à critiquer le modèle.

15.  RanTanPlan | 6/01/2010 @ 15:32 Répondre à ce commentaire

Et le simulateur climat de Meteo France est il également celui qui leur sert à sortir la météo ? Franchement, ça vaudrait le coût de leur demander les sources de leur simulateur et d’ensuite confronter le programme à leur propres mesures.

Gonflé le simclim… On n’est pas sorti du sable.

16.  Volauvent | 6/01/2010 @ 15:52 Répondre à ce commentaire

Laurent (#14),

Donc, si je comprends bien, on est en droit de considérer que si on ne sait pas prévoir à 1 mois, on ne peut prévoir à 30 ans? Si la seule différence est l’incrémentation et l’échelle du temps? J’aimerais vraiment bien savoir si ils utilisent en climat des modèles dérivés de la météo; si c’est cela, alors je suis complètement et définitivement convaincu (mais je confesse que je suis déjà bien en chemin) que tout cela est vraiment du bidon.

17.  chria | 6/01/2010 @ 15:57 Répondre à ce commentaire

Volauvent (#11),
Encore une fois j’estime que cela est très relatif en dépend des échelles de temps et d’espace que l’on veut analyser. Le but est de toute façon de simuler l’atmosphère, que ce soit de manière très précise et déterministe avec les modèles météo ou de manière plus « simpliste » mais par contre plus systémique avec les modèles climato. L’incertitude n’est pas la même non plus. Le chaos « déterministe » par ex est bien compris au niveau mathématique et empêche une bonne prévision vers 15 jours, alors que dans les modèles climato ce chaos là n’existe pas, l’incertitude découle plus de la manière dont on a bien choisi les paramètres et mis en équation les relations entre eux, avec les forcages, les bilans, etc. Or il existe tellement de paramètres qui agissent sur le long terme et à différentes échelles sur des cycles croisés, et qui pourraient entrainer de nouvelles rétroactions, que la simulation reste pour moi un jeu et non une aide à la décision. Toutefois les réchauffistes me rétorqueront que les modèles fonctionnent bien à la vue des expériences passées et que parfois il suffit de bien connaître quelques paramètres d’un système pour bien le modéliser. Et que de toute façon, quand on ajoute des GES dans l’atmosphère, ça finit par la faire chauffer, c’est physique et c’est pas complexe. Pourquoi pas, c’est l’un des points de désaccords je pense entre les climatologues modélisateurs qui pensent pouvoir mettre le climat en boîte, alors que d’autres climatologues pensent que ce n’est pas possible en l’état actuel de nos connaissances. Le temps nous dira qui avait raison, si le temps n’efface pas trop de traces… Il n’empêche que pour moi si l’approche météorologique est déterministe et que donc avec des super ordi de la mort et de bonnes équations on pourra un jour prévoir le temps tip top à 15 jours, le climat ou disons le comportement de l’atmosphère sur le long terme reste un système complexe qui dépend d’autres systèmes complexes, donc ses trajectoires sont probabilistes.
De toute façon il n’est pas exclu que si on sature l’atmosphère de GES comme des gorets, il se passera un truc…

18.  chria | 6/01/2010 @ 15:58 Répondre à ce commentaire

Laurent (#14),
merci des précisions

19.  scaletrans | 6/01/2010 @ 16:21 Répondre à ce commentaire

Il me semble que les modèles de simulation météo, et les modèles de circulation générale (GCM) font appel à un moment donné aux équations de dynamique des fluides (Navier Stokes), mais pas du tout dans la même démarche. A partir des relevés existants (températures, pressions…) on peut donner des évolutions avec une fiabilité correcte à 4/5 jours, prévoir également une vague de froid sur un plan plus général à 10 jours (comme pour la situation générale actuelle).
Mais pour les simulations climatiques, les paramètres sont tellement nombreux qu’on en reste au niveau de Madame Soleil (c’est le cas de le dire!), quelle que soit la puissance des ordinateurs, et aussi parce que la paramétrisation reflète plutôt l’opinion du programmateur (je suis en cela ce que disent Gerlich et Tscheuschner). Si on est parvenu avec certitude à identifier des cycles solaires maîtres, on peut espérer pouvoir déterminer des tendances correspondantes, mais la pente des dites tendances peut-être notablement influencée par des phénomènes complémentaires qui peuvent s’additionner ou se retrancher.

20.  scaletrans | 6/01/2010 @ 16:24 Répondre à ce commentaire

chria (#17),

De toute façon il n’est pas exclu que si on sature l’atmosphère de GES comme des gorets, il se passera un truc…

Cette possibilité même n’existe probablement pas (very likely smile ) car les dernières découvertes sembleraient prouver que le système s’auto-équilibre, tout au moins si les émissions anthropiques reste du même ordre de grandeur.

21.  miniTAX | 6/01/2010 @ 16:52 Répondre à ce commentaire

Et le simulateur climat de Meteo France est il également celui qui leur sert à sortir la météo ?

RanTanPlan (#15), NON !

Franchement, ça vaudrait le coût de leur demander les sources de leur simulateur et d’ensuite confronter le programme à leur propres mesures

Les simulateurs disponibles au public, on les a déjà, comme par exemple MAGICC (le bien nommé) que n’importe qui peut faire tourner sur son PC (ce qui permet, si besoin est, de démontrer à quel point la « science » du climat est simpliste jusqu’à l’absurde !). Ils produisent des résultats tout aussi nuls que ceux donnés par les super-ordinateurs (en terme de backcasting), leurs seuls gros défauts, c’est de consommer beaucoup moins de kwh et de budget.

Les modèles climatiques, c’est juste de la science Playstation, à mettre aux chiottes. C’est pas moi qui le dit, c’est le prof Tennekes qui est bien placé pour en parler : http://skyfal.free.fr/?s=tennekes
Ils reproduisent moins bien le climat que mon modèle de marche aléatoire, qui est physiquement bien plus crédible pour expliquer les divagations chaotique du climat que l’effet de serre et qui tient sur … 2 lignes de code (plus 1 ligne pour générer le graphique) !
Les modèles climatiques actuels sont dans la même situation que les modèles économétriques dans les années 70 ou les systèmes experts dans les années 80 : des promesses mirobolantes basées sur du vent, des résultats nuls, aucune avancée malgré des financements gigantesques (je rappelle que la sensibilité de 3°C +-1.5°C du GIEC est la même depuis 30 ans que celle calculée sur un bout de table du rapport Charney en… 1978 ! sensibilité qui est de toute évidente archi-fausse) et promis au panthéon de la pseudo-science post-normale une fois la mode passée. La seule chose qui permet à cette farce de durer encore un peu, c’est l’échéance longue pour la confronter à la réalité, l’opportunisme stupide des propagandistes soixante-huitards orphelins du communisme et le cynisme des politicards qui veulent en profiter au maximum pour tondre le moutontribuable.

s = 0.1238 ; n = 150
y = cumsum(rnorm(n,0,s))
plot((2008-n):2007,y,type="l", xlab="Year", ylab="Temperature Anomaly (C)")

22.  Laurent | 6/01/2010 @ 17:16 Répondre à ce commentaire

chria (#17),

avec des super ordi de la mort et de bonnes équations on pourra un jour prévoir le temps tip top à 15 jours

Bah non… à moins éventuellement de changer totalement de technique de modélisation. La résolution du système d’équation aux dérivées partielles diverge quoi qu’il arrive.
Jusqu’à 4 ou 5 jours la divergence est acceptable (et encore, uniquement dans des conditions « normales »), mais ensuite elle ne fait que s’amplifier. C’est la raison pour laquelle les modèles météo ont du mal à prévoir dans le cas de situations très évolutives.
Avec de futurs ordi de ma mort qui tuent… on pourra sans doute améliorer la résolution spatiale (donc avoir des prévi locales plus précises, mieux prendre en compte le relief et en dériver des prévis de micro-climats), mais il n’y a aucune chance d’améliorer l’horizon temporel des prévisions.
Pour présenter les choses de façon ultra simplifiée, un modèle météo permet de décrire une évolution dynamique de l’atmosphère (avec les conditions initiales de vent, pression, température, etc…)… et tant que la façon d’évoluer des masses d’air ne change pas trop, un « snapshot » du temps à intervalle régulier ne s’écartera pas trop de la réalité…. ce qui malheureusement ne dure pas….

Dans un modèle climatique au contraire, les équations de contraintes aux limites sont totalement déterministes (forçage radiatif, etc…)… et finissent par prendre le pas sur la divergence naturelle du modèle…..et le modèle fini par recracher ce que vous lui avez ingéré (façon bien sur ultra-simplifiée de présenter les choses).
Le modélisateur du climat joue avec les paramètres des équations aux limites, obtient un résultat, et si le résultat lui semble satisfaisant, il en déduit que les paramètres sont corrects et s’appliquent à tous les horizons temporels possibles (ce qui serait vrai si ces équations représentaient effectivement, et de façon robuste, une réalité physique globale et complète…. ce qu’il postule, et qui est, vu la connaissance très parcellaire sur les mécanismes du climat, pour le moins présomptueux…)
J’ai connu un certain nombre de cas de figure ou des scientifiques modélisaient un phénomène sans vraiment le comprendre, en espérant que la compréhension parcellaire suffirait, et qui pensaient avoir réussi après avoir reproduit un cas spécifique qu’ils connaissaient bien…. je ne connais aucun cas ou la généralisation n’a pas fini en eau de boudin (ce qui en général n’est pas dramatique, cela a juste généré quelques publications peu intéressantes…. ).

23.  dm75 | 6/01/2010 @ 18:49 Répondre à ce commentaire

Un petit point de traduction à propos du Hadley center « qui produit l’un des ensembles de données les plus fiables utilisés pour suivre la température globale et nous raconter que la planète se réchauffe »

Le texte anglais dit :
 » that produces one of the most relied-upon data sets used to track the global temperature and tell us that the planet is heating up »

c’est à dire « l’un des ensembles de données auxquels on fait le plus confiance » à tort ou à raison (je vous laisse choisir!!)
(source : dico Hachette-Oxford sur mon vieux Mac)

24.  Volauvent | 6/01/2010 @ 19:07 Répondre à ce commentaire

Laurent (#22),

Merci à tous d’essayer d’éclairer ma lanterne. Toutefois je ne comprends toujours pas comment un système peut être chaotique à court terme et non chaotique à long terme à partir des mêmes équations physiques. C’est peut être parce que je n’envisage l’utilité de prévisions climatiques qu’à l’échelon régional puisque c’est le seul qui importe pour en évaluer les conséquences environnementales, sociales et économiques. Par exemple, si j’habite le Sahara, je me fous de savoir si la terre se réchauffe globalement; ce que je veux savoir c’est si j’aurai plus d’eau ou moins d’eau. Et j’ai lu que dans le passé, le Sahara a été une savane à une époque de climat chaud (pour des histoires de moussons je crois).
Mon raisonnement a une limite seulement évidemment si on atteint un « tipping point » quelconque mais je suis assez d’accord avec la remarque de scaletrans; on n’atteindra probablement jamais un doublement; apparemment la croissance de laconcentration en CO2 est linéaire et le coef entre émissions et additions dans l’atmosphère reste moitié/moitié. Si on suppose donc qu’on reste à plus 2 ppm/an, il nous faudrait 100ans; d’ici là on aura soit épuisé nos réserves, soit trouvé autre chose , ou les deux à la fois. Et on sous estime je pense les réactions de la biosphère: c’est quand même elle qui a façonné notre atmosphère tel qu’il est.
Il faut lire à ce sujet Earth’s climate history de Anton Uriate; c’est lumineux, accessible, pondéré du point de vue de l’effet de serre, et cela fait comprendre l’importance de la biosphère. Cela se lit comme un roman.

25.  Ben | 6/01/2010 @ 19:27 Répondre à ce commentaire

Volauvent (#24), sur la différence court terme – long terme, voici un exemple parlant : lancez plusieurs fois une pièce de monnaie et comptez le nombre de fois que vous obtenez pile. À chaque fois que vous lancez la pièce, vous avez une chance sur deux d’avoir pile, et vous êtes incapable d’anticiper davantage. En revanche, vous pouvez prévoir que, lorsque vous aurez lancé un milliard de fois la pièce, vous aurez, avec une probabilité très élevée, obtenu environ 500 millions de fois pile (pas exactement 500 millions, mais un intervalle autour, dont on peut quantifier la taille) – c’est la loi dite des grands nombres.
Maintenant, lancez la pièce une fois par jour et imaginez que si elle tombe sur pile c’est qu’il pleut, et que si elle tombe sur face c’est qu’il ne pleut pas. Vous ne pouvez pas dire s’il va pleuvoir demain mais, d’après la loi des grands nombres, vous avez une bonne idée de la quantité d’eau qui sera probablement tombée en tout lors du prochain milliard de jours.

26.  Laurent | 6/01/2010 @ 19:28 Répondre à ce commentaire

Volauvent (#24),

je ne comprends toujours pas comment un système peut être chaotique à court terme et non chaotique à long terme à partir des mêmes équations physiques

Parce que ce n’est pas le même système. Quand tu rajoute des équations de contraintes aux limites… tout change…

27.  Murps | 6/01/2010 @ 19:31 Répondre à ce commentaire

La partie de l’article qui insiste sur la différence entre les mesures de températures destinées à la météo et qui sont utilisées pour des modélisations climatiques est particulièrement assassine, mais justifiée.
C’est la mort de la « température globale »….

Laurent (#22),
Bravo pour cette analyse que je partage entièrement.
C’est quand même étonnant de ne trouver que sur ce site, parmi tous les sites francophones, des remarques de cet acabit.
smile

J’ajoute que je ne suis même pas sûr que les « modèles climatiques » dont on nous rabâche les oreilles soient tous conçus à partir des lois physiques et des équations de la méca-flotte comme le sont les modèles météorologiques.
Les quelques publications que j’ai pu parcourir n’évoquent pas précisément de la physique de base mais plutôt des traitements statistiques de séries de températures, ou pire, d’extrapolations de séries de températures « globales » à partir d’autres paramètres abscons (cernes d’arbres ou bulles de gaz…).

Pour les modélisation, je me rappelle d’un prof au CEA qui avait évoqué un logiciel de mécaflotte appelé « trio » qui produisait des jolies courbes en couleurs sur table traçante.
Sur un essai « simple » ou on connaissait le résultat par calcul analytique à la main, il produisait des résultats entièrement faux…

J’ai souvenir également d’un excellent bouquin du mathématicien anglais Ian Stewart, intitulé « Dieu joue-t-il aux dés ? », édité avant 1992, je crois bien.
Il y a un chapitre ou l’auteur se moque gentiment du « Met office » ou le « mégaordinateur gigaflop » de l’agence britannique se plante et prévoit de la neige en juillet. Stewart fait alors un jeu de mot savoureux avec « GigaFlops »… Gigaflop, Gigaéchec…smile
Puis il avait donné son sentiment sur les progrès possibles en matière de prévision météo, compte tenu de l’instabilité intrinsèque du système dynamique atmosphérique : quelques jours, pas plus, quels que soient les progrès en mathématiques, en physique ou en technologie numérique.

Evidemment, je partage aussi pleinement son point de vue.

Cordialement,
Murps

28.  antoniosan | 6/01/2010 @ 20:11 Répondre à ce commentaire

Les ordinateurs les plus puissants ne remplacent pas la comprehension des phenomenes. La verite ne sortira pas du calcul seul.

Soyons clairs, les previsions de Marcel Leroux se realisent pleinement et seulement l’aveuglement ideologique se rajoutant a l’ego demesure de nos polytechniciens de Meteo France et les interest superieurs de la Nation Giec interdisent son travail de citer en France.

Mentionnons aussi que Piers Corbyn, l’astrophysicien britannique qui combine solaire et magnetisme dans ses previsions a encore eu raison face au UK Met Office.

29.  xavdr | 6/01/2010 @ 20:29 Répondre à ce commentaire

L’existence d’instabilités à une échelle fine, engendrant une trajectoire chaotique à cette échelle, n’impose nullement qu’une échelle épaisse connaisse le même chaos.

Par exemple lancez une bille en terre cuite rugueuse lancée dans une maquette avec des collines et des vallons herborée par des millions de petites paillettes rigides. Vous obtiendrez une trajectoire chaotique faite de milliers de petits rebonds imprévisibles. Pourtant à la fin la bille sera au fond du vallon où vous l’aurez lancé. Si vous lui donnez une énergie importante elle rebondira peut-être en dehors de son vallon initiale pour terminer dans au fond du vallon d’à coté. En tous cas ce ne sera pas chaotique, tout au plus un aléa simple à formuler. Il y a des attracteurs.

On peut émettre l’hypothyèse que le climat connait lui aussi des attracteurs. Cependant on a aucune raison de penser que leur éventuelle existence serait correctement rendue par les GCM qui en outre souffrent de goufres béants (pas de prise en compte du magnétisme solaire, incapacité à modéliser la création des nuages, grande faiblesse de la modélisation de la dynamique es couches océaniques, etc.).

30.  guignolo | 6/01/2010 @ 20:47 Répondre à ce commentaire

Volauvent (#24),
Il semble que tout le monde ne soit pas d’accord sur le fait que le climat ne soit pas chaotique alors que la météorologie le serait. Il y a un post intéressant sur Climat Audit à propos des conclusions de B. Mendelbrot sur ce sujet :
« In summary the distinctions between macrometeorology and climatology or between climatology and Paleoclimatology are unquestionably useful in ordinary discourse. But they are not intrinsic to the underlying phenomena »
« En résumé, les distinctions entre macrométéorologie et climatologie ou entre climatologie et paléoclimatologie sont incontestablement utiles dans le discours ordinaire. Mais elles ne sont pas intrinsèques aux phénomènes sous-jacents »
Donc météo et climat même combat !

31.  JG2433 | 6/01/2010 @ 21:01 Répondre à ce commentaire

Volauvent (#24),

Le Tassili des Ajjer, massif du Sahara central, présente de nombreux vestiges néolithiques : sur des parois rocheuses, dessins gravés des « vaches du Tassili ».
Des vaches, donc de l’herbe, donc de l’eau, en effet.

32.  chria | 6/01/2010 @ 21:24 Répondre à ce commentaire

xavdr (#29),
Une moyenne peut-elle être un attracteur ? smile

33.  ardeche07 | 6/01/2010 @ 21:25 Répondre à ce commentaire

MF est comme le Met office, il font parti de la chaine de propagande pour le RCA.
Le 19 decembre dernier, la T° maximale de l’après midi à Strasbourg a été de
-11°C.
http://www.meteociel.com/temps.....envoyer=OK
Vous vous souvenez vous d’avoir vu -11°C sur la carte de prévision pour l’après midi ?
Non ils surestiment les T° quand elles sont trop froides, pour ne pas eveiller de soupsons sur le RCA.
Sur ce coup ils avaient prévu -4°C il me semble.
Bien des observateurs d’infoclimat ont fait la remarque dans differentes villes que les T° etaient largement surestimées lors des prévisions quand il fait très froid.
Qui plus est, une bonne partie de leur site internet fait de la propagande pro RCA.

Sinon il y a quelques jours, sur TF1 j’ai vu Evelyne, génée, qui disaient qu’il faisait très froid un peu partout en Europe, mais pour ne pas perdre la face, elle a dit à la fin , « vous savez ça ne remet pas en cause le rechauffement climatique, il fait très chaud en Australie ! »

Je rajouterai pour finir qu’une offencive neigeuse enorme se profile pour demain soir sur les regions méditerraneenes. Aucune allusion à la météo TV 24h avant.

34.  miniTAX | 6/01/2010 @ 21:25 Répondre à ce commentaire

On peut émettre l’hypothyèse que le climat connait lui aussi des attracteurs.

xavdr (#29), ce n’est qu’une hypothèse, totalement gratuite, tout comme celle qui voudrait que météo serait des milliers de petits trajets chaotiques et climat serait le trajet sommet-vallon. D’ailleurs ce parallèle (gratuit, donc) est de toute évidence faux puisque les fluctuations météo, loin d’être des « petits trajets » sont au contraire beaucoup plus grosses que les fluctuations climatiques, tout le contraire de ce qu’on voit dans l’exemple du trajet de la bille. Sans compter le fait que pour ce dernier, on a la preuve qu’il s’agit d’un système déterministe (il suffit de répéter les expériences et de confronter la théorie aux observations) avec un seul « forçage » de premier ordre, bien connu de tous et depuis longtemps, à savoir la gravité alors dans le cas du climat, on n’a strictement aucune idée ni de l’ampleur relative des forces en présence, ni de la fonction de transfert du système et encore moins des rétroactions non linéaires qui maintiennent le système étonnamment stable, étant donné l’insuffisance et la pauvreté abjecte des données expérimentales.

Comparer le système climatique au trajet de la bille, pour essayer de faire croire que le climat peut « se mettre en boîte » et que les modèles actuels aient un quelconque pouvoir explicatif ou prédictif, c’est comme dire que parce qu’on sait parfaitement comment fonctionne un neurone qu’on sait comment fonctionne le cerveau ou parce qu’on sait comment fonctionne la division cellulaire qu’on maîtrise le mécanisme de la croissance chez l’animal. Ca n’a rien à voir avec de la science ou la logique, c’est au mieux de la rhétorique, au pire de l’obscurantisme. Et le fait que ce soit l’argument simpliste favori des pires propagandistes de la FARCE comme Jouzel ou Janconvici pour défendre les modèles, ça devrait faire sonner le détecteur de foutage de gueule de n’importe quel scientifique.

En science, il ne suffit pas de faire des parallèles foireux faciles à comprendre pour les journalistes et de dresser des hypothèses gratuites, il faut des preuves. Donc effectivement, météo et climat, même combat.

35.  miniTAX | 6/01/2010 @ 21:40 Répondre à ce commentaire

, “vous savez ça ne remet pas en cause le rechauffement climatique, il fait très chaud en Australie !”

ardeche07 (#33), ce qui est pur mensonge, ne serait ce parce que la température de décembre a fortement chuté par rapport au mois précédent ! En ce moment, la température en Australie y est tout ce qu’il y a de plus normale. Pire certaines régions sont inondées sous des trombes d’eau (cf le BOM australien)
Mais ça, nos télé-évangélistes de l’Eglise de Climatologie ne vont pas le crier sur les toits.

36.  jmr | 6/01/2010 @ 21:46 Répondre à ce commentaire

Pour moi il y a le même rapport entre météo et climato qu’entre la mécanique quantique et la physique qui décrit le monde quotidien. Des échelles totalement différentes, et des outils inadaptés quand on les extrapole au niveau supérieur.
On peut peut-être analyser l’épluchage de carottes dans une cuisine au moyen d’équations fondamentales avec les ordinateurs du Met Office. On va plus ou moins calculer la taille de l’épluchure. Mais que le couteau dérape et que celui qui épluche se coupe le doigt et on sort du système d’analyse car il faut faire intervenir d’autres phénomènes beaucoup plus lointains à l’échelle nucléaire.
Un avion est passé et a fait un bang supersonique qui a perturbé celui qui tenait le couteau… Ou un enfant est passé en courant dans la cuisine… Quelle nouvelle équation de Schrödinger va prendre en compte ce paramètre fondamental ?

En météo des paramètres locaux interviennent assez bien dans la prévision à court terme (présence de la mer, d’une montagne, latitude, saison, heure…) mais en climato où les échelles de temps d’espace et d’énergie sont prépondérants la météo est totalement inefficace. La constatation en 1801 par Sir William Herschel que le prix du blé semblait directement contrôlé par le nombre de taches solaires qu’il observait avec son télescope lui a valu des quolibets, et pourtant les minimum de taches correspondent parfaitement aux périodes froides du climat comme durant le petit âge glaciaire.
Les météorologues du Met Office ont-ils inclus les éruptions solaires dans leur ordinateur ? J’imagine que non.
Et ces minima sont totalement imprévisibles dans l’état actuel de nos connaissances, alors qu’on ne comprend même pas comment ils pourraient influencer le climat…

37.  Murps | 6/01/2010 @ 22:08 Répondre à ce commentaire

xavdr (#29), certes.
Mais tout d’abord, il n’y a aucun doute sur le fait que la science météorologique verra ses prévisions limitées par cette sensibilité aux conditions initiales. La météo EST un système chaotique.

En ce qui concerne la climatologie, c’est plus complexe : il n’existe pas, contrairement à ce qui est dit à droite et à gauche, de modèle de circulation climatique global. On ne sait même pas quels sont les phénomènes physique à prendre en compte, leurs impacts respectifs.
Pire, on ne sait même pas caractériser le climat, c’est à dire le définir de manière simple, par des paramètres bien compris.
Température ? Moyennes de températures ? Quelles moyennes ? Dans quel temps et quel espace ? Pluviométrie ? Taux d’humidité ? Astronomie avec Milankovich, ou autres ? Géomagnétisme ? Océanogaphie avec les courants marins ?

Cependant, tout peut laisser penser que l’ensemble de ces paramètres induit un comportement chaotique plutôt qu’un déterminisme Newtonien.
Vous savez qu’un très petit nombre de paramètre est suffisant pour induire un tel comportement. Il suffit d’une rétroaction non linéaire pour cela. Navier-Stokes n’est rien d’autre que cela avec son terme en V.GradV…

Je ne peux vous apporter la preuve irréfutable que le climat est un système dynamique instable. Mais je parie qu’il l’est et je sais sur quoi je parie. Il y a trop de signes qui vont dans ce sens.
smile

38.  Volauvent | 6/01/2010 @ 22:48 Répondre à ce commentaire

xavdr (#29),

Je ne suis ni convaincu par pile ou face, ni par les billes. Ceci dit, je suis quand même convaincu par l’exposé de Laurent mais seulement pour une évaluation des changements de contenu thermique du système terre/océan/atmosphère. Mais pas pour sa déclinaison au niveau régional, qui seule est utile pour évaluer les conséquences de terrain de cette évolution. J’ai pris le Sahara comme exemple, mais autre exemple, je viens de lire des scénarios débiles à 2050 sur Courrier international; l’un prévoit une émigration en antarctique. Or on voit bien actuellement que l’on est dans une phase de « réchauffement » mais que l’antarctique ne bouge pas.

Autre chose: il me semble avoir lu quelque part que les modélisateurs font des « runs » et prennent une moyenne ou un traitement stat plus sophistiqué pour aboutir à un résultat; cela serait y pas chaotique, l’attracteur étant le modélisateur lui même?
(waf waf)

39.  Araucan | 6/01/2010 @ 23:30 Répondre à ce commentaire

Juste quelques remarques :

sur les phénomènes chaotiques « La théorie du chaos s’attache principalement à la description de ces systèmes à petit nombre de degrés de liberté, souvent très simples à définir, mais dont la dynamique nous apparaît comme très désordonnée[2]. »
http://fr.wikipedia.org/wiki/Th%C3%A9orie_du_chaos
ex : http://fr.wikipedia.org/wiki/A.....C3%B6ssler

il ne faut pas confondre phénomènes chaotiques (mais toujours déterministes) et système complexe (http://fr.wikipedia.org/wiki/Complexit%C3%A9) où il n’est pas possible de réduire le nombre de variables (ni de lois d’interactions) – http://fr.wikipedia.org/wiki/Syst%C3%A8me_complexe

En particulier les systèmes complexes sont reconnaissables ainsi :

Un système complexe présente la plupart des comportements suivants. Ce qui permet réciproquement de définir ce qu’est un système complexe : c’est un système présentant un grand nombre des comportements suivants. Il est inhabituel de définir une classe d’objets à étudier à partir de leur comportement plutôt qu’à partir de leur constitution.

* auto-organisation et émergence de propriétés ou de structures cohérentes, apparition de motifs (c’est une forme mineure de connaissance car ce n’est pas totalement prédictif comme l’est une loi). Cette caractéristique est souvent exigée pour qualifier un système de complexe.
* robustesse locale et fragilité (ou contrôlabilité) à moyenne échelle : puisqu’il y a de nombreux liens (éventuellement créés ou remaniés par le système lui même), si un élément est affecté par un événement extérieur ses voisins le seront aussi. Il s’ensuit que le système est souvent plus robuste à une petite perturbation locale qu’il ne le serait sans les liens. Mais du même coup, modifier globalement le système (et donc potentiellement le contrôler) peut être fait grâce à une perturbation moins grande que dans le système sans liens. Bien cibler cette perturbation est cependant très difficile. Les virus (issus d’une longue sélection naturelle) sont un bon exemple : avec une dizaine de gènes, un virus est capable de modifier profondément (jusqu’à la mort…) un organisme de plusieurs dizaines de milliers de gènes, et ce en ne s’attaquant au départ qu’à une minorité de cellules.
* brisure de symétrie : la connaissance d’une partie du système ne permet pas d’affirmer que le reste du système est en moyenne dans le même état
* plusieurs comportements possibles sont en compétition, certains sont simples, d’autres chaotiques (désordonnés). Le système est souvent à la frontière entre les deux et alterne ces deux types de comportement ;
* plusieurs échelles temporelles et spatiales apparaissent, il y a ainsi une hiérarchie de structures.

Cette science recourt naturellement à de nombreuses simulations et peut donc donner des recommandations sur leur conduite. Certains affirment qu’un recours à une analyse numérique poussée permettrait de résoudre la plupart des systèmes complexes. L’expérience montre que ce n’est guère le cas (même si les simulations reproduisent certains comportements), car les lois restent inconnues. Il reste donc des concepts à identifier, c’est une science jeune.

Comme la climatologie ….

Enfin sur les modèles utilisés en climatologie, à ma connaissance, ils sont basés sur des équations. D’autres modèles pourraient être bâtis (mais sans avoir la physique sous jacente à partir des données antérieures) : je crois bien avoir vu quelque chose sur un projet européen pour ce cas. Mais on peut le faire avec Excel et une courbe polynomiale : on reproduit bien le passé, mais l’avenir … c’est autre chose …

40.  Manu95 | 6/01/2010 @ 23:51 Répondre à ce commentaire

Ce que j’ai retenu de mes lectures sur ces systèmes complexes et chaotiques mis en cause par le climat, c’est qu’il y a tellement de paramètres dont il faudrait tenir compte alors que l’on n’a que des mesures peu précises et une connaissance très imparfaite des phénomènes, qu’un modèle suffisamment robuste et complet serait tel qu’aucun ordinateur quelle que soit sa puissance ne pourrait l’exécuter en en temps raisonnable.

En conclusion, vouloir modéliser le climat efficacement c’est pure folie. Autant se fier aux prévisions de madame Soleil ou Nostradamus.

41.  miniTAX | 6/01/2010 @ 23:53 Répondre à ce commentaire

Autre chose: il me semble avoir lu quelque part que les modélisateurs font des “runs” et prennent une moyenne ou un traitement stat plus sophistiqué pour aboutir à un résultat; cela serait y pas chaotique, l’attracteur étant le modélisateur lui même?

Volauvent (#38), oui, effectivement, et la seule fois où tous ces runs sont montrés publiquement, c’est dans l’expérience climateprediction.net . Voir la gueule que ça donne sur le graphique, et comment ça diverge… vers le bas en tout juste quelques années, et ce même pendant la phase de validation, waf, warfff. Même pendant la phase de calibration (!) les modèles sont incapables de déterminer une température « globale » à 1°C près et ils sont sensé prédire le climat à 50, 100 ans au 1/10e de degré ! Mais ça ne n’empêche nullement nos réchauffés du bulbe de clamer à qui veut l’entendre que « tous les modèles montrent un réchauffement ».

Bref, comme à chaque fois qu’on soulève le capot du bouzin, le résultat est tellement catastrophique, en terme d’image en tout cas parce que scientifiquement c’est su depuis longtemps que c’est de la foutaise, pour les modèles climatiques que maintenant, sur leur site, ils ont nettoyé tous les graphiques qui dérangent. Hé oui, la transparence est à la pseudo-science ce que la lumière est au cafard, un truc à fuir. Heureusement que Skyfal en a parlé et archivé quelques belles courbes pour la postérité, histoire d’illustrer à quel point cette « science » est du domaine de l’astrologie.

Ah , au fait, j’oubliais, la « méthode statistique » pour extraire une courbe de ce plat de spaghettis numériques, c’est celle-là : http://www.phdcomics.com/comic.....91606s.gif

42.  chria | 7/01/2010 @ 0:28 Répondre à ce commentaire

Araucan (#39),
Ah, reproduire l’avenir… !

43.  laurent | 7/01/2010 @ 1:09 Répondre à ce commentaire

Murps (#27),

je ne suis même pas sûr que les “modèles climatiques” dont on nous rabâche les oreilles soient tous conçus à partir des lois physiques et des équations de la méca-flotte comme le sont les modèles météorologiques.

Tous, je ne sais pas… mais ARPEGE-climat de météo France, et HadAM3H du Met Office sont conçus comme cela.

J’ai vu il y a pas longtemps des résultats de simulation régionale (période 1961-1990) avec la déclinaison régionale HadRM3 du modèle du Met Office…. sur la température, on trouvait des biais systématiques de 2° à 3° sur les moyennes mensuelles et sur les précipitations des biais systématiques sur les cumuls moyens mensuels pouvant atteindre 150mm… alors que le modèle était forcé aux limites par un run de HadAM3H, lui même forcé avec les SST réelles sur la période… et il y en a qui trouvaient les résultats « corrects »…. 😉

44.  Daniel | 7/01/2010 @ 7:51 Répondre à ce commentaire

Britain’s deep freeze: icy weather brings worst snow for 50 years
The Met Office issued an emergency weather warning for the entire country as parts of Britain prepared for some of the heaviest snowfall in almost 50 years.

http://www.telegraph.co.uk/top.....years.html

45.  Daniel | 7/01/2010 @ 8:09 Répondre à ce commentaire

D’après le CRU (en 2000) la neige en GB dans le futur serait un évènement tellement exceptionnel qu’il provoquerait une grande excitation et que les chances d’un hivers rigoureux de type 62/63 ne risquait de se produire qu’une foi en mille ans

46.  Nowarm | 7/01/2010 @ 12:48 Répondre à ce commentaire

Daniel (#45), Que le temps passe vite ! Déjà mille ans d »écoulés depuis 1962 …

47.  Greg | 7/01/2010 @ 12:56 Répondre à ce commentaire

Salut a tous, ca fait quelque temps que je vous lis et je voulais apporter une pierre (un gravier plutot) a l’édifice

Pour en revenir a ce que disait *jmr* je pense qu’on peut comparer la difference entre météorologie/climatologie par analogie avec la théorie quantique/relativiste

je suis chimiste donc peut etre que j’assimile pas toute la portée de la météorologie/climatologie

la mécanique quantique s’applique au systeme physique « petit » (comparé a la relativité) donc comparable (toutes proportions gardées) a la météorologie.
c’est une théorie « probabiliste » (tout comme la météo finalement)

la mécanique relative s’applique plutot au « gros » systeme (comparé a l’echelle quantique) que je comparais donc a la climatologie
la climatologie se veut une science déterministe tout comme la relativité (attention je dit pas que la climatologie *EST* une science déterministe)

Aujourd’hui il n’y a pas de théorie universelle (relative ou quantique), on utilise la théorie en fonction de l’echelle, (bien que certain lien entre les deux théorie existe pour certain cas)
Moi je voie la meme chose pour la météo/climato

Si on me dit que le model utilisé pour la climato 50-100ans est le meme model que la météo (c’est ce que j’ai cru lire mais apparment contredit par d’autres) moi je dis « on utilise pas la bonne théorie pour le systeme »

En plus, la grosse difference que je voie c’est que la climato utilise des donnée statistique (et bricolées a fond en plus), ce qui pour moi l’eloigne forcement du déterminisme !
L’autre difference c’est que la relativité est une théorie fiable et vérifié (au moins dans les condition ou on l’utilise) ce qui n’est actuelement pas le cas de la climato (vérification de leur prevision = nul a chier)

la base de la recherche c’est que si les experiences-données-vérification…. ne valide pas la théorie, c’est que la théorie est incomplete voir fausse
(je simplifie, il faut evidement voir les erreurs possbilent : limite de la théorie, protocole, erreur de mesure ou autre, fiabilité, interaction …)
Et là, a premiere vu les « predictions » des models climato sont dans les choux = ils valents rien

Mon avis est que notre connaissance du climat est beacoup trop faible sur les raison/cause/consequence
on connais pas touts les parametres qui influencent le climat, et encore moins leurs interactions.
D’ailleur j’ai plutot l’impression que les models climatique sont basé surtout sur des statistiques anciennes -> probabilités futur et non sur une théorie.

les models climatiques me font penser au model informatique de prevision de la bourse -> inutile et fiable uniquement au yeux de leur créateur/utilisateur/mouton, jusqu’a leur faillite

Greg

48.  jmr | 7/01/2010 @ 13:24 Répondre à ce commentaire

miniTAX (#41),

Ah , au fait, j’oubliais, la “méthode statistique” pour extraire une courbe de ce plat de spaghettis numériques, c’est celle-là :


Faux, miniTAX, car tu as oublié un paramètre important dans ton schéma, révélé par Phil Jones lui-même. Dans l’organigramme inférieur il faut remplacer Modify Theory to fit data par Modify data to fit Theory

Et là on a bien la méthodologie du CRU validée par le GIEC et ses 2500 scientifiques 😉

49.  Piloteman | 7/01/2010 @ 13:28 Répondre à ce commentaire

Greg (#47),

la base de la recherche c’est que si les expériences-données-vérification…. ne valident pas la théorie, c’est que la théorie est incomplète voir fausse
(…)
Et là, a première vu les “prédictions” des models climato sont dans les choux = ils valents rien

ils sont pas tellement dans les choux
reprenons la théorie depuis le début
1/ faire peur aux gens
2/ Leur expliquer qu’on va les sauver à conditions qu’ils payent
3/ Les faire payer et leur demander de dire merci.

C’est une théorie qui fonctionne parfaitement depuis l’antiquité et qui fonctionnera encore très bien le jour où sera instituée la taxe carbone en France.

50.  Murps | 7/01/2010 @ 13:46 Répondre à ce commentaire

Nowarm (#46), et Greg (#47),
J’abonde dans vos sens.

En ce qui concerne les phénomènes « centenaires » ou « centennaux », il y a un exercice très rigolo à essayer : générer avec un tableur 100 nombres aux hasards entre 1 et 10 000, puis les trier dans l’ordre croissant de -8000 à + 2000.
On obtient alors une série de « dates » de -8000 à nos jours sensées représenter ces fameux évènements « centenaires ».
Et là, c’est très drôle car on constate qu’évidemment les évènements ne se produisent pas gentiment tous les cent ans, il y a des périodes de cinq ou six cent ans pendant lesquelles il ne se passe rien, et d’autres de 20 ans ou 4 ou 5 évènements surviennent.
Imaginez que cette période de cinq cent ans « colle » aux dates comprises entre la Renaissance et nos jours… On aura alors l’impression que l’évènement survient de manière extrêmement exceptionnelle. Inversement si il survient 4 fois en 50 ans, on se dira qu’il est presque décennal.

Moralité : on ne peut pas juger du point de vue actuariel des évènements « centenaires » à l’aune de notre malheureuse civilisation à peine deux fois millénaire face aux quatre milliards d’années de notre planète…

Sorry, the comment form is closed at this time.