Fin d’été très nuageuse sur Titan.

(C'est bientôt l'été et les vacances : un aperçu du climat sur Titan pour les amateurs de grands et longs voyages).

• • • • •

 

La première carte détaillée des nuages présents à la surface de Titan, le plus gros satellite de la planète Saturne, vient d'être réalisée par une équipe franco-américaine  dirigée par Sébastien Rodriguez du laboratoire AIM (CEA, CNRS, Université Paris Diderot). Les données obtenues entre juillet 2004 et décembre 2007 grâce l'instrument VIMS (Spectromètre Imageur en visible et infrarouge) à bord de la sonde Cassini en orbite autour de Saturne, ont permis de suivre la météo de Titan. Plus de 200 nuages de méthane et d'éthane ont été étudiés. Leur présence était prévue par les modèles théoriques mais leur persistance à l'approche de la saison froide a révélé une inertie du système climatique de Titan beaucoup plus importante que prédite.  Ces données, qui permettent de tester pour la première fois des modèles climatologiques autres que celui de la Terre, sont publiées dans la revue Nature du 4 juin 2009.

Nuages et pluies de méthane et d'éthane.

Nuages au Pôle Sud de Titan.

 Légende : Nuages de méthane et d'éthane au Pôle Sud de Titan.© NASA/JPL/Université d'Arizona/Université de Nantes

Titan est le plus gros satellite de la planète Saturne et le seul satellite du Système solaire à posséder une épaisse atmosphère
protectrice, plus dense que celle de la Terre, composée principalement d'azote comme sur Terre mais avec la présence de méthane et d'éthane. Cette atmosphère serait irrespirable pour les hommes mais le seul fait qu’elle existe représente un intérêt majeur pour la compréhension de l’origine et de l’évolution des atmosphères planétaires en général, et de l’atmosphère de la Terre en particulier. Pour l'étudier, l'Agence Spatiale Européenne (ESA) a réalisé une mission spectaculaire, la descente au travers des épais nuages de Titan de la sonde Huygens qui s'est posée sur le sol du satellite le 14 janvier 2005. Le module Huyghens était associé à la sonde Cassini, réalisée par les agences spatiales américaine (NASA) et italienne (ASI), qui continue actuellement d'orbiter autour de Saturne et de ses satellites. Les images de Cassini et les données du module Huygens ont révélé l'existence à la surface de Titan de régions façonnées par l'écoulement de liquides et confirmé l'existence de lacs de méthane et d'éthane. A la surface de Titan, la température est en effet suffisamment basse (-180°C) pour permettre au méthane d'exister sous forme liquide, voire solide. Au lieu d'eau sur Terre, ce sont ces mers de méthane liquide qui sont la source des nuages de Titan et de sa climatologie.

Le premier nuage sur Titan a été découvert en 1995. Un peu plus de dix ans plus tard, ce sont l'apparition et l'évolution de plus de 200 nuages que les scientifiques ont pu étudier au cours de 39 survols de Titan réalisés en trente mois par la sonde Cassini entre 2004 et 2007.

Un été de 7 ans.

Comme sur la Terre, la météorologie de Titan connait des cycles saisonniers très marqués (succession d’hivers, de printemps, d’automnes et d’étés) du fait de la forte inclinaison de l’axe de rotation du satellite. En revanche, ces cycles sont beaucoup plus longs : dix fois plus éloignée du Soleil que la Terre, Titan, entraîné par Saturne, met 29 ans pour faire le tour du Soleil quand la Terre le fait en un an. Du fait de cette course autour du Soleil, Titan connaît des saisons qui durent environ 7 ans au lieu de 3 mois sur Terre.

Exemple de nuages de méthane détéctés à la surface de Titan. La résolution de l'image est d'environ 10 kilomètres (zoom à gauche). Crédits : NASA/JPL/Université d’Arizona/Université de NantesLégende : Exemple de nuages de méthane détéctés à la surface de Titan. La résolution de l'image est d'environ 10 kilomètres (zoom à gauche). Crédits : NASA/JPL/Université d’Arizona/Université de Nantes.

Le seul modèle climatique, qui calcule la distribution nuageuse, prédit que la circulation atmosphérique globale (i.e. à l’échelle du satellite) joue un rôle primordial dans l’apparition et la répartition des nuages (voir la vidéo). Selon ce modèle, dans l’hémisphère d’été, des nuages de méthane se forment à proximité du pôle et autour de 40° de latitude : ils sont le résultat du réchauffement saisonnier de la surface de Titan, suffisant pour permettre une forte évaporation du méthane. L’élévation de ce gaz chargé en méthane est canalisée par la circulation générale de l’atmosphère, formant ainsi sporadiquement des nuages par condensation à des latitudes bien délimitées (très proche du pôle et autour de 40° de latitude). Dans l’hémisphère d’hiver, la circulation générale dicte aussi la formation de nuages. La couverture nuageuse y est en revanche d’une nature différente : au delà de 60° de latitude, la branche de la circulation de gaz, descendante cette fois-ci, apporte en continu de l’éthane depuis la haute atmosphère, qui se condense pour former des nuages d’aspect plus fin et brumeux, plus bas dans l’atmosphère (au niveau de régions plus froides). L'été sur Titan est donc prévu comme particulièrement nuageux, voire même orageux, et l’hiver plutôt brumeux (même si cela reste très localisé).

L'étude des chercheurs a été basée sur l'analyse de plus de 10 000 images, prises entre juillet 2004 et décembre 2007 lors de l’été dans l’hémisphère Sud. Elle a bien confirmé l'apparition de nombreux nuages aux latitudes moyennes tempérées et autour du pôle dans l’hémisphère Sud, ainsi que la persistance d'une épaisse couverture nuageuse au pôle Nord. En revanche, l'évolution de cette couverture nuageuse au cours des saisons semble bien différente des prévisions des météorologues.

La première carte détaillée de l'apparition des nuages à la surface de Titan entre juillet 2004 et décembre 2007, lors de l'été dans l’hémisphère Sud.

Légende : Première carte détaillée de l'apparition des nuages à la surface de Titan entre juillet 2004 et décembre 2007, lors de l'été dans l’hémisphère Sud. Les couleurs indiquent la date d'apparition des nuages selon l'échelle de couleurs indiquée en dessous. Les nuages sont concentrés autour de 40° de latitude Sud et aux pôles Nord et Sud (latitude 90°N et 90°S). Crédits :NASA/JPL/Université d’Arizona/Université de Nantes.

En effet, selon les prévisions, les nuages de l’hémisphère Sud auraient  déjà dû disparaître progressivement depuis 2005, alors que l’automne, normalement plus froid et aride, approche. Or, ce n'est pas ce qui est observé en réalité. Les auteurs de l’étude montrent que des nuages apparaissent de façon régulière encore au cours de l’année 2007, laissant à penser que l’hémisphère Sud connait une fin d’été plus chaude et humide que ce qui était prédit. Cette différence avec les modèles climatiques semble indiquer une inertie du système climatique de Titan plus importante que prédite, peut-être liée à l'inertie thermique de sa surface. Le sol de Titan resterait encore suffisamment chaud pour continuer d’évaporer du méthane et former des nuages alors que l’éclairement du Soleil diminue.

D’autres observations par la sonde Cassini, dont la mission pourrait être prolongée jusqu’en 2017, vont s’avérer cruciales. Elles vont permettre de suivre l'évolution de la couverture nuageuse au moment même du basculement de la circulation lors de l'équinoxe, révélant la circulation atmosphérique dans une période de changement rapide. Ces études sont une chance unique pour les scientifiques d'étudier une atmosphère planétaire et de tester des mécanismes similaires à ceux qui sont également à l'oeuvre pour le climat de la Terre.

Publication :

"Global circulation as the main source of cloud activity on Titan" S.Rodriguez , S. Le Mouélic , P. Rannou , C. Sotin, G. Tobie , J.W.Barnes, C.A. Griffith, M. Hirtzig, K.M. Pitman, R.H. Brown, K.H. Baines, B.J. Buratti, R.N. Clark, P.D. Nicholson publié dans la revue Nature du 4 juin 2009, vol  459, pp 678-682 : pour une version électronique  (format PDF, 1 Mo).

Pour en savoir plus :

Le site CNES de la mission Cassini-Huygens

Le site NASA de la mission Cassini (en anglais)

Le site CIRS-Cassini du Service d'Astrophysique du CEA/Irfu

Titan (Wikipédia).

Source.

 

Share on FacebookTweet about this on TwitterEmail this to someone
51.  scaletrans | 22/06/2009 @ 19:43 Répondre à ce commentaire

the fritz (#50),

On attend toujours sa publi sur l’influence de la Lune sur le cycle du

Le fait qu’on l’attende ne met pas en cause sa compilation. Il faudra trouver autre chose.

52.  the fritz | 22/06/2009 @ 20:47 Répondre à ce commentaire

scaletrans (#51)

53.  the fritz | 22/06/2009 @ 20:52 Répondre à ce commentaire

scaletrans (#51),
erreur de frappe
J’allais dire que la compil de Beck c’est comme si vous faisiez une stat de températures en confondant degré K,F,C —sans jeu de mots-

54.  Araucan | 22/06/2009 @ 22:03 Répondre à ce commentaire

the fritz (#50),

La publi de Beck montre au minimum que ce n’est pas si simple d’avoir une référence.

Mais la vraie question qui se pose derrière tout cela est comment a été déterminée la référence historique (?) des285 ppm de CO2 ?

Si ce sont les carottes glaciaires, on a aucun moyen de déterminer la relation CO2 des carottes et teneur en CO2 de l’atmosphère. Et si ce sont les cernes d’arbres, la réponse de ceux-ci au taux de CO2 dépend de l’espèce (voire de la sous-espèce) et des autres facteurs climatiques pertinents pour cette espèce.
(cf pensée unique)
Donc ma question perdure : pourquoi 285 ppm et pas 310 ?

55.  the fritz | 22/06/2009 @ 22:40 Répondre à ce commentaire

Araucan (#54),
Mais on n’en a rien à faire; il y a un pb de raccord entre mesure directe et mesure des carottes; n’empêche que la progression moderne justifie sans conteste l’action de l’homme dans l’augmentation du CO2 atmosphérique;
Alors que l’on calcule une sensibilité climatique d’un doublement de la teneur en CO2 sur les donnees de l’Holocène ou celle du 20 eme siècle, cela ne change pas grand chose, puisqu’il est prouvé que les autres facteurs dont on ne maîtrise pas les forçages sont au moins égaux ou supérieurs à celui du CO2

56.  Araucan | 22/06/2009 @ 23:42 Répondre à ce commentaire

the fritz (#55),

Moi si, parce que si on ne sait pas d’où vient ce 285 ppm on a un problème de base : pourquoi en faire la référence d’un climat idéal ?

Problème de raccord : oui bien sûr
Augmentation du CO2 à cause de l’homme : cela ne me gène pas en soi, c’est l’effet du CO2 qui compte. (Mais je n’exclus pas d’autres sources notables possibles).

Quant aux carottes glaciaires, je suis désolé mais il n’y a aucune preuve que le taux de CO2 trouvé dans les bulles d’air soit correlé avec le CO2 atmosphérique de l’époque. Et s’il l’est, en quelle proportion ?
Et plus on peut rajouter : contamination lors de l’extraction (décongélation/recongélation), quid de la diffusion/migration des gaz dans la glace (et des isotopes aussi tant qu’on y est), quid de l’effet de la pression ? Tout cela ne fait pas des relations très linéaires…
Si les 285 ppm sont tirés des carottes glaciaires, ce chiffre est donc plein d’incertitudes.

J’ai lu un article qui montrait bien toutes ces difficultés… Avis à ceux qui l’on sous la main.

Si l’on prend des données de mesures chimiques du XIXième, pourquoi celle là et pas une autre ?

Si la référence est en fait 500 ppm, tout s’écroule…
Désolé, si dans le Manuel du sceptique, il est expliqué qu’il faut argumenter sur la relation de cause à effet CO2/température, on peut aussi argumenter sur cette espèce de référence idéale dont on ne sait pas vraiment si elle repose sur quelque chose de tangible.

Quant aux aspects de forçage du CO2, OK avec vous. J’ai toujours un problème avec l’effet de 0,3 millièmes de l’atmosphère sur la température…avec un tel effet en mettant du CO2 dans une bouteille de verre bien fermée, on devrait arriver à se chauffer ! 😉

57.  Araucan | 23/06/2009 @ 0:21 Répondre à ce commentaire

Là on trouve aussi la référence à 280 ppm, il y a 20 M années…

58.  Araucan | 23/06/2009 @ 0:26 Répondre à ce commentaire

avec le lien c’est mieux

http://www.sciencedaily.com/re.....143950.htm

Ah oui et là c’est le CO2 qui tue…

http://www.sciencedaily.com/re.....161150.htm

Pour les fans des aérosols

http://www.sciencedaily.com/re.....203520.htm
http://www.sciencedaily.com/re.....125905.htm

59.  scaletrans | 23/06/2009 @ 9:36 Répondre à ce commentaire

the fritz (#53),

J’allais dire que la compil de Beck c’est comme si vous faisiez une stat de températures en confondant degré K,F,C —sans jeu de mots-

Je n’ai toujours pas compris pourquoi… On a mesuré la concentration de CO2 pendant 160 ans avec une précision meilleure de 3% et cd ne serait pas exploitable ?

60.  Araucan | 23/06/2009 @ 9:50 Répondre à ce commentaire

scaletrans (#59),

La mise en question vient des lieux où les échantillons ont été (potentiellement) prélevés (villes, …)

61.  the fritz | 23/06/2009 @ 10:33 Répondre à ce commentaire

Araucan (#60),
Bien sûr , mais il n’y a pas que cela; cela manque de rigueur dans les prises d’échantillons, les procéders analytiques, les étalons quand on change de proceder; et puis je voudrais bien savoir qui a craché le CO2 pour atteindre 450 ppm en 1820.
Quand on voit déjà les batailles de chiffres de corrections pour des moyens analytiques modernes, que faut-il penser de ces valeurs données par les débuts de l’expérimentation
ET vous avez bien sûr raison de mettre en cause les valeurs tirées des carottes; mais en valeur relative, il y a quand même moyen de tirer des enseignements , même si les valeurs absolues sont contestables

62.  MichelLN35 | 23/06/2009 @ 10:38 Répondre à ce commentaire

Sirius (#41),
Cher Sirius, J’apprécie toujours vos posts et je ne voulais rien objecter.

Je voulais seulement signaler que très souvent dans cette fausse science du global warming, les données sont biaisées pour présenter des résultats chiffrés, tout à fait significativement comparables par ailleurs, de manière dramatique. Je ne pense pas que Lockwood se soit rendu compte que sa phrase est une pure absurdité, sans compter même l’exagération des 50 à 60 %. En effet, si nous reprenons vos chiffres, entre 1850 et 2006, l’augmentation de la teneur de l’atmosphère en CO2 est bien de 105 ppm soit 0.00105, soit encore 1.05 centième de %, du volume de l’atmosphère.

La constante solaire est passée durant cette période de 1365.5 W/m2 à 1367 W/m2 soit +1.5 W/m2, elle a donc augmenté de 0.0011, soit 1.1 centième de %, ce qui est plus que l’augmentation de la teneur alléguée en CO2. (source pour les chiffres « Histoire solaire et climatique » de Nesme-Ribes et Thuillier, Belin, 2000, graphique p. 116)

Au passage, la variation de température entre ces deux dates, sur le même graphique est d’environ 0.3 °C ou K, soit rapporté à une température absolue moyenne de 288 K (~15°C) : 0.001. On peut ici faire un pourcentage, ce serait impossible avec les degrés Celsius.

Il est remarquable que la variation de température de ce graphique soit la moitié de celle alléguée couramment pour le 20e siècle. Je pense qu’il s’agit d’un lissage, probablement trentenaire, ce qui diminue la variance et donc l’amplitude des écarts.

Cette pratique du lissage est ici en principe licite car on dispose d’une température annuelle, c’est comme pour les cernes des arbres avec une épaisseur annuelle homologue, mais, pour le CO2 comme pour le deutérium et le 18O, dans les glaces ou les sédiments, les échantillons correspondent à des durées variables, du fait du tassement et des variations des précipitations annuelles. Les teneurs ne sont absolument pas comparables, on ne pourrait faire en toute rigueur, ni de moyenne ni écarts-types sans au moins modifier les valeurs par la racine carrée du nombre d’années dans l’échantillon (la moyenne des carrés des écarts à la moyenne est une courbe puissance).

Par exemple, sur les derniers InterGlaciaires, les températures reconstruites sont comparables avec l’actuel pour l’Eémien plus chaud, car chaque mètre correspond à ~50 ans mais pour l’IG précédent le m fait ~120 ans, puis ~220 ans, ~350 ans, ~500 ans il y a environ 430000ans. (données de Vostok, Petit et al et Barnolla et al). Les teneurs moyennes de ces échantillons d’1 mètre ne sont pas comparables, d’autant plus que le tassement lui-même semble varier avec la profondeur au cours d’une même glaciation.

Cette courte analyse des chiffres semble révélatrice de l’incapacité de nos climatologues à manipuler les moyennes de puissances et les puissances de moyennes, exactement comme pour le calcul de l’intensité de l’effet de serre (33°C ou K) par la formule de Stefan-Boltzmann.

Au fait où en est la traduction Gerlich et Tscheuschner ?

63.  Argus | 23/06/2009 @ 10:54 Répondre à ce commentaire

@the fritz
Cette légende propagée par Irreal-Climate et les activistes de Futura sciences sur les mesures collectées par Beck qui auraient été prélevées par des chimistes ignares dans les centre-villes etc… est assez typique de la désinformation généralisée.

Faites comme moi et donnez vous la peine de vérifier vous même quelques unes des publications (accessibles sur le Web) citées par Beck, notamment celles autour des années 1940. C’est vite fait.

Vous serez surpris ! Certaines mesures qui donnent des taux de CO2 élevés, ont été faites en Alaska, loin de tout et à ski (précisent les auteurs). Quant aux méthodes utilisées, elles sont de la plus pure chimie analytique. Et les barres d’erreurs étaient précisées.

Il faudrait quand même cesser de prendre nos anciens pour des imbéciles…. J’ai même bien peur que, par les temps qui courent,…

64.  Araucan | 23/06/2009 @ 11:08 Répondre à ce commentaire

the fritz (#61),

ET vous avez bien sûr raison de mettre en cause les valeurs tirées des carottes; mais en valeur relative, il y a quand même moyen de tirer des enseignements , même si les valeurs absolues sont contestables

On ne peux tirer des enseignements que si l’on a la relation (teneur en CO2 d’un échantillon de carotte glaciaire) = f( teneur-moyenne- en CO2 de l’atmosphère durant la constitution de la glace, profondeur/pression à laquelle a été soumis l’échantillon, diffusion du CO2 dans la glace (éventuellement fonction de la profondeur), temps de présence dans la glace, interactions autres).

Je n’ai pas vu une telle relation, ce qui fait que je ne sais pas si le relatif est le même selon la profondeur de l’échantillon …

Argus (#63),

Donc la question de la référence reste !

65.  the fritz | 23/06/2009 @ 11:38 Répondre à ce commentaire

Argus (#63),
Les chimistes n’étaient pas ignares, ils travaillaient juste avec les moyens de l’époque; et prenaient parfois non seulement les échantillons dans la ville , mais souvent aussi dans les pièces avec le feu du poele à côté; pour rappel, il y a 600ppm le soir à l’Arc de Triomphe et 800 ppm dans une salle de classe à la fin d’un cours
Beck m’a envoyé personnellement toutes ses pub et références, et j’ai l’habitude de consulter des publications datant de plus d’un siècle dans le domaine de la géologie; il y a des enseignements intéressants, mais c’est souvent à réanalyser.
Je serais intéressé par la pub sur les analyses en Alaska. Références?

Et puis , répondez à la question : » qui a craché le CO2 pour atteindre 450 ppm en 1820

66.  scaletrans | 23/06/2009 @ 11:46 Répondre à ce commentaire

MichelLN35 (#62),

Au fait où en est la traduction Gerlich et Tscheuschner ?

Je pose la même question, j’ai fait une grande partie du travail…

the fritz (#65),

Et puis , répondez à la question :” qui a craché le CO2 pour atteindre 450 ppm en 1820

Cela veut dire que vous écartez d’emblée toute possibilité de variation naturelle ? Une restitution par les océans par exemple ?

67.  the fritz | 23/06/2009 @ 11:53 Répondre à ce commentaire

Araucan (#64),
Evidemment c’est pas la même chose, les m^mes conditions de captage de préservation de fossilisation et de prélèvement si vous avez 100 m ou 1000 m de glace pour une période équivalente; mais si vous trouvez la même relation T/CO2 sur 25 carottes avec 80 ppm entre un mini et un maxi glaciaire séparé par 5°C il y a une bonne présomption que cette relation existe; pour moi le moteur c’est le soleil et le principal forçage l’albedo, c’est pour cela que les gens qui se raccrochent aux publis de Beck pour mettre en cause le rôle du CO2 font fausse route; il faut que ce rôle soit debattu en physique pure et non basé sur des corrélations où interviennent X autres données dont on ne maitrisent pas les forçages

68.  the fritz | 23/06/2009 @ 11:57 Répondre à ce commentaire

scaletrans (#66),
Une restitution par les océans est forcément liée à une élévation de température qui est inconnue à cette époque je parle de 1820 et des 450 ppm de Beck; par contre je pense que c’est effectivement la cause des 80ppm observé entre un mini et un maxi glaciaire

69.  Argus | 23/06/2009 @ 12:45 Répondre à ce commentaire

@the fritz,
Je ne comprend pas: Si vous avez reçu les pubs de Beck directement vous devez avoir accès à ces dernières sans difficultés et, parmi, bien d’autres à celle-ci aussi de Hock :

http://ams.allenpress.com/arch.....-6-441.pdf

Quand aux mesures prises près du poêle, vous m’avez bien fait rigoler…
Celles de la réf ci-dessus sont spécifiées prises à l’extérieur du labo à Point Barrow Alaska . Le skieur chimiste était au Groenland en 1880 etc…
Vous remarquerez les précisions des mesures…pour l’oxygène comme pour le CO2.
Je crois qu’il faut trouver autre chose, comme l’inhomogénéité de la concentration du CO2 à proximité de la surface. C’est nettement plus sérieux comme argument .

70.  MichelLN35 | 23/06/2009 @ 13:27 Répondre à ce commentaire

the fritz (#65),
” qui a craché le CO2 pour atteindre 450 ppm en 1820

Le Tambora ne pourrait’il pas être impliqué ?

Florent76 nous indiquait le 1 avril que ce volcan indonésien explosant le 10 avril 1815 avait induit une baisse de température moyenne de -0.6°C, ce qui appliqué à l’océan a dû, pendant les années qui ont suivi, 1816 (année sans été, 1817 et 1818, augmenter la solubilité du CO2 ejecté ou naturel dans les océans.

En 1820, la température se rétablissant la teneur océanique en CO2 a dû diminuer par dégazage, participant transitoirement et au moins pour partie aux 450 ppm mesurés. Cela a d’ailleurs été marqué, il me semble dans les cernes des arbres plus épais en Californie et peut-être ailleurs.

On sait que des variations de cet ordre ont lieu chaque année dans l’hémisphère Nord sur une calotte de + de 3000 km autour du pôle, alors que l’océan arctique libère ~10 millions de km2 d’eau froide.

Toute variation de teneur atmosphérique ou de température est relative et doit donc être donnée en fonction d’une durée, sinon elle n’a aucune valeur comparative.

Les 80 ppm entre la glaciation et l’interglaciaire résultent d’une différence de torchon et de serviette puisque il s’agit de la teneur correspondant à des échantillons représentant ~2000 ans en interglaciaire et 6000 ans au plus froid de la glaciation (différence entre les ages de la glace et de l’air qu’elle contient à Vostok). ~Il faudrait au moins modifier les teneurs en mutipliant par racine de 2000 et racine de 6000 pour rétablir des variances comparables.

A GRIP ou GISP2 les différences d’age existent aussi, elle sont bien sûr beaucoup plus faibles en raison de la quantité de neige annuelle (2 à 6 ans par m ; mais les teneurs en CO2 sont le plus souvent disqualifiées car elles sont trop variables, ce qui est attribué à la présence de matière organique dans la glace.
C’est peut-être vrai mais je crois surtout que cela permet de dire que la teneur atmosphérique en CO2 était constante et basse avant l’ère industrielle en prenant comme référence le l’Antarctique où, du fait du continent, il n’y a pas les variations annuelles du pôle nord.

J’ai tenté une application de cette prise en compte de la durée pour la teneur moyenne en deutérium des mètres à Vostok sur ~450000 ans. A ma grande surprise, contrairement aux graphiques habituels, le froid n’est pas plus intense à la fin de la glaciation, juste avant la nouvelle période interglaciaire mais, au contraire, au début de la nouvelle glaciation.

Je n’ai pas d’explication et j’attend une critique de mon analyse car je me trompe peut-être.

71.  the fritz | 23/06/2009 @ 14:12 Répondre à ce commentaire

Argus (#69),

Merci pour la référence très intéressante–on ne peut pas avoir tout lu!!
Concernant la précision, les valeurs de co2 varie de 300 à 500 ppm pour un même mois et il est précisé que l’on ne voit pas de variation saisonnière.La pointe Barrow est cependant le labo officiel où l’on note actuellement la plus importante variation saisonnière, jusqu’à 15ppm. Je suppose donc que tu fais plus confiance aux mesures de 1940 qu’à celles d’aujourd’hui
Mauvaise foi ou incapacité de lire un texte?
Je crois qu’il faut trouver autre chose, comme l’inhomogénéité de la concentration du CO2 à proximité de la surface. C’est nettement plus sérieux comme argument .
C’est bien pour cela que je fais plus confiance aux mesures de Hawai ou même celles des carottes prises aux pôles et en altitude

72.  the fritz | 23/06/2009 @ 14:43 Répondre à ce commentaire

MichelLN35 (#62),
Si le Tambora est responsable du passage de 280 à 450 ppm, quel est le volcan responsable du saut de 300 à 420 ppm plus près de nous en 1945?
Concerrnant les variations saisonnières dans l’arctique , j’ai répondu à Argus; la raison à mon avis n’est pas la liberation dela banquise qui atteint des chiffres équivalents en Antarctique, c’est plus vraisemblablement la differnce Terre/mer en faveur du nord et l’assimilation chlorophyllienne de la végétation terrestre et principalement de la forêt boréale

J’ai pas bien compris la suite, mais je pense qu’on ne mélange pas des torchons et des serviettes en analysant les bulles des glaces; il y a bien sur toutes les précautions à prendre signalées par Araucan et les questions de datation absolues, mais pour des géologues qui manipulent carottes et cuttings à longueur d’années, c’est un exercice de tous les jours; mais bien sûr plus on recule dans le temps et plus les resultats sont à prendre avec des pincettes

73.  Argus | 23/06/2009 @ 16:18 Répondre à ce commentaire

@ the fritz

Hum ! Vous avez un problème de logique interne. Manifestement !

Voyez vous, la grande différence entre les mesures rappelées par Beck et les mesures actuelles, c’est justement que les mesures de Beck sont réparties dans différentes zones de la planète tandis que les mesures actuelles sont limitées à Mauna Loa (et en australie) et aux pôles (surtout Vostok).
Il a d’ailleurs été fort difficile de réconcilier Vostok et Mauna Loa, mais passons…

D’où mon souci que la teneur en CO2 n’est peut-être pas si homogène à la surface de la planète ( à 2m d’altitude) qu’on le croit généralement.

Vous en pouvez pas comparer aveuglément des mesures réparties et des mesures localisées prises dans différentes conditions. Il ne s’agit pas de « faire confiance » , comme vous le dites. Il s’agit de se poser les bonnes questions.

NB : « Mauvaise foi ou incapacité à lire un texte  » comme vous dites, ça nous rappelle le langage de Yves25. Bravo !

74.  REDBARON 17 | 23/06/2009 @ 16:46 Répondre à ce commentaire

Bonjour à tous !

D’un point de vue plus général :
En 1850 le taux de CO2 mesuré selon la technique chimique (courbe de Beck) était de 330 PPM , la population du globe était selon Wikipédia de 1,128 à 1,402 milliard
.
De nos jour la population du globe est de 6,7 milliards et le taux de CO2 est de l’ordre de 385 PPM

55 PPM d’augmentation en 160 ans

Peut-on dire que l’humain est responsable de quoi que ce soit concernant les taux de CO2.
Il semblerait que le CO2 émis par les 6,7 milliards d’humain soit bien absorbé par la nature et ne va pas augmenter l’effet de serre…

Me trompe-je… ???

75.  miniTAX | 23/06/2009 @ 16:57 Répondre à ce commentaire

« J’ai pas bien compris la suite, mais je pense qu’on ne mélange pas des torchons et des serviettes en analysant les bulles des glaces; il y a bien sur toutes les précautions à prendre signalées par Araucan et les questions de datation absolues, mais pour des géologues qui manipulent carottes et cuttings à longueur d’années, c’est un exercice de tous les jours; »
————————————–
the fritz (#72),
Ce n’est pas parce qu’on manipule les carottes tous les jours qu’on sait en déduire les taux de CO2 à quelques ppm près et avec une résolution temporelle d’un an, faut pas nous faire prendre des vessies pour des lanternes. Avec les carottes de glace, tu as un point de mesure tous les 50 ans pour les dates récentes et quand tu remontes à quelques milliers d’années, c’est tous les 100 ou 500 ans. Un point !
La preuve, essaye de nous trouver nous la mesure de CO2 atmosphérique de 2000 et 2001… par une carotte glaciaire. Bon courage !
Comme l’a dit Pierre-Ernest, notre chimiste traducteur préféré, qui a oublié d’être con, quand on voit que les courbes de pratiquement tous les gaz (au hasard le CH4 et le CO2), que tout sépare aussi bien les sources, les puits, la cinétique dans l’atmosphère ou avec la biosphère, montent et descendent tous en même temps dans les mêmes proportions, le premier geste d’urgence, c’est de faire sonner le détecteur de foutage de gueule (d’accord, il n’a pas dit exactement dans ces termes).
Mais là non, no souçaï, nos éminents climatologues ne voient aucun inconvénient à mixer allègrement les mesures instrumentales au ppm près à la glacio-astrologie par les carottes, bref à planquer la queue d’un rat dans le cul d’un manchot en nous faisant croire que c’est un ornithorynque. Délire !
Mais hé, c’est de la science climatique.

76.  Araucan | 23/06/2009 @ 18:10 Répondre à ce commentaire

miniTAX (#75),

Un point !

Dont on ne sait pas ce qu’il représente : un point justement, une moyenne, une somme ou une soustraction ou tout cela, sans compter les effets de contingence auquels on n’aura pas accès, parce que c’est trop tard… quoiqu’on fasse.

77.  the fritz | 23/06/2009 @ 19:55 Répondre à ce commentaire

miniTAX (#75),
Ben voilà , on retrouve un langage et des argumnts bien scientifiques
Le CO2 et le methane se suivent comme deux compères , parce que ce dernier se transforme en CO2 aussi vite qu’il est émis, et puis tous ces gaz ont un dénominateur commun , la température qui fait degazer les océans , pousser les herbes et péter les mammouths
Mais c’est ton droit de mettre au placard les enseignements des carottes et de toute la paleoclimatologie; il te reste alors de te battre avec les modélisateurs; mais je connais ton avis : de la foutaise; je me demande en fin de compte ce qui n’est pas de la foutaise pour toi

78.  the fritz | 23/06/2009 @ 20:04 Répondre à ce commentaire

Argus (#73),
Argus, je ne sais pas qui a un pb de logique interne, mais si tu veux avoir des mesures significatives et que cela varie trop a la surface faut t’élever
Et puis les mesures faites un peu partout dans le monde actuellement fitent tres bien ; la seule différence , c’est la variabilité saisonnière; 15 ppm pointe de barrow,deux trois ppm en Antarctique
Et puis depuis que tu m’as parlé de mesures précises dont la fourchette est de 200ppm, je me suis dit que ce n’est pas la peine de poursuivre la discussion

79.  miniTAX | 23/06/2009 @ 23:08 Répondre à ce commentaire

the fritz (#77), si comme tu dis le méthane se transforme aussi vite qu’il est émis en CO2 (admirez le flou artistique), ça veut dire que ses variations ne peuvent PAS ressembler à celles du CO2, même si par magie, les mamouths ajustent leur sphincter pour émettre le CH4 en synchro avec les sources de CO2.

Quant à ce qui est de la foutaise pour moi, c’est par exemple quand on torture les données de pauvres carottes, notamment grâce à des modèles (si si, il y en a, même là, notamment de diffusion de gaz) jusqu’à ce qu’elles avouent ce qu’on a envie d’entendre, si tu vois ce que je veux dire. Et si tu ne vois toujours pas, je te conseille de lire Jarowoski qui est loin d’être un manchot en matière d’instrumentation & mesure des carottes glaciaires.
Mais bon, s’il n’y avait que ça comme foutaise dans la « science » climatique…

80.  the fritz | 24/06/2009 @ 0:17 Répondre à ce commentaire

miniTAX (#79), Bon minitax, cela ne m’arrive pas souvent de perdre patience, mais cela arrive; je pense que tu sais que je suis geologue petrolier, que j’ai passé ma vie à decortiquer des carottes, à analyser le mineral d’un coté, et les fluides d’un autre et dans la porosité – t’entends bien -les trous, pas les cristaux;et on arrive à tirer des conclusions et à savoir d’où vient l’eau , d’où viennent les hydrocarbures; mais il y a une chose essentielle pour cela : de la perspicacité et pas du j’m’enfoutisme.Et les inclusions fluides des ciments cela marchaient tout aussi bien que les bulles dans la glace et pour estimer les paleotempératures, mais pas avec les mêmes méthodes; je n’ai sans doute pas lu tous les écrits de Jaworosky, et je ne sais pas s’il rejette en bloc tous les resultats de carottes de glace comme tu le fais, mais une fois de plus , on n’a pas besoin des données de carottes pour minimiser le rôle du CO2 dans les variations climatiques récentes.
Faut un jour que tu débloques ton mental pour pouvoir causer tranquillement de réserve de pétrole, de variation atmosphérique de CO2 et de carottes et données de paleoclimatologie, mais j’ai bien peur que le verrou soit bloqué à jamais
Si je réponds plus avant huit jours , c’est que je suis en vadrouille, mais tu peux continuer à jouer au négateur, cela fait juste du tord aux sceptiques

81.  Flo | 29/06/2009 @ 18:48 Répondre à ce commentaire

Entendu sur France Info il y a cinq minutes à propos du documenataire diffusé sur Maxisciences ce soir (je la fais courte):

« dans cinq milliards d’années le soleil se meurt comme Mira, la terre est vaporisée, seule échapatoire : Mars. Problème : il y fait -60 °c en moyenne. Solution : facile, on pollue. On y met des usines qui produisent du CO2
et hop le tour est joué on a un bel effet de serre. Reste plus qu’à extraire l’oxygène et l’hydrogène contenus par la planète (pas bien compliqué, il suffit de bombarder la surface de la planète en détournant des météorites!) jusqu’à ce que les conditions de la vie soient réunies »
Bon la présentatrice a dit qu’on avait cinq Mds d’années pour améliorer le scénario..

82.  ardeche07 | 29/06/2009 @ 18:52 Répondre à ce commentaire

Flo (#81),
Sauf que Mars est dans notre système solaire et sera également vaporisé par le soleil, décidement on entend vraiment que des conneries…

83.  Araucan | 29/06/2009 @ 21:28 Répondre à ce commentaire

Flo (#81),

En gros, c’est la technique utilisée dans le livre de SF de Kim Robinson dans sa trilogie sur Mars.
Dégazage de CO2, quelques météorites de glace, émission d’O2.
Mais il n’y a pas besoin d’attendre 5 Mrds d’années pour le faire…

84.  Manu95 | 30/06/2009 @ 23:13 Répondre à ce commentaire

Solution : facile, on pollue. On y met des usines qui produisent du CO2

Alors que la faible atmosphère de Mars contient déjà > 95 % de CO2.

C’est vraiment du grand nawak

85.  Araucan | 1/07/2009 @ 10:26 Répondre à ce commentaire

Manu95 (#84),

Ce qui manque sur Mars c’est l’eau avant tout.

86.  Manu95 | 1/07/2009 @ 11:27 Répondre à ce commentaire

Anéfè,

L’atmosphère martienne est composée à 95 % de dioxyde de carbone, 2,7 % d’azote et 1,6 % d’argon. On trouve également des traces d’oxygène (0,13 %) et de vapeur d’eau (0,03 %) . L’ozone n’est présent qu’à l’état de traces et ne permet pas de protéger la surface de Mars du rayonnement ultraviolet.

Atmosphère

C’est pas grave, yaka y envoyer de l’eau. Mars quand elle est en opposition n’est qu’à 0.5 UA soit la moitié de la distance du Soleil à la Terre.

Ou encore il faut aller coloniser l’exoplanète la plus proche, semblable à la Terre répondant au doux nom de Gliese 581c

Il n’y a qu’un chtit problème 🙂

En raison de sa température et de sa proximité relative, cette planète Gl 581 c sera probablement une cible très importante pour les futures missions dans l’espace consacrées à la recherche de vie extraterrestre. Sur la carte des trésors de l’Univers, on serait tenté de marquer cette planète avec un grand X.

Il n’est pas envisageable d’y envoyer une sonde avec les technologies actuelles, étant donné que cette planète est située à 20,5 années-lumière de la Terre (sa lumière met donc 20,5 années pour nous parvenir). Aucune technologie actuelle ne permet de voyager à de telles vitesses et avec les technologies actuelles de propulsion, il faudrait approximativement 300 000 ans pour atteindre Gliese 581 c et 20,5 ans pour retransmettre les premières données à la Terre

On peut toujours rêver…

87.  piloteman | 1/07/2009 @ 12:57 Répondre à ce commentaire

Flo (#81),

La « vie » apparaît vers – 3.8 milliards d’années : de simples cellules d’organismes procaryotiques, les bactéries. Leurs descendantes sont toujours parmis nous… et on peut dire qu’elles sont vraiment les plus vieilles habitantes de notre planète !
De cette époque jusqu’à – 2 milliards d’années… il n’y a pas de trace d’évolution. Puis apparaît la cellule eucaryote avec un noyau.
Vers – 555 millions d’années la taille des organismes augmente. D’une cellule on passe à plusieurs…On assiste à une véritable explosion de diversité : méduses, algues, éponges…

Si la vie évolue dans le futur de la même manière que par le passé.. et ce qui serait bien étonnant vu nos capacités actuelles. Il y aura encore plus de différences entre une bactérie et nous , qu entre nous et ce qui vivra sur terre dans 5 Milliards d’années.
alors se poser les Problèmes que nos descendant devront se poser à cette époque revient a demander à une bactérie ce qu’elle pense des voyages spaciaux, et comment elle va faire avec ses petites pattes (!) pour construire une fusée Titan..
non, mais je me demande où se situe le fond de la prétention humaine, sans parler de l anachronisme. Que des scientifiques supposés intelligents se prêtent à ce genre de spéculations est bien le plus étonnant. Quant a France Info, je lui en veux beaucoup d’utiliser son image de sérieux (qui reste à demontrer) pour véhiculer ce genre de fadaises.

88.  Manu95 | 1/07/2009 @ 20:51 Répondre à ce commentaire

piloteman (#87),

Repentez-vous, la fin du monde est proche !
Nous n’avons pas 5 milliards d’années pour trouver une autre planète habitable, mais tout au plus 500 millions d’années.

Enfin si on en croit Wikipédia, de plus en plus atteinte d’écolo-alarmisme aigu.

L’humanité est apparue sur Terre 4,5 milliards d’années après la formation de notre planète et la vie telle que nous la connaissons disposerait de conditions adéquates autour de notre étoile pour seulement 500 millions à moins d’1 milliard d’années supplémentaires.

Habitabilité d’une planète

Et pour enfoncer le clou …

l’évolution stellaire indique que le Soleil passera par une phase dite de géante rouge qui verra son volume considérablement augmenter. Dès le début de ce processus, dans 500 millions d’années, la vie sera amenée à disparaître en raison de l’élévation de la température et des rayonnements ultraviolets consécutive à l’augmentation du rayonnement du Soleil précédant sa croissance, quand bien même la Terre en tant que planète survivra à cette phase. Ce scénario de transformation du Soleil en géante rouge est inévitable.

Fin du monde

89.  laurent | 1/07/2009 @ 21:45 Répondre à ce commentaire

Donc l’humanité à vécu le 100ième de son existence…. pas étonnant qu’elle babille encore… 😉

90.  Araucan | 1/07/2009 @ 21:51 Répondre à ce commentaire

Manu95 (#88),

Mais là on a le temps et pour le moment quoiqu’on fasse on sait que cela ne servira à rien. Sinon on aurait déjà une convention sur le Soleil….

91.  Manu95 | 2/07/2009 @ 8:17 Répondre à ce commentaire

Araucan (#90),

Puisqu’on a ici des spécialistes (météorologues au moins), j’ai lu sur Wikimerdia… Oups ! Wikipedia, que d’ici quelques centaines de millions d’années la température serait de 100 °C, ce qui serait évidemment la fin de toute vie sur terre telle que nous la connaissons.
On y parle bien sûr de l’effet de serre, comme d’hab (avec cette ineptie des + 30 °C actuels).

Ma question est comment pourrait-il avoir 100 °C (ce qui ferait bouillir toutes les eaux douces), alors que bien avant que cette température soit atteinte la couverture nuageuses devrait arrêter pratiquement tout le rayonnement solaire entrant ?

92.  Chria | 2/07/2009 @ 11:59 Répondre à ce commentaire

Manu95 (#86),
En plus la technologie évoluant, personne n’arrivera vers cette planète avant ceux qui auront inventé la téléportation… Ou du moins le voyage supraluminique (si bien sûr on invente ça avant des centaines de milliers d’années, ce qui paraît probable si on continue sur notre lancée). J’imagine les vieux cargos remplis de colons depuis des siècles qui se font doubler par des Porsches de l’espace remplis de jeunes cons dont le voyage aura duré 3h ! Ils feront la tronche…
C’est donc ridicule de se lancer dans ce genre de voyage pour l’instant, et donc finalement de tirer des plans sur la comète…
Et à quoi bon chercher cette hypothétique vie extraterrestre, il n’y a que d’infime chance qu’elle se soit développée si près de nous en plus. Autant attendre des jours meilleurs et se concentrer sur nos problèmes. Il est pratiquement sûr que la vie ET existe alors pourquoi se précipiter ?
C’est pareil avec la fin du monde dans 500 millions d’années ! Quel monde ? Quelle humanité ? Tout cela n’a aucun sens. C’est juste pour écrire et faire peur, mais pas pour avancer. Autant lire de la SF c’est plus stimulant pour l’imagination que ce genre de conneries qui veut se faire croire scientifiques.

93.  Manu95 | 2/07/2009 @ 12:32 Répondre à ce commentaire

Chria (#92),
Tout à fait d’accord.

Et j’ajoute qu’à 64 balais, je m’en fous de ce qui arrivera dans 20 ans et plus. Comme fumeur invétéré, s’il y a une chose de certaine, c’est que je ne serai plus là.

Et pour mes enfants et petits-enfants, ils feront comme nous avons toujours fait : ils s’adapteront.

Mais je m’efforce quand même de ne pas polluer la nature inutilement.

94.  Araucan | 2/07/2009 @ 22:17 Répondre à ce commentaire

Manu95 (#91),

Dans 500 M d’années ou dans un milliard d’années, ce sera le Soleil qui mènera fortement la danse : soit on pourra se sauver, soit non. De toute façon, si l’on veut vraiment se faire peur faire un tour du coté des CME, coronal mass ejection = éjection de plasma du soleil ou comment griller tous les réseaux électrriques et électronique du coté de la terre qui se le prendra…
Ou même du coté des météorites de plus de 100 m de diamètre susceptibles de nous tomber dessus… La probabilité est loin d’être nulle non plus…

95.  Manu95 | 3/07/2009 @ 0:04 Répondre à ce commentaire

Araucan (#94),

Mais je connais tout cela pour avoir corrigé en 2006 toutes les fautes d’orthographe que je rencontrais sur le Portail Cosmologie de Wikipédia (sauf les pages parlant de la très fumeuse « Théorie des cordes »)
Extrait de ma page de discussion

– – –
Bertrand Russell aurait écrit : « Tout le problème de ce monde, c’est que les idiots et les fanatiques sont toujours si sûrs d’eux, tandis que les sages sont tellement pleins de doutes. »

96.  Araucan | 3/07/2009 @ 10:06 Répondre à ce commentaire

Manu95 (#95),

On devrait demander à Fred de l’ajouter dans les citations qui défilent.

97.  Manu95 | 3/07/2009 @ 12:46 Répondre à ce commentaire

Araucan (#96),
Après vérification, la citation exacte serait :

Le problème en ce bas monde est que les imbéciles sont sûrs d’eux et fiers comme des coqs de basse cour, alors que les gens intelligents sont emplis de doute.


Evene – Citations Bertrand Russel page 2

Et on trouve aussi en page 3

L’ennui dans ce monde, c’est que les idiots sont sûrs d’eux et les gens sensés pleins de doutes.

La citation que j’ai donnée (#95) serait donc une variante ou un mix des deux. Tenir compte que Russel était anglais (problème de traduction ?)

De la même veine :

L’homme est un animal crédule qui a besoin de croire. En l’absence de raisons valables de croire, il se satisfait de mauvaises.

Sorry, the comment form is closed at this time.