Le réchauffement global par le CO2 n’est pas confirmé par les données

• • • • •

De Girma J Orssengo, MASc, PhD , 10-Oct-2009

Commençons par les données. Le graphique des anomalies des températures moyennes globales en °C d’après le Hadley Center pour les années 1850 à 2008 figure ci-dessous.
Evolution des anomalies de la température moyenne
Figure 1 : Anomalies des températures moyennes mondiales en °C d'après les données du Hadley Center

Le graphe ci-contre montre une tendance linéaire au réchauffement donnée par l’équation suivante: Composante linéaire de variation du réchauffement en °C = 0,44(année-1850)/100-052.

Superposée à cette variation linéaire, il y a une composante sinusoïdale (oscillation) qui se déplace  alternativement en dessous et au-dessus  de la ligne de variation linéaire  suivant l’équation : Oscillation = Variation – Variation Linéaire.

Maintenant, la question qui se pose est : après une augmentation significative des émissions de CO2 par l’homme, les données d'anomalies de température révèlent-elles une inflexion des températures globales au siècle dernier ?

Pour y répondre, répondons à ces trois questions :

1. Comment le réchauffement linéaire de 0,44 deg C/siècle du siècle dernier, montré ci-dessus se compare-t-il avec le réchauffement linéaire d’il y a deux siècles ?

2. La variation oscillante du siècle dernier, après un usage intensif de carburants fossiles, est-elle inhabituelle ?

3. Quelle est la tendance actuelle de la variation de la température moyenne globale  ?

1. Comment le réchauffement linéaire de 0,44 °C/siècle au cours du siècle dernier montré ci-dessus, se compare-t-il avec le réchauffement linéaire d’il y a deux siècles ?

Evolution des anomalies de la température moyenne
Figure 2 : Evolution de la température moyenne globale avant 1910 d’après les cernes d'arbres

Comme il n’y avait pas de mesures de température directes avant 1850, les données de cernes d'arbres sont utilisées pour représenter le réchauffement linéaire de 1810 à 1910 comme ci-après.

Le graphe ci-dessus montre une droite de tendance au réchauffement donnée par l’équation suivante :

Variation linéaire en °C= 0,47(Année-1810)/100-0,63.

Ce réchauffement linéaire de 0,47 °C/siècle, il y a deux siècles, est d'une grandeur similaire à celui du siècle dernier, soit 0,44 °C/siècle. Il n’y a pas eu de changement significatif de la variation linéaire dans les deux siècles précédents. Il en résulte que le réchauffement linéaire du siècle dernier ne fut pas causé par les  émissions anthropiques de CO2.

2. L'oscillation du siècle dernier après un usage intensif de carburants fossiles, est-elle inhabituelle ?

Le réchauffement linéaire du siècle dernier n’ayant pas été causé par les émissions de CO2, regardons maintenant l'oscillation pour voir s’il existe un infléchissement de la température résultant d’un accroissement des émissions de CO2.

Pour étudier l'oscillation séparément, nous retirons la tendance linéaire du réchauffement grâce au logiciel de www.woodfortrees.org en utilisant la valeur DETREND=0,706, qui fait pivoter la droite de tendance montrée à la Figure 1 dans le sens des aiguilles d’une montre à l’horizontale. Le graphe de variation avec sa variation linéaire enlevée (oscillation) est montré ci-après.

Oscillation
Figure 3 : Oscillations en °C d’après les données du Hadley Center

Le graphe ci-dessus montre les inflexions suivantes de la température moyenne globale :

  • Refroidissement global de 0,71 deg C de 1878 à 1911, soit 33 ans
  • Réchauffement global de 0,53 deg C de 1911 à 1944, soit 33 ans
  • Refroidissement global de 0,48 deg C de 1944 à 1976, soit 32 ans
  • Réchauffement global de 0,67 deg C de 1976 à 1998, soit 22 ans.

En complément aux données ci-dessus qui montrent des phases de refroidissement et de réchauffement de la température globale, il existe dans les médias des documents de support qui décrivent le climat de ces périodes: Pour le refroidissement global de 1878 à 1911, la manchette du New York Times du 24-Fév-1895 était PROSPECTS OF ANOTHER GLACIAL PERIOD.

Pour le réchauffement global de 1911 à 1944, la manchette du New York Times du 15-Ma1-1932 était Melting Polar Ice Caps to Raise the Level of Seas and Flood the Continents.

Pour le refroidissement global de 1944 à 1976, la manchette de Newsweek du 28-Avril-1975 était The Cooling World.

Les phases de refroidissement et réchauffement ci-dessus sont aussi appuyées en littérature par Nathan Mantua, Ph. D.: "Plusieurs études indépendantes donnent la preuve de deux cycles complets de PDO (Oscillation Décennale du Pacifique) au siècle dernier. Des régimes de PDO "froide" ont révalu de 1890 à 1924 et de nouveau de 1947 à 1976, alors que des régimes de PDO "chaude" ont dominé de 1925 à 1946 et depuis 1977 jusque (au moins) le milieu des années 1990 (Mantua et al. 1997, Minobe 1997)."

La Figure 3 montre une variation positive de 0,39 °C pour 1998, ce qui est d’une grandeur similaire à la valeur de 0,38 °C pour 1878. Il en résulte que le maximum de température de 1998, après un large usage des combustibles fossiles, n’est pas inhabituel.

Pour étudier s’il y a un infléchissement des températures moyennes globales, on peut racer un graphe de probabilité normale (NdP : droite de Henry) à partir de l'oscillation. En probabilité normale, si la plupart des points de température de l'oscillation se trouvent sur une droite, ils sont alors normalement distribués. Pour les données de variation oscillante depuis 1850, le graphe de probabilité normale est donné ci-après.

Graphe de probabilité normale pour l'oscillation de température
Figure 4 : Probabilité normale pour les oscillations (résiduelles)

La Figure 4 montre que la plupart des points de l'oscillation se trouvent sur une droite avec un coefficient élevé de corrélation de 0,9923. Hormis les 159 points, seules deux températures, pour 1911 et 1909 sont  en dehors, ce qui indique une inflexion des températures. Cependant, comme cette inflexion s’est produite bien avant l’usage généralisé des combustibles fossiles, et qu’un refroidissement global similaire s’est produit dans les années 1970 après le refroidissement de 1911, la cause de cette inflexion peut difficilement être attribuée aux émissions de CO2.

L'oscillation étant normalement distribuée, nous pouvons en calculer les limites haute et basse. L’inverse de la pente de la ligne du graphe de probabilité normale est égale à la déviation standard, σ. Par conséquent d’après la Figure 4, σ = 1/6,6 = 0,15 °C. Pour l'oscillation, 99,73% des données se trouvent entre +/- σ 3  = +/- 0,45 °C. Ces valeurs hautes et basses englobent toutes les variations de température de 1850 à 2008 comme montré à la Figure 3.

D’après la Figure 4, basée sur 159 ans de données, la température globale a varié entre -0,32 °C et 0,4 °C, soit au total 0,72 °C. ( NdP :par rappor t à la droite de variation linéaire) Il en résulte que l’augmentation de la température moyenne du minimum au maximum (réchauffement global) ou la diminution du maximum au minimum (refroidissement global), de 0,72 °C est la variation naturelle de la température moyenne globale. En plus de ces oscillations de température, il y a un réchauffement linéaire global de 0,44 °C/siècle.

Sur la Figure 4, toutes les températures du côté droit du graphe, qui reflètent le réchauffement global, se trouvent pratiquement sur une droite. Il en résulte qu’il n’y a aucune inflexion vers un réchauffement global. Pas d’empreinte de CO2, aucune.

3. Quelle est la tendance de la variation de température globale en ce moment ?

Dans le graphe de l'oscillation ci-dessous, regardons l’extrémité de la courbe de variation pour l’an dernier en 2008.

Oscillation d'après les données du Hadley Center
Figure 5 : Oscillation en °C d’après les données du Hadley Center

Regardons également l’extrémité à droite de la ligne horizontale verte d'oscillation nulle. Dans les années à venir, la courbe d'oscillation rouge descendra-telle vers la ligne horizontale et la croiser, ou fera-t-elle une culbute de 180° et s’éloignera-t-elle de la ligne horizontale pour remonter à sa valeur maximale précédente, pour évoluer vers des valeurs supérieures à ce maximum ?

Les oscillations étant normalement distribuées, la probabilité que la température revienne à son maximum de 1998 est de moins de 1%. Le cas le plus probable conduit à suivre le modèle historique et la tendance présente. Pour la Figure 5, pour le modèle de variation d’après 1998, nous dupliquons celui d’après 1878, avec un refroidissement global de 33 ans. Si ce modèle se répète bien, nous aurons encore 22 années supplémentaires de refroidissement global jusque vers 2031, avec des variations de température similaires à celles de 1970, effaçant alors la plus grande part de l’accroissement de température des trois dernières décennies du siècle dernier.
D’après la Figure 5, pour 1998, vers la fin du siècle dernier, l'oscillation fut à son maximum; il en résulte que l’accroissement de la variation de température moyenne globale pour le siècle dernier est la somme de 0,44 °C de réchauffement linéaire et de 0,39 °C pour le maximum de l'oscillation, ce qui donne 0,83 °C. Cet accroissement de la température moyenne globale du siècle dernier est dû à un changement naturel du climat.

Il est fâcheux que le maximum de l'oscillation se soit produit en 1998 à la fin du siècle dernier. Ce fut juste une coïncidence. A la fin du siècle dernier, si l'oscillation avait été à son minimum, comme en 1911 avec -0,33 °C, il n’y aurait eu aucun changement significatif de la température globale (0,44 – 0,33 = +0,11 °C) au siècle dernier. Il en découle que, selon que le maximum ou le minimum d’une oscillation coïncide avec la fin d’un siècle, nous pouvons avoir un échauffement global de 0,83 °C ou pas de réchauffement sur le siècle.

La Science est une affaire de données. La Science n’est pas une affaire de consensus ou d’autorité.

Le Réchauffement linéaire du siècle dernier est similaire à celui des deux derniers siècles. La variation de 0,67 °C des températures autour de cette droite entre 1876 et 1998 est aussi naturelle que le refroidissement d’une valeur similaire entre 1878 et 1911. D’après la Figure 4, il n’y a aucune inflexion de la variation de température moyenne résultant des émissions de CO2 au siècle dernier. Aucune.

Le réchauffement global par le CO2 n’est pas confirmé par les données.

Girma J Orssengo, MASc, PhD. orssengo@lycos.com

Source (traduction par Scaletrans et grand merci à lui).

101.  Robert | 17/11/2009 @ 14:24 Répondre à ce commentaire

1976-1996, ça fait 30 ans, pas 50…. même pour compter tu a des problèmes?

pas autant que vous, je dirais… Quand je pense que vous avez essayé de convaincre tout le monde de vos talents de mathématicien…

102.  Laurent | 17/11/2009 @ 15:11 Répondre à ce commentaire

Le pic du graphique de ton article (dont tu a donné le lien) est en 1966. Tout le monde peut donc voir que 1976 est une erreur de frappe.
Toi par contre, tu répète 50 ans comme un perroquet depuis plusieurs posts, et même maintenant tu n’a pas la plus élémentaire décence de reconnaitre que ce chiffre ne correspond à rien, comme tu n’a jamais eu la plus élémentaire décence de reconnaitre une seule fois d’avoir eu tord sur ne serais-ce une seule des innombrables bêtises que tu a proféré…

Alors ta leçon, tu te la garde pour toi…. va te renseigner sur l’histoire de la paille et de la poutre, tu en représente la parfaite illustration.

103.  Robert | 17/11/2009 @ 15:42 Répondre à ce commentaire

tout d’abord, j’ai déjà reconnu mes erreurs, quand il y en avait. Ensuite, votre ton de donneur de leçons est non seulement inutilement agressif, mais surtout mal placé : après nous avoir donné des valeurs de conductivité thermique en J/mol K, vous nous dites que 1996-1976 ça fait 30, pour finalement essayer de nous convaincre qu’il s’agit d’une faute de frappe. Pour finir, mon affirmation de 50 ans provient du fait que je me renseigne, au lieu d’essayer de deviner la position d’un maximum sur un graphique sans graduation;

Le maximum a eu lieu entre 1963 et 1967 selon les sources (que je peux vous donner si vous voulez). A l’heure actuelle, les niveaux mesurés correspondent à environ 10% de ce pic. Je vous avoue que ma première estimation se basait sur la date de 1963 que j’avais trouvée, ce qui nous fait 46-47 ans (plus proche de 50 que de 30, vous en conviendrez). avec les différentes valeurs du pic, on arrive à l’intervalle 42-47 ans, toujours plus proche de 50 que de 30, non ? Mais le plus important, c’est que ce rythme a fortement ralenti depuis les années 80…

104.  Laurent | 17/11/2009 @ 16:45 Répondre à ce commentaire

Robert (#103),

j’ai déjà reconnu mes erreurs, quand il y en avait

Menteur!!!

après nous avoir donné des valeurs de conductivité thermique en J/mol K

Rhooo… quelle impudence… pour quelqu’un qui ne sait pas ce qu’est une variance (et ne l’a jamais reconnu), qui a sorti des âneries plus grosses que lui en confondant bilan énergétique et bilan thermique (et ne l’a jamais reconnu), j’en passe et des meilleures (la liste est longue….)
Y’a pas à dire, question foutage de gueule, on a un compétiteur… de classe olympique… 😉

A l’heure actuelle, les niveaux mesurés correspondent à environ 10% de ce pic

Bah non…. dans l’article dont tu a donné le lien, la mesure finale (ou on observe les 10% résiduel) est en 1997… et pas « à l’heure actuelle » (l’article lui-même a d’ailleurs été publié en 1997)
Menteur encore…

au lieu d’essayer de deviner la position d’un maximum sur un graphique sans graduation

…. il y a bien des graduations sur le graphique. Et il n’y a rien à deviner, on peut parfaitement « mesurer » (à une année prêt) sur le graphique la position du pic…. allez… je vais t’accorder que c’est plus prêt de 1964 que de 1966…

97-64 cela fait 33 ans…. allez, je prend à mon compte une erreur de 3/4 ans 😉
On est encore très loin de tes 50 ans dont tu nous rabâche les oreilles depuis plusieurs post.
Une mauvaise foi ce roro…. c’est terrible… 😉

Mais le plus important, c’est que ce rythme a fortement ralenti depuis les années 80…

Bah … avec les yeux de la foi cette affirmation…. c’est très loin d’être flagrant.

D’autre part, et pour revenir dessus… les derniers tests atmosphérique ont eu lieu en 1980… avec une demi-vie de 16 ans, c’est un peu normal qu’il en reste en 1997, non?
(ceci n’est pas une affirmation, juste une remarque de bon sens…. je le répète, je ne prétend pas connaitre grand chose sur les échanges atmosphériques en ce qui concerne le C14)

Tu es très fort pour l’embrouille…. et comme d’hab tu essaie de noyer le poisson (Les 100 ans de residence du CO2 affirmés haut et clair), en continuant sur un sujet qui n’a rien à voir et ou tu te sent (à tord) un peu plus fort.
Technique classique de polémiste…. c’est ça que tu a appris à faire en passant ton doctorat de « stock a tiques » ?

105.  Robert | 18/11/2009 @ 8:19 Répondre à ce commentaire

laurent, vous feriez bien de relire nos conversations précédentes avant de lancer des accusations (en gras).

Cette histoire de variance que vous ramenez tout le temps, j’en ai marre, comme surement la plupart des lecteurs de ce blog. Vous n’êtes même jamais parvenu à nous donner une référennce pour appuyer vos affirmations ? Si vous voulez, j’ai une petite question que le pro en stat pour vous pourra résoudre sans problème : pouvez-vous me rappeler la différence exacte qui existe entre une limite stochastique et une limite quasi-certaine ? Dans quelles conditions la limite stochastique coïncide-t-elle avec la limite dite de la carré moyenne ? Dans un espace de Hilbert, quelle convergence est la plus adaptée ?

Bon, vu que vous n’avez probablement aucune réponse à ces questions basiques, revenons au C14. je vous ai dit pour affirmer mes 47 ans que je me suis renseigné. Se renseigner ne signifie pas regarder le graphique de plus près, mais bien faire une recherche bilbiographique. Si vous en faites une, vous vous rendrez compte assez facilement que les niveaux atmosphériques de C14 en 2008 sont environ à 10% de celles du pic des années 60, et qu ce niveau plafonne depuis au moins 10 ans.

PS : je me demande bien quand j’aurais confondu bilan énergétique et thermique, entre nous.

106.  Marot | 18/11/2009 @ 9:32 Répondre à ce commentaire

Robert (#105), Je me garderai bien de chercher une convergence adaptée dans un espace de Hilbert car je ne vis pas dans un espace de Hilbert.

Mais j’ai eu la curiosité de cette chose nouvelle nommée « la carré moyenne ».

Youpie, il y a deux références par Google (2 seulement pour l’instant).

une dans la gélatinisation de la farine de maïs
http://www.bioline.org.br/request?cs94008
au secours Hilbert

l’autre dans un rapport de fin d’études

où x s est la largeur de la racine carrée de la moyenne (RMS) du la carré moyenne (MS) de
l’enveloppe CC

http://www.etudionet.com/v0/co.....arouen.pdf

Tout cela me rappelle l’inénarrable « temps de résidence moléculaire » paru seulement dans Les mystères de l’eau.

Je n’ai rien trouvé sur la « limite quasi-certaine », encore une invention ?

107.  super.mouton | 18/11/2009 @ 9:43 Répondre à ce commentaire

Laissez tomber, vous ne trouver rien en math sur le net en français (en anglais j’ai des doutes aussi) .
Pour l’espace de Hilbert, ben c’est un espace vectoriel plus abstrait. Après si personne n’a fait une licence de math ici, pas la peine de discuter. Pour mon cas, j’ai pas trop aimé les cours sur les espaces hilbertien, pre hilbertien sobolev etc…Les limites quasi-certaines, ça existe oui (mais cherchez pas sur le net, vous ne trouverez rien…) et encore moins de stat.
De toute manière c’est pas le propos ici,
1.puisque le GIEC n’utilise pas de technique stat ou d’analyse très poussé
2. Ca fait toujours classe en math de dire « ah oui et tu connais les espaces de machin truc » mais en fait ça n’est toujours qu’une généralisation d’un truc très commun et qui pour l’instant ne sert qu’aux matheux, alors Roro, n’essais pas de les impressionner avec tes espaces d’Hilbert et tes cours de calcul intégral niveau maitrise, d’abord ça ne sert à rien dans la discu, et en plus, c’est ridicule car moi aussi je peux ressortir mes cours d’univ et vous poser des questions pour vous faire peur (d’ailleur vais le faire tiens, juste pour vous emmerder et pour répondre à vos questions prétentieuses)

108.  Marot | 18/11/2009 @ 9:58 Répondre à ce commentaire

super.mouton (#107),
soyez rassurée, bien qu’anciens mes souvenirs de maths sont encore quelque peu vivaces.

Sur l’inutilité des raffinements des espaces divers je suis bien d’accord avec vous.

Tout ceci est de l’étalement de confiture.

109.  super.mouton | 18/11/2009 @ 10:18 Répondre à ce commentaire

Marot (#108), ben oui, il ne fait que ça de toute manière depuis le début, étaler sa confiture en croyant que nous sommes de jeunes enfants naifs qui n’avons jamais fait de maths…
Pour l’abstraction des espaces, ça a son utilité à vrai dire pour les matheux eux mêmes car en math, il n’y a pas d’espace d’expérience (quoique suis pas fan de la démonstration par l’expérience): donc c’est fait soit pour trouver une solution à un tout piti problème ou encore pour un tout petit passage d’une grosse démonstration, ou encore pour la physique mathématiques (mécanique quantique etc..) en gros ça n’est utilisé que par les matheux de toute manière, et en rien par le GIEC (ou il n’y a d’ailleurs pas beaucoup de matheux)

PS: ce que je viens de dire, n’est pas une dissertation complête sur l’utilité des maths fondamentales et abstraite car il y a beaucoup à dire. Je dois dire que je suis pour la recherche fondamentale mais que je suis un peu déçu de son enseignement, de la mentalité de ceux qui en font (et de toute manière ceux qui font des math, pour 90% d’entre eux) et de la manière dont la recherche est foutu.. mais tout ça c’est politique, le principal c’est que le GIEC n’utilise en rien (ou alors de très très très loin, via peut etre les modèles…) les math fondamentales et abstraites, que d’ailleurs ils n’en on pas besoin car ce genre de recherche (comme la plupart de la recherche appliqué, soit certainement 90% de la recherche) n’a pas besoin d’aller dans cette direction (si on prend la hierarchie bourbakiste) … enfin bon, pas envi d’avoir de commentaires virulent sur ce que je viens de dire, je sais qu’il y en a à faire, mais pas le tps là…

110.  Marot | 18/11/2009 @ 10:51 Répondre à ce commentaire

super.mouton (#109),
1) ceci n’est pas un développement sur les maths, etc.
2)

le principal c’est que le GIEC n’utilise en rien (ou alors de très très très loin, via peut etre les modèles…) les math fondamentales et abstraites,

ne tient pas. Dans un ordinateur (et ceci vaut pour les modèles qui tournent dessus) on utilise de l’arithmétique entière quelle que soit la représentation (entier, décimal, flottant). Les valeurs sont toujours soumises à troncature donc le continu est exclu par construction. Il n’y a pas d’analyse au sens mathématique. Les jeux de coupure des epsilon n’y existe pas. Tendre vers une valeur n’y a pas de sens.

On est très loin de mathématiques abstraites.

111.  Robert | 18/11/2009 @ 11:18 Répondre à ce commentaire

Je n’ai aucune envie d’étaler ma confiture. Mais je n’aime pas que les gens se fassent passer pour ce qu’ils ne sont pas. Les notions dont je parle sont élémentaires en stat et probabilité, mais pas faciles à trouver sur google smile

Marot : les mathématiques s’appliquent aussi aux ensembles et espaces discrets, vous savez…

112.  Abitbol | 18/11/2009 @ 11:22 Répondre à ce commentaire

Je n’ai aucune envie d’étaler ma confiture. Mais je n’aime pas que les gens se fassent passer pour ce qu’ils ne sont pas.

Venant de Robert l’imposteur, c’est plutôt comique !

113.  super.mouton | 18/11/2009 @ 11:29 Répondre à ce commentaire

Marot (#110), non, mais on peut passer par une analyse abstraite pour trouver des ensemble de solutions par exemple, c’est pour ça que je dit de très très loin…

114.  super.mouton | 18/11/2009 @ 11:31 Répondre à ce commentaire

Robert (#111), élémentaires pour vous peut être, mais vous ne trouverez jamais ces notions dans les classes de physiques chimies etc… d’ailleurs souvent, on prouve bien que les limites de type un genre ou un autre genre vaut la limite usuel dans bien des cas…

115.  jeff hersson | 18/11/2009 @ 11:34 Répondre à ce commentaire

Robert (#111),

Je n’ai aucune envie d’étaler ma confiture. Mais je n’aime pas que les gens se fassent passer pour ce qu’ils ne sont pas.

Vous faites quoi, au fait, vous ?
:mrgreen:

116.  Robert | 18/11/2009 @ 11:41 Répondre à ce commentaire

jeff : j’ai déjà répondu à cette question, mais il paraît que je suis un « imposteur » au qi « abyssal » qui « n’y connaît rien en stat ». C’est juste histoire de remettre les pendules à l’heure…

117.  Curieux | 18/11/2009 @ 12:02 Répondre à ce commentaire

jeff hersson (#115),
Il fait lecteur de « rechauffiste » avec tentative de traduction. Mais ça tombe à plat, discours superficiels, sources rares et « journaleuses », passage en force sans élégance.
Enfin l’ennui total.

118.  Marot | 18/11/2009 @ 12:12 Répondre à ce commentaire

super.mouton (#113), C’est bien là qu’il faut se méfier.
J’ai traité de systèmes différentiels où l’analyse affirmait l’existence et l’unicité de la solution, mais sur la machine, bernique, la solution numétique oscillait.

119.  miniTAX | 18/11/2009 @ 12:54 Répondre à ce commentaire

J’ai traité de systèmes différentiels où l’analyse affirmait l’existence et l’unicité de la solution, mais sur la machine, bernique, la solution numétique oscillait.

Marot (#118),
Parce qu’aucune machine ne sait résoudre les équations différentielles pardi. C’est l’effet papillon de Lorenz (qui soit dit en passant est rentré dans la croyance populaire sous la forme de « théorie » loufoque qui voudrait qu’un battement de papillon à petaouchnok va causer une tornade dans l’Ohio) : les infimes erreurs numériques due à la discrétisation des équations de Navier-Stokes font partir les résultats dans les stratosphères au bout de quelques itérations. Il y a sur ce blog des articles de Tennekes qui a très bien décrit ce problème qui fait que la climatologie telle qu’elle est faite avec les modèles GCM par les réchauffistes restera de la pseudo-science pour toujours.

120.  Robert | 18/11/2009 @ 13:14 Répondre à ce commentaire

Curieux : ce que vous dites est tout simplement faux, allez relire mes interventions précédentes.

Marot: il existe des critères de stabilité pour résoudre les équations différentielles, je vous conseille d’aller vérifier de ce côté-là.

minitax : je suis mort de rire, là… Comme je le disais, i lexiste des critères de stabilité bien connus. ils ne sont pas les mêmes selon qu’on utilise les différences finies ou les éléments finis, évidemment. Dans tous les cas, il reste les méthodes spectrales. Comment expliqueriez-vous alors la floppée de résultats de simulations qui sortent chaque jour sur la dynamique des fluides ?

121.  Marot | 18/11/2009 @ 13:47 Répondre à ce commentaire

Robert (#120),

Marot: il existe des critères de stabilité pour résoudre les équations différentielles, je vous conseille d’aller vérifier de ce côté-là.

Cette réponse montre que vous n’avez pas compris ce que j’ai écrit.

122.  Curieux | 18/11/2009 @ 13:50 Répondre à ce commentaire

Robert (#120),

allez relire mes interventions précédentes

Mon bon robert survoler vos post suinte l’ennui, alors les relire… 😮
Pour être plus… direct : croiser vos âneries gonflées au CO2 me provoque une sorte de démangeaison du clavier. Quand je vous répond, c’est nerveux, quoi. :mrgreen:

123.  Astre Noir | 18/11/2009 @ 14:24 Répondre à ce commentaire

Pour détendre l’atmosphère que je sens un peu tendue

et puisque certains parlent d’espaces d’Hilbert, je vous offre un savoureux détournement des principes de la géométrie selon David Hilbert,

Les fondements de la littérature selon David Hilbert, de Raymond Queneau :

Après avoir assisté à une conférence de Wiener (par Norbert bien sûr) sur les théorèmes de Desargues et de Pappus, David Hilbert, attendant le train pour Koenigsberg en gare de Berlin, murmura pensivement : « Au lieu de points, de droites et de plans, on pourrait tout aussi bien employer les mots tables, chaises et vidrecomes [* Un vidrecome est un grand verre à bière que l’on se repasse d’un ami à un autre autour d’une table pour boire chacun son tour*] ». De cette réflexion naquit un ouvrage qui parut en 1899 Les fondements de la géométrie dans lequel son auteur établissait de façon définitive (ou provisoirement définitive) l’axiomatique de la géométrie euclidienne et de quelques autres par surcroït. M’inspirant de cet illustre exemple, je présente ici une axiomatique de la littérature en remplaçant dans les propositions de Hilbert les mots « points », « droites », « plans », respectivement par « mots », « phrases », « paragraphes ».

Premier Groupe d’axiomes (axiomes d’appartenance) :

1. Il existe une phrase comprenant deux mots donnés.
Commentaire : évident.
Exemple : Soit les deux mots « la » et « la », il existe une phrase comprenant ces deux mots : « le violoniste donne le la à la cantatrice ».
2. Il n’existe pas plus d’une phrase comprenant deux mots donnés.
Commentaire : Voilà, par contre, qui peut surprendre. Cependant, si l’on pense à des mots comme « longtemps » et « couché », il est évident qu’une fois écrite cette phrase les comprenant, à savoir : « longtemps, je me suis couché de bonne heure », toute autre expression telle que « longtemps je me suis couché tôt » ou « longtemps, je ne me suis couché tard » n’est qu’une pseudo-phrase que l’on doit rejeter en vertu du présent axiome.
Scholie : Naturellement, si l’on écrit « longtemps je me suis couché tôt », c’est « longtemps, je me suis couché de bonne heure » que l’on doit rejeter en vertu de l’axiome I.2. C’est-à-dire que l’on écrit pas deux fois A la recherche du temps perdu […]
3. […]
4. b. Tout paragraphe comprend au moins une phrase.
Commentaire : « Oui », « Non », « Hep », « Pstt » qui ne sont pas des phrases d’après I.3, ne peuvent donc pas former à eux seuls un paragraphe.
5. […]
6. Si deux mots d’une phrase appartiennent à un paragraphe, tous les mots de cette phrase appartiennent à ce paragraphe.
Commentaire : Se passe de commentaire. »

124.  miniTAX | 18/11/2009 @ 15:58 Répondre à ce commentaire

minitax : je suis mort de rire, là… Comme je le disais, i lexiste des critères de stabilité bien connus. ils ne sont pas les mêmes selon qu’on utilise les différences finies ou les éléments finis, évidemment. Dans tous les cas, il reste les méthodes spectrales. Comment expliqueriez-vous alors la floppée de résultats de simulations qui sortent chaque jour sur la dynamique des fluides ?

Robert (#120), les résultats de la mécanique des fluides, ceux qui sont utiles en tout cas, concernent des simulations ultra-ciblées, par exemple un bout d’empennage, avec l’intégration de millions de données mesurées en souffleries, après de multiples ajustements pour obtenir le bon maillage dont le réglage tient plus de l’art que de la science, après réessai et réré-essais en soufleries et ce sur de tout petits intervalles de fonctionnement pour pouvoir linéariser les fonctions de transfert, par des équipes spécialisées qui passent des années à mettre au point les modèles et les logiciels (quand j’ai débuté ma carrière dans l’industrie après ma thèse, j’ai passé des mois à tuner un simulateur de fours pour la microélectronique, dans une équipe de plusieurs PhD avec des budgets de millions de $, oui, pour optimiser de simples fours de haute technologie!).
Et tu oses suggérer que la climatologie, avec ses modèles ultra-simplistes validés par que dalle (s’ils étaient validés, il y aurait UN modèle et non une vingtaine développés par des équipes différentes), avec des données expérimentales quasi inexistantes, avec des maillages de plus de 100km, pour un système éminemment non linéaire qu’est le climat terrestre avec ses millions de processus physiques, chimiques et biologiques interconnectés (rien que pour modéliser l’Atlantique nord, Wunsch estime qu’il faudrait prendre en compte au moins 20 mille variables !), produirait des résultats qu’on pourrait qualifier de relevant de la « dynamique des fluides » ???

Eh bah, tu ne doutes de rien, mon pauvre « docteur en physique stochastique » ! Si la mécanique des fluides était faite comme les réchauffistes font de la climatologie, on aurait sur la porte de tous les avions l’avertissement suivant: « cet avion a été conçu par ordinateur, en utilisant des modèles qui n’ont jamais été validées, en se basant sur des données expérimentales quasi-inexistantes qui ont été remplacées par la moyenne des résultats de simulations de 20 modèles différents. Il n’a jamais été testé en vol, on l’a même vu se crasher plusieurs fois déjà. Mais grâce à lui, nous allons vous transporter à l’autre bout du monde. Veuillez attacher vos ceintures et … faire vos prières avant le décollage après avoir pensé à souscrire à une bonne assurance-vie car les concepteurs déclinent toute responsabilité concernant tout défaut de conception, de fabrication et de fonctionnement« .

Le + drôle, c’est que le Robert, il embarque. T’es une sacrée source de blagues belges toi.

125.  jeff hersson | 18/11/2009 @ 16:27 Répondre à ce commentaire

Robert (#116), C’est surtout, à la lumière de vos propos, que vous prenez un peu trop les contributeurs habituels de ce blog pour de fieffés imbéciles…

126.  Robert | 18/11/2009 @ 17:45 Répondre à ce commentaire

Et laquelle de mes interventions essaye de faire passer les autres pour des imbéciles ?

Minitax : je n’ai jamais suggéré quoi que ce soit sur les modèles climatologiques, où êtes-vous aller chercher cela ?

Je dis juste que cette petite phrase

Parce qu’aucune machine ne sait résoudre les équations différentielles pardi.

est tout simplement fausse ! Les équations différentielles, nos ordis en résolvent chaque jour voire chaque minute. C’est tout simplement faux, ce que vous dites là.

pour marot : merci, je comprends très bien votre problème. Dans la plupart des cas lorsqu’on observe des oscillations alors qu’un système est censé présenter une solution stationnaire asymptotiquement stable, c’est que les critères de stabilité ne sont pas respectés. d’où ma remarque.

127.  miniTAX | 18/11/2009 @ 18:23 Répondre à ce commentaire

Et laquelle de mes interventions essaye de faire passer les autres pour des imbéciles ?

Robert (#126), tu essaies surtout de TE faire passer pour un imbécile. Et tu l’as peut-être pas remarqué mais tu y arrives sacrément bien sans même forcer.

Les équations différentielles, nos ordis en résolvent chaque jour voire chaque minute.

Robert (#126),
Les ordinateurs ne « résolvent » rien du tout, tout simplement parce qu’il n’y a aucune solution analytique à l’immense majorité des équa diffs utilisées en physique et encore plus en méca des fluides.
La seule manière pour les ordinateurs de « résoudre » les équa diff, c’est par approximation par la méthode des éléments finis, qui comme son nom l’indique, introduit fatalement des erreurs numériques qui deviennent exponentielles avec les itérations, ce qui fait qu’il faut des années d’expérience à un spécialiste dans son domaine pour savoir alimenter le modèle avec les bonnes les conditions aux limites et surtout interpréter correctement un résultat pondu par l’ordinateur pour y discerner ce qui relève de la « solution » de ce qui relève des erreurs de calcul.

Si c’est ça que t’appelles « résoudre une équa diff », alors oui, l’ordinateur sait « résoudre ». Mais bon, venant d’un type comme toi qui a autant de scrupule avec la terminologie scientifique qu’un vendeur de soupe chargé de vendre des médicaments, on sait vite quoi penser de tes imbécilités.

128.  Robert | 18/11/2009 @ 18:28 Répondre à ce commentaire

Les éléments finis ne représentant pas la seule manière de résoudre numériquement des équations différentielles. Loin de là. de plus, contrairement à vos affirmations, il existe comme je le disais des critères de stabilité qui assurent que la solution converge, de sorte que l’erreur ne devient pas « exponentielle » comme vous le dites. c’est le b.a.-ba de l’algorithmique.

signalons aussi qu’il existe ce que l’on appelle les méthodes implicites, qui passent par l’inversion des matrices jacobiennes décrivant l’évolution différentielle infinitésimale; Ces méthodes sont, intrinsèquement, stables. Et je ne vous parle même pas des méthodes spectrales ou semi-spectrales dans le cas des équations différentielles partielles.

129.  miniTAX | 18/11/2009 @ 18:39 Répondre à ce commentaire

Les éléments finis ne représentant pas la seule manière de résoudre numériquement des équations différentielles. Loin de là.

Robert (#128),
Bah si, c’est la SEULE manière utilisée par les ordinateurs pour les « résoudre » toutes les minutes (dixit Robert).

signalons aussi qu’il existe ce que l’on appelle les méthodes implicites, qui passent par l’inversion des matrices jacobiennes décrivant l’évolution différentielle infinitésimale; Ces méthodes sont, intrinsèquement, stables. Et je ne vous parle même pas des méthodes spectrales ou semi-spectrales dans le cas des équations différentielles partielles.

Et quel est le rapport avec avec la « résolution » des équa diff par ordinateur ???
Tu as un exemple de modèle implanté sur ordinateur qui utiliserait ces méthodes et non les éléments finis pour résoudre ses équa diff ? Non évidemment. Alors continue de brasser du vent.

130.  Robert | 18/11/2009 @ 18:54 Répondre à ce commentaire

UN exemple ? non, des milliers. Aller lire la section 2.2 de ceci
http://books.google.fr/books?i.....38;f=false

Ca parle de la résolution numérique implicite (vous savez, cette technique qui n’existe pas selon vous). Je vous conseille en particulier la page 73 :
« So the implicit method is « unconditionally » stable, meaning the error goes to 0 as dx and dt go to zero »
etc, etc… dans les méthodes implicites, l’erreur est bornée…
vous pouvez aussi aller lire
http://comjnl.oxfordjournals.o.....ct/5/4/329
merci pour votre participation…

131.  scaletrans | 18/11/2009 @ 18:58 Répondre à ce commentaire

super.mouton (#109),

si on prend la hierarchie bourbakiste

Tiens tiens, ça me rappelle des trucs ça; c’était le nouvel enseignement des maths venant de ces mecs qui hurlaient « ah bas Euclide » dans les couloirs de la Fac de science. Quelqu’un aurait-il lu 2+2=5 d’un certain AA Upinsky ?

132.  jeff hersson | 18/11/2009 @ 19:21 Répondre à ce commentaire

Robert (#126),

Et laquelle de mes interventions essaye de faire passer les autres pour des imbéciles ?

Quand vous avez suggéré à Argus de lui expliquer les intégrales, par exemple… C’était à hurler de rire…

133.  Marot | 18/11/2009 @ 20:17 Répondre à ce commentaire

Robert (#130), Vous savez à quoi on le reconnaît ? à ce qu’il n’arrête jamais

UN exemple ? non, des milliers. Aller lire la section 2.2 de ceci http://books.google.fr/books?i…..mp;f=false

Ca parle de la résolution numérique implicite (vous savez, cette technique qui n’existe pas selon vous). Je vous conseille en particulier la page 73 :

La référence s’arrête à la page 58 !

134.  miniTAX | 18/11/2009 @ 21:02 Répondre à ce commentaire

Marot (#133), surtout que pour démontrer ses dires (que pour résoudre les équa diff, les ordinateurs utiliseraient de « milliers » autres méthodes que les éléments finis), notre brave Robert nous pointe vers un lien dont la préface dit explicitement que « ce livre est une introduction à la résolution d’équa diff par l’utilisation… d’éléments finis ».
Admirez l’artiste !

135.  laurent | 18/11/2009 @ 22:43 Répondre à ce commentaire

Robert (#105),

laurent, vous feriez bien de relire nos conversations précédentes avant de lancer des accusations

Je les ais bien en tête… et je maintiens… 😉

Cette histoire de variance que vous ramenez tout le temps, j’en ai marre

La faute à qui?… c’est bien toi qui a essayé de montrer que quand on calculait la variance on avait tout faux, qui a refusé pendant une dizaine de posts d’accepter qu’on avait raison, et qui n’a jamais reconnu avoir eu tord…

comme surement la plupart des lecteurs de ce blog

Bah non… eux, ils en ont pas marre… ils se marrent…nuance… 😉

je vous ai dit pour affirmer mes 47 ans que je me suis renseigné

Il est drôle, il donne la référence d’un article, puis après « euh vous savez les mecs, en fait je parle pas de l’article mais de trucs qui n’y sont pas et que je sais… »
De toute façon l’article référencé montre qu’en à peine plus de 30 ans, le C14 excédentaire est retombé aux environ de 10%…. Alors peut-être qu’effectivement, en 47 ans ils est toujours à ce niveau… cela ne change pas le premier fait… Comme d’hab, dès que tu sens le truc t’échapper, tu fais diversion pour éviter de reconnaitre tes bêtises et bascule sur autre chose en faisant croire que c’est la même discussion…
Technique du polémiste…

jje me demande bien quand j’aurais confondu bilan énergétique et thermique

En présentant ta théorie de l’effet de serre…
Mémoire sélective quand tu nous tiens…. d’autant que j’avais pointé la bêtise… 😉

136.  Robert | 19/11/2009 @ 8:41 Répondre à ce commentaire

Marot : désolé, mais moi je l’ai bel et bien cette page, peut-être un problème de lien ? L’intégration implicite est aussi expliquée ici :
http://www.damtp.cam.ac.uk/lab.....8/odes.htm

minitax : au risque de me faire traiter encore d’arrogant, je pense que vous n’avez pas très bien compris mon post. Je n’ai jamais dit que la méthode implicite n’utilise pas de différences finies ! j’ai juste dit qu’elle est intrinsèquement stable, et que donc l’erreur ne grandit pas de façon exponentielle.

Je n’ai jamais dit non plus qu’il existe des milliers d’autres techniques, mais des milliers d’exemples d’utilisation de l’approche implicite. Parmi les méthodes de résolution numérique qui n’appartiennent pas aux différences finies, on trouve surtout les méthodes spectrales et pseudo (ou semi) spectrales, la méthode des éléments analytiques, des éléments de bord. Ce sont les principales alternatives que l’on trouve généralement. Il y a aussi les possibilités de calcul symoblique qui donne une expression explicite des solutions analytiques (maple, mathematica, …).

137.  Robert | 19/11/2009 @ 8:50 Répondre à ce commentaire

Laurent : vous aimez vous faire passer pour quelqu’un que vous n’êtes pas, en réaffirmant des pseudo-vérités que vous êtes le seul à supporter (si ce n’est votre horde d’admirateurs ici présents), sans la moindre source externe.

Je vous ai proposé un petit « défi » d’un niveau à raz-les-pâquerettes sur les stats. Des petites questions toutes simples,, auxquelles vous essayez manfiestement d’échapper. J’en ai une autre, tout aussi basique si vous êtes vraiment un habitué des stats : en quoi le fait qu’une fonction stochastique soit ou non anticipative permet-il de déterminer la variance d’un processus de Wiener ?

138.  Laurent | 19/11/2009 @ 10:28 Répondre à ce commentaire

Robert (#137)

vous aimez vous faire passer pour quelqu’un que vous n’êtes pas, en réaffirmant des pseudo-vérités que vous êtes le seul à supporter

J’aime bien quand tu t’auto-critique… 😉
Fait preuve d’intelligence, et évite de projeter tes propres défauts sur les autres….

Je vous ai proposé un petit “défi”

Rien à faire de tes « défis »… j’ai passé l’age depuis longtemps de jouer à celui qui a la plus grosse…
Quand tu dis des bétises, nous les montrons, c’est tout. Soit un peu plus sérieux, accepte de reconnaitre tes erreurs, et évite de balancer des affirmations sur des domaine ou tu ne comprend pas grand chose, et on te prendra plus au sérieux…. il ne tient qu’à toi… 😉

139.  Araucan | 19/11/2009 @ 10:30 Répondre à ce commentaire

Je me permets de rappeler que ce blog traite du CC ou du RCA, non de question de statistiques.

Merci de vous recentrer sur le sujet.

140.  joletaxi | 19/11/2009 @ 11:46 Répondre à ce commentaire

@140
Araucan

recentrons le débat:
vous disiez donc que les océans absorbent depuis toujours le même % de CO2,ce qui en soit serait plutôt rassurant.
Ca n’a pas tardé,voici une étude qui dit le contraire.
Je ne connais aucun domaine où l’on peut trouver autant « d’études » qui finissent à des conclusions diamétralement opposées
http://wattsupwiththat.com/200.....e-slowing/

141.  joletaxi | 19/11/2009 @ 11:55 Répondre à ce commentaire

Pour faire bonne mesure Araucan

un papier sur le réchauffement de la haute atmosphère

http://icecap.us/images/uploads/SSWNov25.pdf

142.  williams | 19/11/2009 @ 13:17 Répondre à ce commentaire

Robert (#142),

Si ces des dernieres decennies le CO2 a été moins absorbé par les oceans ceci est a cause des oscillations oceaniques aussi. Biensur en emmettant plus de CO2 l’ocean ne peut pas tout absorbé aussi. Mais si l’océan absorbe moins que les années précédentes depuis les années 70-80 c’est par ce que plus la SST a augmenté a cause du PDO et AMO qui ont été en phase ascendente de 1970 jusque 1998 voir 2005 pour l’AMO. Donc ceci s’explique plus particuliere suivant l’evolution naturelle une fois de plus.

Voir ici http://la.climatologie.free.fr.....n4.htm#gaz

Williams

143.  Araucan | 19/11/2009 @ 19:24 Répondre à ce commentaire

joletaxi (#143),

Oui parlons de l’océan ( même si je n’ai pas dit que l’océan absorbe toujours la même proportion du CO2 total:;) ).
D’ailleurs d’où vient cette notion ? de la courbe en ppm du carbone ? des modèles ?
Cette histoire ressort aussi avec un rapport cité par Le Monde : j’aime bien vérifier les sources.

Voici la page de la la source :
http://www.globalcarbonproject...../index.htm

Précaution d’usage : quand on parle de pourcentage toujours aller voir la valeur absolue.

Sur cette histoire de proportion, cela veut dire aussi qu’il a toujours stockage par l’océan. Mais un détour par la méthode de détermination de ce chiffre ne serait pas sans intérêt…. (modèle à l’émission contre modèle pour le stockage ? ou données +/- qlq chose à l’émission contre modèle au stockage ?).

144.  Araucan | 19/11/2009 @ 19:28 Répondre à ce commentaire

Au fait merci pour les références de docs (je regarde !

145.  Mike | 1/12/2009 @ 16:42 Répondre à ce commentaire

Laurent (#22) :  »je ne sais toujours pas ce qu’est une “température globale”  »
Je vous conseille l’article Température de Wikipedia (en anglais si vous comprenez cette langue). Une température « globale » est un pléonasme. A moins que vous ne pensiez qu’en français « global » signifie comme en américain « mondial ». Une température « mondiale » (a global temperature) est seulement une banalité.

146.  Mike | 1/12/2009 @ 16:47 Répondre à ce commentaire

scaletrans (article) : « déviation standard »
En français on dit « écart type ».

147.  Bob | 12/02/2011 @ 23:54 Répondre à ce commentaire

MIke #145

Global temperature = température moyenne du globe.

148.  lemiere jacques | 13/02/2011 @ 0:26 Répondre à ce commentaire

Laurent (#99),
sans compter qu’ une augmentation de température des océans est une cause possible d’augmentation du CO2, là encore il faut avant de dire quoi que ce soit avoir demelé les causes des effets, établi les temps caractéristiques etc… et ce à partir des observations…non de modèles…
merci pour la courbe sur le C14 atmospherique elle a le mérite d’eclairer….mais comme le dit laurent, je crois, elle inclut elle aussi les echanges ocean atmosphere et la vegetation….c’est la somme de la perte et des gains…elle ne permet pas d’estimer directement le temps de presence d’une molécule dans l’atmposphere….et en plus il s’en forme par ailleurs et en plus ça se desintegre mais bon ça ça peut se calculer….
EN fait, pour ce que j’en saisis ( sans me creuser la tête) il me semble que le giec a imaginé une chose qui conduit en pratique à un temps d’inertie pour le taux de co2 atmospherique machin qui est le résultat des echanges globaux….

149.  lemiere jacques | 13/02/2011 @ 0:39 Répondre à ce commentaire

Bob (#148),
non moyenne des temperatures des stations…cette distinction n’est pas sans objet….debat mille fois fait ici…ce n’est meme pas à l’equilibre thermique mais zou on y va….
meme à l’equilibre thermique ce n’est pas trivial…
considérons une colonne de gaz à l’équilibre soumise à un champ de pesanteur…. définissez moi sa « température moyenne »…..

150.  Murps | 13/02/2011 @ 10:16 Répondre à ce commentaire

Purée…
L’espace machin de Hilbert pour les stats.
Inconnu au bataillon.

Moi qui suis resté à la régression linéaire, aux moindres carrés et à Runge-Kutta pour les équa-diffs…
Ah si ! j’ai utilisé Monte-Carlo pour des neutrons il y a longtemps.

Par contre je trouve amusantes les considérations sur les critères de convergence d’un algorithme en analyse numérique.
Si le système est intrinsèquement instable, on peut se brosser.
Le plus marrant serait que la modélisation numérique redevienne stable grâce à des « Fudge factors » Mannien. (les initiés comprendront..)

Sorry, the comment form is closed at this time.