Croire que le CO2 contrôle le climat c’est à peu près comme « croire à la magie »

L’article original a été publié par Merion West

SOURCE

Traduction: Camille Veyres et Scaletrans

Par Richard Lindzen, le 25 avril 2017

Le professeur de science de l’atmosphère Richard Lindzen du MIT suggère que beaucoup de déclarations concernant le changement climatique sont exagérées et inutilement alarmistes.

Introduction

Voilà plus de trente ans que je donne des conférences sur la « science du changement climatique ».

Quand je parle à un auditoire de non-experts  et essaie de leur expliquer des choses comme la sensibilité climatique, le lien entre l’anomalie de la température moyenne mondiale  et les « événements météorologiques extrêmes », ou encore que le réchauffement a, sur ces 18 dernières années, été presque négligeable ou très faible, etc.,  je puis sentir dans l’auditoire un réel manque d’intérêt et de compréhension.

Quelles que soient les preuves que je présente comme quoi il ne s’agit pas d’une catastrophe, mais d’un phénomène qui peut être plutôt bénéfique,  je vois de l’incompréhension et de la perplexité.

On me demande comment c’est possible, puisque  97% des scientifiques sont d’accord, puisque les 18 dernières années ont été parmi  les plus chaudes depuis 1880, puisque toutes sortes d’événements météorologiques extrêmes sont devenues plus fréquents, puisque les ours blancs sont en voie de disparition, tout comme la banquise arctique, etc. Pour faire bref il y a quantité de preuves d’un réchauffement.

J’étais moi-même plutôt surpris qu’on pût  admettre ces affirmations sans fondement réel et parfois même tout à fait malhonnêtes; malheureusement, cela n’était, à vrai dire, pas évident pour mes auditoires.

Je vais, dans ce court article, essayer d’expliquer pourquoi  ces affirmations sont en fait des preuves de la malhonnêteté des positions alarmistes.

Le mantra ou « meme » ou poncif des « 97% » 1

Cette  assertion vient en réalité d’un titre de couverture d’un numéro de Newsweek de 1988 selon lequel « tous les scientifiques sont d’accord ». Cette assertion vise à donner au non-expert l’impression qu’il n’a nul besoin de comprendre la science. Exprimer son accord avec les 97% montrera que l’on est un « partisan de la science » et que  l’on est  supérieur à tous ceux qui « nient le désastre ». Voilà qui suffit aux besoins psychologiques de bien des gens. Cette assertion a été formulée par nombre d’individus et peut être présentée de diverses manières. Une démystification en a été donnée en détail  par Bast et Spencer dans le Wall Street Journal 2.

Un des tours de passe-passe est de poser les trois questions « la teneur en CO2 de l’air de l’atmosphère a-t-elle augmenté ? « , « la Terre s’est-elle réchauffée (même un tout petit peu) ?  » et « l’homme  y  est-il pour quelque chose ? ». Nous pouvons presque tous être d’accord avec ces affirmations, dont aucune  n’implique quelque danger évident.  Et pourtant, cet accord est prétendu valoir adhésion au catastrophisme !

Un autre tour de passe-passe est l’examen d’un grand nombre de résumés d’articles dont, en réalité, un petit nombre seulement signalent de réels dangers. Et si 97% de ce petit nombre adhèrent au catastrophisme, ce « 97% » est  prétendu se rapporter au grand nombre de résumés !

Un de mes exemples favoris est l’affirmation récente 3 par le Christian Science Monitor (qui fut jadis un journal influent et respecté) : « Notons que des 70 000 articles sur le réchauffement climatique publiés en 2013 et 2014 dans des revues à comité de lecture, quatre auteurs seulement on réfuté l’idée que les humains sont les principaux moteurs du changement climatique ». Il n’est, je crois, nul besoin  d’être un expert pour voir que cette affirmation est une bien étrange rêverie, de façon évidente et pour bien des raisons.

Même le groupe intergouvernemental des Nations Unies sur le changement climatique (Ce groupe en général appelé IPCC/GIEC a été créé par les Nations Unies pour évaluer  de façon « scientifique » le changement climatique dû à l’action de l’homme.) n’est pas d’accord avec ce poncif.

Malgré tout, je suis un peu surpris qu’il y ait eu besoin des entourloupes que je viens de rapporter.

Depuis que la question du « réchauffement climatique » a, il y a trente ans environ, été mise sur la place publique – et a immédiatement été intégrée au catéchisme du « politiquement correct »-, le financement gouvernemental de ce domaine a crû énormément; ce financement a été fondé sur la croyance a priori en des effets catastrophiques. Aujourd’hui presque tous ceux qui travaillent dans ce domaine  y sont entrés pour profiter de ces financements, et les gouvernements ont un monopole du financement de ce domaine.

On peut donc s’attendre à ce que tous ceux qui reçoivent ces financements se sentent obligés d’affirmer l’importance et la réalité du problème. Il est certain que s’y opposer serait suicidaire pour la carrière d’un jeune universitaire.

Et donc les études sur les « 97% » ont seulement à « bien » formuler les questions posées pour s’assurer de niveaux élevés de consentement à l’alarmisme, niveaux qui, si l’anonymat était garanti aux sondés, ne seraient peut-être pas aussi élevés qu’on le prétend.

 

 

 

Le mantra ou « meme » ou poncif des « années les plus chaudes depuis que l’on fait des mesures »

fig1

Figure 1a: Écart des températures annuelles moyenne à leur moyenne à long terme. Ces points seront moyennés pour produire une série de températures globales moyennes. La plupart des points sont entre -2 et +2 °C. Cette figure montre année par année les anomalies des différentes stations.

fig2

Figure 1b: Moyenne globale des déviations par rapport aux températures moyennes tracées à la même échelle qu’à la figure précédente 1a des anomalies des stations prises une par une. Cette figure montre la moyenne de ces anomalies sur le globe.

fig3

Figure 1-c Courbe précédente (fig. 1-b) remise à l’échelle de façon à remplir tout le cadre entre -0,6°C et +0,6°C

Cette affirmation toute simple cache des myriades d’erreurs. Dans ce genre de cas il est difficile de savoir par où commencer.

Comme dans toute manœuvre de diabolisation, on commence par la supposition ridicule que tout réchauffement, quel qu’il soit, et, ici, toute augmentation de la teneur de l’air en CO2, est mauvais et démontre que le pire va arriver bientôt.  Nous savons pourtant que ces deux énoncés sont faux.

Les gens prennent leur retraite dans la Sun Belt 4 plutôt qu’en Arctique.

Du CO2 est insufflé dans les serres pour que les plantes croissent mieux et plus vite.

L’insistance sur « l’année la plus chaude depuis  que l’on fait des mesures »  semble essayer de répondre au fait que l’épisode de réchauffement observé entre 1978 et 1998 a visiblement cessé et que les températures sont quasi-constantes depuis 19985. Et donc si 1998 a été l’année « la plus chaude » toutes  les années qui suivent  le seront aussi.

Rien de cela ne contredit le fait que le « réchauffement » a cessé.

Pourtant beaucoup ont été amenés à croire que les deux affirmations ne peuvent être simultanément vraies.

Voilà qui suppose que le public est extrêmement crédule.

L’importance potentielle de la « pause » – et il est bien possible que ce ne soit pas une « pause » et que les températures se mettent à diminuer 6 –  n’est jamais mentionnée  et n’est que rarement comprise.

Son existence signifie simplement qu’il y a « quelque chose » qui est comparable au « forçage anthropique ».

Or l’attribution, par l’IPCC/GIEC de l’épisode de réchauffement de 1978 à 1998 (et de celui-là seulement 7) à une cause humaine repose sur l’hypothèse – incorporée dans les modèles – qu’il n’existe pas de processus naturel comparable au « forçage anthropique ».

La focalisation sur les seules séries de températures  mérite que l’on s’y arrête. Quelle est donc cette température que nous examinons ?  Ce ne peut certainement pas être la température moyenne de surface :

faire la moyenne des températures d’endroits aussi différents que la Death Valley 8 et le mont Everest 9 n’a pas plus de sens que faire la moyenne des numéros de téléphone d’un annuaire téléphonique, pour ceux qui se rappellent encore ces annuaires.

Ce que l’on calcule est la moyenne de ce que l’on nomme des « anomalies ».

On prend des moyennes sur trente ans des températures d’une station météorologique donnée et on calcule les écarts à cette moyenne sur trente ans, appelés « anomalies ».  Et ce sont ces « anomalies » qui sont moyennées sur tout le globe. Le seul exemple que je connaisse  de travail illustrant les étapes de ce processus a été publié par feu Stan Grotch du Lawrence Livermore Laboratory.

Le plus grand nombre des scientifiques conclurait qu’il y a là entre les stations une forte compensation des anomalies et que le résultat est une compensation presque complète. Pourtant, pour éviter cette conclusion, on dilate l’échelle des températures par un facteur de presque dix pour rendre- en apparence – plus significatifs les changements minuscules vus sur la figure 1-b.

Le résultat est montré à la figure 1-c. Il y a beaucoup de bruit aléatoire sur cette figure 1-c et ce bruit donne une bonne idée des incertitudes de cette analyse (en gros +/- 0,2°C). Les présentations habituelles montrent des figures beaucoup plus lisses. Parfois, ce lissage découle de l’application d’une moyenne mobile. C’est aussi le cas des données employées par Grotch  en provenance du UK Meteorological Office, données relatives aux stations à terre

L’inclusion des données relatives aux océans conduit à des séries plus lisses mais l’exactitude des données en est plus mauvaise parce que les données océaniques mélangent des techniques de mesure tout à fait différentes : pour les navires anciens, mesure de la température de l’eau dans un seau jeté à la mer et ramené à bord, après la première guerre mondiale, mesures aux prises d’eau de mer servant au refroidissement des moteurs, puis mesures satellitaires de la température de peau de l’eau de mer – fort différente de la température de surface-, et enfin, températures mesurées par des bouées.

Figure 2: Représentation schématique des anomalies de température selon les enregistrements Les lignes marron sont les barres d’erreur, ce qui laisse une grande latitude dans les ajustements possibles.

Ces difficultés sont résumées sur la figure 2 qui présente l’allure schématique, idéalisée, des observations de température et de leurs incertitudes. Nous voyons bien qu’à cause de l’arrêt de la croissance des températures en 1998,  18 des 18 années les plus chaudes  de la série des températures  ont, sur ce schéma, été les 18 dernières années.

Notons encore que l’incertitude et la petitesse des changements laissent une grande latitude pour faire des ajustements et des corrections qui peuvent modifier radicalement l’allure du graphe de la série;  l’incertitude n’est que rarement reportée sur ces graphiques.

Rendu à ce point on sera probablement confronté à des discussions sur les détails des mesures de température, qui ne feront que brouiller plus encore les cartes -ou « rendre l’eau plus boueuse »- si je puis dire.

Mais rien ne peut changer au fait que les changements de température dont on parle sont petits. Cette « petitesse » est bien sûr relative. Voyons trois façons de l’évaluer, trois approches.

Approche 1

Figure 3 : Figure du bulletin météo du quotidien Boston Globe en degrés Fahrenheit pour Boston (42°21’N) Échelle de gauche : températures extrêmes pour un 11 mars : 67°F = 19,4°C en 1990 et 9°F = -12,8°C en 1939 « Normale » (moyenne sur trente ans ou plus) des maxima d’un 11 mars : 44°F = 6,7°C, et des minima d’un 11 mars : 30°F = -1,1°C Température minimale observée la veille (10 mars) 35°F = 1,7°C

La figure 3 montre les variations de température à Boston sur une durée d’un mois (du 9 février au 11 mars).

Les bandes verticales en bleu foncé montrent pour chaque jour  la plage des températures observées; les barres en gris foncé donnent pour ce jour-là les moyennes « climatologiques » des températures min et max de la journée, et les barres en gris clair les records de froid et de chaud pour cette même journée. Au milieu court une ligne rouge  dont la largeur correspond à la plage de variation des températures moyennes globales sur les derniers 175 ans.

Voila qui suffit à montrer que les changements de température dont on parle sont petits en comparaison des changements que nous ressentons couramment.  Conservons ça en tête pour le cas où on vient nous dire que l’on « ressent » physiquement le « réchauffement global ».

Approche 2

La mesure qui suit est une comparaison entre le changement observé et celui que l’on nous dit attendre du « réchauffement par effet de serre ». Le CO2 n’est pas le seul gaz à effet de serre produit par l’homme. En prenant en compte tous ces « gaz à effet-de-serre », le GIEC/IPCC des Nations Unies trouve que nous en sommes juste au « forçage radiatif » attendu pour un doublement des teneurs de l’atmosphère en CO2; mais l’augmentation observée des températures n’a été que d’environ 0,8°.

Figure 4 : Comparaison des observations et des prédictions des « modèles »: en abscisse changements de température en degrés par décennie et en ordonnée densités de probabilité (répartition des observations).La zone hachurée en rouge représente les observations; les barres grises sont les prédictions des « modèles ».

Si donc les émissions du fait de l’homme étaient  responsables de tout le changement de température des derniers 60 ans,  la « sensibilité climatique »  serait bien moindre  que celle supposée par ceux des « modèles » dont la « sensibilité » est la plus faible; cette « sensibilité climatique » est définie comme l’accroissement de la  « température mondiale moyenne » découlant d’un doublement de la teneur de l’air en CO2; elle est dite être entre +1,5°C et +4,5°C 10.

Avec une sensibilité faible, pas de problème ! Et comme l’IPCC/GIEC nous assure que l’homme n’est responsable que du « gros » du réchauffement observé, la sensibilité pourrait être plus faible encore.

La situation n’est peut-être pas si simple, mais le calcul montre que pour des modèles ayant une forte sensibilité on en est réduit à compenser une partie -et parfois une très grosse partie- du « forçage radiatif » par ce que l’on prétend être un refroidissement par des aérosols inconnus, réglés pour que le modèle ne s’écarte pas trop des observations des décennies passées. Un article récent dans le Bulletin de l’American Meteorological Society, intitulé The Art and Science of Climate Model Tuning  (L’art et la science du réglage des modèles climatiques)  11 montre qu’il y a en réalité un très grand nombre de réglages arbitraires pratiqués sur les modèles pour qu’ils ne s’écartent pas trop des observations passées.

Et mieux l’on connaît le forçage par les aérosols, plus des sensibilités climatiques fortes deviennent invraisemblables.  Voilà qui est  bien en accord avec le fait que les modèles qui nous prédisent un « réchauffement climatique dangereux » montrent tous un réchauffement bien plus fort après la période de calibration12.

C’est à dire que le réchauffement observé est petit par rapport à ce que nous prédisent ces modèles à l’origine de nos angoisses. C’est ce que montre la figure 4.

Comme je l’ai déjà dit, les incertitudes sur les observations permettent de leur appliquer des  « ajustements » importants. Un cas tristement  célèbre est celui des « ajustements » faits par la NOAA 13 publiés dans un article de Karl et al. pour  remplacer la « pause » par la poursuite d’un réchauffement. Mais il a été facile de montrer que, même avec cet « ajustement », les modèles montrent toujours bien plus de réchauffement que les séries des observations, même « ajustées ».

De plus, la plupart des articles parus sur ce sujet réfutent l’ajustement fait par Karl et al. qui, par hasard sans doute, a été publié avec force publicité juste avant la conférence de Paris sur le climat (fin 2015).

Approche 3

La troisième approche est quelque peu différente. Au lieu d’argumenter que le changement n’est pas si petit que ça, on dit que le changement est « sans précèdent ».

C’est ce que voulait montrer la tristement célèbre  « crosse de hockey » 14 de Michael Mann. Michael Mann a employé des cernes de croissance de troncs d’arbres   de l’espèce de pins Bristlecone 15 qui permettent des estimations de la température dans l’hémisphère nord remontant sur des siècles. Il a calibré les données des cernes de croissance avec les observations des stations météorologiques de surface sur une période de trente ans et employé cette calibration pour réévaluer les températures d’un passé distant de façon à faire disparaître la période médiévale chaude (ou « optimum climatique médiéval »).

Cette reconstruction montrait des températures « plates » sur le dernier millénaire. Les tests habituels pour cette procédure sont de vérifier si les observations postérieures à la période de calibration sont correctement retrouvées … mais il n’était pas possible de retrouver le réchauffement montré par les stations météo  de surface. La solution apportée à cette difficulté a été absolument simple et stupide : la série d’observations tirée des cernes d’arbres a été coupée à la fin de la période de calibration et a été remplacée par les observations des stations météo de surface.

Dans les mails du « Climategate » (Climategate est le nom donné à la publication d’un très grand nombre de courriers électroniques  envoyés par divers scientifiques « climato-alarmistes »  discutant entre eux sur la meilleure façon de supprimer les opinions différentes des leurs, de faire disparaître les observations qui les gênent, d’intimider les éditeurs de revues scientifiques, de manipuler les données d’observation, etc.), cette opération est appelée « Mann’s trick » ou tour de passe-passe de Michael Mann.

Toute la discussion qui précède visait à souligner que ce qui compte n’est pas le réchauffement lui-même mais son ampleur. Il faut absolument éviter la tendance habituelle des « environnementalistes » à prétendre que tout ce qui pourrait être mauvais en grande quantité ou à grande échelle doit être à tout prix évité si faible que soit le phénomène réel.

En réalité, un peu de réchauffement serait fort bénéfique et pour bien des raisons.

Si vous avez assimilé ce qui précède vous serez capable d’analyser les annonces faites dans les médias et de constater que, malgré des excès rhétoriques, l’auteur de l’annonce ne dit pratiquement rien, et même, souvent, présente faussement ce qu’affirme l’IPCC/GIEC.

Le mantra ou « meme » ou poncif  des événements météorologiques extrêmes

Tout prévisionniste météo de base sait que des événements extrêmes se produisent quelque part sur le globe pratiquement tous les jours. La tendance actuelle à attribuer au changement climatique  ces événements qui se produisent tout normalement  est évidemment très malhonnête.

Roger Pielke Jr. a écrit un livre 16 détaillant ce fait d’observation qu’il n’y a, pour chaque type d’événement extrême (dont les tornades, les ouragans, les sécheresses, les inondations, etc.), aucune tendance à l’augmentation du nombre d’occurrences et même, en fait, pour certains types d’événements une moindre fréquence.

Même l’IPCC/GIEC des Nations Unies a reconnu qu’il n’y avait aucune raison d’attribuer ces événements au « changement climatique anthropique ». 17

Le mantra des températures extrêmes contredit en fait et les observations et les fondements de la météorologie.

La figure 5 présente une carte des températures sur l’Amérique du Nord le 27 février 2008.

Des températures extrêmes se produisent en un lieu quand le mouvement de l’air y transporte de l’air venant  des zones de la carte les plus froides ou les plus chaudes. Dans un  « climat plus chaud » on doit s’attendre à une moindre différence de température entre les tropiques et les hautes latitudes. Ce qui nécessairement réduit la dynamique entre les températures extrêmes.

De plus et c’est important, les mouvements qui transportent ces masses d’air viennent d’un processus appelé instabilité barocline, qui elle même découle de la différence des températures entre tropiques et hautes latitudes.

Et donc, dans un monde plus chaud, ces vents seront plus faibles  et moins susceptibles de transporter sur de longues distances des masses d’air à des températures extrêmes.

Les affirmations sur la venue de températures extrêmes plus fortes ignorent simplement la physique de base et ne sont acceptées ou admises que parce que l’auditoire est ignare.

Ces affirmations sur les événements météorologiques extrêmes transcendent l’utilisation habituelle d’affirmations trompeuses. Elles correspondent très souvent à l’opposé exact de ce qui se passe en réalité.

L’objectif est d’être aussi terrifiant que possible, et tant pis s’il faut affirmer l’exact opposé de la réalité !

La montée du niveau des mers

En moyenne globale, le niveau des mers a, depuis un millénaire, monté d’environ 15 cm par siècle. Avant les satellites la mesure se faisait avec des marégraphes qui enregistrent le niveau de l’eau par rapport au niveau du sol.

Malheureusement le niveau du sol change aussi,  et comme le notent Emery et Aubrey dans leur livre18, c’est la tectonique qui, en bien des endroits, est la principale cause de changement du niveau relatif de l’eau et de la terre.

En 1979 on a commencé à employer des satellites pour mesurer le niveau réel des mers.  Les résultats ont été fort proches des estimations tirées des marégraphes, légèrement plus forts, mais  Wunsch  et al.19 montrent que personne ne peut dire que les petites différences dues au changement de méthode de mesure représenteraient une accélération de la montée du niveau des mers 20.

Quoiqu’il en soit, les changements sont fort petits  en comparaison des affirmations qui veulent suggérer un changement climatique catastrophique.

Pourtant, au début des années 1980 déjà, des alarmistes tels que St. Schneider ont compris que le niveau des mers serait un moyen tactique commode, facilement compris,   pour susciter de la peur. Que des personnes comme Al Gore et Susan Solomon (naguère chef du WG1 Scientific Assessment (évaluation scientifique) du GIEC/IPCC) aient lourdement investi dans des propriétés en bord de mer montre bien que le sujet est un thème de propagande et non pas une question scientifique.

La banquise arctique 21

Des satellites observent la banquise arctique (et l’antarctique aussi) depuis 1979. Chaque année voit un cycle annuel très prononcé : la couverture, quasi-totale en hiver est, en été, fortement réduite. Depuis 1979 il y a eu une tendance significative à la diminution de la banquise d’été (et l’inverse en Antarctique), mais ces dernières années, la couverture en fin d’été s’est apparemment stabilisée.

Pour discuter de changements climatiques, une durée de 40 ans est, bien sûr, plutôt courte. Cependant on a vu des tentatives – inévitables- d’extrapolation de tendances observées sur des périodes courtes à l’appui d’affirmations que l’Arctique devrait être déjà libre de glaces. Évidemment  extrapoler des tendances observées à court terme n’est pas approprié.

Extrapoler les variations des températures de l’air proche de la surface observées entre l’aube et le crépuscule  amènerait, en peu de jours, à un climat bouillant.

Extrapoler la surface estivale de la banquise arctique pourrait bien être tout aussi stupide.

De plus, quoique la couverture satellitaire soit incomparablement meilleure que ce que l’on avait avant, les données sont loin d’être parfaites. Les satellites peuvent confondre de la glace couverte d’eau de fonte avec une mer libre de glace. De plus, la température n’est pas la cause principale de la diminution de la banquise estivale. Cette banquise d’été est plutôt  fragile et des changements de vents jouent un rôle important en expulsant la glace flottante des mers arctiques.

L’association entre changement de la banquise d’été et changement climatique est, en soi, douteuse. Les « modèles climatiques numériques » ne prédisent pas de façon claire ce qui est observé.  On ne saurait donc dire que le comportement observé de la banquise confirme une quelconque de ces prédictions. 22

Des pressentiments sur la disparition de la banquise arctique ont été publiés en 192223 ce qui suggère que les phénomènes observés  ne sont pas nouveaux. Les observations venaient alors du voisinage du Spitzberg. Un biologiste marin qui est aussi un activiste militant « pour le climat » a suggéré  que ce n’était qu’un phénomène local, mais les éléments qu’il avance ne permettent pas de conclure. Entre autres, cet auteur a très soigneusement « trié » ce qu’il appelle des preuves.

Tout ce que l’on peut dire, à ce point, est que le comportement de la banquise arctique est l’un de ces nombreux phénomènes que nous offre la Terre, et pour lesquels nous n’avons ni une compréhension physique, ni de longues séries d’observations.

De plus l’ouverture du passage du nord-ouest (au nord du Canada) a longtemps fait rêver. Il est bizarre qu’on la considère maintenant comme terrifiante.

Bien sûr comme l’a noté Mencken 24 « Tout l’objectif de la pratique politique est de faire en sorte que la populace ait, en permanence, quelque chose à redouter et donc qu’elle réclame bruyamment qu’on assure sa sécurité.  On lui fait croire à toutes sortes de menaces et de maléfices, la plupart imaginaires ».

Le mouvement environnementaliste a fait sienne cette tactique, bien au delà de ce que Mencken observait.

Le mantra ou « meme » ou poncif des ours polaires

J’ai tout lieu de penser qu’Al Gore a fait faire beaucoup d’études de type focus group 25 pour découvrir l’efficacité remarquable de l’idée que le changement climatique va mettre en danger les ours polaires.

L’usage qu’il a fait de l’image pathétique – à l’évidence fabriquée par Photoshop – d’un ours blanc sur un  morceau de glace flottant 26 le suggère très fortement. Comme le souligne Susan Crockford27, spécialiste de l’évolution des ours polaires, la population des ours blancs a, dans le passé, diminué à cause de la chasse et de l’exploitation commerciale de leur fourrure. Des mesures de protection ont eu un plein succès et amené une augmentation des populations telle que la chasse a de nouveau été autorisée.

Il n’y a aucune indication, aucune preuve, que les changements de la banquise arctique estivale aient eu un quelconque effet négatif sur les populations d’ours polaires : ces ours peuvent nager plus de deux cents kilomètres; on ne voit pas pourquoi moins de glace les gênerait.

Mais, pour la petite communauté d’experts des ours polaires, les inquiétudes propagées sur le « climat »  ont eu un intérêt évident.

Le mantra ou « meme » ou poncif de l’acidification des océans

On a là encore une de ces affirmations pas claires qui semblent effrayantes mais ne résistent pas à l’examen.

Depuis la terreur fabriquée des « pluies acides » on a compris que le public est facilement manipulé et terrorisé par toute annonce avec le mot « acide ».

En réalité l’océan est basique  et non pas acide (car son pH est toujours nettement supérieur à 7), et il est absolument impossible que des teneurs croissantes de l’air en CO2 réduisent à 7 (la neutralité) le pH de l’océan (rappel: le pH chiffre le caractère acide ou basique: un pH supérieur à 7 est basique, un pH inférieur à 7 est acide). Les changements imaginés  renvoient  à des pH océaniques -très- légèrement moins basiques.

Une description correcte des phénomènes ne susciterait nulle frayeur. Comme toujours, il y a tant d’erreurs et de faussetés dans cette affirmation d’une acidification des océans que les analyser demanderait un article assez long. Je recommande la source suivante:

Patrick Moore Ocean « acidification » alarmism in perspective, (Nov. 2015, 28 pages)

https://fcpp.org/sites/default/files/documents/Moore%20-%20Ocean%20Acidification%20Alarmism.pdf

Le mantra ou « meme » ou poncif  de la disparition des récifs coralliens

La prétendue mort des récifs de coraux est en partie liée aux fables sur  » l’acidification  » exposées ci-dessus, et comme on le peut voir, la relation causale est presque exactement l’inverse de ce que l’on nous raconte.

Il y a aussi l’histoire selon laquelle le réchauffement lui-même causerait le blanchiment des coraux. On verra une présentation alarmiste typique dans :

http://www.nature.com/nature/journal/v543/n7645/full/nature21707.html.

L’accès en est payant mais la plupart des bibliothèques universitaires ont un accès à Nature.

Une réponse argumentée à ce papier est  http://landscapesandcycles.net/falling-sea-level–bleached-great-barrier-reef.html

Jim Steele, l’auteur de cet article, explique que le blanchiment a des causes autres que le seul réchauffement et n’est pas du tout l’annonce de la mort des coraux qui ont les moyens de récupérer. L’article http://www.breitbart.com/big-government/2017/04/10/delingpole-gullible-fools-believe-great-barrier-reef-dying/  est un peu polémique  mais, sur le fond, est correct.

Le réchauffement climatique, cause de tout et de n’importe quoi

Comme on vient de le voir, il y a une tendance à rendre le réchauffement climatique responsable de tout ce qui est déplaisant. Nous allons voir plus loin encore une illustration de ces absurdités.

Ça n’a pas empêché l’Environment Protection Agency américaine d’employer ce genre d’argument pour affirmer que sa politique de  » lutte contre le changement climatique  » aura des effets sanitaires bénéfiques.

Devant tant d’affirmations je crains le  » à quoi bon ?  »  Personne n’a assez de temps et d’énergie pour réfuter ce très grand nombre d’affirmations.

Heureusement beaucoup sont, de toute évidence, absurdes. La revue Nation a publié récemment ce que l’on a sans doute écrit de mieux dans ce genre :

Juan Cole (18 avril 2017) : Cet autre gaz toxique  qui tue des Syriens: les émissions de dioxyde de carbone.

Si Trump et ses sbires  s’intéressaient vraiment aux enfants tués par des gaz toxiques, ils n’essaieraient pas de rejeter plus encore de CO2 dans l’atmosphère  https://www.thenation.com/article/the-other-poison-gas-killing-syrians-carbon-dioxide-emissions/

Le CO2, notons le d’abord, n’est pas du tout toxique. Au contraire le CO2 est essentiel à la vie sur notre planète et des teneurs aussi élevées que 5000 ppm sont, dans nos sous-marins, considérées comme  sans danger.

L’article de Nation  est typique en ce qu’il énonce en peu de lignes beaucoup d’affirmations très bizarres. Il argumente qu’ « un emballement de l’effet de serre »  amène sur Vénus des températures de surface supérieures à la température de fusion du plomb 28. Pourtant personne n’affirme que la Terre puisse être sujette à un tel « emballement ».

La planète Mars  dont l’atmosphère a trente fois plus de CO2 que la Terre est plus éloignée du  Soleil et a une surface fort froide.

Mais comme nous venons de le voir, bien souvent, la réalité est sans importance pour ceux qui font de terroriser le public leur activité principale.

Remarques pour conclure

Une accumulation d’affirmations fausses et/ou trompeuses est souvent appelée  » preuve irréfutable  » de la catastrophe qui va arriver.

Sans ça, on pourrait légitimement se demander s’il y a même seulement une preuve.

Quoiqu’il en soit, le changement climatique sert de justification à de nombreuses politiques publiques qui presque toutes semblent avoir fait beaucoup plus de mal que le supposé changement climatique (voir http://www.thegwpf.com/every-climate-initiative-imposed-on-us-by-politicians-has-ended-in-disaster/)  et vont évidemment faire encore bien plus de mal.

Le mieux que l’on puisse dire de ces efforts est qu’il est reconnu par tous que, malgré leur coût immense, ils n’ont que fort peu d’effet sur les teneurs de l’air en CO2 et sur les températures.  Voilà plutôt une bonne nouvelle, car il y a bien des preuves que ces changements des teneurs de l’air en CO2 et des températures ont des effets bénéfiques, tandis que l’énorme gaspillage d’argent n’est pas du tout bénéfique.

Je n’ai pas passé beaucoup de temps sur les détails de la science, mais voici un point qui devrait exciter l’esprit critique de tout lecteur intelligent : le système que nous considérons est constitué de deux fluides turbulents en interaction, l’air et l’eau; ils couvrent une planète en rotation qui reçoit du soleil une quantité de chaleur variable selon la latitude. Le constituant vital de l’atmosphère est l’eau sous ses phases liquide, solide et vapeur et les changements de phase ont d’énormes conséquences.

Le bilan énergétique de ce système implique l’absorption et la réémission d’environ 200 Watt par mètre carré. Un doublement de la teneur en CO2 modifierait ce budget de 2% environ.

Mais des modifications très mineures de la couverture nuageuse et d’autres caractéristiques encore ont le même effet, et ces modifications se produisent tous les jours.

Dans ce système complexe avec un grand nombre de facteurs, quelle vraisemblance y a-t-il que le climat (qui lui-même découle d’un grand nombre de  variables et non pas seulement d’une anomalie des températures calculée en moyenne globale) soit piloté par la perturbation de 2% d’une seule variable ?

Le croire serait quasiment croire en la magie. Mais on vous dit que c’est croire en la « Science ».

Cette affirmation devrait vous prévenir qu’il y a là quelque chose qui ne va pas.

La Science est en effet une façon de poser des questions et non pas un système de croyances !

Richard Lindzen est Professeur des Sciences de l’atmosphère, titulaire de la chaire Alfred P. Sloan, Emérite, au Massachusetts Institute of Technology.

Le traducteur  a cru bon d’ajouter des notes à l’usage du lecteur francophone, pour préciser quelques points ou faciliter l’accès aux références. Ces indications sont signalées comme « Note du Traducteur »  NdT.

1 NdT    R. Lindzen emploie le mot « meme »  qui désigne un élément culturel reconnaissable, répliqué et transmis par l’imitation du comportement d’un individu par d’autres individus.  (Source : http://www.linguee.fr/francais-anglais).https://fr.wikipedia.org/wiki/M%C3%A8me

Commentaire publié le 26 mai 2014

https://www.wsj.com/articles/joseph-bast-and-roy-spencer-the-myth-of-the-climate-change-97-1401145980?tesla=y

Voir aussi

http://www.drroyspencer.com/2014/05/ill-see-your-97-percent-and-raise-you-3-percent/

https://wattsupwiththat.com/2014/05/30/the-myth-of-the-97-climate-change-consensus/

https://www.cfact.org/2014/05/30/the-myth-of-the-97-climate-change-consensus/

       http://www.csmonitor.com/Science/2017/0330/How-climate-skeptics-are-trying-to-influence-200-000-science-teachers?cmpid=TW

 » For the record, of the nearly 70,000 peer-reviewed articles on global warming published in 2013 and 2014, four authors rejected the idea that humans are the main drivers of climate change. The atmospheric carbon concentration is 44 percent higher than it was in pre-industrial times (and rising), and 2016 was the planet’s hottest year ever, breaking the previous record holders 2015 and 2014.  »

4 La « Sun Belt » (en français la « Ceinture du Soleil ») se compose des États du Sud et de l’Ouest des États-Unis présentant un dynamisme économique, un cadre de vie et une zone ensoleillée agréable (wikipedia).

5 NdT     Pour la série des mesures satellitaires de la basse troposphère en moyenne globale  dite RSS/MSU et publiée par REMS la meilleure approximation linéaire de janvier 1999 à décembre 2015  est  0,23°C -0,00046 (t-1999) soit moins 0,046°C par siècle équivalent à une totale absence de réchauffement (aussi appelé « pause » ou hiatus » du réchauffement); sur janvier 1999 à décembre 1997 cette meilleure approximation linéaire est -0,03°C + 0,0082 (t-1979) soit +0,82°C par siècle. Les années 1998 et 2016  sont celles de deux grands El Niño  avec certains mois à plus de 0,7°C par rapport aux mêmes mois des années antérieures.

6 NdT       Après le grand El Niño de 2016, les températures « mondiales moyennes » sont en février 2017 revenues -ou presque- à leur valeur moyenne sur 1999-2015. Ci-dessous le tracé de deux séries des anomalies des températures « mondiales » moyennes RSS-MSU de la basse troposphère  et HadCRUT de la surface.  Elles n’ont pas la même référence et sont décalées entre elles de quelques dixièmes de degré : moyennes sur 1999-2015 de 0,26°C pour la première et de 0,49°C pour la seconde.

7 NdT       Les réchauffements très comparables observés de 1860 à 1878 et de 1920 à 1941 ne sauraient être attribués  aux « émissions anthropiques » venant de combustibles fossiles car ces émissions étaient alors extrêmement faibles (de 100 à  200 M t-C/an vers 1870, 1000 M t-C/an vers 1940) comparées à celles de 1978-1998 (6000 M t-C/an), elles mêmes de l’ordre de 3% des dégazages annuels naturels de CO2  par les océans (en zone intertropicale) et par les sols (de l’ordre de 160 000 M t-C/an).

8 NdT      Vallée de la mort en Californie, vers 36°N, avec des moyennes des températures maximales sur 24 heures atteignant 46°C en juillet.

9  NdT      Températures moyennes au sommet (8848 m)  de l’ordre de -35°C en hiver et -17°C en juillet.

10 NdT       Cette plage dont les bornes sont dans un rapport un à trois a été décrétée en 1979 par une commission  présidée par le météorologiste américain Jules Charney ; les dizaines de milliards de dollars dépensés depuis  par les divers états pour le financement de la « recherche climatique » n’ont pas permis de mieux préciser cette fourchette qui figure encore et toujours dans le dernier rapport du GIEC (AR5, 2013).

Ce concept fait l’hypothèse que la modulation de la teneur en vapeur d’eau  des hautes couches de la troposphère (celles  d’où la vapeur d’eau rayonne effectivement vers le cosmos et assure)  n’efface pas en quelques heures ou jours les effets des variations sur la même période des teneurs de l’air en CO2.

11 http://journals.ametsoc.org/doi/pdf/10.1175/BAMS-D-15-00135.1

12 NdT    La période de calibration est par exemple de 140 ans (1850-1990) et les multiples paramètres ajustables sont ajustés pour que l’anomalie de la température moyenne global ne s’écarte pas trop des observations; la période de prédiction ira alors de1991 à, par exemple, 2100.

13 NdT   La NOAA National Oceanic and Atmospheric Administration est une agence du département (ministère) du commerce des USA, chargée entre autres de la météorologie. Une enquête a été lancée par une commission du Sénat des Etats-Unis.

https://science.house.gov/news/press-releases/former-noaa-scientist-confirms-colleagues-manipulated-climate-records

http://www.dailymail.co.uk/sciencetech/article-4192182/World-leaders-duped-manipulated-global-warming-data.html 

http://www.nationalreview.com/article/444942/john-bates-whistleblower-climate-scientist-smeared-global-warming-advocates

La revue Science a publié un article d’un journaliste visant à minimiser l’ampleur de la fraude : http://www.sciencemag.org/news/2017/02/how-culture-clash-noaa-led-flap-over-high-profile-warming-pause-study

Notons que les données et même les programmes de calcul employés par Karl et al. ont « bizarrement » disparu à cause « d’une panne d’ordinateur », ce en violation de toutes les procédures d’archivage des données et des programmes réglementées dans des institutions qui archivent de très gros volumes de données.

Ces procédures sont en partie décrites dans  https://judithcurry.com/2017/02/04/climate-scientists-versus-climate-data/

14 NdT  En anglais « hockey stick » ; le lecteur curieux trouvera une documentation complète sur le site

https://climateaudit.org/multiproxy-pdfs/ site tenu par le découvreur de cette fraude, ingénieur des mines et canadien, ce qui explique la référence au hockey sur glace.

15 NdT   Aussi appelé Pinus aristata longaeva, il pousse entre 2100 m et 3700 m dans les montagnes de l’ouest des USA et a une longévité exceptionnelle, de 4000 ans à 5000 ans.

16  Roger Pielke Jr. The Rightful Place of Science: Disasters and Climate Change Paperback, 124 pages – November 1, 2014

17 http://www.ipcc.ch/report/srex/ MANAGING THE RISKS OF EXTREME EVENTS AND DISASTERS TO ADVANCE CLIMATE CHANGE ADAPTATION, 2012, Cambridge University Press, 582 pages (31 M Octets)

18  Emery K. O., Aubrey D. G.    Sea Levels, Land Levels, and Tide Gauges, Springer, 1991, 237 pages

19 Carl Wunsch,  Rui M. Ponte, Patrick Heimbach, Decadal Trends in Sea Level Patterns : 1993–2004 Journal of Climate, AMS, 15 Dec. 2007,  pp. 5889-5911

Extrait du résumé:  » Estimates made here produce a global mean of about 1.6 mm yr−1, or about 60% of the pure altimetric estimate, of which about 70% is from the addition of freshwater. »

20 NdT  Les marégraphes équipés de GPS de haute précision permettent des calculs du mouvement du sol et du niveau des mers et même de la variation de la quantité d’eau.

Voir articles du professeur  Guy Wöppelmann: http://marine-climate.uib.es/SLR2015/presentations/Woppelmann.pdf  Wöppelmann, G. et al. Rates of sea-level change over the past century in a geocentric reference frame. Geophysical Research Letters 36: 10.1029/2009GL038720.

Autres articles sur http://www.co2science.org/articles/V12/N40/C1.php

21 NdT  Voir par exemple http://www.climate4you.com/SeaIce.htm pour des graphiques des ces surfaces de banquise

22 NdT   Depuis 1980 les modèles prédisent, pour un doublement de la teneur de l’air en CO2, en Arctique, +12°C en hiver,  mais seulement +2°C en été. Les observations pour la basse troposphère polaire (série UAH MSU v6)  sont rapportées aux figures ci-dessous pour décembre et pour janvier.

Les +12°C en hiver dits par les « modèles » pour un doublement de la teneur en CO2   donnerait, sur ces mois d’hiver, sur 1978-2017, selon les formules usuelles  12°C ln(403 ppm / 335 ppm) / ln(2) = + 3,2°C   … qui ne sont pas du tout observés sur les figures ci-dessus !

23 https://docs.lib.noaa.gov/rescue/mwr/050/mwr-050-11-0589a.pdf

You ask, I provide. November 2nd, 1922. Arctic Ocean Getting Warm; Seals Vanish and Icebergs Melt.

24  NdT   Henry Louis Mencken (1880-1956) journaliste américain

25  NdT   Dans le monde du marketing, les focus groups, ou réunions de consommateurs, sont perçus comme des outils privilégiés afin de procéder à une analyse concernant les nouveaux produits et services.

Le focus groupe permet aux entreprises qui le désirent de développer, tester et discuter des noms, des matériaux de conditionnement, des emballages, avant de les commercialiser. Cette démarche permet aussi de recueillir des informations sur le potentiel du marché et la réaction du public, pour que le produit ou service, soit largement accepté. (Wikipedia)

26    http://www.istockphoto.com/fr/photo/dernier-ours-polaire-gm135183496-4095333

27   Son site est https://polarbearscience.com/

28  NdT   La température de fusion du plomb est 327°C.

La température de surface de Vénus, 462 °C,  est une conséquence de la masse de son atmosphère 100 fois celle de l’atmosphère de la Terre.

La relation  entre température et pression T/Tref = (P/Pref) R/(Cp+|Ch|) vaut sur Terre     T/ (255 K) = (P/(0,53 atm))0,19   et sur Vénus T/(243 K) = (P/(0,1 atm))0,16 avec en surface  une pression P=1 atmosphère sur Terre contre P= 92 atmosphère sur Vénus.

Les 255 K et 243 K sont les Tref , températures équivalentes de rayonnement de la couche qui assure le gros du rayonnement de la planète vers le cosmos et Pref  la position de ces couches, respectivement vers 5 km et vers 60 km. Le gradient de température, g/(Cp+ |Ch|)  entre cette couche  et la surface est de 6,5 °C/km sur Terre et de 8,2 °C/km sur Vénus, d’où  les températures de surface de 255 + 5 x 6,5 = 287,5 K (14,4 °C) sur Terre et  243 + 60 x 8,2 = 735 K (462 °C) sur Vénus.

 

 

 

338 Comments     Poster votre commentaire »

1.  Bernnard | 4/08/2017 @ 8:50 Répondre à ce commentaire

Pop…

2.  pierreb1 | 4/08/2017 @ 12:04 Répondre à ce commentaire

L’éditeur Merion West nous a prié de mentionner : « Please feel free to share this article on your websites and social media accounts. We would appreciate if you credit Merion West as the place of original publication » :
http://merionwest.com/2017/04/.....te-change/

3.  Bernnard | 4/08/2017 @ 12:40 Répondre à ce commentaire

pierreb1 (#2),
Je viens de le mentionner en tout début.

4.  Murps | 4/08/2017 @ 20:27 Répondre à ce commentaire

C’est une Rolls cet article.
J’adore.

5.  tsih | 4/08/2017 @ 23:43 Répondre à ce commentaire

Oui, bon article.

Mais d’où sort la NdT 28 ?
Je présume que ça:

T/Tref = (P/Pref) R/(Cp+|Ch|)

doit plutôt se lire T/Tref = (P/Pref) ^ ( R/Cp) pour la relation entre T et P dans une détente ou compression adiabatique

(P/Pref) doit y être « élevé à la puissance » (R/Cp)

Et IChI représente quoi ?

6.  Bernnard | 5/08/2017 @ 2:34 Répondre à ce commentaire

tsih (#5),
A priori ce doit être une unité semblable à une capacité calorifique mais je n’ai pas d’autre indication.
Le texte de Camille Veyres est disponible sur le lien suivant:
https://static.climato-realistes.fr/2017/05/Lindzen-Richard-trad-Veyres-def.pdf
Il y a très peu de différences avec cet article. Seuls les liens ont été ajoutés et sinon il n’y a pas de retouche profonde du texte.

7.  Philippe (Alsace) | 5/08/2017 @ 9:10 Répondre à ce commentaire

Merci d’avoir partagé cet article
C’est une excellente synthèse argumentée pour approcher le sujet avec un public non averti

8.  Herté07 | 5/08/2017 @ 10:09 Répondre à ce commentaire

Bernnard (#1),

5 NdT : sur janvier 1999 à décembre 1997 cette meilleure approximation linéaire est -0,03°C + 0,0082 (t-1979) soit +0,82°C par siècle.

bizarre!

9.  Daniel | 5/08/2017 @ 14:16 Répondre à ce commentaire

Climat : le nombre de morts en Europe pourrait bondir à cause du réchauffement

Environ deux Européens sur trois pourraient être exposés tous les ans à des phénomènes climatiques extrêmes d’ici à 2100, contre 5% durant la période 1981-2010.

Les vagues de chaleur seront le phénomène le plus meurtrier, provoquant 99% des décès liés aux événements extrêmes, estiment les chercheurs. Le nombre de morts qu’elles entraînent pourrait « augmenter de manière exponentielle », grimpant de 2 700 à 151 500 par an (+5 400%).

Les morts dues aux inondations sur les côtes augmenteraient elles aussi de manière importante (+3.780%), atteignant 233 morts tous les ans à la fin du siècle contre six seulement en 1981-2010. Les hausses sont moindres pour les incendies (+138%), les inondations fluviales (+54%), les tempêtes (+20%).

http://www.francetvinfo.fr/met.....14942.html

10.  AntonioSan | 5/08/2017 @ 16:02 Répondre à ce commentaire

Daniel (#9),

Selon le modèle employé par les scientifiques, le nombre de décès dus aux changements climatiques passera de 3000 par an entre 1981 et 2010 à 152.000 par an entre 2071 et 2100 si aucune mesure n’est prise pour réduire les émissions de gaz à effet de serre et l’impact des événements météorologiques extrêmes.

Selon le modele utilise par les scientifiques…
L’anne prochaine le modele calculera 300 000 morts et dan s10 ans ce sera des millions…
L’inflation climatique quoi…

11.  chercheur | 5/08/2017 @ 16:20 Répondre à ce commentaire

AntonioSan (#10),

J’aime bien le commentaire d’un des lecteurs de l’article…

 » Jerry Khan
Souhaitons que les premières victimes seront les climato sceptiques.
Le 05/08/2017 à 13:47″

12.  Christial | 5/08/2017 @ 16:58 Répondre à ce commentaire

N’oublions pas d’ajouter dans les calculs de nos MM (millions de morts) quelques unités supplémentaires. Je pense à ces pauvres refugiés climatiques venus d’Afrique ou d’Asie et qui croient trouver en l’Europe un asile à la folie humaine. De Charybde à Scylla car l’enfer sera partout, pauvres pêcheurs que nous sommes.

13.  shayabe | 5/08/2017 @ 17:31 Répondre à ce commentaire

Daniel (#9), J’admire la précision des calculs : 151500 morts par ci, 233 (!) morts par là, +138%, etc

14.  Daniel | 5/08/2017 @ 18:26 Répondre à ce commentaire

J Jouzel vient de commenter la catastrophe qui devrait arriver.sur France Inter a 19 h……
Plus de 50 degré Celsius promet il pour nos contrées en été !

Du fait du réchauffement, le nombre de morts à cause des vagues de froid va baisser fortement, sans pour autant compenser ces hausses, soulignent les chercheurs.

https://www.franceinter.fr/monde/climat-les-dereglements-pourraient-faire-152000-morts-par-an-en-europe

15.  amike | 5/08/2017 @ 18:40 Répondre à ce commentaire

Daniel (#9), Vu le vieillissement de la population européenne, on peut penser qu’il s’agit de projection sur des décès anticipés : au lieu de mourir en hiver du froid, de l’humidité et des maladies opportunistes, (ou de dépression à cause des journées raccourcies), ils mourront 6 mois plus tôt…
Je rappelle que les chiffres des décès pour 2003 en Europe ont été estimé jusqu’à 70 000. Et je ne suis pas d’accord avec l’Inserm qui affirmait qu' »il n’y a pas eu de réduction compensatrice de la mortalité dans les semaines et les mois qui ont suivi la forte mortalité d’août 2003, parmi les populations les plus fragiles.« , car bien sûr, il faut comparer des causes comparables (ici, l’été contre l’hiver, donc plus que « les mois suivants »).

16.  MichelLN35 | 5/08/2017 @ 18:52 Répondre à ce commentaire

chercheur (#11),
Christial (#12),
shayabe (#13),

Ces précisions et commentaires sont fait au mois d’août de l’année 2017, année au cours de laquelle nous avons vu en janvier une donnée mensuelle de mortalité annuelle pour 1000 habitants de 12%o, que nous n’avions pas vue depuis 1997 (20 ans). voir ici la courbe des données officielles depuis 1975 : https://dropcanvas.com/gru2o/143 et https://dropcanvas.com/gru2o/142 à jour jusqu’en juin 2017.

L’hiver 2017 est le deuxième hiver au caractère mortifère amplifié après 2015. Nous entrons dans la période froide annoncée en 2008 et 2009 par Mojib Latif et Keenleside. Comment peut-on être aussi aveugle à la réalité. Avril et mai ont été aussi plus mortifères que les dernières années, juin, plutôt moins, on ne peut mourir qu’une fois et en général pas de canicule en hiver ou au printemps.

17.  MichelLN35 | 5/08/2017 @ 18:59 Répondre à ce commentaire

chercheur (#11),
Christial (#12),
shayabe (#13),

Ces précisions et commentaires sont faits au mois d’août de l’année 2017, année au cours de laquelle nous avons vu en janvier une donnée mensuelle de mortalité annuelle pour 1000 habitants de 12%o, que nous n’avions pas vue depuis 1997 (20 ans). Voir ici la courbe des données officielles depuis 1975 : https://dropcanvas.com/gru2o/143 et https://dropcanvas.com/gru2o/142 à jour jusqu’en juin 2017.

L’hiver 2017 est le deuxième hiver au caractère mortifère amplifié après 2015. Nous entrons dans la période froide annoncée en 2008 et 2009 par Mojib Latif et Keenleside. Comment peut-on être aussi aveugle à la réalité ! Avril et mai ont été aussi plus mortifères que les dernières années, juin, plutôt moins, on ne peut mourir qu’une fois et en général pas de canicule en hiver ou au printemps.

18.  Hug | 5/08/2017 @ 20:53 Répondre à ce commentaire

amike (#15),
Je me souviens qu’en 2003, lorsque le pic de mortalité du mois d’août avait fait la une médiatique, on plaisantait au boulot en se disant que l’expression « il ne passera pas l’hiver » allait disparaître au profit de « il ne passera pas l’été ». smile

19.  TrollDuke | 6/08/2017 @ 10:01 Répondre à ce commentaire

En lisant cet article tout à fait intéressant je me suis fait cette réflexion : « Si l’on pense que l’Homme est à l’origine du « réchauffement climatique » alors on pense que l’Homme est par nature mauvais pour la « biosphère globale » et qu’il faut donc contrôler l’Homme pour « minimiser son impact ». »

J’ai du mal à concevoir une pensé qui ne soit pas plus dangereuse que ça en terme de vies détruites.

20.  Christial | 6/08/2017 @ 11:02 Répondre à ce commentaire

En termes simples et accessibles, Lindzen montre les insuffisances de la théorie du RCA (au sens de Réchauffement Climatique Alarmiste ! ).
Je note un point que je n’avais pas relevé ailleurs pour ma part, comte tenu de l’ensemble des GES, nous sommes aujourd’hui arrivés au doublement dans l’atmosphère de la concentration en équivalent CO2.

L’augmentation de température attendue ( espérée?) n’est pas au rendez-vous des réchauffistes, loin s’en faut, seulement un maigre 0,8°C de sensibilité à laquelle il faut encore soustraire la part de la variabilité naturelle.
Heureusement tout n’est pas mauvais chez l’homme, c’est aussi un gros pollueur qui émet des tas d’aérosols dans l’atmosphère, s’ajoutant à ceux d’origine naturelle, et générant un forçage radiatif négatif. L’homme génère le poison et l’antidote, opportunité inespérée pour sauver la mise, provisoirement, à nos modèles climatiques qui seraient totalement hors des clous sans cette géo-ingénierie involontaire.

Combien ces forcages négatifs par aérosols ? Il suffit de lire les explications confuses et les barres d’estimation des différents rapports du GIEC pour s’apercevoir que c’est du pif, de rien à beaucoup.
Pas pour les modélisateurs du climat qui savent les calculer très exactement : c’est la compensation parfaite au forçage positif des GES pour que leur propre modèle colle au plus près des observations constatées.
Comme dirait Lindzen, c’est magique.

21.  Murps | 6/08/2017 @ 15:07 Répondre à ce commentaire

Christial (#19),

l’homme, c’est aussi un gros pollueur qui émet des tas d’aérosols dans l’atmosphère, s’ajoutant à ceux d’origine naturelle, et générant un forçage radiatif négatif.

Même ça…
On en sait rien du tout. C’est de la conviction et de la spéculation, pas de la science.

22.  patilleverte | 6/08/2017 @ 16:14 Répondre à ce commentaire

Daniel (#9), AntonioSan (#10), chercheur (#11),
Moi, je l’ai lu dans la news de l’Obs, et je croyais (naïvement) que c’était un article de l’Obs;
Du coup j’ai laissé un commentaire, disons… énervé.
Quelques commentaires ne sont pas piqués des vers (dans les « deux sens » ).
http://actualites.nouvelobs.co.....D-20170806

23.  patilleverte | 6/08/2017 @ 16:17 Répondre à ce commentaire

tsih (#5),
penser à le demander à Camille… et j’espère que vous êtes physicien ou que vous avez de très bonnes notions en physique !
(Ceci est plus un « cri » admiratif pour Camille, car je suis pour ma part proche de zéro en physique, mais j’essaie de me « soigner », notamment grâce aux intervenants sur ce site)

24.  Christial | 7/08/2017 @ 8:06 Répondre à ce commentaire

Murps (#21),

C’est de la conviction et de la spéculation, pas de la science.

C’était la rubrique Magie, pas la rubrique Science.

25.  Araucan | 7/08/2017 @ 21:10 Répondre à ce commentaire

patilleverte (#22),
Bah, il paraît que certainsgaz et poussières tuent 250 000 personnes par an en Europe … Actuellement !
Va falloir qu’ils se décident sur la répartition des causes de mortalité ….

http://www.lemonde.fr/planete/....._3244.html

26.  Murps | 8/08/2017 @ 12:23 Répondre à ce commentaire

Araucan (#25), oui, oui, bien sûr.
D’ailleurs régulièrement les médecins signent des actes de décès avec la mention « mort prématurée par cause de pollution de l’air ».
Et souvent, me promenant dans la rue, j’aperçois des passants qui s’effondrent dans d’atroces douleurs en se tenant la gorge. Quant à moi, je ne sors pas sans un masque à gaz et une bouteille d’oxygène à portée de main.

Heureusement qu’il y a des gens lucides et informés qui se battent pour notre sécurité :

Le retrait du méthane, qui n’a encore jamais été ciblé en tant que tel dans aucune réglementation, est déplorable. Ce polluant participe pourtant à la constitution de l’ozone dans l’atmosphère, qui a des impacts économiques lourds sur les productions agricoles qu’il détruit », ne décolère pas Charlotte Lepitre, de FNE

Le méthane, un polluant qui contribue à la constitution de l’ozone, autre polluant terrifiant qui détruit notre production agricole.

« L’ensemble de ces modifications à la hausse des valeurs limites, par rapport à la proposition initiale de la Commission, représente au moins 12 000 morts prématurés, déplore Louise Duprez. Les Etats semblent plus inquiets de se retrouver en infraction que soucieux de lutter contre la pollution. »

Salauds d’Etats ! Ils se moquent des morts prématurés et ont surtout peur de la contrainte.

Mais un autre monde est possible et on va se battre pour faire plier les forces du mal, tous ensembles on peut y arriver…

La question qui me turlupine est de savoir quand trouvera-t-on des gens capables de contredire ces délires de fumeurs de joints ?

27.  Nicias | 8/08/2017 @ 15:21 Répondre à ce commentaire

Murps (#26),

J’ai cru que c’était une blague. Je ne savais pas que le méthane était un précurseur de l’ozone.(en présence de NOx).

Malheureusement, ces salauds d’agriculteurs, inquiétés par une éventuelle augmentation de leur production agricole, ont obtenu que ce terrifiant problème perdure.

Pour une mise en perspective de l’ampleur du petit ruisseau de CH4 qui vient alimenter le fleuve ozone :

C’est pour la région de Bruxelle.

Mine de rien, à la louche, dans le cas d’un effet linéaire sans seuil, si les 250000 morts évoqués par Araucan sont juste, le méthane tue 500 personnes par an en Europe. Et c’est sans même compter les morts qu’il provoque à cause du réchauffement ou en détruisant la couche d’ozone !

Imaginez que vous croisiez un gars dans la rue qui s’effondre, terrassé simultanément par l’inhalation d’ozone, un coup de chaleur et un cancer de la peau.

PS : L’ozone naturel est bon pour la santé

28.  Hug | 8/08/2017 @ 16:05 Répondre à ce commentaire

Murps (#26),

quand trouvera-t-on des gens capables de contredire ces délires de fumeurs de joints ?

Ils existent ! Il y a par exemple Jean de Kervasdoué et le professeur Didier Raoult.
Mais il y a intérêt à surveiller ses arrières et à être « propre », sinon ça peut faire mal :
http://www.lefigaro.fr/actuali.....-total.php

Sinon, le bon argument pour contrer ces délires, c’est l’augmentation de l’espérance de vie, y compris et surtout en Chine qui a pourtant de réels problèmes de pollution dans les villes:

29.  Hug | 8/08/2017 @ 16:29 Répondre à ce commentaire

Hug (#28),
Pour info, j’ai retrouvé cet article de Jean de Kervasdoué dans Le Figaro.

30.  patilleverte | 8/08/2017 @ 19:05 Répondre à ce commentaire

Hug (#29),
Article de décembre 2016 ; a-t-il seulement été « ré invité » à laisser de nouvelles réflexions aussi « hérétiques » ??

31.  patilleverte | 8/08/2017 @ 19:07 Répondre à ce commentaire

Hug (#28),
Ah ben oui, mais là, c’est comme pour le climat : quand ça va dans le « bon sens », c’est naturel et dans l’autre cas c’est à cause du RCA (de la pollution dans le cas de la Chine)

32.  patilleverte | 8/08/2017 @ 19:08 Répondre à ce commentaire

patilleverte (#22),
JP Bardinet y a laissé trois commentaires « critiques », c’est à dire bien tournés et argumentés.(sur news de l’Obs)

33.  Nicias | 8/08/2017 @ 21:01 Répondre à ce commentaire

Araucan (#25),

The Royal College of Physicians estimates that 29,000 people die early each year from particle pollution, more than the 23,500 premature deaths attributed to NO2.

The combined total is 40,000 because some people are harmed by both pollutants
. NO2 levels are illegally high in most urban areas, allowing legal action to be taken, but small particle levels are not.

http://www.euractiv.com/sectio.....-solution/

34.  Araucan | 8/08/2017 @ 22:09 Répondre à ce commentaire

Nicias (#33),
Il faudrait que je retrouve les chiffres donnés par la Commission europénne pour la directive NEC …

35.  Araucan | 9/08/2017 @ 22:04 Répondre à ce commentaire

Nicias (#33),
J.ai retrouvé les chiffres de la Commission européenne : 400 000 européens décèderaient de manière prématurée tous les ans .
http://europa.eu/rapid/press-r.....169_en.htm

36.  Fm06 | 11/08/2017 @ 6:48 Répondre à ce commentaire

Le dernier numéro de sciences et pseudo sciences contient un article sur les causes de mortalité. Il montre comment les statistiques publiées dans la presse n’ont aucune signification. Si je décède d’une crise cardiaque quel est le médecin qui peut affirmer que c’est à cause du climat et non à cause de mon mode de vie?

37.  Jojobargeot | 11/08/2017 @ 8:24 Répondre à ce commentaire

TrollDuke (#19), Quand Patrick Moore, co-fondateur de grinepisse, dit que le mouvement écologiste à glissé vers le totalitarisme anti-humain, on ne peut que le croire car c’est la raison qui l’a poussé à claquer la porte au nez de cette néo-multinationale. Car c’est bien ce qu’elle est devenue, une machine à fric basée sur le racket et qui ne produit rien à part de la littérature grise et des paranoïaques.

38.  Daniel | 11/08/2017 @ 15:27 Répondre à ce commentaire

TRIBUNE
Climat : la France ferait bien de surveiller son empreinte

Pour atteindre les objectifs qu’elle s’est fixés à l’horizon 2050, la France devra en effet réduire de 75 % ses émissions, ce qui suppose d’accélérer considérablement le rythme de la transition : d’une modeste réduction des rejets de 1 % par an, il faut urgemment passer à un rythme annuel de 3 à 4%… et maintenir cette cadence pendant plus de trente ans ! Autant dire une véritable révolution.

http://www.liberation.fr/debat.....te_1589058

39.  Gilles des Landes | 11/08/2017 @ 20:01 Répondre à ce commentaire

Daniel (#38), donc, augmenter la part du nucléaire … non ?

40.  scaletrans | 12/08/2017 @ 9:11 Répondre à ce commentaire

Gilles des Landes (#39),

Exactement ! Surtout qu’il va en falloir des centrales pour alimenter les futures voitures électriques que nous promet (impose?) Nhulot.

41.  BenHague | 12/08/2017 @ 18:37 Répondre à ce commentaire

A propos de la Figure numero 2 de l’article de Lintzer , il fait apparaitre une incertitude de +/- 0.1 degC sur les valeur de l’anomalie de temperature . Or sur ce que je vois ailleurs, on parle plutot de +/- 0.05 degC d’incertitude sur la valeur moyenne annuel d’anomalie de temperature.
Quelqu’un sait il que l est la valeur reference d’incertitude ?

42.  papijo | 12/08/2017 @ 19:40 Répondre à ce commentaire

BenHague (#41),
Pour la NOAA par exemple, l’anomalie de température est pour l’année 2007:
– dans le rapport 2007: 0.99°F
– dans le rapport 2011: 1.04°F
– dans le rapport 2013: 1.06°F
– dans le rapport 2015: 1.10°F
Moralité: les températures de l’année 2007 ont monté de 0.11°F (env. 0.06°C) en 8 ans (et d’ailleurs toutes les températures des dernières années montent … ). Donc votre question n’était pas correctement formulée. Une température récente ne peut que monter (pour les anciennes, c’est l’inverse), donc l’incertitude s’exprime sous la forme -0/+x°C. Concernant la valeur de x, tout ce qu’on peut en dire, c’est que x est beaucoup plus grand que toute valeur que pourrait avancer un scientifique sérieux !
Source 1: Article de WUWT (tableau au milieu de l’article)
Source 2: Analyses globales sur le site de la NOAA (en haut de la page, vous pouvez choisir l’année du rapport)

43.  phi | 12/08/2017 @ 21:26 Répondre à ce commentaire

BenHague (#41),
Si quelqu’un connaissait l’incertitude, ce n’en serait plus une.

Plus sérieusement, Les courbes officielles de températures de surface ne sont pas construites avec des moyennes de températures, l’incertitude ne peut donc pas s’exprimer en °C. Ces courbes étant des intégrales des moyennes des pentes de tronçons réputés homogènes, l’incertitude principale devrait s’exprimer en °C/t. Pour donner une idée, les TLT calibrées pour la surface s’écartent des courbes globales GISS, HadCRUT, etc. d’environ 0.1 °C par décennie :

http://www.woodfortrees.org/pl.....fset:-0.35

Cette valeur est énorme mais, au fond, ce n’est pas vraiment une question d’incertitude.

44.  BenHague | 13/08/2017 @ 1:00 Répondre à ce commentaire

papijo (#42),
Tout depend s’ils conservent la meme « baseline » entre chaque rapport. Par baseline , j’entend la moyenne de reference ( entre 19XX et 19YY). Si la baseline change et que c’est correctement documenté dans le rapport , il est normal de voir l’anomalie évoluer . Ce qui compte c’est la tendance (en degré par decade) , pas tellement la valeur absolue de l’anomalie : le changement de baseline n ímpacte pas la tendance mais seulement la valeur absolue de l’anomalie.

45.  Daniel | 13/08/2017 @ 7:02 Répondre à ce commentaire

Le climatologue Jean Jouzel tire la sonnette d’alarme au JDD sur les risques du réchauffement climatique. Selon lui, la planète subira des conséquences dramatiques si les émissions de gaz ne sont pas stabilisées d’ici à 2020.

Nous n’avons que trois ans devant nous. » Face au réchauffement climatique, il prévoit notamment des étés de plus en plus chauds, jusqu’à 6 à 8°C de plus dans les années à venir. « On n’est plus dans le futur : ce sont les enfants d’aujourd’hui, ceux des cours d’école, qui pourraient subir ces étés à 50°C », s’inquiète Jean Jouzel.

http://www.lejdd.fr/societe/re.....ir-3409817

46.  Gilles des Landes | 13/08/2017 @ 8:02 Répondre à ce commentaire

Daniel (#45), ce qui est extraordinaire (et inquiétant venant d’une personnalité publique), c’est que l’objectif est inatteignable, quoi que l’on fasse. La France est déjà parvenue à stabiliser ses émissions (grâce au nucléaire… mais si on démantèle ça repartira à la hausse !), mais quid des grand émetteurs de CO2 dont on sait que certains ne pourront se déveloper sans augmentation sensibles des rejets…

47.  amike | 13/08/2017 @ 9:02 Répondre à ce commentaire

Daniel (#45), Il y a 3 scénarios (les RCP…) prévus par les réchauffistes. Celui dont fait référence Jouzel est le pire et le moins probable selon leurs propres calculs, que lui même serait déplacé de ne pas croire !
Il est dans la vague de propagande par le délire catastrophiste qu’on constate actuellement (Cf Krugman, Hawking, Gore…),

Pire: la COP21 dans son application prévisible, serait la plus favorable au mauvais scénario puisqu’elle force les pays du sud-est asiatique à multiplier les centrales charbon avant 2030…

Un rappel historique des
prédictions catastrophiques fameuses

48.  Bernnard | 13/08/2017 @ 10:06 Répondre à ce commentaire

Daniel (#45),
Si c’est Jouz qui le dit : Wouaf!!! Il y croit lui à sa boule de cristal !

49.  papijo | 13/08/2017 @ 11:20 Répondre à ce commentaire

BenHague (#44),
La NOAA nous dit:

For the global-scale averages (global land and ocean, land-only, ocean-only, and hemispheric time series), the reference period is adjusted to the 20th Century average for conceptual simplicity (the period is more familiar to more people, and establishes a longer-term average).

Donc il n’est pas impossible que la moyenne des températures du 20ème siècle ait fortement varié depuis 2007 !

50.  tsih | 13/08/2017 @ 11:50 Répondre à ce commentaire

Daniel (#45),

La citation la plus amusante de Jouzel c’est celle-là:

J’ai beaucoup d’espoir en voyant mes sept petits-enfants. Récemment, j’ai entendu deux de mes ­petites-filles de 9 et 10 ans parler trente minutes d’éoliennes et d’énergies renouvelables…

Si maintenant les petites-filles de Jouzel « en parlent » déjà, c’est gagné, la réalité va sûrement se plier aux désirs de leur grand-père et accepter d’alimenter en énergie aussi « renouvelable » que « propre » une civilisation de 7+ milliards d’humains, en violant au passage allègrement les lois de la physique.