L’article original a été publié par Merion West
Traduction: Camille Veyres et Scaletrans
Par Richard Lindzen, le 25 avril 2017
Introduction
Voilà plus de trente ans que je donne des conférences sur la « science du changement climatique ».
Quand je parle à un auditoire de non-experts et essaie de leur expliquer des choses comme la sensibilité climatique, le lien entre l’anomalie de la température moyenne mondiale et les « événements météorologiques extrêmes », ou encore que le réchauffement a, sur ces 18 dernières années, été presque négligeable ou très faible, etc., je puis sentir dans l’auditoire un réel manque d’intérêt et de compréhension.
Quelles que soient les preuves que je présente comme quoi il ne s’agit pas d’une catastrophe, mais d’un phénomène qui peut être plutôt bénéfique, je vois de l’incompréhension et de la perplexité.
On me demande comment c’est possible, puisque 97% des scientifiques sont d’accord, puisque les 18 dernières années ont été parmi les plus chaudes depuis 1880, puisque toutes sortes d’événements météorologiques extrêmes sont devenues plus fréquents, puisque les ours blancs sont en voie de disparition, tout comme la banquise arctique, etc. Pour faire bref il y a quantité de preuves d’un réchauffement.
J’étais moi-même plutôt surpris qu’on pût admettre ces affirmations sans fondement réel et parfois même tout à fait malhonnêtes; malheureusement, cela n’était, à vrai dire, pas évident pour mes auditoires.
Je vais, dans ce court article, essayer d’expliquer pourquoi ces affirmations sont en fait des preuves de la malhonnêteté des positions alarmistes.
Le mantra ou « meme » ou poncif des « 97% » 1
Cette assertion vient en réalité d’un titre de couverture d’un numéro de Newsweek de 1988 selon lequel « tous les scientifiques sont d’accord ». Cette assertion vise à donner au non-expert l’impression qu’il n’a nul besoin de comprendre la science. Exprimer son accord avec les 97% montrera que l’on est un « partisan de la science » et que l’on est supérieur à tous ceux qui « nient le désastre ». Voilà qui suffit aux besoins psychologiques de bien des gens. Cette assertion a été formulée par nombre d’individus et peut être présentée de diverses manières. Une démystification en a été donnée en détail par Bast et Spencer dans le Wall Street Journal 2.
Un des tours de passe-passe est de poser les trois questions « la teneur en CO2 de l’air de l’atmosphère a-t-elle augmenté ? « , « la Terre s’est-elle réchauffée (même un tout petit peu) ? » et « l’homme y est-il pour quelque chose ? ». Nous pouvons presque tous être d’accord avec ces affirmations, dont aucune n’implique quelque danger évident. Et pourtant, cet accord est prétendu valoir adhésion au catastrophisme !
Un autre tour de passe-passe est l’examen d’un grand nombre de résumés d’articles dont, en réalité, un petit nombre seulement signalent de réels dangers. Et si 97% de ce petit nombre adhèrent au catastrophisme, ce « 97% » est prétendu se rapporter au grand nombre de résumés !
Un de mes exemples favoris est l’affirmation récente 3 par le Christian Science Monitor (qui fut jadis un journal influent et respecté) : « Notons que des 70 000 articles sur le réchauffement climatique publiés en 2013 et 2014 dans des revues à comité de lecture, quatre auteurs seulement on réfuté l’idée que les humains sont les principaux moteurs du changement climatique ». Il n’est, je crois, nul besoin d’être un expert pour voir que cette affirmation est une bien étrange rêverie, de façon évidente et pour bien des raisons.
Même le groupe intergouvernemental des Nations Unies sur le changement climatique (Ce groupe en général appelé IPCC/GIEC a été créé par les Nations Unies pour évaluer de façon « scientifique » le changement climatique dû à l’action de l’homme.) n’est pas d’accord avec ce poncif.
Malgré tout, je suis un peu surpris qu’il y ait eu besoin des entourloupes que je viens de rapporter.
Depuis que la question du « réchauffement climatique » a, il y a trente ans environ, été mise sur la place publique – et a immédiatement été intégrée au catéchisme du « politiquement correct »-, le financement gouvernemental de ce domaine a crû énormément; ce financement a été fondé sur la croyance a priori en des effets catastrophiques. Aujourd’hui presque tous ceux qui travaillent dans ce domaine y sont entrés pour profiter de ces financements, et les gouvernements ont un monopole du financement de ce domaine.
On peut donc s’attendre à ce que tous ceux qui reçoivent ces financements se sentent obligés d’affirmer l’importance et la réalité du problème. Il est certain que s’y opposer serait suicidaire pour la carrière d’un jeune universitaire.
Et donc les études sur les « 97% » ont seulement à « bien » formuler les questions posées pour s’assurer de niveaux élevés de consentement à l’alarmisme, niveaux qui, si l’anonymat était garanti aux sondés, ne seraient peut-être pas aussi élevés qu’on le prétend.
Le mantra ou « meme » ou poncif des « années les plus chaudes depuis que l’on fait des mesures »
Cette affirmation toute simple cache des myriades d’erreurs. Dans ce genre de cas il est difficile de savoir par où commencer.
Comme dans toute manœuvre de diabolisation, on commence par la supposition ridicule que tout réchauffement, quel qu’il soit, et, ici, toute augmentation de la teneur de l’air en CO2, est mauvais et démontre que le pire va arriver bientôt. Nous savons pourtant que ces deux énoncés sont faux.
Les gens prennent leur retraite dans la Sun Belt 4 plutôt qu’en Arctique.
Du CO2 est insufflé dans les serres pour que les plantes croissent mieux et plus vite.
L’insistance sur « l’année la plus chaude depuis que l’on fait des mesures » semble essayer de répondre au fait que l’épisode de réchauffement observé entre 1978 et 1998 a visiblement cessé et que les températures sont quasi-constantes depuis 19985. Et donc si 1998 a été l’année « la plus chaude » toutes les années qui suivent le seront aussi.
Rien de cela ne contredit le fait que le « réchauffement » a cessé.
Pourtant beaucoup ont été amenés à croire que les deux affirmations ne peuvent être simultanément vraies.
Voilà qui suppose que le public est extrêmement crédule.
L’importance potentielle de la « pause » – et il est bien possible que ce ne soit pas une « pause » et que les températures se mettent à diminuer 6 – n’est jamais mentionnée et n’est que rarement comprise.
Son existence signifie simplement qu’il y a « quelque chose » qui est comparable au « forçage anthropique ».
Or l’attribution, par l’IPCC/GIEC de l’épisode de réchauffement de 1978 à 1998 (et de celui-là seulement 7) à une cause humaine repose sur l’hypothèse – incorporée dans les modèles – qu’il n’existe pas de processus naturel comparable au « forçage anthropique ».
La focalisation sur les seules séries de températures mérite que l’on s’y arrête. Quelle est donc cette température que nous examinons ? Ce ne peut certainement pas être la température moyenne de surface :
faire la moyenne des températures d’endroits aussi différents que la Death Valley 8 et le mont Everest 9 n’a pas plus de sens que faire la moyenne des numéros de téléphone d’un annuaire téléphonique, pour ceux qui se rappellent encore ces annuaires.
Ce que l’on calcule est la moyenne de ce que l’on nomme des « anomalies ».
On prend des moyennes sur trente ans des températures d’une station météorologique donnée et on calcule les écarts à cette moyenne sur trente ans, appelés « anomalies ». Et ce sont ces « anomalies » qui sont moyennées sur tout le globe. Le seul exemple que je connaisse de travail illustrant les étapes de ce processus a été publié par feu Stan Grotch du Lawrence Livermore Laboratory.
Le plus grand nombre des scientifiques conclurait qu’il y a là entre les stations une forte compensation des anomalies et que le résultat est une compensation presque complète. Pourtant, pour éviter cette conclusion, on dilate l’échelle des températures par un facteur de presque dix pour rendre- en apparence – plus significatifs les changements minuscules vus sur la figure 1-b.
Le résultat est montré à la figure 1-c. Il y a beaucoup de bruit aléatoire sur cette figure 1-c et ce bruit donne une bonne idée des incertitudes de cette analyse (en gros +/- 0,2°C). Les présentations habituelles montrent des figures beaucoup plus lisses. Parfois, ce lissage découle de l’application d’une moyenne mobile. C’est aussi le cas des données employées par Grotch en provenance du UK Meteorological Office, données relatives aux stations à terre
L’inclusion des données relatives aux océans conduit à des séries plus lisses mais l’exactitude des données en est plus mauvaise parce que les données océaniques mélangent des techniques de mesure tout à fait différentes : pour les navires anciens, mesure de la température de l’eau dans un seau jeté à la mer et ramené à bord, après la première guerre mondiale, mesures aux prises d’eau de mer servant au refroidissement des moteurs, puis mesures satellitaires de la température de peau de l’eau de mer – fort différente de la température de surface-, et enfin, températures mesurées par des bouées.
Ces difficultés sont résumées sur la figure 2 qui présente l’allure schématique, idéalisée, des observations de température et de leurs incertitudes. Nous voyons bien qu’à cause de l’arrêt de la croissance des températures en 1998, 18 des 18 années les plus chaudes de la série des températures ont, sur ce schéma, été les 18 dernières années.
Notons encore que l’incertitude et la petitesse des changements laissent une grande latitude pour faire des ajustements et des corrections qui peuvent modifier radicalement l’allure du graphe de la série; l’incertitude n’est que rarement reportée sur ces graphiques.
Rendu à ce point on sera probablement confronté à des discussions sur les détails des mesures de température, qui ne feront que brouiller plus encore les cartes -ou « rendre l’eau plus boueuse »- si je puis dire.
Mais rien ne peut changer au fait que les changements de température dont on parle sont petits. Cette « petitesse » est bien sûr relative. Voyons trois façons de l’évaluer, trois approches.
Approche 1
La figure 3 montre les variations de température à Boston sur une durée d’un mois (du 9 février au 11 mars).
Les bandes verticales en bleu foncé montrent pour chaque jour la plage des températures observées; les barres en gris foncé donnent pour ce jour-là les moyennes « climatologiques » des températures min et max de la journée, et les barres en gris clair les records de froid et de chaud pour cette même journée. Au milieu court une ligne rouge dont la largeur correspond à la plage de variation des températures moyennes globales sur les derniers 175 ans.
Voila qui suffit à montrer que les changements de température dont on parle sont petits en comparaison des changements que nous ressentons couramment. Conservons ça en tête pour le cas où on vient nous dire que l’on « ressent » physiquement le « réchauffement global ».
Approche 2
La mesure qui suit est une comparaison entre le changement observé et celui que l’on nous dit attendre du « réchauffement par effet de serre ». Le CO2 n’est pas le seul gaz à effet de serre produit par l’homme. En prenant en compte tous ces « gaz à effet-de-serre », le GIEC/IPCC des Nations Unies trouve que nous en sommes juste au « forçage radiatif » attendu pour un doublement des teneurs de l’atmosphère en CO2; mais l’augmentation observée des températures n’a été que d’environ 0,8°.
Si donc les émissions du fait de l’homme étaient responsables de tout le changement de température des derniers 60 ans, la « sensibilité climatique » serait bien moindre que celle supposée par ceux des « modèles » dont la « sensibilité » est la plus faible; cette « sensibilité climatique » est définie comme l’accroissement de la « température mondiale moyenne » découlant d’un doublement de la teneur de l’air en CO2; elle est dite être entre +1,5°C et +4,5°C 10.
Avec une sensibilité faible, pas de problème ! Et comme l’IPCC/GIEC nous assure que l’homme n’est responsable que du « gros » du réchauffement observé, la sensibilité pourrait être plus faible encore.
La situation n’est peut-être pas si simple, mais le calcul montre que pour des modèles ayant une forte sensibilité on en est réduit à compenser une partie -et parfois une très grosse partie- du « forçage radiatif » par ce que l’on prétend être un refroidissement par des aérosols inconnus, réglés pour que le modèle ne s’écarte pas trop des observations des décennies passées. Un article récent dans le Bulletin de l’American Meteorological Society, intitulé The Art and Science of Climate Model Tuning (L’art et la science du réglage des modèles climatiques) 11 montre qu’il y a en réalité un très grand nombre de réglages arbitraires pratiqués sur les modèles pour qu’ils ne s’écartent pas trop des observations passées.
Et mieux l’on connaît le forçage par les aérosols, plus des sensibilités climatiques fortes deviennent invraisemblables. Voilà qui est bien en accord avec le fait que les modèles qui nous prédisent un « réchauffement climatique dangereux » montrent tous un réchauffement bien plus fort après la période de calibration12.
C’est à dire que le réchauffement observé est petit par rapport à ce que nous prédisent ces modèles à l’origine de nos angoisses. C’est ce que montre la figure 4.
Comme je l’ai déjà dit, les incertitudes sur les observations permettent de leur appliquer des « ajustements » importants. Un cas tristement célèbre est celui des « ajustements » faits par la NOAA 13 publiés dans un article de Karl et al. pour remplacer la « pause » par la poursuite d’un réchauffement. Mais il a été facile de montrer que, même avec cet « ajustement », les modèles montrent toujours bien plus de réchauffement que les séries des observations, même « ajustées ».
De plus, la plupart des articles parus sur ce sujet réfutent l’ajustement fait par Karl et al. qui, par hasard sans doute, a été publié avec force publicité juste avant la conférence de Paris sur le climat (fin 2015).
Approche 3
La troisième approche est quelque peu différente. Au lieu d’argumenter que le changement n’est pas si petit que ça, on dit que le changement est « sans précèdent ».
C’est ce que voulait montrer la tristement célèbre « crosse de hockey » 14 de Michael Mann. Michael Mann a employé des cernes de croissance de troncs d’arbres de l’espèce de pins Bristlecone 15 qui permettent des estimations de la température dans l’hémisphère nord remontant sur des siècles. Il a calibré les données des cernes de croissance avec les observations des stations météorologiques de surface sur une période de trente ans et employé cette calibration pour réévaluer les températures d’un passé distant de façon à faire disparaître la période médiévale chaude (ou « optimum climatique médiéval »).
Cette reconstruction montrait des températures « plates » sur le dernier millénaire. Les tests habituels pour cette procédure sont de vérifier si les observations postérieures à la période de calibration sont correctement retrouvées … mais il n’était pas possible de retrouver le réchauffement montré par les stations météo de surface. La solution apportée à cette difficulté a été absolument simple et stupide : la série d’observations tirée des cernes d’arbres a été coupée à la fin de la période de calibration et a été remplacée par les observations des stations météo de surface.
Dans les mails du « Climategate » (Climategate est le nom donné à la publication d’un très grand nombre de courriers électroniques envoyés par divers scientifiques « climato-alarmistes » discutant entre eux sur la meilleure façon de supprimer les opinions différentes des leurs, de faire disparaître les observations qui les gênent, d’intimider les éditeurs de revues scientifiques, de manipuler les données d’observation, etc.), cette opération est appelée « Mann’s trick » ou tour de passe-passe de Michael Mann.
Toute la discussion qui précède visait à souligner que ce qui compte n’est pas le réchauffement lui-même mais son ampleur. Il faut absolument éviter la tendance habituelle des « environnementalistes » à prétendre que tout ce qui pourrait être mauvais en grande quantité ou à grande échelle doit être à tout prix évité si faible que soit le phénomène réel.
En réalité, un peu de réchauffement serait fort bénéfique et pour bien des raisons.
Si vous avez assimilé ce qui précède vous serez capable d’analyser les annonces faites dans les médias et de constater que, malgré des excès rhétoriques, l’auteur de l’annonce ne dit pratiquement rien, et même, souvent, présente faussement ce qu’affirme l’IPCC/GIEC.
Le mantra ou « meme » ou poncif des événements météorologiques extrêmes
Tout prévisionniste météo de base sait que des événements extrêmes se produisent quelque part sur le globe pratiquement tous les jours. La tendance actuelle à attribuer au changement climatique ces événements qui se produisent tout normalement est évidemment très malhonnête.
Roger Pielke Jr. a écrit un livre 16 détaillant ce fait d’observation qu’il n’y a, pour chaque type d’événement extrême (dont les tornades, les ouragans, les sécheresses, les inondations, etc.), aucune tendance à l’augmentation du nombre d’occurrences et même, en fait, pour certains types d’événements une moindre fréquence.
Même l’IPCC/GIEC des Nations Unies a reconnu qu’il n’y avait aucune raison d’attribuer ces événements au « changement climatique anthropique ». 17
Le mantra des températures extrêmes contredit en fait et les observations et les fondements de la météorologie.
Des températures extrêmes se produisent en un lieu quand le mouvement de l’air y transporte de l’air venant des zones de la carte les plus froides ou les plus chaudes. Dans un « climat plus chaud » on doit s’attendre à une moindre différence de température entre les tropiques et les hautes latitudes. Ce qui nécessairement réduit la dynamique entre les températures extrêmes.
De plus et c’est important, les mouvements qui transportent ces masses d’air viennent d’un processus appelé instabilité barocline, qui elle même découle de la différence des températures entre tropiques et hautes latitudes.
Et donc, dans un monde plus chaud, ces vents seront plus faibles et moins susceptibles de transporter sur de longues distances des masses d’air à des températures extrêmes.
Les affirmations sur la venue de températures extrêmes plus fortes ignorent simplement la physique de base et ne sont acceptées ou admises que parce que l’auditoire est ignare.
Ces affirmations sur les événements météorologiques extrêmes transcendent l’utilisation habituelle d’affirmations trompeuses. Elles correspondent très souvent à l’opposé exact de ce qui se passe en réalité.
L’objectif est d’être aussi terrifiant que possible, et tant pis s’il faut affirmer l’exact opposé de la réalité !
La montée du niveau des mers
En moyenne globale, le niveau des mers a, depuis un millénaire, monté d’environ 15 cm par siècle. Avant les satellites la mesure se faisait avec des marégraphes qui enregistrent le niveau de l’eau par rapport au niveau du sol.
Malheureusement le niveau du sol change aussi, et comme le notent Emery et Aubrey dans leur livre18, c’est la tectonique qui, en bien des endroits, est la principale cause de changement du niveau relatif de l’eau et de la terre.
En 1979 on a commencé à employer des satellites pour mesurer le niveau réel des mers. Les résultats ont été fort proches des estimations tirées des marégraphes, légèrement plus forts, mais Wunsch et al.19 montrent que personne ne peut dire que les petites différences dues au changement de méthode de mesure représenteraient une accélération de la montée du niveau des mers 20.
Quoiqu’il en soit, les changements sont fort petits en comparaison des affirmations qui veulent suggérer un changement climatique catastrophique.
Pourtant, au début des années 1980 déjà, des alarmistes tels que St. Schneider ont compris que le niveau des mers serait un moyen tactique commode, facilement compris, pour susciter de la peur. Que des personnes comme Al Gore et Susan Solomon (naguère chef du WG1 Scientific Assessment (évaluation scientifique) du GIEC/IPCC) aient lourdement investi dans des propriétés en bord de mer montre bien que le sujet est un thème de propagande et non pas une question scientifique.
La banquise arctique 21
Des satellites observent la banquise arctique (et l’antarctique aussi) depuis 1979. Chaque année voit un cycle annuel très prononcé : la couverture, quasi-totale en hiver est, en été, fortement réduite. Depuis 1979 il y a eu une tendance significative à la diminution de la banquise d’été (et l’inverse en Antarctique), mais ces dernières années, la couverture en fin d’été s’est apparemment stabilisée.
Pour discuter de changements climatiques, une durée de 40 ans est, bien sûr, plutôt courte. Cependant on a vu des tentatives – inévitables- d’extrapolation de tendances observées sur des périodes courtes à l’appui d’affirmations que l’Arctique devrait être déjà libre de glaces. Évidemment extrapoler des tendances observées à court terme n’est pas approprié.
Extrapoler les variations des températures de l’air proche de la surface observées entre l’aube et le crépuscule amènerait, en peu de jours, à un climat bouillant.
Extrapoler la surface estivale de la banquise arctique pourrait bien être tout aussi stupide.
De plus, quoique la couverture satellitaire soit incomparablement meilleure que ce que l’on avait avant, les données sont loin d’être parfaites. Les satellites peuvent confondre de la glace couverte d’eau de fonte avec une mer libre de glace. De plus, la température n’est pas la cause principale de la diminution de la banquise estivale. Cette banquise d’été est plutôt fragile et des changements de vents jouent un rôle important en expulsant la glace flottante des mers arctiques.
L’association entre changement de la banquise d’été et changement climatique est, en soi, douteuse. Les « modèles climatiques numériques » ne prédisent pas de façon claire ce qui est observé. On ne saurait donc dire que le comportement observé de la banquise confirme une quelconque de ces prédictions. 22
Des pressentiments sur la disparition de la banquise arctique ont été publiés en 192223 ce qui suggère que les phénomènes observés ne sont pas nouveaux. Les observations venaient alors du voisinage du Spitzberg. Un biologiste marin qui est aussi un activiste militant « pour le climat » a suggéré que ce n’était qu’un phénomène local, mais les éléments qu’il avance ne permettent pas de conclure. Entre autres, cet auteur a très soigneusement « trié » ce qu’il appelle des preuves.
Tout ce que l’on peut dire, à ce point, est que le comportement de la banquise arctique est l’un de ces nombreux phénomènes que nous offre la Terre, et pour lesquels nous n’avons ni une compréhension physique, ni de longues séries d’observations.
De plus l’ouverture du passage du nord-ouest (au nord du Canada) a longtemps fait rêver. Il est bizarre qu’on la considère maintenant comme terrifiante.
Bien sûr comme l’a noté Mencken 24 « Tout l’objectif de la pratique politique est de faire en sorte que la populace ait, en permanence, quelque chose à redouter et donc qu’elle réclame bruyamment qu’on assure sa sécurité. On lui fait croire à toutes sortes de menaces et de maléfices, la plupart imaginaires ».
Le mouvement environnementaliste a fait sienne cette tactique, bien au delà de ce que Mencken observait.
Le mantra ou « meme » ou poncif des ours polaires
J’ai tout lieu de penser qu’Al Gore a fait faire beaucoup d’études de type focus group 25 pour découvrir l’efficacité remarquable de l’idée que le changement climatique va mettre en danger les ours polaires.
L’usage qu’il a fait de l’image pathétique – à l’évidence fabriquée par Photoshop – d’un ours blanc sur un morceau de glace flottant 26 le suggère très fortement. Comme le souligne Susan Crockford27, spécialiste de l’évolution des ours polaires, la population des ours blancs a, dans le passé, diminué à cause de la chasse et de l’exploitation commerciale de leur fourrure. Des mesures de protection ont eu un plein succès et amené une augmentation des populations telle que la chasse a de nouveau été autorisée.
Il n’y a aucune indication, aucune preuve, que les changements de la banquise arctique estivale aient eu un quelconque effet négatif sur les populations d’ours polaires : ces ours peuvent nager plus de deux cents kilomètres; on ne voit pas pourquoi moins de glace les gênerait.
Mais, pour la petite communauté d’experts des ours polaires, les inquiétudes propagées sur le « climat » ont eu un intérêt évident.
Le mantra ou « meme » ou poncif de l’acidification des océans
On a là encore une de ces affirmations pas claires qui semblent effrayantes mais ne résistent pas à l’examen.
Depuis la terreur fabriquée des « pluies acides » on a compris que le public est facilement manipulé et terrorisé par toute annonce avec le mot « acide ».
En réalité l’océan est basique et non pas acide (car son pH est toujours nettement supérieur à 7), et il est absolument impossible que des teneurs croissantes de l’air en CO2 réduisent à 7 (la neutralité) le pH de l’océan (rappel: le pH chiffre le caractère acide ou basique: un pH supérieur à 7 est basique, un pH inférieur à 7 est acide). Les changements imaginés renvoient à des pH océaniques -très- légèrement moins basiques.
Une description correcte des phénomènes ne susciterait nulle frayeur. Comme toujours, il y a tant d’erreurs et de faussetés dans cette affirmation d’une acidification des océans que les analyser demanderait un article assez long. Je recommande la source suivante:
Patrick Moore Ocean « acidification » alarmism in perspective, (Nov. 2015, 28 pages)
https://fcpp.org/sites/default/files/documents/Moore%20-%20Ocean%20Acidification%20Alarmism.pdf
Le mantra ou « meme » ou poncif de la disparition des récifs coralliens
La prétendue mort des récifs de coraux est en partie liée aux fables sur » l’acidification » exposées ci-dessus, et comme on le peut voir, la relation causale est presque exactement l’inverse de ce que l’on nous raconte.
Il y a aussi l’histoire selon laquelle le réchauffement lui-même causerait le blanchiment des coraux. On verra une présentation alarmiste typique dans :
http://www.nature.com/nature/journal/v543/n7645/full/nature21707.html.
L’accès en est payant mais la plupart des bibliothèques universitaires ont un accès à Nature.
Une réponse argumentée à ce papier est http://landscapesandcycles.net/falling-sea-level–bleached-great-barrier-reef.html
Jim Steele, l’auteur de cet article, explique que le blanchiment a des causes autres que le seul réchauffement et n’est pas du tout l’annonce de la mort des coraux qui ont les moyens de récupérer. L’article http://www.breitbart.com/big-government/2017/04/10/delingpole-gullible-fools-believe-great-barrier-reef-dying/ est un peu polémique mais, sur le fond, est correct.
Le réchauffement climatique, cause de tout et de n’importe quoi
Comme on vient de le voir, il y a une tendance à rendre le réchauffement climatique responsable de tout ce qui est déplaisant. Nous allons voir plus loin encore une illustration de ces absurdités.
Ça n’a pas empêché l’Environment Protection Agency américaine d’employer ce genre d’argument pour affirmer que sa politique de » lutte contre le changement climatique » aura des effets sanitaires bénéfiques.
Devant tant d’affirmations je crains le » à quoi bon ? » Personne n’a assez de temps et d’énergie pour réfuter ce très grand nombre d’affirmations.
Heureusement beaucoup sont, de toute évidence, absurdes. La revue Nation a publié récemment ce que l’on a sans doute écrit de mieux dans ce genre :
Juan Cole (18 avril 2017) : Cet autre gaz toxique qui tue des Syriens: les émissions de dioxyde de carbone.
Si Trump et ses sbires s’intéressaient vraiment aux enfants tués par des gaz toxiques, ils n’essaieraient pas de rejeter plus encore de CO2 dans l’atmosphère https://www.thenation.com/article/the-other-poison-gas-killing-syrians-carbon-dioxide-emissions/
Le CO2, notons le d’abord, n’est pas du tout toxique. Au contraire le CO2 est essentiel à la vie sur notre planète et des teneurs aussi élevées que 5000 ppm sont, dans nos sous-marins, considérées comme sans danger.
L’article de Nation est typique en ce qu’il énonce en peu de lignes beaucoup d’affirmations très bizarres. Il argumente qu’ « un emballement de l’effet de serre » amène sur Vénus des températures de surface supérieures à la température de fusion du plomb 28. Pourtant personne n’affirme que la Terre puisse être sujette à un tel « emballement ».
La planète Mars dont l’atmosphère a trente fois plus de CO2 que la Terre est plus éloignée du Soleil et a une surface fort froide.
Mais comme nous venons de le voir, bien souvent, la réalité est sans importance pour ceux qui font de terroriser le public leur activité principale.
Remarques pour conclure
Une accumulation d’affirmations fausses et/ou trompeuses est souvent appelée » preuve irréfutable » de la catastrophe qui va arriver.
Sans ça, on pourrait légitimement se demander s’il y a même seulement une preuve.
Quoiqu’il en soit, le changement climatique sert de justification à de nombreuses politiques publiques qui presque toutes semblent avoir fait beaucoup plus de mal que le supposé changement climatique (voir http://www.thegwpf.com/every-climate-initiative-imposed-on-us-by-politicians-has-ended-in-disaster/) et vont évidemment faire encore bien plus de mal.
Le mieux que l’on puisse dire de ces efforts est qu’il est reconnu par tous que, malgré leur coût immense, ils n’ont que fort peu d’effet sur les teneurs de l’air en CO2 et sur les températures. Voilà plutôt une bonne nouvelle, car il y a bien des preuves que ces changements des teneurs de l’air en CO2 et des températures ont des effets bénéfiques, tandis que l’énorme gaspillage d’argent n’est pas du tout bénéfique.
Je n’ai pas passé beaucoup de temps sur les détails de la science, mais voici un point qui devrait exciter l’esprit critique de tout lecteur intelligent : le système que nous considérons est constitué de deux fluides turbulents en interaction, l’air et l’eau; ils couvrent une planète en rotation qui reçoit du soleil une quantité de chaleur variable selon la latitude. Le constituant vital de l’atmosphère est l’eau sous ses phases liquide, solide et vapeur et les changements de phase ont d’énormes conséquences.
Le bilan énergétique de ce système implique l’absorption et la réémission d’environ 200 Watt par mètre carré. Un doublement de la teneur en CO2 modifierait ce budget de 2% environ.
Mais des modifications très mineures de la couverture nuageuse et d’autres caractéristiques encore ont le même effet, et ces modifications se produisent tous les jours.
Dans ce système complexe avec un grand nombre de facteurs, quelle vraisemblance y a-t-il que le climat (qui lui-même découle d’un grand nombre de variables et non pas seulement d’une anomalie des températures calculée en moyenne globale) soit piloté par la perturbation de 2% d’une seule variable ?
Le croire serait quasiment croire en la magie. Mais on vous dit que c’est croire en la « Science ».
Cette affirmation devrait vous prévenir qu’il y a là quelque chose qui ne va pas.
La Science est en effet une façon de poser des questions et non pas un système de croyances !
Richard Lindzen est Professeur des Sciences de l’atmosphère, titulaire de la chaire Alfred P. Sloan, Emérite, au Massachusetts Institute of Technology.
Le traducteur a cru bon d’ajouter des notes à l’usage du lecteur francophone, pour préciser quelques points ou faciliter l’accès aux références. Ces indications sont signalées comme « Note du Traducteur » NdT.
1 NdT R. Lindzen emploie le mot « meme » qui désigne un élément culturel reconnaissable, répliqué et transmis par l’imitation du comportement d’un individu par d’autres individus. (Source : http://www.linguee.fr/francais-anglais).https://fr.wikipedia.org/wiki/M%C3%A8me
2 Commentaire publié le 26 mai 2014
Voir aussi
http://www.drroyspencer.com/2014/05/ill-see-your-97-percent-and-raise-you-3-percent/
https://wattsupwiththat.com/2014/05/30/the-myth-of-the-97-climate-change-consensus/
https://www.cfact.org/2014/05/30/the-myth-of-the-97-climate-change-consensus/
» For the record, of the nearly 70,000 peer-reviewed articles on global warming published in 2013 and 2014, four authors rejected the idea that humans are the main drivers of climate change. The atmospheric carbon concentration is 44 percent higher than it was in pre-industrial times (and rising), and 2016 was the planet’s hottest year ever, breaking the previous record holders 2015 and 2014. »
4 La « Sun Belt » (en français la « Ceinture du Soleil ») se compose des États du Sud et de l’Ouest des États-Unis présentant un dynamisme économique, un cadre de vie et une zone ensoleillée agréable (wikipedia).
5 NdT Pour la série des mesures satellitaires de la basse troposphère en moyenne globale dite RSS/MSU et publiée par REMS la meilleure approximation linéaire de janvier 1999 à décembre 2015 est 0,23°C -0,00046 (t-1999) soit moins 0,046°C par siècle équivalent à une totale absence de réchauffement (aussi appelé « pause » ou hiatus » du réchauffement); sur janvier 1999 à décembre 1997 cette meilleure approximation linéaire est -0,03°C + 0,0082 (t-1979) soit +0,82°C par siècle. Les années 1998 et 2016 sont celles de deux grands El Niño avec certains mois à plus de 0,7°C par rapport aux mêmes mois des années antérieures.
6 NdT Après le grand El Niño de 2016, les températures « mondiales moyennes » sont en février 2017 revenues -ou presque- à leur valeur moyenne sur 1999-2015. Ci-dessous le tracé de deux séries des anomalies des températures « mondiales » moyennes RSS-MSU de la basse troposphère et HadCRUT de la surface. Elles n’ont pas la même référence et sont décalées entre elles de quelques dixièmes de degré : moyennes sur 1999-2015 de 0,26°C pour la première et de 0,49°C pour la seconde.
7 NdT Les réchauffements très comparables observés de 1860 à 1878 et de 1920 à 1941 ne sauraient être attribués aux « émissions anthropiques » venant de combustibles fossiles car ces émissions étaient alors extrêmement faibles (de 100 à 200 M t-C/an vers 1870, 1000 M t-C/an vers 1940) comparées à celles de 1978-1998 (6000 M t-C/an), elles mêmes de l’ordre de 3% des dégazages annuels naturels de CO2 par les océans (en zone intertropicale) et par les sols (de l’ordre de 160 000 M t-C/an).
8 NdT Vallée de la mort en Californie, vers 36°N, avec des moyennes des températures maximales sur 24 heures atteignant 46°C en juillet.
9 NdT Températures moyennes au sommet (8848 m) de l’ordre de -35°C en hiver et -17°C en juillet.
10 NdT Cette plage dont les bornes sont dans un rapport un à trois a été décrétée en 1979 par une commission présidée par le météorologiste américain Jules Charney ; les dizaines de milliards de dollars dépensés depuis par les divers états pour le financement de la « recherche climatique » n’ont pas permis de mieux préciser cette fourchette qui figure encore et toujours dans le dernier rapport du GIEC (AR5, 2013).
Ce concept fait l’hypothèse que la modulation de la teneur en vapeur d’eau des hautes couches de la troposphère (celles d’où la vapeur d’eau rayonne effectivement vers le cosmos et assure) n’efface pas en quelques heures ou jours les effets des variations sur la même période des teneurs de l’air en CO2.
11 http://journals.ametsoc.org/doi/pdf/10.1175/BAMS-D-15-00135.1
12 NdT La période de calibration est par exemple de 140 ans (1850-1990) et les multiples paramètres ajustables sont ajustés pour que l’anomalie de la température moyenne global ne s’écarte pas trop des observations; la période de prédiction ira alors de1991 à, par exemple, 2100.
13 NdT La NOAA National Oceanic and Atmospheric Administration est une agence du département (ministère) du commerce des USA, chargée entre autres de la météorologie. Une enquête a été lancée par une commission du Sénat des Etats-Unis.
La revue Science a publié un article d’un journaliste visant à minimiser l’ampleur de la fraude : http://www.sciencemag.org/news/2017/02/how-culture-clash-noaa-led-flap-over-high-profile-warming-pause-study
Notons que les données et même les programmes de calcul employés par Karl et al. ont « bizarrement » disparu à cause « d’une panne d’ordinateur », ce en violation de toutes les procédures d’archivage des données et des programmes réglementées dans des institutions qui archivent de très gros volumes de données.
Ces procédures sont en partie décrites dans https://judithcurry.com/2017/02/04/climate-scientists-versus-climate-data/
14 NdT En anglais « hockey stick » ; le lecteur curieux trouvera une documentation complète sur le site
https://climateaudit.org/multiproxy-pdfs/ site tenu par le découvreur de cette fraude, ingénieur des mines et canadien, ce qui explique la référence au hockey sur glace.
15 NdT Aussi appelé Pinus aristata longaeva, il pousse entre 2100 m et 3700 m dans les montagnes de l’ouest des USA et a une longévité exceptionnelle, de 4000 ans à 5000 ans.
16 Roger Pielke Jr. The Rightful Place of Science: Disasters and Climate Change Paperback, 124 pages – November 1, 2014
17 http://www.ipcc.ch/report/srex/ MANAGING THE RISKS OF EXTREME EVENTS AND DISASTERS TO ADVANCE CLIMATE CHANGE ADAPTATION, 2012, Cambridge University Press, 582 pages (31 M Octets)
18 Emery K. O., Aubrey D. G. Sea Levels, Land Levels, and Tide Gauges, Springer, 1991, 237 pages
19 Carl Wunsch, Rui M. Ponte, Patrick Heimbach, Decadal Trends in Sea Level Patterns : 1993–2004 Journal of Climate, AMS, 15 Dec. 2007, pp. 5889-5911
Extrait du résumé: » Estimates made here produce a global mean of about 1.6 mm yr−1, or about 60% of the pure altimetric estimate, of which about 70% is from the addition of freshwater. »
20 NdT Les marégraphes équipés de GPS de haute précision permettent des calculs du mouvement du sol et du niveau des mers et même de la variation de la quantité d’eau.
Voir articles du professeur Guy Wöppelmann: http://marine-climate.uib.es/SLR2015/presentations/Woppelmann.pdf Wöppelmann, G. et al. Rates of sea-level change over the past century in a geocentric reference frame. Geophysical Research Letters 36: 10.1029/2009GL038720.
Autres articles sur http://www.co2science.org/articles/V12/N40/C1.php
21 NdT Voir par exemple http://www.climate4you.com/SeaIce.htm pour des graphiques des ces surfaces de banquise
22 NdT Depuis 1980 les modèles prédisent, pour un doublement de la teneur de l’air en CO2, en Arctique, +12°C en hiver, mais seulement +2°C en été. Les observations pour la basse troposphère polaire (série UAH MSU v6) sont rapportées aux figures ci-dessous pour décembre et pour janvier.
Les +12°C en hiver dits par les « modèles » pour un doublement de la teneur en CO2 donnerait, sur ces mois d’hiver, sur 1978-2017, selon les formules usuelles 12°C ln(403 ppm / 335 ppm) / ln(2) = + 3,2°C … qui ne sont pas du tout observés sur les figures ci-dessus !
23 https://docs.lib.noaa.gov/rescue/mwr/050/mwr-050-11-0589a.pdf
You ask, I provide. November 2nd, 1922. Arctic Ocean Getting Warm; Seals Vanish and Icebergs Melt.
24 NdT Henry Louis Mencken (1880-1956) journaliste américain
25 NdT Dans le monde du marketing, les focus groups, ou réunions de consommateurs, sont perçus comme des outils privilégiés afin de procéder à une analyse concernant les nouveaux produits et services.
Le focus groupe permet aux entreprises qui le désirent de développer, tester et discuter des noms, des matériaux de conditionnement, des emballages, avant de les commercialiser. Cette démarche permet aussi de recueillir des informations sur le potentiel du marché et la réaction du public, pour que le produit ou service, soit largement accepté. (Wikipedia)
26 http://www.istockphoto.com/fr/photo/dernier-ours-polaire-gm135183496-4095333
27 Son site est https://polarbearscience.com/
28 NdT La température de fusion du plomb est 327°C.
La température de surface de Vénus, 462 °C, est une conséquence de la masse de son atmosphère 100 fois celle de l’atmosphère de la Terre.
La relation entre température et pression T/Tref = (P/Pref) R/(Cp+|Ch|) vaut sur Terre T/ (255 K) = (P/(0,53 atm))0,19 et sur Vénus T/(243 K) = (P/(0,1 atm))0,16 avec en surface une pression P=1 atmosphère sur Terre contre P= 92 atmosphère sur Vénus.
Les 255 K et 243 K sont les Tref , températures équivalentes de rayonnement de la couche qui assure le gros du rayonnement de la planète vers le cosmos et Pref la position de ces couches, respectivement vers 5 km et vers 60 km. Le gradient de température, g/(Cp+ |Ch|) entre cette couche et la surface est de 6,5 °C/km sur Terre et de 8,2 °C/km sur Vénus, d’où les températures de surface de 255 + 5 x 6,5 = 287,5 K (14,4 °C) sur Terre et 243 + 60 x 8,2 = 735 K (462 °C) sur Vénus.
Pop…
L’éditeur Merion West nous a prié de mentionner : « Please feel free to share this article on your websites and social media accounts. We would appreciate if you credit Merion West as the place of original publication » :
http://merionwest.com/2017/04/.....te-change/
pierreb1 (#2),
Je viens de le mentionner en tout début.
C’est une Rolls cet article.
J’adore.
Oui, bon article.
Mais d’où sort la NdT 28 ?
Je présume que ça:
doit plutôt se lire T/Tref = (P/Pref) ^ ( R/Cp) pour la relation entre T et P dans une détente ou compression adiabatique
(P/Pref) doit y être « élevé à la puissance » (R/Cp)
Et IChI représente quoi ?
tsih (#5),
A priori ce doit être une unité semblable à une capacité calorifique mais je n’ai pas d’autre indication.
Le texte de Camille Veyres est disponible sur le lien suivant:
https://static.climato-realistes.fr/2017/05/Lindzen-Richard-trad-Veyres-def.pdf
Il y a très peu de différences avec cet article. Seuls les liens ont été ajoutés et sinon il n’y a pas de retouche profonde du texte.
Merci d’avoir partagé cet article
C’est une excellente synthèse argumentée pour approcher le sujet avec un public non averti
Bernnard (#1),
bizarre!
Climat : le nombre de morts en Europe pourrait bondir à cause du réchauffement
http://www.francetvinfo.fr/met.....14942.html
Daniel (#9),
Selon le modele utilise par les scientifiques…
L’anne prochaine le modele calculera 300 000 morts et dan s10 ans ce sera des millions…
L’inflation climatique quoi…
AntonioSan (#10),
J’aime bien le commentaire d’un des lecteurs de l’article…
» Jerry Khan
Souhaitons que les premières victimes seront les climato sceptiques.
Le 05/08/2017 à 13:47″
N’oublions pas d’ajouter dans les calculs de nos MM (millions de morts) quelques unités supplémentaires. Je pense à ces pauvres refugiés climatiques venus d’Afrique ou d’Asie et qui croient trouver en l’Europe un asile à la folie humaine. De Charybde à Scylla car l’enfer sera partout, pauvres pêcheurs que nous sommes.
Daniel (#9), J’admire la précision des calculs : 151500 morts par ci, 233 (!) morts par là, +138%, etc
J Jouzel vient de commenter la catastrophe qui devrait arriver.sur France Inter a 19 h……
Plus de 50 degré Celsius promet il pour nos contrées en été !
https://www.franceinter.fr/monde/climat-les-dereglements-pourraient-faire-152000-morts-par-an-en-europe
Daniel (#9), Vu le vieillissement de la population européenne, on peut penser qu’il s’agit de projection sur des décès anticipés : au lieu de mourir en hiver du froid, de l’humidité et des maladies opportunistes, (ou de dépression à cause des journées raccourcies), ils mourront 6 mois plus tôt…
Je rappelle que les chiffres des décès pour 2003 en Europe ont été estimé jusqu’à 70 000. Et je ne suis pas d’accord avec l’Inserm qui affirmait qu' »il n’y a pas eu de réduction compensatrice de la mortalité dans les semaines et les mois qui ont suivi la forte mortalité d’août 2003, parmi les populations les plus fragiles.« , car bien sûr, il faut comparer des causes comparables (ici, l’été contre l’hiver, donc plus que « les mois suivants »).
chercheur (#11),
Christial (#12),
shayabe (#13),
Ces précisions et commentaires sont fait au mois d’août de l’année 2017, année au cours de laquelle nous avons vu en janvier une donnée mensuelle de mortalité annuelle pour 1000 habitants de 12%o, que nous n’avions pas vue depuis 1997 (20 ans). voir ici la courbe des données officielles depuis 1975 : https://dropcanvas.com/gru2o/143 et https://dropcanvas.com/gru2o/142 à jour jusqu’en juin 2017.
L’hiver 2017 est le deuxième hiver au caractère mortifère amplifié après 2015. Nous entrons dans la période froide annoncée en 2008 et 2009 par Mojib Latif et Keenleside. Comment peut-on être aussi aveugle à la réalité. Avril et mai ont été aussi plus mortifères que les dernières années, juin, plutôt moins, on ne peut mourir qu’une fois et en général pas de canicule en hiver ou au printemps.
chercheur (#11),
Christial (#12),
shayabe (#13),
Ces précisions et commentaires sont faits au mois d’août de l’année 2017, année au cours de laquelle nous avons vu en janvier une donnée mensuelle de mortalité annuelle pour 1000 habitants de 12%o, que nous n’avions pas vue depuis 1997 (20 ans). Voir ici la courbe des données officielles depuis 1975 : https://dropcanvas.com/gru2o/143 et https://dropcanvas.com/gru2o/142 à jour jusqu’en juin 2017.
L’hiver 2017 est le deuxième hiver au caractère mortifère amplifié après 2015. Nous entrons dans la période froide annoncée en 2008 et 2009 par Mojib Latif et Keenleside. Comment peut-on être aussi aveugle à la réalité ! Avril et mai ont été aussi plus mortifères que les dernières années, juin, plutôt moins, on ne peut mourir qu’une fois et en général pas de canicule en hiver ou au printemps.
amike (#15),
Je me souviens qu’en 2003, lorsque le pic de mortalité du mois d’août avait fait la une médiatique, on plaisantait au boulot en se disant que l’expression « il ne passera pas l’hiver » allait disparaître au profit de « il ne passera pas l’été ».
En lisant cet article tout à fait intéressant je me suis fait cette réflexion : « Si l’on pense que l’Homme est à l’origine du « réchauffement climatique » alors on pense que l’Homme est par nature mauvais pour la « biosphère globale » et qu’il faut donc contrôler l’Homme pour « minimiser son impact ». »
J’ai du mal à concevoir une pensé qui ne soit pas plus dangereuse que ça en terme de vies détruites.
En termes simples et accessibles, Lindzen montre les insuffisances de la théorie du RCA (au sens de Réchauffement Climatique Alarmiste ! ).
Je note un point que je n’avais pas relevé ailleurs pour ma part, comte tenu de l’ensemble des GES, nous sommes aujourd’hui arrivés au doublement dans l’atmosphère de la concentration en équivalent CO2.
L’augmentation de température attendue ( espérée?) n’est pas au rendez-vous des réchauffistes, loin s’en faut, seulement un maigre 0,8°C de sensibilité à laquelle il faut encore soustraire la part de la variabilité naturelle.
Heureusement tout n’est pas mauvais chez l’homme, c’est aussi un gros pollueur qui émet des tas d’aérosols dans l’atmosphère, s’ajoutant à ceux d’origine naturelle, et générant un forçage radiatif négatif. L’homme génère le poison et l’antidote, opportunité inespérée pour sauver la mise, provisoirement, à nos modèles climatiques qui seraient totalement hors des clous sans cette géo-ingénierie involontaire.
Combien ces forcages négatifs par aérosols ? Il suffit de lire les explications confuses et les barres d’estimation des différents rapports du GIEC pour s’apercevoir que c’est du pif, de rien à beaucoup.
Pas pour les modélisateurs du climat qui savent les calculer très exactement : c’est la compensation parfaite au forçage positif des GES pour que leur propre modèle colle au plus près des observations constatées.
Comme dirait Lindzen, c’est magique.
Christial (#19),
Même ça…
On en sait rien du tout. C’est de la conviction et de la spéculation, pas de la science.
Daniel (#9), AntonioSan (#10), chercheur (#11),
Moi, je l’ai lu dans la news de l’Obs, et je croyais (naïvement) que c’était un article de l’Obs;
Du coup j’ai laissé un commentaire, disons… énervé.
Quelques commentaires ne sont pas piqués des vers (dans les « deux sens » ).
http://actualites.nouvelobs.co.....D-20170806
tsih (#5),
penser à le demander à Camille… et j’espère que vous êtes physicien ou que vous avez de très bonnes notions en physique !
(Ceci est plus un « cri » admiratif pour Camille, car je suis pour ma part proche de zéro en physique, mais j’essaie de me « soigner », notamment grâce aux intervenants sur ce site)
Murps (#21),
C’était la rubrique Magie, pas la rubrique Science.
patilleverte (#22),
Bah, il paraît que certainsgaz et poussières tuent 250 000 personnes par an en Europe … Actuellement !
Va falloir qu’ils se décident sur la répartition des causes de mortalité ….
http://www.lemonde.fr/planete/....._3244.html
Araucan (#25), oui, oui, bien sûr.
D’ailleurs régulièrement les médecins signent des actes de décès avec la mention « mort prématurée par cause de pollution de l’air ».
Et souvent, me promenant dans la rue, j’aperçois des passants qui s’effondrent dans d’atroces douleurs en se tenant la gorge. Quant à moi, je ne sors pas sans un masque à gaz et une bouteille d’oxygène à portée de main.
Heureusement qu’il y a des gens lucides et informés qui se battent pour notre sécurité :
Le méthane, un polluant qui contribue à la constitution de l’ozone, autre polluant terrifiant qui détruit notre production agricole.
Salauds d’Etats ! Ils se moquent des morts prématurés et ont surtout peur de la contrainte.
Mais un autre monde est possible et on va se battre pour faire plier les forces du mal, tous ensembles on peut y arriver…
La question qui me turlupine est de savoir quand trouvera-t-on des gens capables de contredire ces délires de fumeurs de joints ?
Murps (#26),
J’ai cru que c’était une blague. Je ne savais pas que le méthane était un précurseur de l’ozone.(en présence de NOx).
Malheureusement, ces salauds d’agriculteurs, inquiétés par une éventuelle augmentation de leur production agricole, ont obtenu que ce terrifiant problème perdure.
Pour une mise en perspective de l’ampleur du petit ruisseau de CH4 qui vient alimenter le fleuve ozone :
C’est pour la région de Bruxelle.
Mine de rien, à la louche, dans le cas d’un effet linéaire sans seuil, si les 250000 morts évoqués par Araucan sont juste, le méthane tue 500 personnes par an en Europe. Et c’est sans même compter les morts qu’il provoque à cause du réchauffement ou en détruisant la couche d’ozone !
Imaginez que vous croisiez un gars dans la rue qui s’effondre, terrassé simultanément par l’inhalation d’ozone, un coup de chaleur et un cancer de la peau.
PS : L’ozone naturel est bon pour la santé
Murps (#26),
Ils existent ! Il y a par exemple Jean de Kervasdoué et le professeur Didier Raoult.
Mais il y a intérêt à surveiller ses arrières et à être « propre », sinon ça peut faire mal :
http://www.lefigaro.fr/actuali.....-total.php
Sinon, le bon argument pour contrer ces délires, c’est l’augmentation de l’espérance de vie, y compris et surtout en Chine qui a pourtant de réels problèmes de pollution dans les villes:
Hug (#28),
Pour info, j’ai retrouvé cet article de Jean de Kervasdoué dans Le Figaro.
Hug (#29),
Article de décembre 2016 ; a-t-il seulement été « ré invité » à laisser de nouvelles réflexions aussi « hérétiques » ??
Hug (#28),
Ah ben oui, mais là, c’est comme pour le climat : quand ça va dans le « bon sens », c’est naturel et dans l’autre cas c’est à cause du RCA (de la pollution dans le cas de la Chine)
patilleverte (#22),
JP Bardinet y a laissé trois commentaires « critiques », c’est à dire bien tournés et argumentés.(sur news de l’Obs)
Araucan (#25),
http://www.euractiv.com/sectio.....-solution/
Nicias (#33),
Il faudrait que je retrouve les chiffres donnés par la Commission europénne pour la directive NEC …
Nicias (#33),
J.ai retrouvé les chiffres de la Commission européenne : 400 000 européens décèderaient de manière prématurée tous les ans .
http://europa.eu/rapid/press-r.....169_en.htm
Le dernier numéro de sciences et pseudo sciences contient un article sur les causes de mortalité. Il montre comment les statistiques publiées dans la presse n’ont aucune signification. Si je décède d’une crise cardiaque quel est le médecin qui peut affirmer que c’est à cause du climat et non à cause de mon mode de vie?
TrollDuke (#19), Quand Patrick Moore, co-fondateur de grinepisse, dit que le mouvement écologiste à glissé vers le totalitarisme anti-humain, on ne peut que le croire car c’est la raison qui l’a poussé à claquer la porte au nez de cette néo-multinationale. Car c’est bien ce qu’elle est devenue, une machine à fric basée sur le racket et qui ne produit rien à part de la littérature grise et des paranoïaques.
TRIBUNE
Climat : la France ferait bien de surveiller son empreinte
http://www.liberation.fr/debat.....te_1589058
Daniel (#38), donc, augmenter la part du nucléaire … non ?
Gilles des Landes (#39),
Exactement ! Surtout qu’il va en falloir des centrales pour alimenter les futures voitures électriques que nous promet (impose?) Nhulot.
A propos de la Figure numero 2 de l’article de Lintzer , il fait apparaitre une incertitude de +/- 0.1 degC sur les valeur de l’anomalie de temperature . Or sur ce que je vois ailleurs, on parle plutot de +/- 0.05 degC d’incertitude sur la valeur moyenne annuel d’anomalie de temperature.
Quelqu’un sait il que l est la valeur reference d’incertitude ?
BenHague (#41),
Pour la NOAA par exemple, l’anomalie de température est pour l’année 2007:
– dans le rapport 2007: 0.99°F
– dans le rapport 2011: 1.04°F
– dans le rapport 2013: 1.06°F
– dans le rapport 2015: 1.10°F
Moralité: les températures de l’année 2007 ont monté de 0.11°F (env. 0.06°C) en 8 ans (et d’ailleurs toutes les températures des dernières années montent … ). Donc votre question n’était pas correctement formulée. Une température récente ne peut que monter (pour les anciennes, c’est l’inverse), donc l’incertitude s’exprime sous la forme -0/+x°C. Concernant la valeur de x, tout ce qu’on peut en dire, c’est que x est beaucoup plus grand que toute valeur que pourrait avancer un scientifique sérieux !
Source 1: Article de WUWT (tableau au milieu de l’article)
Source 2: Analyses globales sur le site de la NOAA (en haut de la page, vous pouvez choisir l’année du rapport)
BenHague (#41),
Si quelqu’un connaissait l’incertitude, ce n’en serait plus une.
Plus sérieusement, Les courbes officielles de températures de surface ne sont pas construites avec des moyennes de températures, l’incertitude ne peut donc pas s’exprimer en °C. Ces courbes étant des intégrales des moyennes des pentes de tronçons réputés homogènes, l’incertitude principale devrait s’exprimer en °C/t. Pour donner une idée, les TLT calibrées pour la surface s’écartent des courbes globales GISS, HadCRUT, etc. d’environ 0.1 °C par décennie :
http://www.woodfortrees.org/pl.....fset:-0.35
Cette valeur est énorme mais, au fond, ce n’est pas vraiment une question d’incertitude.
papijo (#42),
Tout depend s’ils conservent la meme « baseline » entre chaque rapport. Par baseline , j’entend la moyenne de reference ( entre 19XX et 19YY). Si la baseline change et que c’est correctement documenté dans le rapport , il est normal de voir l’anomalie évoluer . Ce qui compte c’est la tendance (en degré par decade) , pas tellement la valeur absolue de l’anomalie : le changement de baseline n ímpacte pas la tendance mais seulement la valeur absolue de l’anomalie.
Le climatologue Jean Jouzel tire la sonnette d’alarme au JDD sur les risques du réchauffement climatique. Selon lui, la planète subira des conséquences dramatiques si les émissions de gaz ne sont pas stabilisées d’ici à 2020.
http://www.lejdd.fr/societe/re.....ir-3409817
Daniel (#45), ce qui est extraordinaire (et inquiétant venant d’une personnalité publique), c’est que l’objectif est inatteignable, quoi que l’on fasse. La France est déjà parvenue à stabiliser ses émissions (grâce au nucléaire… mais si on démantèle ça repartira à la hausse !), mais quid des grand émetteurs de CO2 dont on sait que certains ne pourront se déveloper sans augmentation sensibles des rejets…
Daniel (#45), Il y a 3 scénarios (les RCP…) prévus par les réchauffistes. Celui dont fait référence Jouzel est le pire et le moins probable selon leurs propres calculs, que lui même serait déplacé de ne pas croire !
Il est dans la vague de propagande par le délire catastrophiste qu’on constate actuellement (Cf Krugman, Hawking, Gore…),
Pire: la COP21 dans son application prévisible, serait la plus favorable au mauvais scénario puisqu’elle force les pays du sud-est asiatique à multiplier les centrales charbon avant 2030…
Un rappel historique des
prédictions catastrophiques fameuses…
Daniel (#45),
Si c’est Jouz qui le dit : Wouaf!!! Il y croit lui à sa boule de cristal !
BenHague (#44),
La NOAA nous dit:
Donc il n’est pas impossible que la moyenne des températures du 20ème siècle ait fortement varié depuis 2007 !
Daniel (#45),
La citation la plus amusante de Jouzel c’est celle-là:
Si maintenant les petites-filles de Jouzel « en parlent » déjà, c’est gagné, la réalité va sûrement se plier aux désirs de leur grand-père et accepter d’alimenter en énergie aussi « renouvelable » que « propre » une civilisation de 7+ milliards d’humains, en violant au passage allègrement les lois de la physique.