L’article original a été publié par Merion West
Traduction: Camille Veyres et Scaletrans
Par Richard Lindzen, le 25 avril 2017
Introduction
Voilà plus de trente ans que je donne des conférences sur la « science du changement climatique ».
Quand je parle à un auditoire de non-experts et essaie de leur expliquer des choses comme la sensibilité climatique, le lien entre l’anomalie de la température moyenne mondiale et les « événements météorologiques extrêmes », ou encore que le réchauffement a, sur ces 18 dernières années, été presque négligeable ou très faible, etc., je puis sentir dans l’auditoire un réel manque d’intérêt et de compréhension.
Quelles que soient les preuves que je présente comme quoi il ne s’agit pas d’une catastrophe, mais d’un phénomène qui peut être plutôt bénéfique, je vois de l’incompréhension et de la perplexité.
On me demande comment c’est possible, puisque 97% des scientifiques sont d’accord, puisque les 18 dernières années ont été parmi les plus chaudes depuis 1880, puisque toutes sortes d’événements météorologiques extrêmes sont devenues plus fréquents, puisque les ours blancs sont en voie de disparition, tout comme la banquise arctique, etc. Pour faire bref il y a quantité de preuves d’un réchauffement.
J’étais moi-même plutôt surpris qu’on pût admettre ces affirmations sans fondement réel et parfois même tout à fait malhonnêtes; malheureusement, cela n’était, à vrai dire, pas évident pour mes auditoires.
Je vais, dans ce court article, essayer d’expliquer pourquoi ces affirmations sont en fait des preuves de la malhonnêteté des positions alarmistes.
Le mantra ou « meme » ou poncif des « 97% » 1
Cette assertion vient en réalité d’un titre de couverture d’un numéro de Newsweek de 1988 selon lequel « tous les scientifiques sont d’accord ». Cette assertion vise à donner au non-expert l’impression qu’il n’a nul besoin de comprendre la science. Exprimer son accord avec les 97% montrera que l’on est un « partisan de la science » et que l’on est supérieur à tous ceux qui « nient le désastre ». Voilà qui suffit aux besoins psychologiques de bien des gens. Cette assertion a été formulée par nombre d’individus et peut être présentée de diverses manières. Une démystification en a été donnée en détail par Bast et Spencer dans le Wall Street Journal 2.
Un des tours de passe-passe est de poser les trois questions « la teneur en CO2 de l’air de l’atmosphère a-t-elle augmenté ? « , « la Terre s’est-elle réchauffée (même un tout petit peu) ? » et « l’homme y est-il pour quelque chose ? ». Nous pouvons presque tous être d’accord avec ces affirmations, dont aucune n’implique quelque danger évident. Et pourtant, cet accord est prétendu valoir adhésion au catastrophisme !
Un autre tour de passe-passe est l’examen d’un grand nombre de résumés d’articles dont, en réalité, un petit nombre seulement signalent de réels dangers. Et si 97% de ce petit nombre adhèrent au catastrophisme, ce « 97% » est prétendu se rapporter au grand nombre de résumés !
Un de mes exemples favoris est l’affirmation récente 3 par le Christian Science Monitor (qui fut jadis un journal influent et respecté) : « Notons que des 70 000 articles sur le réchauffement climatique publiés en 2013 et 2014 dans des revues à comité de lecture, quatre auteurs seulement on réfuté l’idée que les humains sont les principaux moteurs du changement climatique ». Il n’est, je crois, nul besoin d’être un expert pour voir que cette affirmation est une bien étrange rêverie, de façon évidente et pour bien des raisons.
Même le groupe intergouvernemental des Nations Unies sur le changement climatique (Ce groupe en général appelé IPCC/GIEC a été créé par les Nations Unies pour évaluer de façon « scientifique » le changement climatique dû à l’action de l’homme.) n’est pas d’accord avec ce poncif.
Malgré tout, je suis un peu surpris qu’il y ait eu besoin des entourloupes que je viens de rapporter.
Depuis que la question du « réchauffement climatique » a, il y a trente ans environ, été mise sur la place publique – et a immédiatement été intégrée au catéchisme du « politiquement correct »-, le financement gouvernemental de ce domaine a crû énormément; ce financement a été fondé sur la croyance a priori en des effets catastrophiques. Aujourd’hui presque tous ceux qui travaillent dans ce domaine y sont entrés pour profiter de ces financements, et les gouvernements ont un monopole du financement de ce domaine.
On peut donc s’attendre à ce que tous ceux qui reçoivent ces financements se sentent obligés d’affirmer l’importance et la réalité du problème. Il est certain que s’y opposer serait suicidaire pour la carrière d’un jeune universitaire.
Et donc les études sur les « 97% » ont seulement à « bien » formuler les questions posées pour s’assurer de niveaux élevés de consentement à l’alarmisme, niveaux qui, si l’anonymat était garanti aux sondés, ne seraient peut-être pas aussi élevés qu’on le prétend.
Le mantra ou « meme » ou poncif des « années les plus chaudes depuis que l’on fait des mesures »
Cette affirmation toute simple cache des myriades d’erreurs. Dans ce genre de cas il est difficile de savoir par où commencer.
Comme dans toute manœuvre de diabolisation, on commence par la supposition ridicule que tout réchauffement, quel qu’il soit, et, ici, toute augmentation de la teneur de l’air en CO2, est mauvais et démontre que le pire va arriver bientôt. Nous savons pourtant que ces deux énoncés sont faux.
Les gens prennent leur retraite dans la Sun Belt 4 plutôt qu’en Arctique.
Du CO2 est insufflé dans les serres pour que les plantes croissent mieux et plus vite.
L’insistance sur « l’année la plus chaude depuis que l’on fait des mesures » semble essayer de répondre au fait que l’épisode de réchauffement observé entre 1978 et 1998 a visiblement cessé et que les températures sont quasi-constantes depuis 19985. Et donc si 1998 a été l’année « la plus chaude » toutes les années qui suivent le seront aussi.
Rien de cela ne contredit le fait que le « réchauffement » a cessé.
Pourtant beaucoup ont été amenés à croire que les deux affirmations ne peuvent être simultanément vraies.
Voilà qui suppose que le public est extrêmement crédule.
L’importance potentielle de la « pause » – et il est bien possible que ce ne soit pas une « pause » et que les températures se mettent à diminuer 6 – n’est jamais mentionnée et n’est que rarement comprise.
Son existence signifie simplement qu’il y a « quelque chose » qui est comparable au « forçage anthropique ».
Or l’attribution, par l’IPCC/GIEC de l’épisode de réchauffement de 1978 à 1998 (et de celui-là seulement 7) à une cause humaine repose sur l’hypothèse – incorporée dans les modèles – qu’il n’existe pas de processus naturel comparable au « forçage anthropique ».
La focalisation sur les seules séries de températures mérite que l’on s’y arrête. Quelle est donc cette température que nous examinons ? Ce ne peut certainement pas être la température moyenne de surface :
faire la moyenne des températures d’endroits aussi différents que la Death Valley 8 et le mont Everest 9 n’a pas plus de sens que faire la moyenne des numéros de téléphone d’un annuaire téléphonique, pour ceux qui se rappellent encore ces annuaires.
Ce que l’on calcule est la moyenne de ce que l’on nomme des « anomalies ».
On prend des moyennes sur trente ans des températures d’une station météorologique donnée et on calcule les écarts à cette moyenne sur trente ans, appelés « anomalies ». Et ce sont ces « anomalies » qui sont moyennées sur tout le globe. Le seul exemple que je connaisse de travail illustrant les étapes de ce processus a été publié par feu Stan Grotch du Lawrence Livermore Laboratory.
Le plus grand nombre des scientifiques conclurait qu’il y a là entre les stations une forte compensation des anomalies et que le résultat est une compensation presque complète. Pourtant, pour éviter cette conclusion, on dilate l’échelle des températures par un facteur de presque dix pour rendre- en apparence – plus significatifs les changements minuscules vus sur la figure 1-b.
Le résultat est montré à la figure 1-c. Il y a beaucoup de bruit aléatoire sur cette figure 1-c et ce bruit donne une bonne idée des incertitudes de cette analyse (en gros +/- 0,2°C). Les présentations habituelles montrent des figures beaucoup plus lisses. Parfois, ce lissage découle de l’application d’une moyenne mobile. C’est aussi le cas des données employées par Grotch en provenance du UK Meteorological Office, données relatives aux stations à terre
L’inclusion des données relatives aux océans conduit à des séries plus lisses mais l’exactitude des données en est plus mauvaise parce que les données océaniques mélangent des techniques de mesure tout à fait différentes : pour les navires anciens, mesure de la température de l’eau dans un seau jeté à la mer et ramené à bord, après la première guerre mondiale, mesures aux prises d’eau de mer servant au refroidissement des moteurs, puis mesures satellitaires de la température de peau de l’eau de mer – fort différente de la température de surface-, et enfin, températures mesurées par des bouées.
Ces difficultés sont résumées sur la figure 2 qui présente l’allure schématique, idéalisée, des observations de température et de leurs incertitudes. Nous voyons bien qu’à cause de l’arrêt de la croissance des températures en 1998, 18 des 18 années les plus chaudes de la série des températures ont, sur ce schéma, été les 18 dernières années.
Notons encore que l’incertitude et la petitesse des changements laissent une grande latitude pour faire des ajustements et des corrections qui peuvent modifier radicalement l’allure du graphe de la série; l’incertitude n’est que rarement reportée sur ces graphiques.
Rendu à ce point on sera probablement confronté à des discussions sur les détails des mesures de température, qui ne feront que brouiller plus encore les cartes -ou « rendre l’eau plus boueuse »- si je puis dire.
Mais rien ne peut changer au fait que les changements de température dont on parle sont petits. Cette « petitesse » est bien sûr relative. Voyons trois façons de l’évaluer, trois approches.
Approche 1
La figure 3 montre les variations de température à Boston sur une durée d’un mois (du 9 février au 11 mars).
Les bandes verticales en bleu foncé montrent pour chaque jour la plage des températures observées; les barres en gris foncé donnent pour ce jour-là les moyennes « climatologiques » des températures min et max de la journée, et les barres en gris clair les records de froid et de chaud pour cette même journée. Au milieu court une ligne rouge dont la largeur correspond à la plage de variation des températures moyennes globales sur les derniers 175 ans.
Voila qui suffit à montrer que les changements de température dont on parle sont petits en comparaison des changements que nous ressentons couramment. Conservons ça en tête pour le cas où on vient nous dire que l’on « ressent » physiquement le « réchauffement global ».
Approche 2
La mesure qui suit est une comparaison entre le changement observé et celui que l’on nous dit attendre du « réchauffement par effet de serre ». Le CO2 n’est pas le seul gaz à effet de serre produit par l’homme. En prenant en compte tous ces « gaz à effet-de-serre », le GIEC/IPCC des Nations Unies trouve que nous en sommes juste au « forçage radiatif » attendu pour un doublement des teneurs de l’atmosphère en CO2; mais l’augmentation observée des températures n’a été que d’environ 0,8°.
Si donc les émissions du fait de l’homme étaient responsables de tout le changement de température des derniers 60 ans, la « sensibilité climatique » serait bien moindre que celle supposée par ceux des « modèles » dont la « sensibilité » est la plus faible; cette « sensibilité climatique » est définie comme l’accroissement de la « température mondiale moyenne » découlant d’un doublement de la teneur de l’air en CO2; elle est dite être entre +1,5°C et +4,5°C 10.
Avec une sensibilité faible, pas de problème ! Et comme l’IPCC/GIEC nous assure que l’homme n’est responsable que du « gros » du réchauffement observé, la sensibilité pourrait être plus faible encore.
La situation n’est peut-être pas si simple, mais le calcul montre que pour des modèles ayant une forte sensibilité on en est réduit à compenser une partie -et parfois une très grosse partie- du « forçage radiatif » par ce que l’on prétend être un refroidissement par des aérosols inconnus, réglés pour que le modèle ne s’écarte pas trop des observations des décennies passées. Un article récent dans le Bulletin de l’American Meteorological Society, intitulé The Art and Science of Climate Model Tuning (L’art et la science du réglage des modèles climatiques) 11 montre qu’il y a en réalité un très grand nombre de réglages arbitraires pratiqués sur les modèles pour qu’ils ne s’écartent pas trop des observations passées.
Et mieux l’on connaît le forçage par les aérosols, plus des sensibilités climatiques fortes deviennent invraisemblables. Voilà qui est bien en accord avec le fait que les modèles qui nous prédisent un « réchauffement climatique dangereux » montrent tous un réchauffement bien plus fort après la période de calibration12.
C’est à dire que le réchauffement observé est petit par rapport à ce que nous prédisent ces modèles à l’origine de nos angoisses. C’est ce que montre la figure 4.
Comme je l’ai déjà dit, les incertitudes sur les observations permettent de leur appliquer des « ajustements » importants. Un cas tristement célèbre est celui des « ajustements » faits par la NOAA 13 publiés dans un article de Karl et al. pour remplacer la « pause » par la poursuite d’un réchauffement. Mais il a été facile de montrer que, même avec cet « ajustement », les modèles montrent toujours bien plus de réchauffement que les séries des observations, même « ajustées ».
De plus, la plupart des articles parus sur ce sujet réfutent l’ajustement fait par Karl et al. qui, par hasard sans doute, a été publié avec force publicité juste avant la conférence de Paris sur le climat (fin 2015).
Approche 3
La troisième approche est quelque peu différente. Au lieu d’argumenter que le changement n’est pas si petit que ça, on dit que le changement est « sans précèdent ».
C’est ce que voulait montrer la tristement célèbre « crosse de hockey » 14 de Michael Mann. Michael Mann a employé des cernes de croissance de troncs d’arbres de l’espèce de pins Bristlecone 15 qui permettent des estimations de la température dans l’hémisphère nord remontant sur des siècles. Il a calibré les données des cernes de croissance avec les observations des stations météorologiques de surface sur une période de trente ans et employé cette calibration pour réévaluer les températures d’un passé distant de façon à faire disparaître la période médiévale chaude (ou « optimum climatique médiéval »).
Cette reconstruction montrait des températures « plates » sur le dernier millénaire. Les tests habituels pour cette procédure sont de vérifier si les observations postérieures à la période de calibration sont correctement retrouvées … mais il n’était pas possible de retrouver le réchauffement montré par les stations météo de surface. La solution apportée à cette difficulté a été absolument simple et stupide : la série d’observations tirée des cernes d’arbres a été coupée à la fin de la période de calibration et a été remplacée par les observations des stations météo de surface.
Dans les mails du « Climategate » (Climategate est le nom donné à la publication d’un très grand nombre de courriers électroniques envoyés par divers scientifiques « climato-alarmistes » discutant entre eux sur la meilleure façon de supprimer les opinions différentes des leurs, de faire disparaître les observations qui les gênent, d’intimider les éditeurs de revues scientifiques, de manipuler les données d’observation, etc.), cette opération est appelée « Mann’s trick » ou tour de passe-passe de Michael Mann.
Toute la discussion qui précède visait à souligner que ce qui compte n’est pas le réchauffement lui-même mais son ampleur. Il faut absolument éviter la tendance habituelle des « environnementalistes » à prétendre que tout ce qui pourrait être mauvais en grande quantité ou à grande échelle doit être à tout prix évité si faible que soit le phénomène réel.
En réalité, un peu de réchauffement serait fort bénéfique et pour bien des raisons.
Si vous avez assimilé ce qui précède vous serez capable d’analyser les annonces faites dans les médias et de constater que, malgré des excès rhétoriques, l’auteur de l’annonce ne dit pratiquement rien, et même, souvent, présente faussement ce qu’affirme l’IPCC/GIEC.
Le mantra ou « meme » ou poncif des événements météorologiques extrêmes
Tout prévisionniste météo de base sait que des événements extrêmes se produisent quelque part sur le globe pratiquement tous les jours. La tendance actuelle à attribuer au changement climatique ces événements qui se produisent tout normalement est évidemment très malhonnête.
Roger Pielke Jr. a écrit un livre 16 détaillant ce fait d’observation qu’il n’y a, pour chaque type d’événement extrême (dont les tornades, les ouragans, les sécheresses, les inondations, etc.), aucune tendance à l’augmentation du nombre d’occurrences et même, en fait, pour certains types d’événements une moindre fréquence.
Même l’IPCC/GIEC des Nations Unies a reconnu qu’il n’y avait aucune raison d’attribuer ces événements au « changement climatique anthropique ». 17
Le mantra des températures extrêmes contredit en fait et les observations et les fondements de la météorologie.
Des températures extrêmes se produisent en un lieu quand le mouvement de l’air y transporte de l’air venant des zones de la carte les plus froides ou les plus chaudes. Dans un « climat plus chaud » on doit s’attendre à une moindre différence de température entre les tropiques et les hautes latitudes. Ce qui nécessairement réduit la dynamique entre les températures extrêmes.
De plus et c’est important, les mouvements qui transportent ces masses d’air viennent d’un processus appelé instabilité barocline, qui elle même découle de la différence des températures entre tropiques et hautes latitudes.
Et donc, dans un monde plus chaud, ces vents seront plus faibles et moins susceptibles de transporter sur de longues distances des masses d’air à des températures extrêmes.
Les affirmations sur la venue de températures extrêmes plus fortes ignorent simplement la physique de base et ne sont acceptées ou admises que parce que l’auditoire est ignare.
Ces affirmations sur les événements météorologiques extrêmes transcendent l’utilisation habituelle d’affirmations trompeuses. Elles correspondent très souvent à l’opposé exact de ce qui se passe en réalité.
L’objectif est d’être aussi terrifiant que possible, et tant pis s’il faut affirmer l’exact opposé de la réalité !
La montée du niveau des mers
En moyenne globale, le niveau des mers a, depuis un millénaire, monté d’environ 15 cm par siècle. Avant les satellites la mesure se faisait avec des marégraphes qui enregistrent le niveau de l’eau par rapport au niveau du sol.
Malheureusement le niveau du sol change aussi, et comme le notent Emery et Aubrey dans leur livre18, c’est la tectonique qui, en bien des endroits, est la principale cause de changement du niveau relatif de l’eau et de la terre.
En 1979 on a commencé à employer des satellites pour mesurer le niveau réel des mers. Les résultats ont été fort proches des estimations tirées des marégraphes, légèrement plus forts, mais Wunsch et al.19 montrent que personne ne peut dire que les petites différences dues au changement de méthode de mesure représenteraient une accélération de la montée du niveau des mers 20.
Quoiqu’il en soit, les changements sont fort petits en comparaison des affirmations qui veulent suggérer un changement climatique catastrophique.
Pourtant, au début des années 1980 déjà, des alarmistes tels que St. Schneider ont compris que le niveau des mers serait un moyen tactique commode, facilement compris, pour susciter de la peur. Que des personnes comme Al Gore et Susan Solomon (naguère chef du WG1 Scientific Assessment (évaluation scientifique) du GIEC/IPCC) aient lourdement investi dans des propriétés en bord de mer montre bien que le sujet est un thème de propagande et non pas une question scientifique.
La banquise arctique 21
Des satellites observent la banquise arctique (et l’antarctique aussi) depuis 1979. Chaque année voit un cycle annuel très prononcé : la couverture, quasi-totale en hiver est, en été, fortement réduite. Depuis 1979 il y a eu une tendance significative à la diminution de la banquise d’été (et l’inverse en Antarctique), mais ces dernières années, la couverture en fin d’été s’est apparemment stabilisée.
Pour discuter de changements climatiques, une durée de 40 ans est, bien sûr, plutôt courte. Cependant on a vu des tentatives – inévitables- d’extrapolation de tendances observées sur des périodes courtes à l’appui d’affirmations que l’Arctique devrait être déjà libre de glaces. Évidemment extrapoler des tendances observées à court terme n’est pas approprié.
Extrapoler les variations des températures de l’air proche de la surface observées entre l’aube et le crépuscule amènerait, en peu de jours, à un climat bouillant.
Extrapoler la surface estivale de la banquise arctique pourrait bien être tout aussi stupide.
De plus, quoique la couverture satellitaire soit incomparablement meilleure que ce que l’on avait avant, les données sont loin d’être parfaites. Les satellites peuvent confondre de la glace couverte d’eau de fonte avec une mer libre de glace. De plus, la température n’est pas la cause principale de la diminution de la banquise estivale. Cette banquise d’été est plutôt fragile et des changements de vents jouent un rôle important en expulsant la glace flottante des mers arctiques.
L’association entre changement de la banquise d’été et changement climatique est, en soi, douteuse. Les « modèles climatiques numériques » ne prédisent pas de façon claire ce qui est observé. On ne saurait donc dire que le comportement observé de la banquise confirme une quelconque de ces prédictions. 22
Des pressentiments sur la disparition de la banquise arctique ont été publiés en 192223 ce qui suggère que les phénomènes observés ne sont pas nouveaux. Les observations venaient alors du voisinage du Spitzberg. Un biologiste marin qui est aussi un activiste militant « pour le climat » a suggéré que ce n’était qu’un phénomène local, mais les éléments qu’il avance ne permettent pas de conclure. Entre autres, cet auteur a très soigneusement « trié » ce qu’il appelle des preuves.
Tout ce que l’on peut dire, à ce point, est que le comportement de la banquise arctique est l’un de ces nombreux phénomènes que nous offre la Terre, et pour lesquels nous n’avons ni une compréhension physique, ni de longues séries d’observations.
De plus l’ouverture du passage du nord-ouest (au nord du Canada) a longtemps fait rêver. Il est bizarre qu’on la considère maintenant comme terrifiante.
Bien sûr comme l’a noté Mencken 24 « Tout l’objectif de la pratique politique est de faire en sorte que la populace ait, en permanence, quelque chose à redouter et donc qu’elle réclame bruyamment qu’on assure sa sécurité. On lui fait croire à toutes sortes de menaces et de maléfices, la plupart imaginaires ».
Le mouvement environnementaliste a fait sienne cette tactique, bien au delà de ce que Mencken observait.
Le mantra ou « meme » ou poncif des ours polaires
J’ai tout lieu de penser qu’Al Gore a fait faire beaucoup d’études de type focus group 25 pour découvrir l’efficacité remarquable de l’idée que le changement climatique va mettre en danger les ours polaires.
L’usage qu’il a fait de l’image pathétique – à l’évidence fabriquée par Photoshop – d’un ours blanc sur un morceau de glace flottant 26 le suggère très fortement. Comme le souligne Susan Crockford27, spécialiste de l’évolution des ours polaires, la population des ours blancs a, dans le passé, diminué à cause de la chasse et de l’exploitation commerciale de leur fourrure. Des mesures de protection ont eu un plein succès et amené une augmentation des populations telle que la chasse a de nouveau été autorisée.
Il n’y a aucune indication, aucune preuve, que les changements de la banquise arctique estivale aient eu un quelconque effet négatif sur les populations d’ours polaires : ces ours peuvent nager plus de deux cents kilomètres; on ne voit pas pourquoi moins de glace les gênerait.
Mais, pour la petite communauté d’experts des ours polaires, les inquiétudes propagées sur le « climat » ont eu un intérêt évident.
Le mantra ou « meme » ou poncif de l’acidification des océans
On a là encore une de ces affirmations pas claires qui semblent effrayantes mais ne résistent pas à l’examen.
Depuis la terreur fabriquée des « pluies acides » on a compris que le public est facilement manipulé et terrorisé par toute annonce avec le mot « acide ».
En réalité l’océan est basique et non pas acide (car son pH est toujours nettement supérieur à 7), et il est absolument impossible que des teneurs croissantes de l’air en CO2 réduisent à 7 (la neutralité) le pH de l’océan (rappel: le pH chiffre le caractère acide ou basique: un pH supérieur à 7 est basique, un pH inférieur à 7 est acide). Les changements imaginés renvoient à des pH océaniques -très- légèrement moins basiques.
Une description correcte des phénomènes ne susciterait nulle frayeur. Comme toujours, il y a tant d’erreurs et de faussetés dans cette affirmation d’une acidification des océans que les analyser demanderait un article assez long. Je recommande la source suivante:
Patrick Moore Ocean « acidification » alarmism in perspective, (Nov. 2015, 28 pages)
https://fcpp.org/sites/default/files/documents/Moore%20-%20Ocean%20Acidification%20Alarmism.pdf
Le mantra ou « meme » ou poncif de la disparition des récifs coralliens
La prétendue mort des récifs de coraux est en partie liée aux fables sur » l’acidification » exposées ci-dessus, et comme on le peut voir, la relation causale est presque exactement l’inverse de ce que l’on nous raconte.
Il y a aussi l’histoire selon laquelle le réchauffement lui-même causerait le blanchiment des coraux. On verra une présentation alarmiste typique dans :
http://www.nature.com/nature/journal/v543/n7645/full/nature21707.html.
L’accès en est payant mais la plupart des bibliothèques universitaires ont un accès à Nature.
Une réponse argumentée à ce papier est http://landscapesandcycles.net/falling-sea-level–bleached-great-barrier-reef.html
Jim Steele, l’auteur de cet article, explique que le blanchiment a des causes autres que le seul réchauffement et n’est pas du tout l’annonce de la mort des coraux qui ont les moyens de récupérer. L’article http://www.breitbart.com/big-government/2017/04/10/delingpole-gullible-fools-believe-great-barrier-reef-dying/ est un peu polémique mais, sur le fond, est correct.
Le réchauffement climatique, cause de tout et de n’importe quoi
Comme on vient de le voir, il y a une tendance à rendre le réchauffement climatique responsable de tout ce qui est déplaisant. Nous allons voir plus loin encore une illustration de ces absurdités.
Ça n’a pas empêché l’Environment Protection Agency américaine d’employer ce genre d’argument pour affirmer que sa politique de » lutte contre le changement climatique » aura des effets sanitaires bénéfiques.
Devant tant d’affirmations je crains le » à quoi bon ? » Personne n’a assez de temps et d’énergie pour réfuter ce très grand nombre d’affirmations.
Heureusement beaucoup sont, de toute évidence, absurdes. La revue Nation a publié récemment ce que l’on a sans doute écrit de mieux dans ce genre :
Juan Cole (18 avril 2017) : Cet autre gaz toxique qui tue des Syriens: les émissions de dioxyde de carbone.
Si Trump et ses sbires s’intéressaient vraiment aux enfants tués par des gaz toxiques, ils n’essaieraient pas de rejeter plus encore de CO2 dans l’atmosphère https://www.thenation.com/article/the-other-poison-gas-killing-syrians-carbon-dioxide-emissions/
Le CO2, notons le d’abord, n’est pas du tout toxique. Au contraire le CO2 est essentiel à la vie sur notre planète et des teneurs aussi élevées que 5000 ppm sont, dans nos sous-marins, considérées comme sans danger.
L’article de Nation est typique en ce qu’il énonce en peu de lignes beaucoup d’affirmations très bizarres. Il argumente qu’ « un emballement de l’effet de serre » amène sur Vénus des températures de surface supérieures à la température de fusion du plomb 28. Pourtant personne n’affirme que la Terre puisse être sujette à un tel « emballement ».
La planète Mars dont l’atmosphère a trente fois plus de CO2 que la Terre est plus éloignée du Soleil et a une surface fort froide.
Mais comme nous venons de le voir, bien souvent, la réalité est sans importance pour ceux qui font de terroriser le public leur activité principale.
Remarques pour conclure
Une accumulation d’affirmations fausses et/ou trompeuses est souvent appelée » preuve irréfutable » de la catastrophe qui va arriver.
Sans ça, on pourrait légitimement se demander s’il y a même seulement une preuve.
Quoiqu’il en soit, le changement climatique sert de justification à de nombreuses politiques publiques qui presque toutes semblent avoir fait beaucoup plus de mal que le supposé changement climatique (voir http://www.thegwpf.com/every-climate-initiative-imposed-on-us-by-politicians-has-ended-in-disaster/) et vont évidemment faire encore bien plus de mal.
Le mieux que l’on puisse dire de ces efforts est qu’il est reconnu par tous que, malgré leur coût immense, ils n’ont que fort peu d’effet sur les teneurs de l’air en CO2 et sur les températures. Voilà plutôt une bonne nouvelle, car il y a bien des preuves que ces changements des teneurs de l’air en CO2 et des températures ont des effets bénéfiques, tandis que l’énorme gaspillage d’argent n’est pas du tout bénéfique.
Je n’ai pas passé beaucoup de temps sur les détails de la science, mais voici un point qui devrait exciter l’esprit critique de tout lecteur intelligent : le système que nous considérons est constitué de deux fluides turbulents en interaction, l’air et l’eau; ils couvrent une planète en rotation qui reçoit du soleil une quantité de chaleur variable selon la latitude. Le constituant vital de l’atmosphère est l’eau sous ses phases liquide, solide et vapeur et les changements de phase ont d’énormes conséquences.
Le bilan énergétique de ce système implique l’absorption et la réémission d’environ 200 Watt par mètre carré. Un doublement de la teneur en CO2 modifierait ce budget de 2% environ.
Mais des modifications très mineures de la couverture nuageuse et d’autres caractéristiques encore ont le même effet, et ces modifications se produisent tous les jours.
Dans ce système complexe avec un grand nombre de facteurs, quelle vraisemblance y a-t-il que le climat (qui lui-même découle d’un grand nombre de variables et non pas seulement d’une anomalie des températures calculée en moyenne globale) soit piloté par la perturbation de 2% d’une seule variable ?
Le croire serait quasiment croire en la magie. Mais on vous dit que c’est croire en la « Science ».
Cette affirmation devrait vous prévenir qu’il y a là quelque chose qui ne va pas.
La Science est en effet une façon de poser des questions et non pas un système de croyances !
Richard Lindzen est Professeur des Sciences de l’atmosphère, titulaire de la chaire Alfred P. Sloan, Emérite, au Massachusetts Institute of Technology.
Le traducteur a cru bon d’ajouter des notes à l’usage du lecteur francophone, pour préciser quelques points ou faciliter l’accès aux références. Ces indications sont signalées comme « Note du Traducteur » NdT.
1 NdT R. Lindzen emploie le mot « meme » qui désigne un élément culturel reconnaissable, répliqué et transmis par l’imitation du comportement d’un individu par d’autres individus. (Source : http://www.linguee.fr/francais-anglais).https://fr.wikipedia.org/wiki/M%C3%A8me
2 Commentaire publié le 26 mai 2014
Voir aussi
http://www.drroyspencer.com/2014/05/ill-see-your-97-percent-and-raise-you-3-percent/
https://wattsupwiththat.com/2014/05/30/the-myth-of-the-97-climate-change-consensus/
https://www.cfact.org/2014/05/30/the-myth-of-the-97-climate-change-consensus/
» For the record, of the nearly 70,000 peer-reviewed articles on global warming published in 2013 and 2014, four authors rejected the idea that humans are the main drivers of climate change. The atmospheric carbon concentration is 44 percent higher than it was in pre-industrial times (and rising), and 2016 was the planet’s hottest year ever, breaking the previous record holders 2015 and 2014. »
4 La « Sun Belt » (en français la « Ceinture du Soleil ») se compose des États du Sud et de l’Ouest des États-Unis présentant un dynamisme économique, un cadre de vie et une zone ensoleillée agréable (wikipedia).
5 NdT Pour la série des mesures satellitaires de la basse troposphère en moyenne globale dite RSS/MSU et publiée par REMS la meilleure approximation linéaire de janvier 1999 à décembre 2015 est 0,23°C -0,00046 (t-1999) soit moins 0,046°C par siècle équivalent à une totale absence de réchauffement (aussi appelé « pause » ou hiatus » du réchauffement); sur janvier 1999 à décembre 1997 cette meilleure approximation linéaire est -0,03°C + 0,0082 (t-1979) soit +0,82°C par siècle. Les années 1998 et 2016 sont celles de deux grands El Niño avec certains mois à plus de 0,7°C par rapport aux mêmes mois des années antérieures.
6 NdT Après le grand El Niño de 2016, les températures « mondiales moyennes » sont en février 2017 revenues -ou presque- à leur valeur moyenne sur 1999-2015. Ci-dessous le tracé de deux séries des anomalies des températures « mondiales » moyennes RSS-MSU de la basse troposphère et HadCRUT de la surface. Elles n’ont pas la même référence et sont décalées entre elles de quelques dixièmes de degré : moyennes sur 1999-2015 de 0,26°C pour la première et de 0,49°C pour la seconde.
7 NdT Les réchauffements très comparables observés de 1860 à 1878 et de 1920 à 1941 ne sauraient être attribués aux « émissions anthropiques » venant de combustibles fossiles car ces émissions étaient alors extrêmement faibles (de 100 à 200 M t-C/an vers 1870, 1000 M t-C/an vers 1940) comparées à celles de 1978-1998 (6000 M t-C/an), elles mêmes de l’ordre de 3% des dégazages annuels naturels de CO2 par les océans (en zone intertropicale) et par les sols (de l’ordre de 160 000 M t-C/an).
8 NdT Vallée de la mort en Californie, vers 36°N, avec des moyennes des températures maximales sur 24 heures atteignant 46°C en juillet.
9 NdT Températures moyennes au sommet (8848 m) de l’ordre de -35°C en hiver et -17°C en juillet.
10 NdT Cette plage dont les bornes sont dans un rapport un à trois a été décrétée en 1979 par une commission présidée par le météorologiste américain Jules Charney ; les dizaines de milliards de dollars dépensés depuis par les divers états pour le financement de la « recherche climatique » n’ont pas permis de mieux préciser cette fourchette qui figure encore et toujours dans le dernier rapport du GIEC (AR5, 2013).
Ce concept fait l’hypothèse que la modulation de la teneur en vapeur d’eau des hautes couches de la troposphère (celles d’où la vapeur d’eau rayonne effectivement vers le cosmos et assure) n’efface pas en quelques heures ou jours les effets des variations sur la même période des teneurs de l’air en CO2.
11 http://journals.ametsoc.org/doi/pdf/10.1175/BAMS-D-15-00135.1
12 NdT La période de calibration est par exemple de 140 ans (1850-1990) et les multiples paramètres ajustables sont ajustés pour que l’anomalie de la température moyenne global ne s’écarte pas trop des observations; la période de prédiction ira alors de1991 à, par exemple, 2100.
13 NdT La NOAA National Oceanic and Atmospheric Administration est une agence du département (ministère) du commerce des USA, chargée entre autres de la météorologie. Une enquête a été lancée par une commission du Sénat des Etats-Unis.
La revue Science a publié un article d’un journaliste visant à minimiser l’ampleur de la fraude : http://www.sciencemag.org/news/2017/02/how-culture-clash-noaa-led-flap-over-high-profile-warming-pause-study
Notons que les données et même les programmes de calcul employés par Karl et al. ont « bizarrement » disparu à cause « d’une panne d’ordinateur », ce en violation de toutes les procédures d’archivage des données et des programmes réglementées dans des institutions qui archivent de très gros volumes de données.
Ces procédures sont en partie décrites dans https://judithcurry.com/2017/02/04/climate-scientists-versus-climate-data/
14 NdT En anglais « hockey stick » ; le lecteur curieux trouvera une documentation complète sur le site
https://climateaudit.org/multiproxy-pdfs/ site tenu par le découvreur de cette fraude, ingénieur des mines et canadien, ce qui explique la référence au hockey sur glace.
15 NdT Aussi appelé Pinus aristata longaeva, il pousse entre 2100 m et 3700 m dans les montagnes de l’ouest des USA et a une longévité exceptionnelle, de 4000 ans à 5000 ans.
16 Roger Pielke Jr. The Rightful Place of Science: Disasters and Climate Change Paperback, 124 pages – November 1, 2014
17 http://www.ipcc.ch/report/srex/ MANAGING THE RISKS OF EXTREME EVENTS AND DISASTERS TO ADVANCE CLIMATE CHANGE ADAPTATION, 2012, Cambridge University Press, 582 pages (31 M Octets)
18 Emery K. O., Aubrey D. G. Sea Levels, Land Levels, and Tide Gauges, Springer, 1991, 237 pages
19 Carl Wunsch, Rui M. Ponte, Patrick Heimbach, Decadal Trends in Sea Level Patterns : 1993–2004 Journal of Climate, AMS, 15 Dec. 2007, pp. 5889-5911
Extrait du résumé: » Estimates made here produce a global mean of about 1.6 mm yr−1, or about 60% of the pure altimetric estimate, of which about 70% is from the addition of freshwater. »
20 NdT Les marégraphes équipés de GPS de haute précision permettent des calculs du mouvement du sol et du niveau des mers et même de la variation de la quantité d’eau.
Voir articles du professeur Guy Wöppelmann: http://marine-climate.uib.es/SLR2015/presentations/Woppelmann.pdf Wöppelmann, G. et al. Rates of sea-level change over the past century in a geocentric reference frame. Geophysical Research Letters 36: 10.1029/2009GL038720.
Autres articles sur http://www.co2science.org/articles/V12/N40/C1.php
21 NdT Voir par exemple http://www.climate4you.com/SeaIce.htm pour des graphiques des ces surfaces de banquise
22 NdT Depuis 1980 les modèles prédisent, pour un doublement de la teneur de l’air en CO2, en Arctique, +12°C en hiver, mais seulement +2°C en été. Les observations pour la basse troposphère polaire (série UAH MSU v6) sont rapportées aux figures ci-dessous pour décembre et pour janvier.
Les +12°C en hiver dits par les « modèles » pour un doublement de la teneur en CO2 donnerait, sur ces mois d’hiver, sur 1978-2017, selon les formules usuelles 12°C ln(403 ppm / 335 ppm) / ln(2) = + 3,2°C … qui ne sont pas du tout observés sur les figures ci-dessus !
23 https://docs.lib.noaa.gov/rescue/mwr/050/mwr-050-11-0589a.pdf
You ask, I provide. November 2nd, 1922. Arctic Ocean Getting Warm; Seals Vanish and Icebergs Melt.
24 NdT Henry Louis Mencken (1880-1956) journaliste américain
25 NdT Dans le monde du marketing, les focus groups, ou réunions de consommateurs, sont perçus comme des outils privilégiés afin de procéder à une analyse concernant les nouveaux produits et services.
Le focus groupe permet aux entreprises qui le désirent de développer, tester et discuter des noms, des matériaux de conditionnement, des emballages, avant de les commercialiser. Cette démarche permet aussi de recueillir des informations sur le potentiel du marché et la réaction du public, pour que le produit ou service, soit largement accepté. (Wikipedia)
26 http://www.istockphoto.com/fr/photo/dernier-ours-polaire-gm135183496-4095333
27 Son site est https://polarbearscience.com/
28 NdT La température de fusion du plomb est 327°C.
La température de surface de Vénus, 462 °C, est une conséquence de la masse de son atmosphère 100 fois celle de l’atmosphère de la Terre.
La relation entre température et pression T/Tref = (P/Pref) R/(Cp+|Ch|) vaut sur Terre T/ (255 K) = (P/(0,53 atm))0,19 et sur Vénus T/(243 K) = (P/(0,1 atm))0,16 avec en surface une pression P=1 atmosphère sur Terre contre P= 92 atmosphère sur Vénus.
Les 255 K et 243 K sont les Tref , températures équivalentes de rayonnement de la couche qui assure le gros du rayonnement de la planète vers le cosmos et Pref la position de ces couches, respectivement vers 5 km et vers 60 km. Le gradient de température, g/(Cp+ |Ch|) entre cette couche et la surface est de 6,5 °C/km sur Terre et de 8,2 °C/km sur Vénus, d’où les températures de surface de 255 + 5 x 6,5 = 287,5 K (14,4 °C) sur Terre et 243 + 60 x 8,2 = 735 K (462 °C) sur Vénus.
338 réponses à “Croire que le CO2 contrôle le climat c’est à peu près comme « croire à la magie »”
J’aime bien quand une personne arrogante et ignorante vient me faire la leçon sur mon « lieu de travail » ….
Mais vous même devenez bon élève …. : Venus ? une atmosphère environ 100 fois plus massique que celle de la Terre pour une gravité inférieure ….
Les géantes gazeuses qui se dilatent thermiquement ? (et donc augmentent de volume)
Mars quasiment sans atmosphère ?
La dilatation de l’exosphère lors des cycles solaires ?
Ne seriez vous pas un bouffon du CEA que j’ai malheureusement rencontré et porteur d’un projet délirant (http://irfu.cea.fr/dap/Phocea/…..d_ast=3760) …
Bon allez , on va s’accorder sur le fait que le volume de l’ atmosphère est contraint par celui de l’univers …. Je pense que c’est là notre plus petit dénominateur commun …
PS : vous remarquerez que j’écoutais bien sagement et poliment lorsqu’il s’agissait de la troposphère ….
BenHague (#301),
Et pourquoi délirant ce projet de télescope ?
1) Il faut le mettre sous coiffe d’une fusée ( avec un mât « telescopique » d’au moins 20 m ) de et que les miroirs supportent les charges d’un lancement ( c’est pas gagné)
2) Il faut le déployer … et mince alors , il n’ y a pas de mécanisme de déploiement pour le faire
( oubliez les charnières pivotantes … il faut aussi une motorisation )
3) Il faut des « haubans » de 30 m qui maintiennent l’ensemble avec une précision de l’ordre du micron …. Sachant que les variations de temp. sont de l’ordre de 150 degC , je connais pas de materiau qui puissent atteindre cette performance
4) Le mât telescopique est en compression : idem la charge de compression pour « tenir » l ‘ensemble dans l’environnment thermique du spatiale c’est simplement irréaliste …. et il faut aussi déployer le mat ? Comment ? par l’opération du saint esprit ……
Et je ne liste ici que ce qui me vient rapidement en tête …. Le gars du CEA , est un huluberlu qui possède 4 voitures et un bus et qui fabrique lui meme sont hydroptère …. un cas
Donc en gros c’est infaisable : on n’a ni les materiaux , ni un mécanisme de déploiement pour deployer ce genre de plaisanterie …
J’avais oublié le plus drôle … le par-soleil de 30 m x 30 m pour protéger le télescope … A embarquer et à déployer … C’est de la fumisterie de A à Z ….
BenHague (#304),
Merci !
BenHague (#301),
Merde alors; comme celui-ci se dilate à la vitesse grand V on va bientôt manquer d’oxygène
En ce qui concerne la vitesse de libération (ou vitesse d’évasion) des planètes du système solaires et les gaz retenus ou non, voici le graphique correspondant :
http://i68.tinypic.com/11lon41.jpg
Par exemple Venus ne retiendra dans son atmosphère que les gaz dont la vitesse (à la température de la planète) est inférieure à la vitesse d’évasion de la planète càd : O2, N2 et CO2.
JC (#307),
Pour afficher ici votre graphique, il suffit de « récupérer le code » fourni par TinyPic.
J’ai pris le dernier et utilisé le bouton [Img]. J’aurais pu prendre le premier, qu’il suffit de coller dans le formulaire.
https://principia-scientific.org/quantum-mechanics-and-raman-spectroscopy-refute-greenhouse-theory/
une étude publiée le 10/11 qui infirme la théorie du CO2, l’azote et l’oxygène sont aussi des GES, en effet toute molécule à plus de zéro K émet des IR ….
yvesdemars (#309),
Les lois de l’absorption des IR sont connues depuis plus d’un siècle, il y a peu de chances que des gaz aussi répandus que O2 et N2 aient des propriétés qui remettent brutalement en cause des lois aussi banales. Parmi les IR émis par le sol et captés par l’atmosphère, quelle est la part d’énergie captée par les GES et celle captée par les autres gaz ?
yvesdemars (#309),
C’est simplement la loi de Planck : absorption et émission d’un corps noir valable pour tout les composés . Au voisinage de 0 Kelvin, il y a encore une absorption /émission dans l’ IR lointain . Le flux dépend de la température et de la longueur d’onde des photons mis en jeu seulement.
.
j’ai beaucoup de mal à y croire
devinplombier (#312),
Oui mais c’est la réalité !
Bernnard (#313),
je parlais du contrôle par le CO2
devinplombier (#314),
Je laisse chacun la liberté d’avoir ce raisonnement. Mais quand on « croit » à l’homéopathie.. et qu’on pense connaître l’effet papillon toutes les fantaisies pseudo-scientifiques sont possibles. 😁.
Bernnard (#315),
dans le meme genre , il y a aussi la mémoire de l’eau
devinplombier (#314), très bien ce graphique ça donne une bonne image des pourcentages et de l’insignifiance du CO2.
Lorsque j’essaie d’expliquer aux climato crédules au bagage scientifique succinct que le dioxyde carbone (0,04% de l’air) n’est pas un poison, le scepticisme change de camp !
On me traite de complotiste si je dis qu’ il est indispensable à la vie ! C’est l’aliment de base des plantes. Avec l’eau et le rayonnement solaire. Sans CO2 il n’y aurait pas de plantes et une grande partie de l’atmosphère que nous respirons ne se renouvellerait plus. D’ailleurs, si la concentration de CO2 dans l’atmosphère a légèrement augmenté ces 30 dernières années, dans le même temps la surface couverte par la végétation sur la terre s’est accrue de 20%.
Au temps des dinosaures, le niveau de CO2 a atteint des valeurs proches de 10.000 ppm soit 25 fois la concentration actuelle. Ce fut pourtant l’époque d’une flore et d’une faune géantes d’une extraordinaire diversité.
Le formatage idéologique des média main stream rend le message scientifique inaudible.
Le principal gaz à effet de serre est la vapeur d’eau aux effets bien plus significatifs. Puisque H2O représente 2% de l’atmosphère soit 50 fois plus que le CO2.
Mais les « savants » du GIEC ont une curieuse façon de calculer l’effet de serre.
Dans leurs modèles, le CO2 vire à l’obsession quand, dans l’atmosphère il est mélangé à la vapeur d’eau qui possède de larges bandes d’absorption qui recouvrent en intensité et fréquences celles du CO2 avec un ratio de 50 pour 1
C’est la vapeur d’eau qui absorbe par saturation la quasi-totalité de la chaleur, soit 90% des infrarouges, le reste étant imputable à d’autres gaz comme l’ozone ou le méthane.
Le GIEC ne tient pas compte du cycle de l’eau qui se traduit avec la chaleur par un épaississement des couches nuageuses, avec pour effet d’accroître l’albedo de la terre et donc de renvoyer davantage de rayons solaires vers l’espace, diminuant ainsi l’effet de serre et le réchauffement tant redouté.
Mis peu importe la science. Les gens du GIEC ont repris la fonction d’astrologue du roi, avec la bénédiction des médias dont la plupart des journalistes n’ont aucune formation scientifique.
CLOJAC (#318),
Qu’est ce que c’est que ce charabia?
CLOJAC (#318), Volauvent (#319),
Ceci est de trop , sinon je n’ai rien à dire ; bonjour ici ; un conseil , changez de pseudo parce que si on oublie le « J » cela devient scato
C’est la grande erreur des sceptiques, ne pas croire en la magie. Bande de mécréants.
Moi je me suis converti depuis le miracle de « l’argent magique », des centaines de milliards d’euros qui nous tombent du ciel, merveille !
Alors 2 ou 3 petits degrés Celsius venus de l’enfer des hommes, c’est de la gnognotte.
CLOJAC (#318), C’est la vapeur d’eau qui absorbe par saturation la quasi-totalité de la chaleur, soit 90% des infrarouges, le reste étant imputable à d’autres gaz comme l’ozone ou le méthane.
Vous déduisez… mais le GIEC préfère induire : 1\constat d’un réchauffement « exceptionnel » (entre guillemet, je cite) 2\constat que le seul changement à effet climatique est l’augmentation du taux de CO2 (Soleil ? idem, cycle de l’eau ? idem,…) 3\donc, forcément au mieux, on a trouvé le thermostat du climat, au pire, c’est la crainte de l’inconnu.
On a déjà connu pire en température et taux de CO2 ? Certes, mais regardez les vidéos de Jancovici : il joue sur le fait qu’un tout petit effet peut avoir un très gros effet pour l’humanité, ou qu’avec qq degrés en moins la Mer du Nord est gelée sous une banquise épaisse. Bien sûr, il ne s’embarrasse pas de prédire le temps que le glaçon se soit formé ou que le Groenland fonde : le scénario du film Le jour d’après semble si impressionnant… alors qu’on sait à peine calculer la température moyenne d’un siècle en remontant de quelques millénaires.
N’oubliez pas : l’important (attention, sarcasme ) c’est de « faire prendre conscience » pour faire agir « vertueusement » . Ceux qui disent Absurdistan ne comprennent pas le symbole du geste (dixit Hollande) quel qu’en soit le prix (dixit Macron) .
the fritz (#320),
Le problème c’est que cette phrase montre que CLOJAC n’y comprend rien, ce qui fragilise ce qu’il dit par ailleurs,, même si c’est vrai.
Par moment, je me demande si ce site n’est pas victime de faux sceptiques, qui larguent des âneries pour le discréditer…ou de faux « ingénus » qui poussent certains habitués à raconter eux mêmes des bêtises…
Volauvent (#323),
pour rigoler un peu et faire réagir CLOAQUE qui votera NON au referendum; lu sur un autre blog; je mets mon post
“””””””” libérer les plus gros pollueurs en CO2 “””””””
Vous rendez vous compte de ce que vous dites
Le CO2 , vous le respirez , vous l’avalez avec la bière le coca, le Champagne dans quelques jours , vous en émettez plus que vous en consommez , plus du méthane , je ne vous dis pas comment, et vous trouvez que c’est un polluant?
Qu’est-ce que vous faites comme salade avec ce CO2
the fritz (#324), Mettre le CO2 en bière ? Mais c’est le rêve des écolos !
Michel Le Rouméliote (#325), Si vous y arrivez, Champagne !
Murps (#326), Michel Le Rouméliote (#325), Murps (#326), Carbonatation forcée de la bière : après fermentation pendant laquelle les levures transforment le sucre en alcool et CO2, le CO2 est libéré dans l’air.
A l’issu, la bière est alcoolisée mais plate.
Pour donner du pétillant, en plus des techniques de refermentation par ajout de sucre +levures, il y a injonction de CO2 à l’aide de bouteilles (nous on fait cela avec de pierres de carbonatation pour nos bières en fûts).
Murps (#326), Marco40 (#327), Je parlais de la bière, pas de la bière. Bref, du cercueil pas de la boisson que nous aimons tous (avec une tendresse particulière pour la kölsch germanique et les Baltika russes en ce qui me concerne).
Michel Le Rouméliote (#325),
Très bonne ;mais c’est pas nouveau TOTAL y travaille depuis longtemps
https://www.lesechos.fr/thema/articles/la-sequestration-du-dioxyde-de-carbone-en-cours-de-massification-1151450
C’est vrai qu’ils ont fait de la place dans les gisements de pétrole
Bonjour
Comment peut on avoir accès aux nombreuses figures qui n’apparaissent pas. Merci.
Bienvenu dans un monde de dingue !
Comment faire pour virer tous ces hypocrites ?
Courty (#330),
Malheureusement, les figures ont disparu du document source.. .
Ecophob (#331), On peut pressentir que dans certains endroits reculés proche de l’océan, on va trouver du pétrole en quantité directement dans les tankers… Et maintenant, Tintin, exposez-moi votre idée…
amike (#333), ce sont probablement les BRICS qui nous sortirons de tout ça, contraints et forcés de revenir à la réalité avec la fin du Dollar roi et l’explosion en plein vol de l’Euro qui ne vaudra plus une cacahuète.
Les dernières vagues de chaleur en Europe de l’Ouest sont-elles d’origine « naturelle » ?
La dernière canicule arrive à un moment qui cumule les réchauffements maximums liés aux oscillations de l’AMO (Oscillation atlantique multidécennale: oscillations de période 40 à 60 ans des températures de l’Atlantique Nord) et au cycle de Hale (cycle solaire de période environ 11 ans).
Le site « Kaltesonne » publie un article qui montre une corrélation très forte entre ces 2 cycles et la durée d’ensoleillement (sur toute l’année pour le premier, sur les mois de juillet-août pour le second), et évidemment une corrélation entre durée d’ensoleillement et températures (traduction).
papijo (#335),
Intéressant !
papijo (#335), merci Papijo, enfin des explications intéressantes. La ref 6 dit que :
soit : « ici nous montrons que l’Europe centrale a vécu des sécheresses plus longues et sévères durant les minimum de Spörer et de Dalton, que celle qui ont été observées durant le 21ème siècle. Ces deux méga sécheresses apparaissent en relation avec l’état froid de l’Atlantique Nord et des activités de blocage atmosphérique prononcées sur les iles britanniques et l’Ouest de l’Europe, en concurrence avec un forçage solaire réduit et un volcanisme explosif. De plus, nous montrons que les sécheresses récentes (2003, 2015 et 2018) sont dans la gamme de la variabilité naturelles et qu’elles ne sont pas sans précédent pour le dernier millénaire. »
La seule chose qui me dérange dans cette explication c’est qu’à l’heure actuelle nous sommes plutôt sur un maximum de l’AMO.
papijo (#335),
J’avais lu il y a déjà quelques années, que des périodes chaudes et sèches arrivaient en Europe de l’ouest, en moyenne, tous les 15 ans. 1976-1990-2003 et 2022 pour les 40 dernières années.
Serait ce lié à la conjonction de ces phénomènes?