AR5 : observations et modèles.

Pour accéder à l'ensemble des textes qui ont fuité Fuite de l'AR5.

• • • • •

Un extrait significatif de la fuite des documents de travail de l'AR5, un graphique qui montre le décalage entre les observations de l'indicateur de température moyenne observée (HadCrut4) et des modèles développés.

ipcc_fig1-4_models_obs.jpg
Légende : les changements estimés des températures de surface observées moyennées au niveau de la planète et par an en °C depuis 1990 comparées à l'amplitude des projections des évaluations antérieures du GIEC. Ces valeurs sont recalées sur la valeur moyenne de 1990.
L'anomalie globale annuelle des températures observées par rapport à la période 1961-1990, est figurée par les carrés noirs. (NASA (mise à jour de Hansen et al., 2010; données disponibles ici http://data.giss.nasa.gov/gistemp/); NOAA (mise à jour de  Smith et al., 2008; données disponibles ici http://www.ncdc.noaa.gov/cmb-faq/anomalies.html#grid); et des ré-analyses du UK Hadley  Centre (Morice et al., 2012; données disponibles ici http://www.metoffice.gov.uk/hadobs/hadcrut4/)). Les barres noires figurent l'intervalle de confiance de 90 % du jeu de données de Morice et al. (2012) dû aux mesures, à l'échantillonage, aux biais et à la couverture (voir l'annexe sur les méthodes).
Les bandes colorées figurent l'amplitude escomptée de la température moyenne globale annuelle de surface de 1990 à 2015 pour les modèles suivants :  FAR (Scenario D et business-as-usual), SAR (IS92c/1.5 et IS92e/4.5), TAR (amplitude totale de la Figure 9.13(b) du TAR basée sur le paramètres GFDL_R15_a et DOE PCM), et AR4 (A1B et A1T).
L'intervalle de confiance à 90 % provenant des incertitudes sur les observations et sur la variabilité interne du climat des données de température HadCRUT4 figure en gris. De plus, les années de publication des rapports d'évaluation du GIEC et de conception des scénarios sont indiquées.
NB : le recalage sur l'année 1990 des modèles atténue-t-il le décalage des prévisions avec les modèles ?
@@@@@@

91 Comments     Poster votre commentaire »

1.  pastilleverte | 15/12/2012 @ 15:54 Répondre à ce commentaire

Donc, en résumé et à vue d’œil, il y a effectivement eu une hausse entre 1990 et 1998/1999, et un plateau depuis, ce qui « validerait » (et encore jusqu’à 2010 seulement)le modèle le moins « alarmiste ».
Est-ce que le SPM en conclura que la hausse est « sans précédent » et sur une pente menant à entre +4 et+6°C en 2100 (ce qui demandera un grand effort d’émissions de CO2 de la part des BRICS et autres émergents !!!) ?

2.  pastilleverte | 15/12/2012 @ 15:55 Répondre à ce commentaire

pastilleverte (#1),
… à, supposer que le CO2 etc etc…

3.  joletaxi | 15/12/2012 @ 17:42 Répondre à ce commentaire

article inattendu dans LLB

mon avis, le rédac chef est soit en congé, soit a été viré et se venge

http://www.lalibre.be/debats/o.....pitre.html

4.  Wells | 15/12/2012 @ 17:52 Répondre à ce commentaire

joletaxi (#3),

En réalité l’article avait très vite disparu après sa publication sur le site de la LLB. Quelques internautes via facebook se sont mobilisés pour écrire à la rédaction du journal pour demander la raison de cette disparition, et l’article est réapparu comme par enchantement.

5.  Bob | 15/12/2012 @ 18:24 Répondre à ce commentaire

Wells (#4),

Sont sympas, ces Belges.
Par contre, il y a un certain nombre de commentaires de gens qui sont manifestement complètement intoxiqués par la propagandastaffel écolo-RCA.
Notamment celui qui vous affirme que le solaire et l’éolien sont super et qu’ils font de gros progrès alors que les boites et les investissements s’effondrent les uns après les autres.
(Voir l’état lamentable du RENIXX Index).

6.  JG2433 | 15/12/2012 @ 18:26 Répondre à ce commentaire

joletaxi (#3),

Je n’ai pas la prétention de tout connaître.
Néanmoins, prendre connaissance de ce que dit, entre autres propos, monsieur Edwin Zaccai, Professeur à l’ULB :

Ce qu’on observe dans le discours des climato-sceptiques, c’est qu’il y a un doute jeté sur la science mais sans proposer d’alternatives.

Ah… 😥 cette sempiternelle erreur commise par les carbophobes de toujours exiger le renversement de la preuve de la part de leurs contradicteurs.
Cela a d’ailleurs été rappelé ici il y a peu.

Pour en revenir aux climato-sceptiques, c’est vraiment dommage de perdre son temps à discuter du phénomène lui-même. Ce qu’il faut faire, c’est discuter des mesures à prendre, sans s’encombrer de débats dépassés sur l’existence ou non du problème.

Toujours les mêmes « éléments de langage ».
Cette phrase n’est-elle pas d’ailleurs un parfait « copier-coller » de la devise Shadok :

Autant pomper alors qu’il ne se passe rien, plutôt que de ne pas pomper et risquer qu’il se passe quelque chose de pire.

7.  Bob | 15/12/2012 @ 18:42 Répondre à ce commentaire

JG2433 (#6),

Il ne faut pas trop s’étonner de la pauvreté des arguments de Zaccai. Il ne comprend visiblement rien à ces affaires et utilise l’argument éculé du consensus, mais il fait son job et est payé pour ça.

Edwin Zaccai, Professeur à l’ULB ; vice-président de l’Igeat (Institut de gestion de l’environnement et d’aménagement du territoire)

C’est ce que l’on appelle « un emploi vert » dans la novlangue.
C’est vrai que l’écologie crée des emplois, comme on le voit. Outre l’IGEAT, elle crée notamment une quantité industrielles de comité théodules avec des présidents, des vices présidents, des secrétaires, des comptables etc.
Ce sont les nouveaux emplois « productifs » , en Novlangie.

8.  miniTAX | 15/12/2012 @ 18:44 Répondre à ce commentaire

C’est quoi ce délire ???
Si on en croit le graphique, l’incertitude des projections du AR4 (rapport 2007) est serait plus faible que celles du TAR (rapport 2001)

Or, on a la preuve, chiffres et sources à l’appui que c’est l’inverse, c’est à dire plus on avance dans les rapports, plus l’incertitude augmente (normal vu que nos climastrologues découvrent en permanence de nouveaux facteurs naturels).
Ils ne peuvent même plus faire des bobards indécelables maintenant au GIEC ?

9.  Wells | 15/12/2012 @ 19:02 Répondre à ce commentaire

Bob (#7),

Edwin Zaccai, grand climatologue(diplômé de science politique), qui participe régulièrement aux conférences organisées par l’ULB ou il se gargarise devant un auditoire de veaux lobotomisés, pardon d’étudiants, avec Sylvestre Huet, Stéphane Foucart et Naomi Oreskes. C’est vous dire sa compétence et son objectivité en matière de climat.

10.  Alpiniste | 15/12/2012 @ 19:28 Répondre à ce commentaire

miniTAX (#8),
Je sais pas que dire sauf que la première impression que me laissent ces rapports, c’est plutôt l’opacité avec énormément de blabla. On a vraiment le sentiment que la stagnation de la t° globale du 21ème siècle est soigneusement masquée avec des courbes volontairement imprécises.
Le graphique présenté ici semble le seul (ou un des seuls) à laisser apparaitre clairement ce plateau et montrer que la réalité commence à s’écarter sérieusement des projections. Ils s’en sortent encore avec la bande grise des 10% d’incertitudes, mais je ne serais pas surpris qu’en 2015 on ne s’approche dangereusement de sa limite basse. smile
Un éventuel AR6 en 2018/19 risque de poser des problèmes à ses rédacteurs. smile

11.  Bob | 15/12/2012 @ 19:32 Répondre à ce commentaire

Merci Wells (#9),
Je ne suis pas étonné.
J’avais effectivement reconnu la grande similitude et le niveau sub-minimal des arguments de ces « experts », du style « il y a un con-sensus, quoi, alors pour moi c’est convaincant »; « s’ils ne sont pas d’accord, c’est forcément qu’ils sont payés par Big Oil » et quelques autres du même tonneau.

Si c’est tout ce qu’ils ont en magasin, il ne faut pas s’étonner des débandades successives des COPxx, dont Doha a été le couronnement.

12.  Nicias | 15/12/2012 @ 20:19 Répondre à ce commentaire

L’intervalle de confiance à 90 % provenant des incertitudes sur les observations et sur la variabilité interne du climat des données de température HadCRUT4 figure en gris.

Je postule que c’est plutôt l’amplitude des « prévisions » des différents modèles (votre gris s’étend jusqu’en 2015 !).
Prenons Pinatubo, on observe que des modèles surestiment grandement le refroidissement (la borne inférieure du gris), d’autre montrent un réchauffement (la borne supérieure). On a donc moyenné des modèles qui simulent Pinatubo et d’autres non. D’autre part, tous les modèles ne sont pas d’accord sur le timing, l’optimum du refroidissement n’a pas lieu au même moment pour chaque modèle. Au final la moyenne des modèles reflète correctement ce qu’il se passe pendant une explosion volcanique. C’est de l’escroquerie. Je ne supporte pas qu’on me vende du Madoff.

13.  Araucan | 15/12/2012 @ 21:08 Répondre à ce commentaire

miniTAX (#8),

Attention ils ont fait partir tous les modèles à 1990 : mais je ne sais pas si c’est normalisé (vu la rédaction de la légende, manifestement pas) ce qui ferait se décaler les incertitudes vers le haut … mais à vérifier.

14.  the fritz | 15/12/2012 @ 22:49 Répondre à ce commentaire

miniTAX (#8),
Or, on a la preuve, chiffres et sources à l’appui que c’est l’inverse, c’est à dire plus on avance dans les rapports, plus l’incertitude augmente
——————————
Tout cela , c’est la faute à la découverte de nouvelles ressources énergétiques fossiles, et pas aux fondements de la physique climatique smile

15.  piloteman | 15/12/2012 @ 23:17 Répondre à ce commentaire

Ce qui est bizarre c’est que toutes les prévisions sont plus élevées que la réalité.
Dans un système convenable on devrait avoir des prévisions trop hautes, des prévisions trop basses et certaines proches des observations qui seraient ainsi partiellement validées.

Malheureusement tout ce qu on constate ici c’est que, en effet, si tous les scientifiques sont d’accord, ils le sont dans la même erreur.

il y a consensus, on peut pas le nier en regardant les courbes.

16.  Araucan | 15/12/2012 @ 23:47 Répondre à ce commentaire
17.  Marot | 16/12/2012 @ 0:26 Répondre à ce commentaire

piloteman (#15)
Les prévisions NE sont PAS des variables ou fonctions aléatoires. Ce sont des fabrications biaisées on le voit. La statistique ne peut faire ni moyennes ni quoi que ce soit avec ça pour approcher la réalité.

La situation est la même que si vous faites faire par 5, 10, 20 caricaturistes malveillants le portrait d’un individu.
La « moyenne » des figures ne sera JAMAIS une reconstitution du visage de l’individu.

18.  pastilleverte | 16/12/2012 @ 10:03 Répondre à ce commentaire

Marot (#17),
par exemple des caricatures de Depardieu
oups, hors sujet, sorry…

19.  Murps | 16/12/2012 @ 10:17 Répondre à ce commentaire

Marot (#17), vous copiez, peut-être sans le savoir, la vieille parabole sur la longueur du nez de l’empereur de chine
Feynmann en parlait dans un de ces livres…
😉

20.  williams | 16/12/2012 @ 10:37 Répondre à ce commentaire

piloteman (#15),

Malheureusement tout ce qu on constate ici c’est que, en effet, si tous les scientifiques sont d’accord, ils le sont dans la même erreur.

Il faut voir que tout les scientifiques ne sont pas du même avis mais voila qu’on parle que des scientifiques qui sont du même avis sur le réchauffement ce qui laisse croire que tout les scientifiques sont du même avis sur ce sujet.

Williams

21.  devin plombier | 16/12/2012 @ 11:01 Répondre à ce commentaire

Murps (#19),

c’est le nouveau concept AR5 : virtually certain

Table 1.1: Likelihood terms associated with outcomes used in the AR5. Term Likelihood of the Outcome
Virtually certain 99−100% probability
Very likely 90−100% probability
Likely 66−100% probability
About as likely as not 33−66% probability
Unlikely 0−33% probability
Very unlikely 0−10% probability
Exceptionally unlikely 0−1% probability
Notes: (a) Additional terms that were used in limited circumstances in the AR4 (extremely likely – 95−100% probability, more likely than not – >50−100% probability, and extremely unlikely – 0−5% probability) may also be used in the AR5 when appropriate.

22.  the fritz | 16/12/2012 @ 11:42 Répondre à ce commentaire

devin plombier (#21),
Rien que cela , cela justifie un nouveau pavé comme l’AR5

23.  Araucan | 16/12/2012 @ 12:18 Répondre à ce commentaire

the fritz (#22),

J’avais cru comprendre, mais je dois me tromper, que les controverses en cours seraient exposées dans le rapport.
Je n’ai pas tout lu loin de là mais je n’ai pas vu l’ombre d’une.
Et si l’on regarde la question des incertitudes, ce n’est jamais que l’extension et le raffinement du système de l’AR4.

Si l’on regarde le chapitre 8 où la question du soleil est exposée (en partie), celui-ci n’est exposé qu’après la chimie atmosphérique et les GES : or, fondamentalement, c’est la lumière du soleil qui est à l’origine des températures terrestres, quel que soit le poids attribué ensuite aux variations de la TSI et du champ magnétique de la terre (à peine discutés), modulo la composition de l’atmosphère naturelle ou anthropique, la nébulosité et les aérosols divers.

24.  Nicias | 16/12/2012 @ 12:55 Répondre à ce commentaire

Araucan (#23),

Comme je l’ai dit ailleurs, la problématique de l’îlot de chaleur urbaine est assez développée, plus que dans l’AR4.

Par contre toute la discussion de l’AR4 sur l’incertitude des mesures dans la haute troposphère tropicale (aka hot spot) est passée à la trappe.

Le pavé étant assez insipide, mal écrit, dénué de graphique dans ma version (d’ou vient votre graphique plus haut ?), je suis très loin d’avoir tout lu.

25.  Nicias | 16/12/2012 @ 13:07 Répondre à ce commentaire

Araucan (#23),

Là je lis le résumé pour les décideurs:

It is virtually certain that over the 20th century the mean rate of increase was between 1.4 to 2.0 mm yr1, and between 2.7 and 3.7 mm yr–1 since 1993. It is likely that rates of increase were similar to the latter between 1930 and 1950. {3.7.2, 3.7.3, Table 3.1, Figure 3.12, Figure 3.13}

C’est pas rien comme aveux…

26.  the fritz | 16/12/2012 @ 13:19 Répondre à ce commentaire

Araucan (#23),
J’avais cru comprendre, mais je dois me tromper, que les controverses en cours seraient exposées dans le rapport.
—————————–
sans blagues 😈
j’avais commencé la lecture début octobre; et devant la langue de bois , j’ai vite abandonné ; c’est tombé en pleine période de champignons et il y a des priorités dans la vie

27.  Nicias | 16/12/2012 @ 13:25 Répondre à ce commentaire

Nicias (#25),

It is very likely that more than half of the ocean warming observed since the 1970s is caused by external forcing, mainly due to a combination of both anthropogenic forcing and volcanic eruptions (see Figure SPM.4). It is extremely likely that this warming has resulted in global mean sea level rise due to thermal expansion during this period. {10.4.1, 10.4.3}

L’accélération de la hausse du niveau des océans depuis 1993 (depuis les satélites…), c’est l’homme.
Mais entre 1930 et 1950, c’est quoi la cause ?
Pas que je n’ai pas d’idée, mais il y a un problème qui devrait se voir comme le nez au milieu de la figure.

28.  Araucan | 16/12/2012 @ 13:42 Répondre à ce commentaire

Nicias (#24),

Le graphique du billet figure au chapitre 1 page 39.

29.  Araucan | 16/12/2012 @ 13:48 Répondre à ce commentaire

Nicias (#25),

Un des avantages des modèles c’est de prédire le passé, oups de le reconstruire … : il est vrai que l’on manque souvent de données fiables vis-à-vis du passé … ET comme on ne pourra plus vérifier, au mieux on n’aura que des éléments indirects de confirmation ou d’infirmation (proxies).

30.  Nicias | 16/12/2012 @ 14:25 Répondre à ce commentaire

Araucan (#28),

Merci, je n’avais pas remarqué que les graphiques étaient à la fin des pdf.

Le graphique 1.8 sur les projections de la concentration de méthane dans l’atmosphère est désespérant. Depuis 1990, elle est largement surestimée et aucun progrès (virtually zero) n’a été réalisé. En même temps, la science sans mystère, c’est moins passionnant.

31.  Araucan | 16/12/2012 @ 14:34 Répondre à ce commentaire

Nicias (#29),

Et manifestement c’est le modèle le plus primitif qui se trompe le moins sur ce sujet … mais c’est celui qui a la plus forte amplitude.
(NB ne pas oublier que tous ces modèles sont recalés par rapport à 1990)

32.  Araucan | 16/12/2012 @ 14:45 Répondre à ce commentaire

Nicias (#27),

Entre 1930 et 1950, c’est, virtually certain, la même cause qu’avant … la même pour le réchauffement des années 20-10 : la sortie du petit âge glaciaire combiné à certains aspects cycliques du climat, donc à priori le soleil +/- les effets d’orbites.

33.  Nicias | 16/12/2012 @ 14:46 Répondre à ce commentaire

Araucan (#31),

NB ne pas oublier que tous ces modèles sont recalés par rapport à 1990

Il faut aller fouiller chez Lucia, The Blackboard pour comprendre les implications de la chose. Elle a fait tout un tas de post la dessus que j’ai oublié.

34.  Araucan | 16/12/2012 @ 15:20 Répondre à ce commentaire

Nicias (#33),

Bonne idée par exemple , l’explication sur l’apparente meilleure corrélation des modèles sur la période 1961-1990.

http://rankexploits.com/musing.....ojections/

HR (Comment #107458) December 14th, 2012 at 10:31 pm

Question (I’m not a maths person).
Is there a (technical) reason why the model spread appears to narrow for the reference period in the first figure?

lucia (Comment #107459) December 14th, 2012 at 10:34 pm

HR–
Yes. It’s due to the fact that every single realization is set to have an average =0 during that period. Outside the period, they can spread apart more. You can create an even tighter more dramatic narrowing by choosing a short time period for the baseline.

35.  Araucan | 16/12/2012 @ 15:30 Répondre à ce commentaire
36.  Nicias | 16/12/2012 @ 16:40 Répondre à ce commentaire

Araucan (#35),

Génial, vous avez retrouvé le post pertinent dont je me souvenais.
J’ai une superbe mémoire à long terme, le corolaire est que je suis super mal organisé car je n’ai pas eut le besoin de classer.

37.  Bob | 16/12/2012 @ 16:41 Répondre à ce commentaire

Araucan (#34),

Yes. It’s due to the fact that every single realization is set to have an average =0 during that period. Outside the period, they can spread apart more.

Dans l’esprit, c’est finalement assez proche du fameux « filtrage des données » ou du « décentrage des composantes principales » chers aux fans des crosses de hockey (Mann et Gergis).
On ajuste les différents résultats des modèles pour une période de référence qui est donc peu bruitée et prend donc une importance considérable mais on s’aperçoit que les modèles divergent de plus en plus les uns par rapport aux autres, lorsqu’on s’éloigne du point de référence choisi…

A titre d’illustration, cela revient à rapprocher entre ses doigts, par un petit bout de même courbure et de même taille, un certain nombre de branches de salix tortuosa (saule tortueux) qui divergent les unes des autres à mesure que l’on s’éloigne du point où on les a rassemblées, serrées entre ses doigts.

C’est de la statistique « pour les nuls ».

38.  Araucan | 16/12/2012 @ 17:37 Répondre à ce commentaire

Nicias (#36),

Faire recherche sur le site de Lucia avec 1990 : cela répond à la question de la période 1961-1990. En fouillant mais je n’ai pas gardé les traces, il y a aussi l’effet du recalage des modèles avec un point de départ en 1990.

Bob (#37),

Je suppose que l’intérêt est de caler tous les modèles sur la même période : d’un autre coté, on voit mieux les modèles qui divergent rapidement (passé ou futur). Mais ce centrage à 0 sur 30 ans en moyenne est-il la seule méthode possible ?

39.  Bob | 16/12/2012 @ 17:44 Répondre à ce commentaire

Araucan (#38),

Mais ce centrage à 0 sur 30 ans en moyenne est-il la seule méthode possible ?

Pour ce qui concerne les crosses de hockey, on ne peut caler que sur la période récente pour laquelle on dispose de mesures. C’est bien là que se trouve le problème.

Par contre, pour ce qui est de la confrontation modèles/observations des températures, on pourrait tout aussi bien caler sur d’autres périodes puisqu’on dispose aussi bien des résultats des simulations que des observations mais je doute que cela améliore les choses.

Imaginez que l’on se cale sur la période récente, par exemple.
Le « hindcast » dans ce cas serait catastrophique, c’est à dire que les modèles divergeraient au fur et mesure qu’on remonte dans le passé.

Du point de vue « impact recherché » ce serait encore plus catastrophique.

40.  Araucan | 16/12/2012 @ 17:52 Répondre à ce commentaire

Bob (#39),

Oui, je comprends bien qu’il est nécessaire d’avoir une période avec des données … encore que le HadCRUT4 … 😉 (encore que celle-ci n’étant pas exempte d’effet forçage du CO2 anthropique, je vois mal comment caler les modèles sans cet effet).
Je parlais plutôt de méthode mathématique.

c’est à dire que les modèles divergeraient au fur et mesure qu’on remonte dans le passé.

C’est déjà le cas vu le graphique.

41.  Bob | 16/12/2012 @ 18:41 Répondre à ce commentaire

Araucan (#40),

Oui, je ne vois vraiment pas comment on peut « arranger » les choses du point de vue mathématique. Il y a manifestement cette stagnation des températures depuis 1997 qui pose problème. Sauf à ajouter des marges d’erreurs adhoc, ce qui est un procédé fréquemment utilisé par le GIEC quand ça ne colle pas (e.g. le hotspot).

Dans le passé et notamment pour la période 1945-1970 qui était encore plus embêtante (une baisse des temps, avant rectification progressive, rétroactive et récente par le GISS), les GIECmen avançaient l’idée que c’était « certainement » de la faute aux aérosols. S’il est vrai que ceux de l’époque étaient très mal connus, faute de satellites, ceux de la période récente le sont assez bien.
Il semble qu’il leur soit difficile, même en invoquant ces derniers, de faire coller les projections aux mesures.
Pour un science normale, cela devrait suffire à renvoyer tout le monde à la table de travail…
A vrai dire, je crois que les inquiétudes de Trenberth quant à la rédaction de l’AR5 était justifiées : Il se plaignait (réf perdue) que trop de gens intervenaient dans la rédaction …
Mais n’oublions qu’il ne s’agit ici que d’un brouillon.

42.  AntonioSan | 16/12/2012 @ 18:42 Répondre à ce commentaire

devin plombier (#21),

oui « virtually certain » c.a.d. « reellement pas sur » 😉

43.  Araucan | 16/12/2012 @ 18:54 Répondre à ce commentaire

Bob (#41),

Oui, ce sera certainement amélioré smile .

Et concernant la méthode mathématique, je ne parlais pas d’arranger les données ni la stagnation laugh. Je parlais du calage sur la période 1961-1990 pour savoir s’il y avait d’autres manières de faire qu’une moyenne d’anomalies centrées sur 0 sur la période de 30 ans.

44.  Bob | 16/12/2012 @ 19:05 Répondre à ce commentaire

Araucan (#43),

s’il y avait d’autres manières de faire qu’une moyenne d’anomalies centrées sur 0 sur la période de 30 ans.

Oui. On pourrait fort bien centrer sur une autre date de départ avec un période plus courte ou plus longue. Du point de vue maths, pas de problèmes mais question signification, ce n’est pas évident.

Il serait intéressant de voir ce que donnent leurs projections en remontant le temps bien avant 1990, tout en gardant le même centrage et la même période.

45.  Bob | 16/12/2012 @ 19:09 Répondre à ce commentaire

AntonioSan (#42),

Je n’arrive pas à comprendre ce que signifie précisément « virtually » dans le langage abscons du GIEC ?
Quelqu’un le sait ?

46.  Araucan | 16/12/2012 @ 19:42 Répondre à ce commentaire

Bob (#44), Bob (#45),

Regardez ce graphique, il répond je pense à votre question.

http://www.skyfall.fr/?p=1142&.....ment-92224

Bob (#45),

http://www.wordreference.com/enfr/virtually
Principal Translations/Principales traductions
virtually adv (almost, nearly) quasiment, presque, pratiquement adv

C'est un faux ami … et l'on traduit mal (mais c'est trop amusant de le faire

Pour l'origine voir là (premier chapitre)
http://www.skyfall.fr/?p=1144#comment-92208

47.  Bob | 16/12/2012 @ 20:25 Répondre à ce commentaire

Araucan (#46),
Merci. Je comprends. Hélas…

Décidément, je ne me ferai jamais à ce langage bizarre du GIEC qui n’a décidément rien à voir avec la science.

« pratiquement, quasiment, presque » etc. relève de convictions de celui qui utilise ces termes mais en aucun cas de l’évaluation scientifique.
S’il s’agit de probabilités, on exprime en général cela avec un courbe de distributions avec un r au carré si c’est pas trop alambiqué.
Où sont les courbes de distribution correspondantes ? Comment sont-elles obtenues ? Par un vote à bulletin secret ou avec des boules rouges et blanches ? Combien sont-ils ? Qui sont-ce ?

Là, on fait de la politique pas de la science.

Vous voyez un scientifique dire « je suis presque sûr que la théorie de la relativité est exacte » ?

Il dirait plutôt : « Je ne dispose d’aucun élément de preuve qu’elle soit fausse » et il éviterait soigneusement de faire entrer en jeu ses opinions qui n’ont pas leur place en matière de science.

Mais là, ce n’est plus de la science. Depuis longtemps.
Je ne dois pas être le seul à avoir dit ça…

48.  Laurent Berthod | 16/12/2012 @ 20:59 Répondre à ce commentaire

Bob (#47),

Oui, une fois où le Giec prétendait qu’il y avait 90 % de chances que le réchauffement soit dû à l’activité humaine, c’était juste neuf sur dix des présents à une réunion qui s’étaient déclarés favorable à cette idée. Les plus férus que mois de l’histoire du Giec pourront retrouver la référence.

49.  Laurent Berthod | 16/12/2012 @ 22:48 Répondre à ce commentaire

Laurent Berthod (#48),

Bon, deux fautes graves, au moins, en trois lignes, j’ai trop picolé ce soir !

50.  JG2433 | 16/12/2012 @ 23:09 Répondre à ce commentaire

Bob (#47),
Je vous suis complètement dans votre développement et adhère tout autant à votre constat :

ce n’est plus de la science

Vous écrivez :

Je ne dois pas être le seul à avoir dit ça…

+1 (mais avoir la prétention d’épater quiconque…)