Examen critique des données mondiales de température de surface /5


5.1.2. Les méthodes d'ajustement : le CRU

Le CRU s'appuie sur des méthodes subjectives, et en grande partie non documentées, pour éliminer les influences non climatiques des données climatiques. Brohan et al. (2006) n'expliquent pas les ajustements réels appliqués aux données CRU, ils se concentrent principalement sur la supposition selon laquelle les biais sont très faibles. Brohan et al. section 2.3 indiquent, à propos des données de température qu'ils utilisent, que des ajustements ont été appliqués à la série de températures brutes, mais que dans la plupart des cas, les originaux n'ont pas été retenus, de sorte qu'il est maintenant impossible de dire quelle a été l’importance de ces ajustements :« Pour certaines stations, le CRU a archivé les données brutes ainsi que les données ajustées. Les ajustements qui ont été effectués sont alors connus [Jones et al., 1985, Jones et al., 1986, Vincent & Gullet, 1999]. Mais pour la plupart des stations, une seule série est archivée, et les ajustements qui pourraient avoir été effectués (par le National Met. Services ou par des scientifiques isolés) sont inconnus ». Brohan et al. 2006 p. 6. Cette remarque semble faire référence aux ajustements appliqués à la seule archive brute GHCN, non aux modifications postérieures qui ont conduit à l'archive GHCN ajustée. Brohan et al. suppose que les incertitudes d'inhomogénéité sont symétriques autour de zéro (p. 6). Dans la section 2.3.3, il est affirmé que, pour corriger correctement les données pour le biais d'urbanisation, il faudrait une comparaison globale des enregistrements urbains et ruraux, mais classer les dossiers de cette manière n'est pas possible car « les méta-données nécessaires ne sont disponibles » (p . 11). Les auteurs font par contre l'hypothèse que le biais ne dépassse pas 0,006 degré Celsius par siècle.
Jones et Moberg (2003) fournit également peu d'informations sur les ajustements de données. Il y est discuté de la combinaison d'enregistrements multiples en un seul, mais n'aborde pas l’élimination des contaminations non-climatiques. En outre, à l’instar de Brohan et al, l’article souligne (page 206) qu'il est difficile de dire quels ajustements d'homogénéité ont été appliqués aux données brutes parce que les sources originales ne comprennent pas toujours cette information. Il insiste sur le fait que les facteurs non-climatiques doivent être corrigés (Section 2, p. 174) pour que les données soient utiles en climatologie. Mais la partie du document qui décrit les ajustements se compose de trois paragraphes à la section 2.1, dont aucun n’explique les procédures. La seule explication est la suivante (page 174) :
« L’homogénéité de chacune des séries temporelles des stations 2000+ utilisées a été évaluée par des comparaisons subjectives effectuées entre stations sur une base locale. De nombreuses stations ont été ajustées et quelques-unes omises en raison d'une tendance anormale de réchauffement et/ou de nombreux sauts non climatiques (des détails complets sont donnés par Jones et al. [1985, 1986c]). »
Les deux rapports cités (« Jones et al. 1985, 1986c ») sont les rapports techniques soumis au Département de l'Énergie des USA cités dans la section 2.1. Ils ne couvrent que les séries de données se terminant au début des années 1980, alors que les données généralement en litige aujourd’hui sont l'intervalle post-1979. Même si les ajustements s’avéraient adéquats antérieirement à 1980, il est probablement impossible d'avoir des estimations des ajustements empiriques du début des années 1980 qui puissent s'appliquer aux changements de profils socio-économiques qui n’existaient pas avant les années 1990 et suivantes.
En résumé, le CRU met en garde sur le fait que ses séries de températures non ajustées (TS) ne sont pas appropriées pour l'analyse du climat, et renvoient les utilisateurs aux produits CRUTEM. Cependant, les documents d'accompagnement n’expliquent pas les modifications apportées, ni les raisons pour lesquels les séries CRUTEM seraient, elles, fiables pour des recherches sur le climat.

5.1.3. Les méthodes d'ajustement : GISS

Le GISS utilise les données GHCN v2 brutes (non ajustées) (Hansen et al. 2001). En dehors des États-Unis, le GISS utilise les données de population de l’archive GHCN pour estimer un effet d'urbanisation, bien que sa méthode ne soit pas destinée à éliminer les variations de température dues à des effets locaux d’aérosols ou d'utilisation des terres. Une station est identifiée comme région rurale, petite ville ou urbaine sur la base de sa population. Les stations rurales sont identifiées comme étant celles de moins de 10.000 habitants, à l'exception des États-Unis, du sud du Canada et du Mexique, où les stations rurales sont identifiées comme des endroits « sombres » en utilisant des images satellite de nuit.
Pour une station urbaine ou une petite ville, toutes les stations rurales dans un rayon de 500 km de celle-ci sont identifiées. Tant qu'il y a au moins 3 stations, la tendance de la température moyenne est calculée, puis la station urbaine au centre du cercle est ajustée de sorte que la tendance soit la même que la tendance en milieu rural. Si trois stations ne sont pas disponibles à moins de 500 km, le rayon est étendu à 1000 km.
La validité de cet ajustement dépend fortement de l'hypothèse selon laquelle les stations identifiées comme « rurales » montrent le vrai signal climatique régional. Bien que intuitivement plausible, il y a deux raisons pour lesquelles cette hypothèse pourrait ne pas être adéquate.
Tout d'abord, on a longtemps cru que les biais dus à l'urbanisation croissent plus rapidement dans les premiers stades de la croissance démographique. Oke (1973) a montré que même les petites villes ont un réchauffement mesurable par rapport à la campagne environnante. Oke a estimé que l'effet d'îlots urbains (en °C) augmente selon la formule UHI = 0.73log10(pop) où pop désigne la population. Voici un graphique de cette relation, pour une population variant de 0 à 250 000 :

rmk5-1.jpg

Figure 5-1: Modèle d’Oke (1973) sur l'effet d'îlot urbain. La valeur théorique de départ est égale à zéro si la population est égale à une seule personne.

Cela signifie que si une ville était passée de 500 à 1.000 personnes au cours de la période de calcul, elle serait considérée comme « rurale » dans l'analyse de GISS, et enregistrerait cependant 0.22 °C de réchauffement indu. Par contre, une ville, passant de 240.000 à 250.000 personnes ne ferait qu'ajouter 0,014 °C de réchauffement indu, mais serait ajustée sur la même tendance que la petite ville, et dans ce cas il s'ensuivrait une amplification de son taux de réchauffement.
Concernant les données CRU, Brohan et al. (2006, p. 11) ont souligné que des ajustements raisonnables d'urbanisation devraient toujours se traduire par une diminution des températures : « Les températures récentes peuvent être trop élevées en raison de l'urbanisation, mais elles ne peuvent pas être trop basses ». Cependant, la méthode GISS conduit régulièrement à des ajustements qui augmentent les estimations de tendance. Hansen et al. (2001) signalent que « l'ajustement d'homogénéité des données urbaines ne change la tendance dans le sens du refroidissement que dans 58% des cas, alors qu'elle la réchauffe dans les autres 42% des stations urbaines. » (P. 5).

Le deuxième problème avec l'hypothèse qui sous-tend cette méthode est que les stations météorologiques dans les zones rurales sont généralement liées à l'agriculture, et que la modification des paysages dûs à celle-ci peut induire un biais de réchauffement. Chagnon (1999) décrit une série de températures recueillies de 1889 à 1952 dans une station de recherche agricole de l'Illinois par un thermomètre placé dans un tube de verre enfoui à un mètre de profondeur.

Le tube a été déplacé deux fois pour le maintenir en zone totalement rurale quand le campus universitaire s'est élargi. Les températures de l'air ont également été recueillies au dessus du sol par une station qui a été progressivement envahie par le campus universitaire, ainsi que dans deux villes voisines. En utilisant les stations au dessus du sol, l'USHCN estime un réchauffement de 0,6°C dans l'intervalle, et juge qu'il est libre de tout biais d'urbanisation. Chagnon a toutefois constaté que la température du sol n’a augmenté que de 0,4°C, ce qui l'amène à conclure que même les petites villes et les sites de campus d'université peuvent avoir des effets de réchauffement urbain plus importants que ceux qui sont généralement supposés.
Christy et al. (2006) décrit les évolutions comparées en Californie entre un district de montagne non-agricole et un district agricole (de vallée) des environs, en décrivant un réchauffement substantiel du district agricole , mais non mesuré dans en montagne. Il a mis en garde sur le fait que les zones agricoles peuvent avoir des biais de réchauffement qui leur sont propres. Ce constat est important à la lumière de la migration des enregistrements GHCN vers des altitudes de plus en plus basses, en d'autres termes loin de flancs de montagne et vers les fonds des vallées, où l'agriculture tend à être située (voir Figure 1-8)(NDT. section 1).
Une autre préoccupation au sujet de la méthode GISS est qu'elle nécessite des paires adjacentes rural-urbain, et qu'en tant que telle elle est principalement applicable aux États-Unis. Alors que 74 pour cent des stations américaines ont suffisamment de données rurales proches pour l'estimation d'un ajustement, seulement 37 pour cent des stations hors des États-Unis le sont (Source). Et puisque plus de la moitié des données GHCN hors-États-Unis proviennent d'aéroports, cela implique qu'une grande fraction des données GISS vient de données non ajustées d'aéroports en dehors des États-Unis.
En se concentrant sur les Etats-Unis, où la plupart des stations sont ajustées et où la plupart des ajustements réduisent la tendance, Hansen et al. (2001) rapportent que l'effet global des ajustements réduit la tendance au réchauffement des États-Unis au 20ème siècle d'environ 0,15 °C. Leur réchauffement estimé de 1900 à 1999 est de 0,51 °C au niveau mondial, en comparaison de 0,32 °C aux États-Unis. Là encore, il est intéressant de noter que, lorsque des ajustements sont les plus réalistes et l'échantillonnage est le plus dense, la tendance est nettement plus faible.

5.1.4. Les méthodes d'ajustement : la NOAA.

La NOAA utilise les données GHCN ajustées (voir section 1.1.2). Elle ne fait pas d'autres ajustements pour le biais d'urbanisation, mais elle ajoute une constante à l'écart type, pour élargir l'intervalle de confiance de 95%, afin de prendre en compte l'incertitude supplémentaire créée par le problème (Smith et Reynolds 2005 p. 2035).

28 réponses à “Examen critique des données mondiales de température de surface /5”

  1. Un peu de bon sens (près de chez vous !).
    Ce sujet est passionnant, les faits sont superbement décortiqués, mais sans être un spécialiste, et en réfléchissant juste un peu, comment peut-on sérieusement parler de mesures de tempêratures fiables et sur la durée ?
    Nombre de stations dans le temps, répartition géographique, stabilité des positions des stations (latitude, longitude, altitude et autres « tudes »), des relevés, des matériels, effets d’ilôts de chaleur urbaine etc, etc.
    Même les mesures par satellites, qui, au moins couvrent presque tout le globe et prennent des mesures pluri quotidiennes, ont (eu ?) des problèmes de calibrage, sans compter que les mesures sont celles de la basse troposphère, et pas au sol, où, malheureusement, on reste dépendant des stations (voir biais possibles).
    On me dira que les erreurs se compensent, que les « corrections » sont faites de manière rigoureuse… j’en doute fortement, notamment quand on sait que les correcstions des tempêratures du GISS sont faites par 1/2 personne à plein temps, qui doit être hyper efficace et compétent pour ne jamais se tromper…
    A la limte sur une sation, dont on a trace de nombreux et constant srelevés, voir l’évolution des tempéretures au sol, dans cet endroit, a un certain sens.
    Malheureusement, ces stations sont rares, Central England et Prague de mémoire, mais l’analyse de leurs données est intéressante.
    Par exemple au XVIII° des remontées inter décennales de températures, que l’on qualifierait de nos jours de « sans précédent » et « preuve du RCA (dû aux émissions de CO2 issues de la combustion d’énergie fossile », le mantra habituel.
    Sauf qu’en ce temps là… quoique, le chauffage quand il y en avait, de même que la cuisine et le début de l’industrie consommaient du bois, voire du charbon, les deux émettant du CO2… mais les volumes consommés ne collent pas avec ces variations « soudaines » de temp. (dans ce cas on dit que c’est le soleil, ben tiens, quand on en a besoin de celui-là, on sait le trouver).
    PS : Qui va oser nous ressortir la courbe « hockey Stick » ? les paris sont ouverts.

  2. pastilleverte (#1),
    Je partage votre point de vue.

    Comment peut-on imaginer – même avec les techniques scientifiques les plus neutres, appliquées par les scientifiques les plus scrupuleux – arriver à tirer du fatras qui est décrit une mesure à quelques degrés près la « température moyenne de la terre ».

    Et on a souvent dans ce domaine

    1) des techniques assez douteuses scientifiquement (par exemple les anneaux d’arbres enregistrent très mal les températures),

    2) des scientifiques qui démontrent, dans les écrits qu’ils ont l’imprudence de laisser derrière eux, que la recherche de la Vérité Scientifique.

    Je vous engage à faire lire à des personnes qui ne sont pas engagées dans le débat le texte de la lettre de Phil Jones à Michael Mann reproduit par McKitrick en 5.2.1 ci-dessus. Au moins l’extrait suivant :

    POUR VOUS SEULEMENT – ne pas faire suivre. Les paragraphes significatifs sont les 2 derniers de la section 4 page 13.

    Comme je le disais, ils sont rédigés avec soin en raison du fait qu’Adrian connaît Eugenia depuis des années. Il sait qu’ils ont tort, mais il a craqué après qu’elle l’ait presque supplié de modérer [NdT : ses critiques ?] car cela pourrait affecter ses propositions à l’avenir ! [NdT : affecter ses propositions ??? = diminuer ses chances d’avoir ses papiers acceptés ?? ses crédits accordés ??? … je me perds en conjectures]

    Je n’ai rien dit de tout cela, alors faites attention à la façon dont vous l’exploitez – si toutefois vous le faites. Ne dites pas non plus que vous avez le pdf.

    Le jeu consiste à regarder attentivement le cobaye pour essayer de deviner à quel moment il découvre l’impact majeur que peut avoir – sur la science en marche – la relation entre Adrian et Eugenia … et le sourire narquois qui se dessinera peut-être à l’évocation fugitive des procédés qui on pu conduire Adrian à « craquer ».

    Sur cinq personnes à qui j’ai montré cet extrait – sans contexte – quatre m’ont dit : « C’est quoi ce foutoir ? ». Je vous laisse deviner ma réponse.

    Essayez de votre coté.

    PS : Qui va oser nous ressortir la courbe “hockey Stick” ? les paris sont ouverts.

    Mais … le Centre National de la Recherche Scientifique de la République Française (CNRS) … mon cher … rien que ça !…

  3. PapyJako (#2),

    Lors d’un copier/coller malencontreux, une partie importante d’une phrase a disparu. Je vous la rend ci-dessous :

    Au lieu de

    2) des scientifiques qui démontrent, dans les écrits qu’ils ont l’imprudence de laisser derrière eux, que la recherche de la Vérité Scientifique.

    Il fallait lire

    2) des scientifiques qui démontrent, dans les écrits qu’ils ont l’imprudence de laisser derrière eux, que la recherche de la Vérité Scientifique n’est pas le premier de leur souci.

  4. Je suis bien heureux d’avoir pu lire cette 5e partie.

    Un régal de pertinence et de justesse.

    Un très grand merci à PapyJako et Manu95.

  5. ben on peut toujours obtenir une tendance m^me si le signal est bruité..une question est de connaitre l’incertitude la dessus…l’autre le biais…la dernière et sans doute la plus importante la suspicion…
    ..pourquoi avoir pris un observable si bruité si biaisée: car on avait pas trop le choix…
    pourquoi vouloir deduire un rechauffement d’une moyenne de temperatures….car on a pas grand chose d’autre….
    C’est piteux mais c’est pas un sujet facile….si au moins l’incertitude etait plus clairement exposée….
    Avec 3000 balises qui se baladent dans les océans.. on est capable de donner une estimation du contenu thermique de l’océan….
    On devrait en etre au stade des observations et pas de l’analyse.

  6. lemiere jacques (#5),

    Avec 3000 balises qui se baladent dans les océans.. on est capable de donner une estimation du contenu thermique de l’océan….

    Vous avez raison, les balises sont un élément clef de la compréhension de l’évolution actuelle. Mais cela ne nous renseignera pas sur les températures au moyen âge.

    Or, une des deux pattes de l’alarmisme climatique est le caractère soi-disant sans précédent du réchauffement actuel. Et les 3000 balises n’y changeront rien.

    L’autre patte est la rétroaction positive ou les balises auront peu d’effet …

  7. Avec 3000 balises qui se baladent dans les océans.. on est capable de donner une estimation du contenu thermique de
    l’océan….

    La notion de « contenu thermique » de l’océan ma laisse dubitatif, même en admettant que les balises soient nombreuses et bien réparties.
    Réparties dans les 3 directions de l’espace, j’entends, c’est à dire en profondeur, jusqu’à 4000 m, qui est la profondeur « habituelle ».
    Les balises mesurent bien la température en profondeur n’est ce pas ? (en fait non, je vois pas comment elles le feraient)

    Une fois que vous avez effectué la somme des Q de chaque « couche » d’eau à un instant t, vous en faites quoi de Qtotal ?
    Vous lui attribuez une valeur représentative du système thermodynamique « climat » ? C’est précis cette évaluation de Q ?

    Vous avez une idée de la manière dont il faut s’y prendre pour relier tout ça à l’atmosphère ?

    Comme d’habitude en « climatologie », on peut dire ce qu’on veut, rien n’est calculable, rien n’est vérifiable…

  8. Murps (#7),

    Les balises mesurent bien la température en profondeur n’est ce pas ? (en fait non, je vois pas comment elles le feraient)

    Il y a des buoées qui plongent et se stabilisent à une profondeur donnée, tout en dérivant dans les courants. Elles remontent de temps en temps à la surface pour communiquer les données enregistrées.

    Pour le reste …

  9. Comment fonctionne un flotteur Argo ?
    Le flotteur Argo est un instrument autonome de subsurface qui mesure la température et la salinité au cœur des océans.
    Le flotteur est programmé à l’avance et déployé à partir d’un navire. Il enchaîne alors des cycles de dix jours, pendant plusieurs années, jusqu’à épuisement de son énergie.
    Chaque cycle se décompose en deux temps : une descente vers l’immersion de consigne à 1000 mètres, puis une dérive au gré des courants jusqu’à l’immersion de début de profil à 2000 mètres. Il entame ensuite sa remontée vers la surface en réalisant ses mesures. Une fois émergé, il transmet ses données avant de repartir pour un nouveau cycle.

    Ifremer

    Plus de détails en lisant : 20 Mars 2008 : La température des océans n’a pas varié ou a légèrement décru depuis 2003. http://www.pensee-unique.fr/oceans.html

  10. Tous les matins, en passant sur le pont ND à Paris, j’imagine une campagne de mesures de la tempêrature, en installant des thermomètres, de même modèle, sur les lamapdaires qui bordent le pont, de chaque côté, un au niveau du point le plus bas du tablier, l’autre au niveau des rambardes et le 3° au sommet des lampadaires, et ce, de chaque côté du pont.
    Il y aurait un relevé très fréquent et automatisé (toutes les minutes ?), et on ferait l’expérience sur un an.
    Dans un espace aussi restreint (quelques centaines de M3), il serait intéressant de voir les variations des différents thermomètres, sur diverses périodes (heure, jour, mois), en mini et maxi, en moyenne, je laisse à nos scientifiques climato statisticiens toutes les « marges » (enfin, sans tricher!) pour faire joujou avec les données.
    Comme ce ne sera jamais réalisé, on ne peut qu’çiamginer les résultats : selon mon modèle préféré dit de « pifomètrie climatomancienne », j’affirme que l’on constaterait des écarts « significatifs » (quelques 1/10°C)… et qu’en déduirait-on, dans un espace restreint, connu, avec des méthodes « rigoureuses » et des donnèes incontestables ?
    Sans doute qu’il y a ,encore et toujours, des variations de tempêratures…
    De là faisons un modèle pour l’appliquer à la Terre entière… (non, je rigole, « ils » n’oseraient pas ? Si ?)

  11. pastilleverte (#10),
    oui…et vous pouvez ajouter étudier la réactivité du thermomètre…qui met un certain temps pour s’équilibrer et qui s’équilibre d’abord avec son proche environnement autrement dit que mesure un thermomètre…. Bref, les températures près du sol sont un truc horrible.. et la température dans un système hors équilibre thermodynamique quasiment un mystère, jusqu’au point où on peut affirmer qu’on ne peut même pas les mesurer trop dans le détail puisque le système n’est pas à l’équilibre……..mais…on a rien d’autre…a priori les mesures satellitaires car elles sont plus globales et s’éloignent de sources de bruits sont meilleures mais…..on fait avec ce qu’on a…
    Ce n’est pas ça qui est choquant…ce qui choque c’est l’assurance dans l’affirmation des resultats…
    C’est un probleme de sciences non expérimentales qui à l’instar des médias audivisuels peuvent émettre des hypothèses très hardies à partir à l’ignorance de la réalité..

    Un enfant a disparu….rapt?enlevement extraterrestre? fugue? changement de plan de réalité? transformation en insecte mutant?
    non il etait parti chez tata….mais mieux vaut pas le savoir c’est pas vendeur….

    MAIS le plus grand problème de la climato est le soupçon sur certains climatologues atteints du syndrome du sauveur de l’humanité…..

  12. pastilleverte (#10),
    et tiens ça permet de rappeler que quand, pour mesurer le « hot spot » des climato disposent de DEUX mesures de temperature independantes…ils preferent ne pas en tenir compte et la deduire du « vent thermal »….rien à dire .. chapeau bas….

  13. M (#9), oui et ça révèle un problème majeure des bouées qui est de ne pas être indépendantes des courants et donc de ne pas donner de cartes géographiquement uniforme de la temperatures de océans

  14. lemiere jacques (#13),
    La bouée Argo dérive en profondeur et mesure les températures et salinités au cours de sa remontée qui dure ±6 heures. Ces données et sa position sont alors transmises par satellites.

    Quant à leur répartition elle semble assez uniforme d’après la carte vue sur le site de Pensée-unique.

  15. lemiere jacques (#11),

    jusqu’au point où on peut affirmer qu’on ne peut même pas les mesurer trop dans le détail puisque le système n’est pas à l’équilibre……..

    Ce qui n’empêche pas cette bande d’escro-matologues de nous emmerder ennuyer avec des dixièmes de degrés …

  16. M (#14),
    oui mais c’est une apparence et il faut voir la distance entre deux bouées…., certaines sont attrappées par des tourbillons par exemple, et mieux vaudrait supprimer le lien entre courant sur le principe….
    Il me semble mais je peux me tromper que le but de ces boeués etait davantage l’etude des courants qu’une mesure de la chaleur contenue dans l’océan.
    je n’y connais rien aux temperatures des eaux de l’ocean mais , comme ça , en voyant les courants avec des temperatures assez homogènes il serait plus judicieux de réussir à définir les « limites » de ses courants ( mieux vaut mettre plus d’appareils là où les gradients de temperature sont forts à priori)…. rien n’indique sinon l’apparence de la distribution que ce soit une méthode adaptée que de les laisser deriver. Mais c’est pareil….mesurez donc un contenu thermique soit.. mais avec quelle precision…et sur la base de quelles hypothèses…ça me laisse songeur….

  17. lemiere jacques (#16),

    Il y a de quoi être songeur en effet. mais c’est le cas pour toute la pseudo-science climatomancienne.

    Je te conseille de (re)lire entièrement la première partie de la page Océans sur Pensée unique
    04 Octobre 2010 : Océans : A la recherche de la chaleur perdue…

  18. PapyJako (#2),

    Sur cinq personnes à qui j’ai montré cet extrait – sans contexte – quatre m’ont dit : “C’est quoi ce foutoir ?”. Je vous laisse deviner ma réponse.

    Le respect de la vérité scientifique m’oblige à réparer une grave erreur factuelle.

    En relisant mes notes, un ami, à qui j’avais demandé de pire-reviewer mon commentaire ci-dessus, m’a fait gentiment remarquer que mon compte n’était pas correct. Sur les cinq, seulement trois ont dit :

    “C’est quoi ce foutoir ?”.

    Un a dit

    “C’est quoi ce bordel ?”.

    Le cinquième s’est étranglé avec la cacahuète qu’il était en train de grignoter.

  19. Merci pour ce travail de traduction salutaire. Serait il possible d’avoir une version de toutes les parties traduites sur une page unique (ou un pdf unique) ?

  20. vincent (#20),

    Merci pour ce travail de traduction salutaire. Serait il possible d’avoir une version de toutes les parties traduites sur une page unique (ou un pdf unique) ?

    Bonne idée, je peux me charger de le faire si Araucan peu le caser quelque part …

  21. Papyjako (#21),

    Pour le document unique, c’est déjà fait :
    Au format OOo Writer (.odt), pour pouvoir en faire des extraits ou le retravailler.
    Au format PDF, si c’est pour lire ou imprimer.

    Ces deux fichiers seront mis sur mon site d’ici quelques minutes

  22. Araucan (#26),

    Je vois que mon document a été repris tel quel, y compris la figure finale provenant de http://www.loups.org 😉 mais uniquement dans l’intro de la cinquième partie, alors que je m’attendais à la trouver dans la première.

    Tant qu’on y est il serait bon de corriger sur les différentes pages la « Source » qui donne une Error 404

    Not Found

    The requested URL /wp-content/ross_mckitrick-surface_temp_preview.zip was not found on this server.

    Cordialement,

    Jean-Claude