par Benoît Rittaud.
Aujourd’hui s’est tenue la conférence débat à l’Académie des sciences sur le système climatique, à laquelle j’ai finalement pu aller, ce qui m’a donné le plaisir de rencontrer un pilier de Skyfall ainsi que retrouver une vieille connaissance. Un coucou tout particulier à eux, donc, qui auront sans doute également des réactions intéressantes à faire partager.
Nous avons eu droit à cinq interventions, ou plutôt quatre plus une : les quatre premières dans la ligne du GIEC (il devait y en avoir cinq avec celle de Thierry Dudok de Wit, sauf que l’avion de celui-ci n’a pas décollé), la cinquième de Vincent Courtillot. Enfin, il y a eu une séance de débat, pour le moins animée.
Ce qui suit est écrit à chaud, moins de deux heures après la séance, alors pardon d’avance pour les erreurs et omissions. (N’hésitez pas à me les signaler.)
Des quatre premières interventions, celle de Christophe Cassou a été la plus engagée et, de mon point de vue (pas que du mien d’ailleurs), la plus contestable. L’exposé avait pour objet de séparer, dans l’évolution climatique, la partie variabilité naturelle de la partie forçage (anthropique ; le CO2, quoi). Côté variabilité naturelle, l’orateur a évoqué les classiques El Niño, La Niña, oscillation décennale du Pacifique et oscillation multidécennale de l’Atlantique, affirmant qu’en ce moment la « variabilité interne [i.e. « naturelle »] est forte », et qu’elle explique très bien le plateau de températures de ces quinze dernières années. Je cite : « le plateau de 2000-2010 n’est absolument pas une surprise pour les climatologues. » Cette affirmation a fait bondir Marc Fontecave lors de la séance de question à la fin des interventions, qui a évoqué divers articles parus dans Nature et Science posant la question du fameux « hiatus », puis fielleusement signalé avoir vu une conférence de 2010 sur le réchauffement climatique qui montrait une courbe de température s’arrêtant… en 1998, l’année du fameux super-El Niño. Il n’a pas eu la présence d’esprit (pas plus que les autres intervenants) de faire aussi remarquer que Christophe Cassou a, lui, présenté une courbe de tendance de température sur la période 1980-2010 (si ! si !), ainsi qu’un diagramme de l’activité cyclonique dans l’Atlantique tropical qui s’arrêtait… en 2005 (n’ayant, paraît-il « pas trouvé » les données les plus récentes !). Selon l’orateur, les vents, plus forts depuis 1999 à l’échelle globale, ont déplacé la chaleur captée par les océans et l’ont d’une certaine manière enfouie dans les couches profondes. On reconnaît là la ligne de défense classique du carbocentrisme pour expliquer la fameuse « chaleur manquante » de Kevin Trenberth. L’orateur a aussi voulu opérer une distinction entre « prévisions climatiques » et « projections climatiques ». Selon lui, parce qu’elles ne s’intéressent qu’aux forçages (anthropique, toujours) et pas à la variabilité naturelle, les « projections » n’ont pas pour fonction d’être comparées aux observations futures de la même façon que des prévisions classiques. Pas sûr que Christophe Cassou ait vraiment compris l’essence de la théorie des probabilités, en tout cas il ne s’est pas donné la peine de nous expliquer comment, dans ces conditions, accorder du crédit à des modèles qui ne sont pas censés pouvoir être confrontés à l’observation. (Je ne dis pas qu’il n’a pas de réponse à cette question, juste qu’il ne l’a pas abordée dans son exposé, et je trouve ça gênant parce qu’il est ici question de la méthode scientifique elle-même, dans ses aspects les plus fondamentaux.) Selon l’orateur toujours, le climat tropical n’est plus compatible avec des évolutions purement naturelles, et il en ira de même pour le climat des États-Unis dans les années 2030-2040 et celui de l’Europe en hiver (pour l’été, ça devrait venir plus vite). Enfin, l’orateur nous a vertueusement mis en garde : « attention aux impostures », proclamait l’un de ses transparents qui s’en prenait à un absent (en l’occurrence Bernard Beauzamy) qui aurait montré des tendances de températures trompeuses car portant sur des durées trop courtes. Il me semble que l’usage excessif du mot d’imposture a suffisamment été reproché à Claude Allègre pour qu’on évite de l’employer contre quelqu’un qui n’est pas là pour se défendre. Mais bon, lorsqu’on sait que Christophe Cassou a plusieurs fois parlé de « dérèglement climatique » et que l’expression apparaissait même sur l’un de ses transparents, l’on comprend sans peine que l’exposé n’était pas destiné à être neutre.
L’exposé suivant, d’Anny Cazenave, a été beaucoup plus mesuré, et très intéressant même s’il y a quelques reproches à faire de ci de là. Il s’agissait de la question de la montée du niveau des mers, expliquée par trois facteurs qui, par ordre décroissant d’importance, sont la fonte des glaciers, l’expansion thermique de l’océan (dû au réchauffement) et les échanges d’eau avec les bassins hydrographiques des continents (les barrages, d’une part, qui retiennent l’eau et font donc un peu baisser l’Océan, le pompage des eaux souterraines, d’autre part, qui remet de l’eau dans le circuit et fait, lui, monter l’Océan). Au rayon reproches, on a carrément eu droit au « +1,7 mm de plus au XXe siècle, +3,2 mm depuis 1992 et les mesures satellitaires, donc ça va plus vite, » escamotage en règle des problèmes de calibration (sans parler du « Jusqu’à la fin du XIXè siècle, la hausse n’a pas dépassé 0,5 mm/an » : y z étaient précis, à l’époque, hein ?…). OK, c’est juste un exposé, et je suppose qu’elle a des arguments à faire valoir. C’est juste que c’est un peu agaçant quand ce genre de problème, maintes fois évoqués, est à ce point glissé sous le tapis. Autre critique, de forme cette fois : cet ours polaire sur son glaçon (toujours le même, évidemment), dont l’exposé se serait bien passé. Mais à part ça, l’exposé était vraiment très mesuré, je crois même que le CO2 n’a même pas été évoqué, pas plus que le « forçage anthropique ». C’était du solide, qui présentait les fortes corrélations entre le niveau des mers et les événements El Niño/La Niña, et a fini sur un constat sans équivoque : la hausse du niveau des mers ne montre aucune accélération. Quiconque a pris le temps de regarder la courbe l’a déjà remarqué en un coup d’œil, mais ça fait quand même plaisir de l’entendre dit de façon aussi nette.
Avant de passer à l’exposé suivant, peut-être trouverez-vous intéressant d’avoir un petit aperçu de l’ambiance feutrée qui a régné dans la salle avant la discussion finale. La Grande salle des séances est une pièce qui doit faire quelques kilomètres de haut, avec des murs en bois où trônent portraits et bustes des grands anciens de l’Académie. Bien que située au deuxième étage, il n’y a aucune fenêtre. La chaleur, la lumière un rien tamisée pour permettre de mieux voir les diaporamas… tout cela exerce un effet apaisant propice à des séances calmes, y compris sur un sujet aussi explosif que celui du climat. Même les d’ordinaires tapageuses sonneries de portables (messieurs les Académiciens, tout de même, un peu de tenue !…) se faisaient clairs gazouillis sans importance au milieu de la docte assemblée de sages, habillés de gris et de sombre (avec mon polo orange, j’ai pas mal détonné…). Ambiance apaisante sur les esprits, et parfois soporifique sur les corps : plusieurs personnes se sont assoupies durant les exposés. J’ignore si les architectes de la salle l’ont précisément conçue à cette fin de pacifier des débats potentiellement orageux, mais si c’était l’intention, alors c’est réussi.
Le troisième exposé était celui de Sandrine Bony sur les nuages, et je dois dire que c’est là que j’ai moi-même été un peu saisi par l’ambiance cotonneuse régnante, d’autant que l’exposé a été un peu longuet (l’oratrice s’est d’ailleurs un peu fait reprendre à ce propos par l’orateur suivant ; ça aurait quand même été bien que le président de séance fasse un peu mieux respecter les temps de parole). Il a d’abord été rapidement question de Fourier, un classique du genre toujours énervant pour un climatosceptique. Sandrine Bony s’est ensuite très longuement étendue sur le rapport Charney, pour en louer le caractère visionnaire à tout point de vue et les conclusions « incroyablement correctes ». Elle n’est malheureusement pas allée jusqu’à remarquer que les incertitudes du GIEC n’ont toujours pas diminué depuis ce rapport, malgré les milliards de dollars engloutis dans les recherches et les téraflops des modèles, mais bon. L’oratrice a ensuite comparé les approches de la théorie (étudier le climat à partir de la physique) et des modèles, expliquant que la divergence entre eux sur une question comme la sensibilité climatique tient à une source principale d’incertitude qu’est le comportement des nuages bas au-dessus des océans (dont on ignore jusqu’au signe de la rétroaction). Sandrine Bony a distingué entre une composante thermodynamique, qui a tendance à exacerber les extrêmes (« wet get wetter, dry get drier ») et une composante dynamique, indiquant que celle-ci peut donner une réponse très rapide à un accroissement de CO2, à l’échelle de la dizaine de jours.
Le quatrième exposé, de Jean-Pierre Gattuso, portait sur la question de l’acidification de l’Océan. Gros reproche de forme : son diaporama intégralement en anglais, la marque la plus sûre d’un copié-collé d’un exposé antérieur. Il me semble que si, éventualité plus qu’improbable, m’échoyait un jour l’honneur de présenter un exposé à l’Académie des sciences, je ferais quand même l’effort de reprendre mes diapos pour les adapter. Passons. Première diapo : une bonne vieille cheminée d’usine avec la fumée qui en sort… grrrrr… Passons. Une fois encore, ce n’est que de la forme (mais qu’est-ce que c’est agaçant, rogntudju !). Jean-Pierre Gattuso est revenu un instant sur le terme « acidification », qui, selon lui, n’était pas utilisé, a été inventé en 1995 et « les médias l’ont repris… » Les scientifiques aussi, donc. L’orateur n’a pas semblé plus troublé que ça de cette contamination du scientifique par le médiatique. Un peu comme lorsque les orateurs de cet après-midi ont parlé du « CO2 » au lieu des gaz à effet de serre (ce qui n’empêche pas qu’on me reproche le terme de « carbocentriste », soi-disant injurieux). L’exposé était intéressant, même si là encore il y avait de quoi être dubitatif sur l’affirmation selon laquelle le pH de l’Océan devait être de 8,2 en 1800 (trop fort, la précision), de 8,05 en 2000 et sera de 7,75 en 2100. C’était d’autant plus étonnant que l’orateur a par ailleurs convenu que « les séries temporelles sont jeunes et inégalement réparties ». Autre moment de gloire : la présentation de la courbe exponentielle du nombre de publications sur le sujet de l’acidification des océans, avec comme message subliminal que c’est vachement branché et vachement nouveau : 50% des articles sur la question ont moins de 3 ans ! Pour moi, c’est se tirer une balle dans le pied, parce que c’est la marque d’un domaine qui n’est pas encore mature. Mais bon, dans notre monde qui ne jure que par les classements de Shangaï, impact factor et autres h-index, je suppose qu’il faut voir les choses autrement. Côté positif de l’exposé, nous avons eu une présentation de l’évolution de la capacité des capteurs pour mesurer le pH. Là, c’était vraiment de la belle science en marche. De gros progrès ont été faits, au point qu’on a maintenant un niveau de résolution à l’échelle journalière, avec une précision de 20 milliunité de pH. D’ici quelques années, 10% des balises Argo seront équipées, ce qui permettra aussi des mesures en profondeur, et non plus seulement en surface. On devrait donc apprendre des choses passionnantes (du moins si… enfin vous voyez). J’ai aussi appris l’existence d’un site, Ischia, situé juste à côté du Vésuve, où se trouve une source naturelle de CO2. Ce site présente un certain nombre d’avantages qui permet de l’utiliser pour faire des prévisions sur l’évolution à venir du niveau de pH de l’Océan et de la réponse de l’écosystème marin.
Des exposés intéressants bien que sans grande surprise, donc. Un spectateur extérieur au sujet pouvait se dire que la science avançait sans grand souci dans l’ombre du GIEC, et que la messe était dite.
Et puis est venu le tour de Vincent Courtillot. Dix minutes. Dix petites minutes lui avaient été allouées pour renverser la tendance et bousculer les certitudes. Bon, lui non plus n’a pas vraiment respecté son temps de parole… Mais quelle densité ! Quelle force ! Je sais, j’en fais trop, et vous allez dire que j’idéalise. C’est sûrement vrai, alors je vous fais confiance pour faire une lecture prudente de mon ressenti. Vincent Courtillot a raconté comment ses recherches sur le magnétisme terrestre et ses liens avec l’activité solaire l’ont conduit à s’intéresser à la question du climat. Son exposé a brillé sur deux points fondamentaux : d’une part, il parlait vraiment de ce qu’il connaissait bien pour l’avoir travaillé lui-même à fond avec son équipe (notamment les longues séries de données de qualité variable), d’autre part il s’est, conformément à l’intitulé de la conférence-débat (et contrairement à plusieurs autres intervenants), centré sur les observations. Rappelant que les organismes internationaux lui ont refusé les données de température (tiens, ça me rappelle que la CADA va rendre très bientôt son avis sur ma demande de données à Météo France…) et qu’il a lui-même dû effectuer un travail de fourmi de deux ans pour reconstituer ce dont il avait besoin, il a ensuite souligné la différence de nature des courbes de réchauffement de l’Amérique du nord et de l’Europe, la première montrant une évolution en dent de scie avec un fort refroidissement intermédiaire là où la seconde a connu au contraire un grande stabilité avant un saut spectaculaire dans les années 1980. D’où ses doutes sur ce que dit l’AR4 des réchauffements régionaux. Vincent Courtillot est ensuite revenu sur la crosse de hockey, « je l’ai même enseignée », a-t-il confessé, avant de se rallier aux observations de Moberg sur le fait que les cernes des arbres sont de filtres passe-haut, c’est-à-dire qui réagissent bien aux fluctuations rapides de températures mais pas aux fluctuations à de grandes échelles de temps (parce qu’ils s’adaptent mieux à ces changements-là). Le cycle de mille ans qui s’observe sur la courbe de Moberg se corrèle avec l’activité solaire. Pour Vincent Courtillot, l’Optimum médiéval n’est probablement pas qu’un phénomène climatique régional comme le pensent certains. Pour la période récente (le XXe siècle, en gros), l’orateur propose de corréler la température non pas au CO2, mais aux changements de régime des oscillations océaniques, selon une échelle de temps d’une soixantaine d’années. (Pour les prochaines décennies, les astrophysiciens prévoient pour l’activité solaire un nouveau minimum de Maunder : préparez vos doudounes ?) Enfin, une autre trace cruciale de l’influence du soleil selon Vincent Courtillot est celle de la durée du jour, extrêmement corrélée aux indicateurs solaires. Son explication : la durée du jour est affectée par les vents zonaux, que la Terre « intègre » (au sens mathématique, c’est-à-dire qu’elle en fait en quelque sorte la moyenne, en modulant la durée du jour). L’un des travaux de l’équipe de Vincent Courtillot, particulièrement frappant, a consisté à considérer, pour chaque cycle solaire, l’indicateur tout bête : « plus haut » ou « plus bas » que la moyenne des cycles depuis trois siècles, pour ensuite le comparer à des relevés de températures disponibles sur toute la période. Bilan : à Prague comme à Bologne, la température locale « sait » si l’on est dans un cycle « plus haut » ou « plus bas ». Vincent Courtillot a ensuite copieusement dézingué les modèles : « très peu d’entre eux sont compatibles avec les observations » a-t-il dit, montrant la figure comparative qui figurait dans le second draft de l’AR5 (la fameuse figure escamotée dans le rapport final, mais Vincent Courtillot s’est abstenu de le rappeler). « 95% des modèles ont prévu une température au-dessus des observations, 5% au-dessous : moi, j’appelle ça une certitude à 5%, pas à 95%. » Débordé par le temps, Vincent Courtillot n’a ensuite que brièvement évoqué le niveau des mers ou les événements météorologiques extrêmes, préférant proposer une expérience de pensée originale : imaginons la création en 1900 du GIETP, le Groupe Intergouvernemental d’Experts sur la Tectonique des Plaques. En 1920, quelques années après les travaux fondateurs de Wegener, la théorie aurait peiné à rassembler 5% d’approbation du GIETP. Lorsqu’en 1930 Jeffreys montre les failles du modèle de Wegener, le rejet est encore plus net. C’est seulement à partir des années 1950 que les choses évoluent, mais il faut attendre 1965 et le colloque de l’AGU (notamment une conférence de Xavier le Pichon) pour que la tectonique des plaques s’impose, tout en n’atteignant un consensus de 90% que vers 1980. Selon l’orateur, le GIEC est un peu aujourd’hui dans la situation où aurait été le GIETP dans les années 1940.
De mon point de vue, Vincent Courtillot est celui qui a donné sa pleine mesure à cet après-midi. Il a réveillé l’assemblée, et la séance animée de discussion qui a suivi lui doit beaucoup. Le détail des questions, qui allaient de la modélisation régionale aux récifs coralliens, compte à mon sens moins que l’engagement des uns et des autres. S’il faut décerner la palme de l’indignité, je crois qu’elle revient haut la main à Édouard Brézin, qui s’en est pris à Vincent Courtillot d’une manière à la limite de l’abjecte, en lui demandant pourquoi il avait dû faire appel à des mathématicien de Moscou (c’est loin, Moscou) pour des analyses qui, si elles étaient vraies, « devraient se voir plus facilement », avant de lui reprocher d’avoir invoqué Richard Lindzen, ce « chercheur controversé » qui s’était déjà illustré en affirmant l’innocuité du tabac. Dommage que Vincent Courtillot (particulièrement remonté contre cette intervention) n’ait pas réagi sur ce second point. Encore aurait-il fallu trouver le meilleur angle : fallait-il dire qu’un bon chercheur peut très bien avoir raison dans son domaine et tort lorsqu’il s’exprime sur un autre, ou tout bêtement signaler qu’Édouard Brézin a confondu Richard Lindzen avec Fred Singer ? Bref, même dans les murs les plus policés de l’Académie des sciences, l’on ne rechigne pas à la mauvaise foi et aux arguments les plus odieux. Quand je pense que, dans le train qui m’emmenait à la conférence, ma voisine avec qui j’avais engagé amicalement la conversation me demandait si être scientifique n’était pas le plus sûr moyen pour apprendre à dire moins de bêtises…
Ce qu’il faut retenir de la discussion, je crois, c’est que l’Académie est loin d’être unanime. Les chimistes semblent particulièrement portés au scepticisme, mais d’autres aussi. La vénérable institution semble vraiment divisée sur la question. Difficile de faire un sondage précis, toujours est-il que la presse aura du mal à prétendre que cette séance a été une ode au carbocentrisme. Le questionnement est désormais admis, et il semble que le bon vieux temps du consensus tacite est définitivement terminé.
115 réponses à “Compte-rendu du débat à l’Académie des sciences”
Bob (#90), je n’ai jamais vu de bilan d’incertitude complet sur les mesures satellites (peut être que ça existe, je ne m’y suis pas vraiment intéressé). Je pense cependant que ça pourrait discréditer une grande partie des travaux déjà publiés et des sommes investies dans ces technologies.
Ceci dit, la différence entre les 1,8 et 3,2 est ce que l’on appelle une erreur systématique. Elle ne peut être corrigée et devrait être corrigée ou expliquée par une connaissance approfondie des processus de mesure. Cette correction est possible quand l’incertitude n’est pas trop élevée par rapport à l’erreur systématique. Il faut savoir que l’incertitude de mesure d’un marégraphe portuaire est au mieux de +/- 1 cm, ce qui est déjà pas mal. Ce qu’il ne faut pas oublier cependant, c’est que 1,8 et 3,2 sont des taux d’augmentation, c’est à dire des différences de pente entre des mesures et non des mesures.
Ecophob (#100),
Elle fait partie du club des argonautes qui rassemble quelques réchauffistes connus.
Hug (#102),
Où elle côtoie le sinistre Yves Fouquart, le cerbère censeur (Yves23) de Futur-ascience.
Pas rassurant, vraiment pas.
Ecophob (#100), Effectivement, mais dites ça à Bob, ça ne passera pas, il l’aime d’Amour ! En ce temps de Noël, c’est beau comme un… marégraphe !
Ecophob (#101),
Je sais bien qu’on peut faire des miracles en théorie du signal pour extraire une tendance au milieu d’un bruit d’amplitude bien plus importante, mais là, on détecte le millimètre dans un bruit à haute fréquence dû aux vagues de plusieurs mètres en moyenne. Cela me paraît beaucoup, surtout qu’il faut tenir compte des décalages temporels où interviennent les marées, les vents…
C’est peut être possible, mais je n’ai pas encore trouvé d’explications sur la méthode.
Ecophob (#101),
Je ne suis pas sûr, car les marégraphes et les satellites ne mesurent pas la même chose; les marégraphes c’est sur quelques cotes, les satellites sur une partie de la totalité des océans.
D’après Willie Soon, la calibration s’est faite sur un marégraphe à Hong Kong. Morner ajoute que c’est le plus mauvais des trois qui existent à Hong Kong.
Hug (#102), j’ignorais l’existence de ce club et l’adhésion d’Anny Cazenave. Il rassemble quelques noms de que je connais et qui ne sont pas effectivement très objectifs dans leur affirmations. Ceci dit, leurs dernières mises à jour sur ‘Le climat’ date de 2011, sur ‘l’Océan’ de 2012 et’ les réponses à ceux qui doutent’ de 2010. Auraient-ils un coup de mou ?
volauvent (#105),
Oui le traitement du signal est surement d’une complexité extrême, il y a aussi des décalages temporels à basses fréquences qu’on ne soupçonne pas (à mon avis).
Une terre entièrement liquide dans l’espace, pour moi, n’aura jamais la même forme sur son orbite ( je ne compte pas les marées de fréquences connues).
de Rouvex (#104), je suis d’accord avec le sens de votre commentaire. J’ajouterais même qu’au début du 20 ème siècle et avant, les marégraphes portuaires avaient une incertitude de l’ordre de 20 cm et pour placer l’origine d’une droite c’est gênant… Cependant, les mesures de tendances sont des mesures relatives, on sait parfaitement corriger les signaux de la marée, de la pression atmosphérique, des états de mer…
volauvent (#106), la source d’une erreur systématique peut être précisément l’objet de la mesure ou mesurande. Dans ce cas, comme je l’ai dit précédemment, elle doit être ‘ expliquée par une connaissance approfondie des processus de mesure.’, ce qui n’est effectivement pas le cas pour le niveau des mers, ou l’explication existe peut être mais on ne veut pas la donner.
volauvent (#105), les marées, les vents, les seiches aussi !!!!
AMHA, ce qu’on appelle pompeusement « calibration » est simplement une opération qui revient à choisir arbitrairement une valeur commune à partir de deux mesures effectuées par des appareils totalement différents et qui… ne mesurent pas la même chose !!
Autrement dit, je soupçonne que ces opérations de calibrations ne reflètent que la volonté du « calibrateur ».
Et puis mXXXX alors ! Ou est le bon sens dans ces mesures de hauteur moyenne de l’océan au mm ????
Est-ce que la mesure de votre table de cuisine – toutes les minutes – au micron près à une signification ?
Vous en faites quoi de la courbe ?
Vous pouvez relier les variations aux masses posées dessus, au taux d’humidité de la pièce et à la température.
Et puis après ?
J’ai vraiment beaucoup, beaucoup de mal avec ces hauteurs d’eau « moyenne » de l’océan.
Si il y avait une tendance nette, ça se verrait.
Et sans artifices de « calibration ».
Bernnard (#108), ce dont vous parlez est pris en compte par ce que l’on appelle le Géoide qui est une surface de référence moyenne qui prend en compte les déformations géophysiques connues de l’océan, notamment celles qui sont dues aux variations du champ de gravité terrestre liées au relief sous-marin. Il existe peut être d’autres décalages très basse fréquence, mais ils resteraient à démontrer.
scaletrans (#99),
+1
C’est tellement abject et « hénaurme » que ça en devient comique (du genre rire jaune ou humour noir, comme l’on voudra)
… Et paix sur la Terre aux Hommes de bonne volonté, comme on dit aussi !
Ecophob (#112),
C’est du « peut-être » que je voulais parler. De l’influence du barycentre gravitaire du système solaire (une action extérieure à la terre).
Que cela reste à démontrer, c’est oui bien sûr !
Il faut voir qu’on parle de mm par an.
Bernnard (#114), il y a d’autres facteurs ‘humains’ qui peuvent participer à cette erreur de pente :
– le calibrage des données était-il le même à l’origine des mesures que maintenant ? Un calibrage plus faible à l’origine ou plus fort sur les dernières données, peut entraîner une pente en mm/an plus élevée. Ce calibrage est vraiment un travail de spécialiste et l’on ne peut pas y faire grand chose.
– la technique utilisée pour trouver l’équation de la droite est-elle une technique de moindres carrés classiques où l’on considère que l’incertitude est la même pour toutes les données de hauteur, ou une technique de moindres carrés pondérés où l’on peut tenir compte d’une incertitude variable ? Dans le premier cas, on commet une erreur sur la valeur de la pente si l’incertitude est variable. Dans le second cas, on peut ‘jouer’ sur la valeur de la pente selon le poids assigné à chaque point.
Il existe donc plusieurs façons de forcer les données à aller dans un sens ou dans l’autre. Pour trancher, il faudrait se procurer les données utilisées avec leurs incertitudes et appliquer l’une et l’autre méthode.