Tout pour la bonne cause : subordonner la science à la politique publique


Par Aynsley Kellow, professeur et Directeur de la School of Government à l'Université de Tasmanie

• • • • •

L'histoire des sciences regorge d'erreurs et de fraude. Les sciences de l'environnement ne font pas exception. En effet, ce domaine des sciences fournit une multitude d'exemples, due à la présence de deux facteurs : une bonne cause et le recours à la modélisation, en particulier celle faisant appel à des modèles informatiques sophistiqués.

La bonne cause – celle que la plupart d'entre nous soutient – peut trop facilement corrompre le comportement de la science, en particulier la science visant à renseigner la politique publique, parce que nous préférons des réponses qui vont dans le sens de nos préférences politiques et trouvons moins confortables celles qui les remettent en cause.

Nous souhaitons tous préserver le bœuf à cornes spiralées, Pseudonovibos spiralis, parce que c'est sur la liste rouge des espèces menacées. Le problème est que celui-ci semble n'avoir jamais existé.

Et nous pourrions passer l'éponge sur les agissements de fonctionnaires du Federal Fish and Wildlife Service américain qui ont planté des carcasses de Lynx du Canada classé espèce en danger dans les forêts de Wenatchee et Gifford Pinchot du Nord-Ouest en 2002. Lorsque découverts, les fonctionnaires ont fait valoir qu'ils ont simplement essayé de tester la fiabilité des méthodes d'essai, pour voir si les laboratoires d'essais pouvaient identifier à l'aveugle la fourrure de lynx. Les critiques suspectent que les échantillons ont été plantés dans le but de protéger les forêts nationales de l'exploitation forestière, l'exploitation minière et les loisirs. Le Directeur exécutif de l'association des Forestiers pour l'Ethique Ecologique a qualifié cette accusation de "chasse aux sorcières à la recherche d'un faux complot".

Ce Directeur, Andy Stahl, est surnommé dans les lieux du pouvoir de "moule". Dans les années 1980, lors de la controverse sur l'exploitation forestière dans le Pacifique du Nord-Ouest, Stahl a contribué en sponsorisant une évaluation publiée dans une revue à comité de lecture à soutenir la préservation de la chouette tachetée dans une campagne visant à réduire l'exploitation forestière. Stahl charge le mathématicien Russell Lande de faire une modélisation entomologique en le mettant en contact avec des universitaires qui fournissaient les données, et a ensuite aidé à trouver les reviewers pour publier l'évaluation. Cela a été nécessaire parce que la seule "science" disponible à l'époque sur la chouette tachetée était une thèse de doctorat incomplète.

Le papier de Lande a été créé pour les besoins de la campagne politique et a été utilisé comme principe de précaution pour remporter la décision. Alors qu'il prenait comme hypothèse une population de chouettes de 2500 et supposait que l'exploitation forestière entraînerait leur disparition, les recherches ultérieures ont montré que les chouettes sont bien plus nombreuses et dans tous les cas, préfèrent des forêts exploitées où la repousse fournit plus de proies et des conditions de chasse plus favorable que les vieilles forêts.

De manière remarquable, les éditeurs de la célèbre revue Nature ont soutenu ceux qui ont fabriqué les preuves du lynx canadien, ce qui nous dit quelque chose au sujet des revues scientifiques.

L'association du principe de précaution avec la législation sur les espèces menacées est particulièrement séduisante, mais c'est l'utilisation de modèles truffés d'hypothèses qui est particulièrement pernicieuse – comme un récent exemple australien l'a montré. C'est une affaire concernant le perroquet à ventre orange en 2006 dans laquelle, grâce à quelques modélisations mathématiques (et le principe de précaution) le ministre de l'Environnement du Commonwealth d'Australie de l'époque, a refusé la construction d'un parc éolien demandé par des écologistes comme réponse au changement climatique, mais que les résidents d'une circonscription marginale rejettent.

La modélisation de l'interaction entre le futur parc éolien de Bad Hills et les perroquets à ventre orange supposait que les oiseaux fréquentent la majorité des sites du parc à Victoria, malgré le fait que les oiseaux n'aient pas été vus sur 20 des 23 sites le long de la côte de Victoria, et ce malgré des campagnes d'observations actives menées. Et seulement une ou deux présences d'oiseaux ont été observées sur les trois autres sites.

Les auteurs ont également supposé que les oiseaux restent présents à un seul endroit du parc éolien pendant six mois – la plus longue période possible qu'une espèce migratrice puisse rester sur un site d'hiver, et plus longue que n'importe quelle durée jamais enregistrée sur n'importe quel site. Ils ont également supposé que chaque perroquet passe deux fois par le site de Bad Hills. Ils ont fait tout cela par principe de précaution.

Ainsi, alors qu'aucun perroquet n'avait été repéré à 50 kilomètres du site proposé, le ministre a agi conformément au principe de précaution (et à une promesse électorale) en bloquant Bald Hills sur la base de simulations. Cela reflète l'utilisation cynique des lois sur les espèces menacées à des fins politiques.

Cette corruption de la science pour une noble cause – comme l'extorsion d'aveux de suspects "désignés" coupables – est favorisée non seulement par l'excuse de la vertu, mais par la nature virtuelle de la science et le contexte dans lequel celle-ci est produite. La science de la conservation et la science du climat sont toutes deux des sciences virtuelles. La première a vu des gens en chemise carreaux sur le terrain à compter des cerfs céder la place aux physiciens et mathématiciens, tandis que la seconde (à la différence de la météorologie plus traditionnelle) a toujours mis en jeu plus l'informatique que les expériences de terrain. James Hansen, du Goddard Institute, NASA, par exemple, a écrit sa thèse de doctorat sur le climat de Vénus et – contrairement à ce que certains de ses critiques pourraient penser – il est clair qu'il n'a jamais visité cette planète.

Des modèles informatiques alimentés par des scénarios basés sur des modèles économiques sont la norme dans la science du climat et lorsque nous avons à affaire aux impacts du climat sur la biodiversité, il s'agit souvent de modélisations "habitat-espèces" alimentées par des résultats de modèles d'impacts climatiques sur la végétation.

Il est important de comprendre la façon dont la révolution des technologies de l'information a transformé la conduite de la science. Son impact vient non seulement de la capacité à mettre en modèles des phénomènes complexes, chose à laquelle les scientifiques pouvaient à peine rêver il y a une dizaine d'années – bien que cela fasse partie du problème. Les modèles informatiques sont toujours soumis au principe du Garbage In – Garbage Out et ils ne pourront jamais se substituer à l'expérimentation où les hypothèses sont testées à lumière crue et froide des données d'observation.

La plupart des scientifiques travaillant sur des modèles semblent avoir oublié que la science consiste à confronter les prédictions aux données. Ils semblent avoir été victimes du piège connu depuis longtemps chez IBM, où on disait que la simulation était comme l'auto-stimulation : si on la pratique trop souvent, on finit par croire que c'est authentique.

Le problème avec les données d'observation dans des domaines comme la science du climat, c'est qu'elles sont elles-mêmes sujettes à de substantielles manipulations par les ordinateurs avant d'être utilisées. Même la collecte de données, par conséquent, fournit des occasions pour introduire des hypothèses subjectives de nature à modifier les données. Cela met en lumière l'importance des processus d'assurance qualité, et en science, rien n'est meilleur garant de ceux-ci que la contestation et la transparence – la divulgation complète des données archivées correctement et des méthodes, y compris le code informatique.

Un tel exemple se trouve dans les essais de médicaments, qui sont menés dans des conditions totalement transparentes, de préférence avec des équipes distinctes pour composer les doses, les administrer, diagnostiquer les effets et analyser des données. Le suivi de la réglementation doit être respecté et les laboratoires audités. Nous savons que, même lorsque les chercheurs sont consciencieux dans l'exigence d'impartialité, des hypothèses subjectives peuvent se glisser pour devenir des "données".

Des exigences similaires sont imposées par les marchés boursiers pour des données telles que les échantillons de carottes relatives aux ressources minérales. Des normes régissent la collecte, l'archivage et l'analyse des données. En Australie, il y a des standards bien établis par le JORC – le Joint Ore Reserves Committee. Même dans ce cas, les erreurs se produisent et il y a des conséquences : de la valeur pour les actionnaires est créée ou détruite.

Dans des domaines comme la science du climat nous n'avons aucune exigence similaire. Les données sont recueillies régulièrement, manipulées et modélisées par les mêmes équipes de recherche et la discipline n'a pas exigé sur quoi que ce soit sur une transparence totale. Beaucoup de personnes se livrant à cette science agissent ensuite en qualité de défenseurs d'une politique particulière. James Hansen est peut-être le plus notable exemple à cet égard, mais il en existe de nombreux autres, comme Stephen Schneider à Stanford. Le Groupe intergouvernemental d'experts sur l'étude du climat permet aux mêmes personnes d'agir comme auteurs principaux et de juger leur propre travail et celui de ceux qui pourraient être en désaccord avec eux. Cela corrompt la démarche scientifique.

Les travaux de l'ancien analyste de l'industrie minière Steve McIntyre dénonçant la débâcle de la crosse de hockey et concluant que la compilation de températures moyennes pour les États-Unis par Hansen a un problème de l'an 2000 (cela signifie que l'année la plus chaude a été changé opportunément pour être dans les années 1990 au lieu d'être dans les années 1930) sont de bons exemples de ce qui est nécessaire. Mais il est significatif que ces correctifs nécessaires aient été signalés depuis l'extérieur de la communauté des climatologues.

La permutation des années les plus chaudes pour les États-Unis était en elle-même un changement mineur. Mais la plupart des erreurs ont tendance à être dans un seul sens, et qui arrange les politiques. Cela souligne mon point sur la nécessité d'ouverture, de transparence et de remise en cause sceptique de la science, en particulier là où la collecte, la préparation, l'ajustement, la modélisation et l'interprétation des données prennent tous place au sein d'une même institution.

Encore une fois, il est à noter qu'un scientifique amateur Anthony Watts, est responsable d'un audit de stations de température, et lui et ses "auditeurs citoyens" ont trouvé de nombreux sites susceptibles d'avoir une tendance récente au réchauffement due à un défaut d'implantation ou de maintenance du site. Il est bon à savoir que lors de la récente visite de Watts à la NOAA, non seulement a-t-il reçu un accueil chaleureux, mais il a constaté que les murs des bureaux des responsables du maintien de séries de température ont été recouverts de photos de stations prises par lui et ses volontaires. La NOAA est reconnaissante pour leur travail (sans frais pour elle) et le résultat pourrait être de meilleures données dans l'avenir. Mais la température de surface continuera à s'appuyer sur des instruments défectueux et des données qui font l'objet d'ajustement et de compilation.

Je suggère que le besoin d'un audit sceptique soit encore plus important lorsque le porte-parole de l'institution concernée est également un véhément activiste pour une position politique particulière. James Hansen affirme avoir été muselé par l'administration Bush – bien que les Républicains aient été méchants au point de le laisser interviewé environ 1400 fois par les médias et de le laisser approuver publiquement John Kerry en 2004.

Le point sur tout cela est que, comme Michael Crichton l'a dit de façon remarquable "les données ne sont pas démocrates ou républicaines, c'est juste des données", nous devons veiller à avoir des institutions qui empêchent les données d'être partisanes.

Steve McIntyre était au courant du cas de Bre-X, où des échantillons de forages ont été trafiqués et applique désormais ses compétences considérables en audit à la science du climat – pour notre grand bénéfice collectif. Avec la politique sur les changements climatiques, on nous demande de faire des investissements sociaux dans une entreprise qui ne possède pas les normes de transparence et de responsabilité aptes à prévenir des situations à la Bre-X, ni des situations où la croyance subjective a perverti les analyses.

Mais pour revenir à l'impact des TI sur tout cela, nous devons reconnaître également que la révolution a changé la manière de conduire la science et de l'interpréter – la manière dont elle entre dans la politique et le processus politique. L'un des effets a été dans le processus de revue par les pairs (peer review), la pierre angulaire de l'assurance qualité dans le domaine scientifique. La publication après une évaluation anonyme par des pairs dans des revues de qualité ne garantit pas l'exactitude de la science, mais elle contribue à prévenir les inexactitudes.

Certaines revues dans lesquelles des éléments essentiels de la science du climat sont publiés ne respectent pas les normes strictes de l'arbitrage en double aveugle que nous avons pris pour acquis dans le domaine des sciences sociales. Les géologues auprès desquels j'ai soulevé avec ce problème pensent que cela pourrait inhiber le débat entre les auteurs et les commentateurs, débat source de nouvelles idées. Peut-être – mais si la société devait prendre cette science au sérieux, ces conversations doivent être secondaires par rapport à l'assurance qualité. Nous sommes bien loin de l'époque victorienne où des gentlemen discutent de l'intérêt des fossiles qu'ils ont trouvés.

Ce problème mis à part, l'Internet a rendu beaucoup plus facile le dévoilement de l'identité d'un commentateur, brisant l'anonymat qui permet aux reviewers de se concentrer sur la qualité du raisonnement et les éléments de preuve présentés dans le papier. En effet, l'Internet a rendu possible une collaboration internationale plus poussée entre scientifiques, tandis que la spécialisation croissante des connaissances a réduit le cercle des reviewers potentiels. Non seulement l'Internet (et le transport aérien bon marché) augmente la probabilité que les auteurs soient connus des arbitres potentiels, il augmente la probabilité qu'ils aient travaillé ensemble. Le GIEC a contribué à ce processus, en assignant à bon nombre d'auteurs une tâche commune et en produisant cet ennemi de toute bonne science, le consensus.

Edward Wegman effectué une analyse de réseaux sociaux de ceux qui travaillent sur les reconstitutions par multiproxy du climat lors de son examen de la controverse de la crosse de hockey et a constaté qu'il y avait clairement un réseau de coauteurs entre les auteurs de la crosse de hockey et presque toutes les personnes actives sur le terrain, y compris ceux qui sont les plus susceptibles d'avoir été choisis comme un reviewer par un éditeur. Il y a eu ni vraie vérification indépendante des résultats, ni vraie évaluation par les pairs, et les possibilités de ce que nous appelons "raisonnement de groupe" ont été importantes. Lorsque le professeur David Deming rapporte avoir reçu un e-mail quelques années plus tôt d'un scientifique du climat de haut niveau lui signalant qu'il fallait faire quelque chose pour faire disparaître la vérité qui dérange de l'Optimum Médiéval, période plus chaude que maintenant, la nécessité d'être sceptique est évidente.

Le scepticisme aide à éviter tels résultats mais malheureusement, les grandes revues scientifiques semblent avoir perdu leur zèle sceptique pour devenir, au moins dans certains cas, relais des bonnes causes. Permettez-moi de vous donner deux exemples trouvés dans ce que beaucoup considèrent comme les meilleures de toutes les revues : Nature et Science.

Un document de 2004 dans Nature utilisant les modèle habitat-espèces pour prédire la distribution des espèces en réponse aux changements climatiques (eux mêmes fondés sur des scénarios d'émissions) a conclu son abstract par un appel à l'action : "Ces estimations montrent l'importance de mettre en œuvre rapidement des technologies permettant de réduire les émissions de gaz à effet de serre et les stratégies de piégeage du carbone ". Le document n'a présenté lui-même ni raison ni preuve amenant à de telles conclusions.

Le problème ne se limite ni à la science du climat, ni à la modélisation. Science, par exemple, a non seulement publié les résultats frauduleux sur le clonage du Dr Hwang Woo Suk, mais s'est précipité pour les mettre sous presse après une revue rapide accompagnée d'un communiqué de presse pour en assurer la couverture médiatique, à la veille d'un vote décisif au Congrès américain visant à annuler une décision de l'administration Bush interdisant l'utilisation de fonds fédéraux pour les recherches sur le clonage.

Non seulement les principales revues scientifiques ont cédé à la tentation de trouver à tout prix de la "pertinence", mais les paradigmes dominants sont maintenant défendus en ayant recours aux technologies de l'information habituellement utilisées pour rassembler les troupes. "L'essaimage" ne se limite plus à des adolescents jouissant de leurs 15 méga-octets de célébrité, mais est désormais dirigé à chaque fois contre des idées émergentes susceptibles de mettre en question le consensus.

L'un des moyens couramment employés est l'utilisation du terme "négationniste", un qualificatif d'une charge rhétorique puissante utilisé tout à fait délibérément pour la première fois (pour autant que je puisse dire) par un couple de défenseurs de la religion écologique dans une critique pour Nature du livre l'Ecologiste Sceptique de Bjorn Lomborg. Il a été utilisé délibérément par Jeff Harvey et Stuart Pimm pour comparer Lomborg à un négationniste de l'holocauste pour avoir osé mettre en doute les estimations très discutables du nombre d'extinctions d'espèces supposées se produire chaque année.

Les estimations par ordinateur des extinctions d'espèces vont de quelques dizaines de milliers à 50-100000 (à en croire Greenpeace). Le nombre réel documenté et accepté par l'Union Internationale pour la Conservation de la Nature est d'environ 800 sur les 500 années pour lesquelles nous avons des données. Même si je suis disposé à accepter que nous ayons oublié un grand nombre, et je suis un ardent défenseur de la conservation de la mégafaune charismatique (comme les tigres et les orangs-outans), je pense que l'utilisation du terme "négationniste" nous en dit plus sur la personne qui l'utilise que sur la cible. Je pense que l'utilisation de celui-ci est un exemple de loi Godwins qui stipule qu'à un moment du débat, quelqu'un comparera quelqu'un d'autre à Hitler, auquel cas le débat rationnel se termine. (Implicitement, la personne qui le fait perd). Malheureusement, l'utilisation du terme est omniprésente dans les débats sur le changement climatique et il a même été utilisé l'an dernier par un ministre en fonction.

Si ce nom d'oiseau a servi à quelle que fin que ce soit, c'est de nous rappeler à ce qui est nécessaire pour s' assurer que la corruption par la noble cause ne doive pas toucher la science destinée à informer la politique publique. Ceux d'entre nous qui chérissent la démocratie sociale et la démocratie libérale – qui sont dédiées à des idéaux humanistes, mais sont ouverts à la preuve fondée sur le raisonnement plutôt que sur l'idéologie – doivent reconnaître que la bonne science doit être accompagnée de tolérance de différents points de vue et de bataille d'idées contradictoires.

Le philosophe des sciences, Paul Feyerabend, a averti que les scientifiques pourraient se livrer à toutes sortes de manœuvres – de la rhétorique au répréhensible – pour faire prévaloir leurs points de vue. Il me semble que la seule protection contre toute forme de corruption de la science est de célébrer le libéralisme inhérent à philosophie des sciences de Karl Popper, indépendamment du fait de partager ou non son libéralisme politique – même si la séparation des deux risque d'être difficile dans la pratique. La prescription de Feyerabend est une sorte d'anarchisme et un rejet de toute forme de mariage entre la science et l'État.

Comme je l'ai dit au début de cette conférence, l'histoire des sciences regorge d'erreurs et de fraude. En science, la meilleure assurance qualité est la dissension sceptique et le rejet de toute tentative de nous dire que nous devons nous plier à un consensus, que "la science est réglée" (the science is settled) par principe – surtout quand elle a notre préférence. Car, comme Carl Sagan a dit, "lorsque nos émotions sont fortes, nous sommes susceptibles de tromper nous-mêmes."

Source


8 réponses à “Tout pour la bonne cause : subordonner la science à la politique publique”

  1. Article fascinant ! Un des meilleurs que j’ai lus. Merci.

  2. Pensez-vous pouvoir nous fournir les références des différents articles/études mentionnés ?

  3. Ce problème mis à part, l’Internet a rendu beaucoup plus facile le dévoilement de l’identité d’un commentateur, brisant l’anonymat qui permet aux reviewers de se concentrer sur la qualité du raisonnement et les éléments de preuve présentés dans le papier. En effet, l’Internet a rendu possible une collaboration internationale plus poussée entre scientifiques, tandis que la spécialisation croissante des connaissances a réduit le cercle des reviewers potentiels. Non seulement l’Internet (et le transport aérien bon marché) augmente la probabilité que les auteurs soient connus des arbitres potentiels, il augmente la probabilité qu’ils aient travaillé ensemble. Le GIEC a contribué à ce processus, en assignant à bon nombre d’auteurs une tâche commune et en produisant cet ennemi de toute bonne science, le consensus.

    La spécialisation croissante rend plus que jamais nécessaire le travail d’épistémologues aptes à contre carrer les influences, plus ou moins bien couvertes, d’intérêts financiers, politiques ou idéologiques.

  4. @3
    C’est surtout que le processus de peer-review est devenu de plus en plus une mascarade, un vernis scientifique à de la junk-science. Quand on voit tous les papiers dit peer-reviewed sur le réchauffement climatique, il n’y a pas l’ombre d’un doute que c’est pourri jusqu’à la moelle.

  5. #1
    Oh oui !
    Un des meilleurs articles sur le sujet.

    Un régal !

  6. Attention, les recherches universitaires contribuent aussi au réchauffement climatique!

    University Research Contributes To Global Warming, Professor Discovers

    ScienceDaily (May 8, 2008) — Add university research to the long list of human activities contributing to global warming. Hervé Philippe, a Université de Montréal professor of biochemistry, is a committed environmentalist who found that his own research produces 44 tonnes of CO2 per year. The average American citizen produces 20 tonnes.

    http://www.sciencedaily.com/re…..155305.htm

  7. Bon article effectivement; moi j’ai aimé:
    « Le problème avec les données d’observation dans des domaines comme la science du climat, c’est qu’elles sont elles-mêmes sujettes à de substantielles manipulations par les ordinateurs avant d’être utilisées. Même la collecte de données, par conséquent, fournit des occasions pour introduire des hypothèses subjectives de nature à modifier les données. Cela met en lumière l’importance des processus d’assurance qualité, et en science, rien n’est meilleur garant de ceux-ci que la contestation et la transparence – la divulgation complète des données archivées correctement et des méthodes, y compris le code informatique. »
    Dans mon boulot, j’ai effectivement maintes fois été confronté à des données issues de simulation prises pour des données réelles, ceux qui rentrent les informations dans les banques de données n’étant pas formés pour contrôler l’authenticité de celles-ci.

  8. On peut lire, écrit par des médecins bien en avance sur les climatologues :

    Recommandation
    – d’un plan d’analyse formalisé, daté, traçable avec les dates des amendements
    – d’une base de données gelées traçable et archivée au moment d’une production de résultats pour en permettre la reconstitution si nécessaire

    Extrait de http://www.ateliersdegiens.org…..nthese.pdf

    Si les climatologues opéraient ainsi

    on ne verrait plus les danses de Saint Guy des données de Cryosphère déjà signalées par miniTax,

    on ne verrait plus une année remplacer une autre dans un palmarès douteux.

    Au contraire, vas-y que je triture les enregistrements, que je corrige, rajuste, homogénéïse avec des algorithmes trop souvent inconnus.