Par USBEK (Pierre Grandperrin, membre du Collectif des climato-réalistes).
[Les images ne sont pas très grandes mais cliquables. Comme elles renvoient au blog d'USBEK, je pense qu'il est plus agréable de les ouvrir dans un nouvel onglet. Je ne dis pas cela pour faire offense à son excellent blog. Nicias]
Résumé
La mer monte parce qu’elle se dilate sous l’effet du réchauffement (effet stérique) et parce que sa masse augmente en raison des apports d’eau douce due à la fonte des glaces. Or quand on fait la somme de ces 2 contributions (stérique et masse), on ne retrouve pas le niveau d’élévation « observé » : c’est ce que l’océanographe américain Walter Munk [1] a appelé l’énigme de la mer. William Peltier [2] parle pour sa part d’un « casse tête » (puzzle). Selon le GIEC « depuis le début des années 1970, la somme de la perte de masse des glaciers et de l’expansion thermique des océans due au réchauffement expliquent environ 75 % de l’élévation du niveau moyen des mers« [3] Les scientifiques tentent de résoudre l’énigme en reconstituant l’élévation du niveau de la mer à l’aide des données fournies par les bouées ARGO (pour l’effet stérique) et par les satellites GRACE (pour l’effet masse) ; Il y a d’importantes divergences entre les auteurs dues (notamment) à la prise au compte de valeurs différentes pour le rebond post glaciaire. Les mesures satellitaires qui ont commencé en 1993 mesurent un taux d’élévation du niveau de la mer de 3,3 mm/an. Mais les radars altimétriques sont-ils assez précis pour détecter au millimètre près un signal qui présente des variations spatiales et temporelles aussi importantes ? L’océanographe américain Carl Wunsch [3b] ne le pense pas : il estime à 1,6 mm l’élévation du niveau de la mer pour la période 1993-2000, soit 60% de l’estimation satellitaire (dont environ 70% du à de l’ajout d’eau douce). Selon lui des erreurs systématiques entachent les estimations compte tenu de la brièveté des observations spatiales et de l’approximations des modèles. Les scientifiques sont en tout cas tous d’accord pour penser que les observations satellitaires sont de durée trop courtes pour déterminer une tendance à long terme compte tenu de la variabilité temporelle dont les cycles sont de 60 ans.
1. Mesurer la hausse du niveau de la mer : un challenge
Les marées, les vents, la température et la salinité de l’eau, les variations topographiques, la pression atmosphérique provoquent des variations du niveau des mers de l’ordre de quelques centimètres à plusieurs mètres selon les régions et sur des échelles de temps allant de quelques heures (marées, pression atmosphérique), à plusieurs années.
Les marées ont une amplitude moyenne d’un mètre ; mais dans quelques zones du plateau continental leur amplitude peut dépasser 10 mètres. D’autre part, les marées évoluent selon des cycles dont la périodicité est de 18,75 années.
Les variations topographiques : si la terre était entièrement couverte d’un océan homogène et au repos, sans courants ni marées, le niveau moyen de l’océan coïnciderait avec une surface bosselée appelée le géoïde. La surface réelle de l’océan présente des creux et des bosses et s’écarte du géoïde d’environ +-1m du fait des courants marins.
Température et salinité : à l’échelle saisonnière le niveau moyen de la mer varie en fonction des quantités de chaleur et de sel emmagasinées dans l’océan de la surface au fond. Aux latitudes tempérées, on observe une hausse du niveau moyen en été, suivie d’une baisse en hiver. Les variations de salinité produisent l’effet inverse : l’augmentation (la baisse) de salinité entraîne la contraction de la colonne d’eau (dilatation). Ces variations dites stériques écartent la surface de la mer du géoide d’environ +-10 cm.
La pression atmosphérique : une augmentation de 1 milibar fait baisser le niveau de la mer de 1 cm : c’est l’effet de baromètre inversé.
Les vents : le frottement du vent entraîne les eaux superficielles vers l’ouest : la topographie de la surface de l’océan le long de l’équateur révèle une pente ascendante d’est en ouest, avec des niveaux moyens supérieurs à l’ouest des bassins d’environ 10 cm pour l’océan atlantique et de 50 cm pour le pacifique.
2.Comment se mesure l’élévation du niveau de la mer ?
Jusqu’aux mesures satellitaires on ne disposait que des marégraphes pour décrire et comprendre les variations passées du niveau des océans. Il y a aujourd’hui 1000 stations, dont 112 ont commencé leurs relevés avant 1900. Mais les marégraphes présentent 2 inconvénients : – lls ne mesurent qu’un niveau de la mer relatif incluant les mouvements verticaux du socle sur lequel il repose. – leur répartition n’est pas homogène : ils sont situés en majorité dans les régions tempérées de l’hémisphère nord. Malgré leurs imperfections, les marégraphes sont les seuls équipements susceptibles de fournir des indications portant sur des périodes de longue durée significatives d’évolutions climatiques. [4] Le développement des techniques spatiales fait d’autre part apparaître un besoin accru de données marégraphiques servant à la validation in situ des données satellitaires. Aussi de plus en plus d’observatoires marégraphiques sont dotés de systèmes de positionnement géodésique faisant appel aux techniques spatiales permettant de corriger les mesures en fonction des mouvements verticaux de la terre.
Depuis 1992 [5]on dispose de radars embarqués sur des satellites TOPEX/Poseidon -Jason Utilisés à partir de 1992 les satellites TOPEX/Poseidon et ses successeurs (Jason-1 de 2001 à 2013), Jason-2 (depuis 2008 et toujours en opération), Jason 3 (dont le lancement initialement prévu en juillet 2015 a été retardé pour des raisons techniques) ont révolutionné lʼocéanographie en permettant lʼaccès à lʼocéan du large, difficile à observer par les mesures in situ des marégraphes, avec une couverture spatiale dense et une répétition des traces au sol régulière. Envisat Lancé l’ESA, le satellite ENVISAT (ENVIronment SATellite) a effectué de 2002 à 2012 un suivi de l’état environnemental de la planète (dont les océans) avec une couverture lui permettant d’observer l’océan arctique, ce qui n’est pas le cas de TP et Jason compte tenu de leur inclinaison sur le plan de leur trajectoire.
3. La hausse du niveau des mers a commencé au milieu du 19ème siècle
Au maximum de la dernière glaciation (-20 000 à -18 000 ans), le niveau des océans était de 130 à 140 mètres au dessous du niveau actuel. La stabilisation du niveau des mers est récente : elle ne date que d’environ 6000 ans, à la fin de l’époque glaciaire. Au cours des 2 derniers millénaires le niveau moyen a peu varié (hausse inférieure à 0,5 millimètre par an).
Accélération de la hausse dès 1850
Vers le milieu du 19ème siècle, la mer a commencé à monter de façon abrupte (Bruce C. Douglas and W. Richard Peltier)[6] Dans une publication d’avril 2008[7], des scientifiques ont reconstruit le niveau moyen de la mer depuis 1700 à l’aide de données de marégraphes et montré que l’accélération de l’élévation du niveau de la mer a commencé à la fin du 18ème siècle.
+1,8 mm au 20ème siècle
Le niveau de la mer se serait élevé de 6 cm pendant la 19ème siècle et de 19 cm pendant le 20ème siècle Le GIEC indique une élévation de 1.7 ± 0.4 mm par an pour la période 1948 -2002, sur la base des données de 177 stations (rapport AR5 2013).
Brusque accélération à partir de 1993 ?
Le début de la mission satellitaire Topex/Posseidon coïnciderait avec une « brusque » accélération de l’élévation du niveau de la mer à partir de 1993.
Les données Topex/Poseidon Jason
Selon le « Sea Level Research Group[8] » de l’ Université du Colorado (CU), qui exploite les données des satellites Topex/Poseidon/Jason la pente de la
courbe d’élévation de niveau de la mer serait de 3,3 mm par an de 1993 à 2014.
Source : University Of Colorado [9]
Données Envisat[10].
Elles sont moins souvent citées sans doute parce qu’elles montrent un taux d’élévation plus modéré : 1,3 mm/an pour la période 2004-2010 (2,49 mm/an pour Jason).
De fait quand les données Envisat sont intégrées, la courbe multi-missions a une pente plus faible (2,76 mm/an) : sur la courbe ci-dessous les données Envisat apparaissent en jaune.
Source Aviso[11]
Il y a consensus de la communauté scientifique (proche du GIEC) sur +3 mm/an
Avec quelques modulations correspondant à la légère décrue du contenu thermique de l’océan mondial entre 2003 et 2008 [12], les scientifiques proches du GIEC valident cette tendance.
A l’exception notable de Carl Wunsch :
En décembre 2007[13], Carl Wunsch estimait la hausse à 1,6 mm an pour la période 1993-2000, soit environ 60% de l’estimation altimétrique pure, dont environ 70% du à de l’ajout d’eau douce. Il note par ailleurs que les variations régionales étant plus importantes que les valeurs moyennes il s’en suit que le système est intrinsèquement « bruité »[14]. Son avis est que des erreurs systématiques sont susceptibles d’entacher la plupart des estimations compte tenu de la brièveté des observations spatiales et des approximations des modèles.
Enfin, se prononçant sur les mesures satellitaires, Carl Wunsch écrit : "il est possible que la base de données soit insuffisante pour déterminer une tendance avec la précision nécessaire pour discuter d’un impact du réchauffement global, aussi décevant que cela puisse être"[15]
4. Une élévation marquée par d’importantes variations spatiales et temporelles
Les données satellitaires montrent une grande variabilité spatiale et temporelle. La mer ne monte pas de façon uniforme : dans certaines régions (Pacifique Ouest), l’élévation est trois fois plus rapide que la moyenne, dans d’autres régions (Pacifique Est) la hausse est plus faible que la moyenne, voire négative. D’autre part la hausse n’est pas linéaire mais sujette à des variations décadales et multidécadales.
Signature visible des évènements Enso (El Nino Southern Osillation)
Dans un article de juin 2009 [16]des scientifiques du Legos (dont Annie Cazenave) et du CLS (filiale du CNES, de l’IFREMER) montrent que les fluctuations sont des réponses à des perturbations naturelles du système climatique et notamment les évènements El Nino/El Nina. Le diagramme ci-dessous montre (ans une fenêtre mobile de 3 et 5 ans) que le niveau de la mer montre 2 maxima en 1997 et 2002 reflétant l’influence des événements ENSO.
Pour autant, dans ses publications Annie Cazenave ne remet pas en cause la pente des 3mm/an. Sur le graphe ci-dessous, l’université de Colorado (qui exploite les données Jason) montre que la courbe de l’index ENSO se superpose avec celle du niveau de la mer.
University of Colorado ‘Sea level resarch group) [17]
Des cycles de 60 ans
Selon Chambers and al [18]les données des marégraphes montrent une forte oscillation multi-décadale avec une périodicité détectée de 60 ans. « Nous constatons qu’il ya une oscillation significative avec une période d’environ 60 ans dans la majorité des marégraphes examinés au cours du 20e siècle, et qu’il apparaît dans chaque bassin océanique ».
Accélération entre 1920-30, décélération en 1960
Travaillant sur les données marégraphiques d’Europe et d’Amérique du Nord Woodwort[19]met en évidence une accélération dans la période 1920-1930 et une décélération dans les années 1960.
Figure 5. Regional time series of sea level from the ‘virtual station’method of J06. A linear trend has been removed from each record. Each time series has an arbitrary offset.
5. La précision millimétriques des mesures satellitaires est-elle crédible ?
(Plus de détails sur cette question dans l’article « les radars altimétriques permettent t-ils de mesurer l’élévation du niveau de la mer au mm près ? » )
Les spécifications des radars : une précision s’exprimant en cm
La précision des satellites s’exprime en centimètres. Ci-dessous les spécifications techniques de Jason 2 [20] qui fixent une précision de 3,4 cm « pour répondre aux exigences de la mission ».
La marge d’incertitude globale (3,4 cm) est la résultante des erreurs instrumentales et d’autres « biais » externes (état de le mer, humidité de la troposphère, présence d’électrons dans la ionosphère, pluie, vents, pression atmosphérique, marées). Les biais environnementaux sont corrigés à l’aide de modèles dont certains sont reconnus « frustres » par les opérateurs eux-mêmes ; ainsi par exemple, selon le CNES la précision du modèle de correction d’état de la mer (hauteur des vagues) demeure limitée : pour une hauteur de vagues de 2 mètres, le biais est d’environ 10 cm, et l’erreur reconnue dans la correction de ce bais est « approximativement » de 1à 2 cm)[21]. A ces erreurs s’ajoutent celles du positionnement du satellite sur son orbite, des variations topographiques de la surface de l’océan (géoïde) et du rebond post glaciaire (0,3 mm). Dans le diagramme ci-dessous [22]le CNES montre que si d’importants progrès dans le contrôle de l’orbite ont été réalisés depuis les premières missions satellitaires, la marge d’erreur due à la variabilité océanique n’a pas été réduite (10 cm).
Légende originale : La précision de la mesure depuis les premières missions altimétriques est améliorée d’un facteur 4 depuis 1992 (Crédits Cnes).
La précision millimétrique des satellites est-elle réelle ? Avec une marge d’erreur des mesures de 3,4 cm, comment peut-on évaluer une augmentation du niveau de la mer au millimètre près ? sans doute après « d’intenses » retraitements des données brutes !
Des marégraphes pour valider les mesures satellitaires
Les mesures satellitaires sont calibrées à l’aide des marégraphes. Le CNES et la NASA font des vérifications « in situ » le long de la trajectoire du satellite (en CORSE pour le CNES, sur une plate-forme pétrolière « off shore » pour la NASA à Harvest au large des côtes de Californie). Selon la NASA[23] » toute incohérence inattendue entre le satellite et les mesures à terre sont attribuées à une erreur dans les mesures satellitaires. Autrement dit, on utilise un système « bruité » pour corriger des données qui ne le sont pas moins.
Des biais entre les missions Topex/Poseidon- Jason 1 – Jason 2
La courbe d’élévation du niveau de la mer de l’ère satellitaire est données pour la période 1993-2014, donc intègre les mesures des missions successives (Topex/Poseidon et ses successeurs Jason 1et 2), y compris les données recueillies pendant les périodes de recouvrement des missions. Or d’importants biais inter missions ont été détectés : R.S. NEREM (University of Colorado) et ses collègues [24]font état de bais très importants entre les 3 missions T/P, Jason 1 et Jason 2. Une différence de niveau moyen de la mer entre les missions TOPEX et Jason 1 de 99.6 ± 1.3 mm de 75.3 ± 0.6 mm entre Jason-1 and Jason- 2, et ce bien que l’altimètre de Jason 2 soit l’exacte réplique de celle de Jason 1. Les auteurs indiquent n’avoir trouvé aucune correction expliquant ce bais de 75 mm et soulignent le fait que 2 altimètres identiques pouvaient présenter un biais supérieur à 7 cm démontraient l’intérêt des missions de calibration/validation en tandem pour déterminer précisément la cause de ces biais.
Les données Envisat ne sont pas cohérentes avec les données Jason
Un document CNES/ESA intitulé « Cross calibration Envisat-Jason[25] » montre pour la période 2004-2010 une pente des données ENVISAT de 1,3 mm/an (contre 2,49 mm/an pour Jason).
Que montrent les données brutes ?
La comparaison des données brutes avec les données calibrées donne la mesure des corrections effectuées avec toutes les incertitudes s’y rattachant. En mai 1997, RS NEREM (University of Colorado) rapportait une élévation moyenne de 0,5 mm/an pour Les 3,5 premières années de la mission T/P.[26] (données brutes); après calibration (à l’aide des données de marégraphes) la hausse est réévaluée à +2,8 mm/an ! En juin 1997, le même auteur après correction d’une erreur récemment découverte dans les mesures, estime l’élévation moyenne de 0,2 mm/an (données brutes).[27] ; des comparaisons avec des mesures de marégraphes suggérant une dérive résiduelle des mesures satellites de −2.3±1.2 mm/an, (l’origine de cette dérive étant reconnue par l’auteur inconnue), le conduit à une évaluation après calibration de +2.1±1.3 mm, « en cohérence statistiques avec les données des marégraphes sur une période de 50 ans« . Nils-Axel Mörner océanographe suédois (climato sceptique) prétend qu’après neutralisation des effets El Niño de 1997/1998, la pente d’augmentation du niveau de la mer apparaît plate[28] ; il produit la courbe suivante :
Changement du niveau de la mer ( en mm) tels qu’enregistrés par TOPEX/POSEIDON entre Octobre 1992 et Avril 2000: données brutes avant filtrage ou moyenne glissante.
La courbe de Nils-Axel Mörner est la réplique d’une courbe archivée sur le site de John Daly (autre climato sceptique) qui présente les données brutes TOPEX/Poseidon apparemment initialement établie par le CNES[29]) pour les cycles 011 au 276, soit d’octobre 1992 à avril 2000).
Global MSL variation acc. to TOPEX/Poseidon satellites ( CNES onlin) MSL data for TOPEX-Poseidon cycle 276 (1993-2000)
Variations décennale du niveau de la mer relevées par 5 marégraphes «bien établis»
Un document de l’UNESCO de 1985[30]montre les courbes d’évolution décennale (1970-1980) du niveau de la mer relevées dans cinq marégraphes « bien établis » : on n’y perçoit aucune évolution significative. Les courbes de 5 marégraphes sur 10 ans ne prouvent évidemment rien ; mais ce document montre que l’état d’esprit des scientifiques à l’époque n’était pas polarisé sur la recherche de signaux anthropiques.
6. L’énigme du niveau de la mer
L’élévation du niveau de la mer est la résultante des 3 processus suivants : – la dilatation de l’océan dues aux modifications de densité causées par des variations de la température (effet stérique) ; – la modification de la masse de l’océan résultant d’échanges d’eaux avec les autres réservoirs (atmosphère, glaciers de montagne, calottes polaires) ; – les autres échanges avec les stocks d’eau continentale (barrages, pompage des eaux souterraines). Or, quand on fait la somme de ces 3 contributions, le compte n’y est pas : on ne retrouve pas l’élévation « observée » du niveau de la mer. En 2002 l’océanograhe Munk déduisait de l’évolution de la vitesse de rotation de la Terre (induisant une augmentation de la longueur de la journée ) une limite à l’ampleur de la contribution de la fonte des glaces. La somme des 2 contributions (dilatation thermique de l’océan et fonte des glaces) serait ainsi trop faible pour expliquer la l’élévation observée du niveau de la mer. Il a appelé cette incohérence l’énigme de niveau de la mer.
Bruce C. Douglas de l’Université de Floride et Richard Peltier (Université de Toronto, spécialiste mondial du rebond isostatique post glaciaire) parlent de « casse tête » « the puzzle of sea level rise[31] » : l’expansion thermique des océans contribue pour 0,6 mm:an ; la fonte des glaciers explique près de 0,3 mm/an. Conjuguées, ces 2 contributions s’avèrent inférieures à 1mm/an, laissant un écart de même ampleur restant à expliquer. En 2004, deux scientifiques américains, Laury Miller de la NOAA et Bruce C. Douglas observaient dans un article publié dans la revue Nature, que la dilatation thermique et la fonte des glaces ne permettaient pas d’expliquer l’élévation moyenne globale de 2 mm/an environ, car les vitesses d’augmentation de volume et les quantités de glaces fondues ne pouvaient se traduire que par une hausse, d’au mieux, 0,5 mm/an. Plus récemment, Church et al 2011, Hanna et al 2013, le Legos etc., sur la période 1993-2012 l’expansion thermique (effet stérique) explique 30%, la modification de masse due à l’apport d’eau douce 55%, et 15% restent inexpliqués (données rapportées par A. Cazenave).
Résoudre l’énigme du niveau de la mer
Niveau de la mer = effet stérique + effet masse : les scientifiques appellent cette « équation » le budget du niveau de la mer. Ils s’emploient à « boucler ce budget » en déterminant séparément les 2 contributions climatiques : l’effet stérique (dilatation sous l’effet du réchauffement) et l’effet masse (ajout d’eau douce sous l’effet de la fonte des glaces) en vue de reconstituer données « observées » (par les satellites et/ou les marégraphes). On dispose « théoriquement » des moyens techniques de mesurer les différentes contributions « climatiques » à l’élévation du niveau de la mer : L’effet stérique est mesurable avec plus de précision depuis le déploiement des balises ARGO (2007) Le système satellitaire GRACE (Gravity Recovery and Climate Experiment)[32] mis en service en 2002 permet de mesurer l’effet masse. GRACE cartographie les variations du champ de gravité terrestre et permet d’estimer l’impact des eaux continentales sur le niveau de la mer et également de réaliser un bilan de masse des calottes et donc (en principe) l’influence de la fonte des glaces sur l’évolution du niveau moyen des océans.
Un budget variable selon les auteurs
Les graphes ci-dessous (rapportées par Annie Cazenave) montrent les divergences entre les différents auteurs quant à la part des 2 principales contributions climatiques (sans que pour autant que le budget soit équilibré).
Le rapprochement des données « corrigées » de Jason-1 et Jason-2 de l’ effet stérique (exploitation des données Argo), et des variations de masse de l’océan déduit des observations de la mission GRACE, lui permet de « fermer » le « budget » pour la période considérée à un niveau d’élévation du niveau de la mer très inférieur à celui du « consensus » (1,6 mm).
Eric Leuliette de la NOAA [33] « boucle » le budget de l’élévation du niveau de la mer pour la période Janvier 2005 à Décembre 2011. Se ravisant (?), le même auteur trouve pour la période Janvier 2005 à Décembre 2013[34] des résultats plus proches de l’orthodoxie .
En l’espace de 2 ans, la contribution stérique passe de 0,2 à 0,8 mm ; la contribution masse de 1 à 2 mm, et la pente du niveau de la mer à 3 mm. Dans une étude de 2014[35], le Legos doutant de la réalité du refroidissement de l’océan depuis 2003 déduit des mesures ARGO (qui pourrait être du à des problèmes instrumentaux sur les bouées ARGO), tente de reconstituer l’effet stérique par différence entre les mesures directes Jason 1 et les données de gravimétrie spatiale GRACE sur l’océan (qui donne directement accès à la composante ‘variation de masse de l’océan). Le résultat indiquerait une tendance positive de l’expansion thermique pour les années récentes, avec une pente à peu près identique à celle de la période 1993-2003. Les auteurs ont procédé à une nouvelle analyse des données GRACE et recalculé la composante ‘masse de l’océan (courbe verte sur la Fig.1).
Figure 1 : Evolution récente du niveau de la mer mesurées par altimétrie Topex et Jason-1 -en rouge- (la courbe bleue est une version lissée) le courbe verte est la composante ‘masse de l’océan’ calculée d’après les relevés GRACE après application d’une correction GIA de -1.7 mm/an )
Le LEGOS trouve un accroissement de la composante de masse de l’ordre de +1.5 +/- 0.5 mm/an pour 2003-2007 (tout en reconnaissant une grande incertitude due à la correction de rebond post-glaciaire !). La pente de la série altimétrique est estimée à 2.3 +/- 0.4 mm/an., suggérant une pente résiduelle d’origine stérique de l’ordre de 0.8 mm/an (donc supérieure aux estimations basées sur ARGO). Dans une publication récente[36], Annie Cazenave se livre au même type de calcul et « équilibre » le budget en tenant compte également de la contribution des eaux continentales (évaluée par GRACE) à une valeur < 0,2 mm / an). Elle montre que l’augmentation de la masse de l’océan (~ 2 mm / an sur la période 2003-2008) provient pour moitié des calottes et pour moitié de la fusion des glaciers de montagne. Elle estime ensuite la contribution stérique sur 2003-2008 à ~ 0,3 mm / an par différence entre l’altimétrie et le changement de masse de l’océan, valeur cohérente avec les données Argo estimé ( 0,37 mm / an sur 2004-2008)
Le rebond isostatique, clé de l’énigme ?
Ces savants calculs empilent en réalité les incertitudes : l’élévation observée par les satellites est incertaine, la détermination de ses contributions ne l’est pas moins. S’agissant de GRACE, la principale incertitude réside dans la prise en compte du rebond isostatique post glaciaire (Global Isostatic Adjustment). Le rebond postglaciaire correspond au soulèvement des masses terrestres qui a suivi la dernière déglaciation : les roches terrestres comprimées sous le poids de la glace s’élèvent une fois libérées de leur charge de la glace. Le rebond isostatique, à l’oeuvre depuis la dernière déglaciation (20 000 ans) ne peut pas être « observé ». Il est calculé à l’aide de modèles avec un haut niveau d’incertitude. Deux scientifiques du LEGOS et du SHOM écrivent à ce sujet : « la détermination de ces mouvements doit se faire avec une précision dʼune fraction du signal recherché, qui est de lʼordre de quelques millimètres par an. A ce niveau de précision, les modèles de GIA présentent des limites qui sont associées aux incertitudes dans la connaissance des paramètres du modèle de Terre, par exemple le profil de viscosité dans le manteau ou bien lʼépaisseur de la lithosphère, mais aussi dans lʼhistoire de déglaciation. Par ailleurs, la question reste posée pour les nombreux autres processus à lʼorigine de mouvements verticaux du sol pour lesquels il nʼexiste pas de modèles de qualité suffisante[37]« . Les études varient de façon significative dans leurs estimations en fonction du choix du modèle choisi pour le GIA :
Des écarts importants selon le choix du modèle choisi pour le GIA.
Dans une publication déjà citée [38] Eric Leuliette (NOAA) recense les corrections appliquées par différents auteurs : – Willis et al. (2008), Leuliette and Miller (2009) ont appliqué une correction de presque +1 mm/year correction sur la base du modèle développé par Paulson et al. (2007), – Cazenave et al. (2009) ont appliqué une correction of +2 mm/an sur la base d modèle Peltier (2004). – Récemment, Chambers et al. (2010) ont suggéré que le modèle Paulson et al. (2007) model était le plus approprié pour corriger les calculs de masse de l’océan issus de GRACE.
Les données brutes GRACE ne montrent pas d’augmentation de la masse de l’océan selon
Pour obtenir un changement de masse de l’océan leur permettant d’équilibrer le budget, Annie Cazenave et ses collègues du LEGOS ont appliqué aux données brutesde la masse de l’océan une correction GIA correction linéaire assez importante résultant des modèles GIA disponibles (selon les auteurs). Le graphique ci-dessous montre l’écart entre données brutes et données corrigées (sur la période 2003-2010).
Ocean mass change from GRACE over 2003–2008. The open circled curve is theraw time series. The black triangles curve corresponds to the GIA corrected time series.
En 2009 PELTIER spécialiste mondial du GIA note dans un article publié par Quaternary science review [39]que L’influence persistante de l’âge glaciaire du Quaternaire sur le niveau de la mer reste profonde et que la « fermeture » du budget nécessiterait un modèle précis de son impact. Peltier indique que les données brutes de masse ne marquent pas d’accroissement de masse, mais plutôt une diminution. [40] Selon lui, dans la mesure où les taux de perte de masse par les glaciers polaires et le gain de masse est fortement « contaminé » par le GIA, le succès dépendra aussi de la disponibilité d’un modèle GIA qui aura démontré sa précision. Dans Nature Geoscience (publication de 2010) [41] une équipe de chercheurs auraient trouvé qu’une mauvaise estimation de l’ajustement glaciaire isostatique a conduit à une surestimation (d’un facteur 2) de la fonte des glaces pendant la période 2002-2008. La partie Ouest de l’Alaska (Le Yukon), les parties périphériques du Groenland et la partie Ouest de l’Antarctique subissent des pertes de glace. Au contraire selon ces auteurs, la partie centrale du Groenland et le Kiss (en Antarctique) gagnent de la glace.
Conclusions
L’accélération de la montée du niveau de la mer a commencé au milieu du 19ème siècle, évoquant un rétablissement de sortie du petit âge glaciaire comme le pense AKASOFU. La montée moyenne des eaux recouvre une distribution géographique très complexe et hétérogène, où des zones de montée côtoient d’autres où le niveau des mers est descendu. Les mesures satellitaires comportent de nombreux biais (instrumentaux et environnementaux dont la correction est faite à l’aide de modèles : d’après le CNES la précision des mesures de Jason 2 est de 3,4 cm ; le taux annuel d’élévation du niveau de la mer est donnée en millimètre (+- 3mm/an) : comment arrive-t-on à exprimer en millimètres l’évolution d’un signal mesuré avec une précision de 2,4 cm ? Les mesures satellitaires sont validées à l’aide de marégraphes, l’un en Corse, l’autre en Californie. Selon la NASA[42] » toute incohérence inattendue entre le satellite et les mesures à terre sont attribuées à une erreur dans les mesures satellitaires ». En tout état de cause, les premières observations des satellites sont récentes (1992) et de durée trop courte pour déterminer une tendance à long terme compte tenu de la variabilité temporelle (El Nino, cycle de 60 ans). Anny Cazenave et Benoît Meyssignac reconnaissent que « les tendances du niveau moyen des mers observées par altimétrie satellitaire reflètent des tendances temporaires. Sur des échelles de temps plus longues, ces tendances pourraient être différentes de ce qui a été observé au cours de la période d’observation altimétrique. » [43] Il faut de très longues séries chronologiques (au moins 50 ans) avant de pouvoir déterminer la tendance du niveau de la mer dans une région donnée. L’obsession de rechercher les forçages anthropiques masqués dans les tendances à long terme de la variabilité naturelle conduit les scientifiques à vérifier le niveau d’élévation du niveau de la mer observé par ses 2 principales composantes (dilatation thermique et fonte des glaces). Ces contributions climatiques sont évaluées par des procédés techniques (Argo pour l’effet stérique, GRACE pour l’effet masse) ayant leurs propres marges d’incertitudes et dont l’historique des mesures est court (les 3000 balises ARGO ne sont effectivement déployées que depuis 2007, la mission GRACE a commencé en 2002). L’effet du rebond géostatique post glaciaire GIA (1 à 2 mm selon les modèles) ajoute un niveau d’incertitude égal au signal recherché. Aucun auteur ne parvient à équilibrer de façon convaincante le « budget » climatique ; il semble y avoir consensus sur une contribution majoritaire de la fonte des glaciers (par rapport à la contribution thermique).
Le désaccord entre les auteurs traduit l’ignorance des causes exactes de la hausse du niveau de la mer, et de la part éventuelle à attribuer à l’effet de serre.
Index
[1] Professeur émérite de géophysique et chercheur à la Scripps Institution of Oceanography (Californie) – est un centre de recherche maritime Californie, il s’agit de l’un des plus anciens et des plus importants centres de recherche de son type au monde. Munk a reçu crafoord en 2010
127 réponses à “L’élévation du niveau de la mer : une énigme ?”
Merci volauvent (#98). Au passage, je constate que M. Grandperrin n’a toujours pas appris sa leçon.
Ce qui est donc implicitement dit là, c’est qu’on fait la moyenne de 1000 mesures. Et que l’erreur s’en trouve réduite. Alors pourquoi M Soon a le droit de le faire, mais pas les spécialistes de l’altimétrie ? (Nicias, #39 et #42).
Yapacomunekontradixion?
Ave
Phil Philippe (#101),
Cela dépend de la nature des erreurs…c’est ce qui vous a été dit…Il y a de multiples sources d’erreurs dans ces mesures.
Je serais vous, je ne choisirais pas W Soon comme appui à vos arguments….
Phil Philippe (#98),
M. Soon ne fait que rappeler les spécifications constructeurs
Ce n’est pas lui qui décide de passer de “Simple pulse resolution” à “1000 pulse resolution”
Idem pour le diamètre de l’empreinte (à une altitude de 1335 kms) en fonction de la hauteur des vagues, ce sont des spécifications constructeur.
Ecoutez sa vidéo
https://www.youtube.com/watch?v=1gmW9GEUYvA
Sinon, je vous renvoie vers un document de l’ESA (European Space Agency),
https://earth.esa.int/documents/10174/950521/01_Tuesday_OCT2013_Cipollini_Altimetry_1.pdf
Ce document explique q’une résolution de ~1cm nécessiterait un « pulse » de 3×10-10s
(0.3 nanoseconds), correspondant à une largeur de bande > 3GHZ ce qui est impossible
D’où la moyenne sur 1000 ondes pulsées
Ecophob (#99), volauvent (#100), merci pour votre concours
« Concernant la manière de conduire le calcul … chacun fait comme il veut, l’essentiel est de trouver le bon résultat ! »
Heureusement que vous n’êtiez pas prof, Papijo : ça fait un peu peur.
Phil Philippe (#101), il me semble que ce qui est incompréhensible c’est l’écart entre les niveaux absolus qui n’a pas d’explication ..c’est un peu beaucoup gênant et .il faut faire un acte de foi pour croire ensuite au recollage des courbes; . si ça ne vous dérange pas très bien…
les calculs d’erreurs que vous pouvez mener sont de toutes façons dépendant de l’hypothèse que tout est sous controle, le juge de paix de la qualité d’une mesure reste sa contre vérification…
Quand on aura fait coïncider pour des raisons valables les niveaux absolus, que sont prétendument capables de mesurer les satellites on en reparlera…
Nier l’effet de serre. Nier la hausse du niveau marin (vous avez raison puisqu’il est nécessaire de nier cette hausse si on veut nier le changement climatique).
Dans les prochains mois il va falloir aussi nier l’explosion des anomalies mensuelles de température globale et les records annuels (glissant ou non), la fin du hiatus.
7ic (#106), non, nier la qualité de la mesure n’est pas nier la hausse..
en l’état les mesures satellitaires sont parfaitement critiquables ..
et pour les mesure de temperature la simple divergence entre satellites et stations sur la période de recouvrement devrait vous amener à vous poser quelques questions…
La différence entre une catastrophe climatique et rien est de nature quantitative, la mesure est importante .
quant à nier l’effet de serre, commencez donc par nous en donner votre définition, peut être sera t il « niable »..
dans les prochains mois….???
7ic (#106),
Les trois pauv’ millimètres sans barres d’erreur propres ??? Hou j’ai peur, c’est la faute du CO2 !!!
Vous voyez un changement climatique ? moi aussi. Le climat change tout le temps. Saleté de climat qui n’obéit pas aux projections du GIEC !!!
Ne me dites pas que vous piochez vos informations climatiques sur Gulli ou pire, sur Grance Télévision ???
Il y avait donc un hiatus ??? première nouvelle, personne n’en parlait jusqu’ici. Amusant de constater qu’on en parle quand on a l’impression qu’il risque de s’effacer. Et s’il ne s’efface pas… Vous serez en slip !
lemiere jacques (#107),
La température se mesure avec un thermomètre: on ne mesure donc pas une température avec un instrument embarqué sur un satelitte. Vous dites n’importe quoi.
D’autre part les estimations dont vous parlez (alors que vous n’avez absolument aucune idée des hypothèses derrière le calcul) ne sont pas des estimations de la température de surface mais vous les comparez sans vous posez plus de question. Pipeau.
De plus, vous ne vous demandez même pas l’impact qu’aurait un tel biais (tendance dans la TL) sur la sensibilité (ca n’explique pas tout le feedback vapeur d’eau. Et Il reste FAT). Repipeau.
Enfin, ce biais n’existe pas jusqu’à preuve du contraire: vous devriez lire les posts 54 55 et 61 du blog d’isaac held et les références vers des travaux scientifiques publiés que vous y trouverez.
C’est tout pour aujourd’hui.
7ic (#109), non…
les satellites ne peuvent faire une mesure d’une gros volume de gaz… c’est vrai..
je ne sais pas comment ils font d’ailleurs mais je présume que c’est via l’élargissement de raies..parfaitement accpetable à mon gout… avec des défauts certes .
un thermomètre ne mesure que sa propre temperature, il mesure la temperature du milieu sans lequel il est plongé si il est en équilibre avec ce milieu…
ce n’est pas n’importe quoi… ce n’est pas un hasard si les procédures de mesure de temperature au sol sont si procédurières…c’est parce que ce n’est pas une mesure de temperature. du milieu c’est un « machin » qui a trait avec la temperature… changez de thermomètre dans une station et vous obtenez une autre temperature…ennuyeux..
alors entre faire une mesure façon globale d’un volume de gaz ou extrapoler la temperature d’un volume de gaz à partir d’une mesure ponctuelle… si vous me demandez je choisis encore la mesure globale…. parce qu’au moins elle est globale régulière uniforme…
pas vraiment n’importe quoi…
si vous pensez qu’une incertitude et un biais ( car à mon sens c’est est une!) sur l’anomalie de surface quand elle est la mieux mesurée, c’est à dire de différentes façons ,ne pose pas de problème.. franchement je ne sais pas quoi dire…
ça signifie donc que si les modèles ont reproduit des températures historiques biaisées cela n’a pas d’impact du tout sur la valeur des prédictions? Vraiment?
mais répondez donc à la question au lieu de de digresser, comment faites vous pour accepter sans broncher un niveau de la mer absolu mesuré par les satellites franchement discordant atout en acceptant les anomalies?????
expliquez….je vous en prie…
alors le traitement des données ne va pas affecter les variations mais la valeur absolue…pourquoi? parce que.;sinon ce serait trop dommage…
en somme l’idéal serait de ne pas avoir de mesures du tout ou des mesures avec des marges d’erreurs telles que les modèles ne puissent pas être mis en défaut…
lemiere jacques (#110),
« changez de thermomètre dans une station
et vous obtenez une autre temperature… »
Dans ma province-département, Gipuzkoa,
à l’observatoire météorologique d’Igeldo (Donostia)
= Igueldo (San Sebastián), ils se sont rendu compte
que « les mesures automatiques sont beaucoup moins
fiables que les mesures manuelles :
avec les mesures automatiques, les résultats donnent
plus de chaleur et moins de précipitation. »
À Igeldo, la température a augmentée de 0,2 ºC
depuis 1928.
(Margarita Martín, responsable d’Igeldo)
(El Diario Vasco, 26 juin 2005)
JAIA
lemiere jacques (#110),
Vous ne savez pas comment ils font. Tout est dit.
Mais surtout vous ne savez pas ce qu’ils estiment: ce n’est pas des estimations de la température de surface dont vous parlez mais de certains niveaux dans la tropo. Le lien avec la température de surface est subtil. Voir les posts que je vous ai indiqué.
lemiere jacques (#110),
« si vous me demandez je choisis encore la mesure globale »
Bien sûr, car, à moyenner une grandeur intensive, autant que l’étendue et la répartition des points de mesure soit la plus grande et la plus régulière possible. Ceci étant, on ne connaît pas le degré de précision des mesures satellite, mais au moins la tendance qu’elles montrent, car on peut supposer avec un haut niveau de certitude que l’erreur de mesure, si il y a, est toujours de même signe.
Imaz-Aizpurua (#111),
Serait-ce parce que les mesures automatiques sont effectuées à l’aide de thermomètres digitaux (cf. le lièvre soulevé à propos du changement mercure > digital en Allemagne).
scaletrans (#113),
C’est bien possible…
JAIA
Imaz-Aizpurua (#114), cela peut être lié à l’autoéchauffement des sondes, si celui-ci n’est pas pris en compte durant leur étalonnage, où à la différence de courant d’alimentation des sondes entre la station de mesure et le pont utilisé pour leur étalonnage. Avec les thermomètres à mercure, pas d’autoéchauffement car pas d’effet Joule.
Ecophob (#115),
Pour un électricien comme moi,
il est bien certain que :
« Avec les thermomètres à mercure,
pas d’autoéchauffement car pas d’effet Joule. »
JAIA
USBEK (#103) “D’où la moyenne sur 1000 ondes pulsées“
Nous sommes donc d’accord (passons sur ondes pulsées au lieu d’impulsions, mais bon) que Soon est incohérent (et vous aussi) puisqu’il accepte de moyenner 1000 mesures pour réduire l’erreur, mais refuse de le faire pour 500000 mesures à la seconde.
Du reste, je me suis fait très mal en regardant la vidéo de ce monsieur que je n’ai jamais vu dans aucun meeting altimétrique. Même pas le courage d’aller défendre ses inepties devant des spécialistes. Ca va vous faire plaisir : je l’ai trouvé à votre niveau, aussi crasse. Oh pardon, aussi ignorant et erroné. Mézalor, kiakopiésurki ? C’est çà la vie de climato-sceptique, répéter bêtement des imbécilités sans les comprendre ni les vérifier ?
lemiere jacques (#105)
« il me semble que ce qui est incompréhensible c’est l’écart entre les niveaux absolus qui n’a pas d’explication »
Savoir que des données ont un biais est une chose.
Savoir que des données ont un biais et connaître ce biais en est une autre.
Comprendre le biais en est une troisième.
On est au mois dans le deuxième cas puisque les satellites ont des périodes de recouvrement (de plus d’un an) qui permettent de calculer proprement les biais. Entre Jason-1 et 2, contrairement à ce que M Soon et son perroquet usbek annonent, le biais est parfaitement compris depuis 2011, il s’agit d’une erreur de calcul de la position du centre de phase de l’antenne reconnue par le constructeur. Mais pour ça, il faudrait travailler un peu et suivre la littérature scientifique, … ou bien se renseigner auprès des vrais ingénieurs et scientifiques…
Dans les cas deux et trois, je le répète, la connaissance des biais suffit pour que le calcul de la hausse de niveau de la mer soit fiable.
Encore deux erreur, M [XXXXXXX] :
Voici le paragraphe dont est extraite la citation de Carl Wunsch, que vous n’avez probablement jamais lue ailleurs que sur la vidéo de l’autre imposteur. Maintenant que vous l’avez en entier, vous ne pourrez plus nier que ce que vous faites s’appelle du cherry-picking, de l’arnaque, du mensonge, de la malhonnêteté intellectuelle :
« At best, the determination and attribution of global mean sea level change lies at the very edge of knowledge and technology. The most urgent job would appear to be the accurate determination of the smallest temperature and salinity changes that can be determined with statistical significance, given the realities of both the observation base and modeling approximations. Both systematic and random errors are of concern, the former particularly, because of the changes in technology and sampling methods over the many decades, the latter from the very great spatial and temporal variability implied by Figs. 2, 6, 8. It remains possible that the data base is insufficient to compute mean sea level trends with the accuracy necessary to discuss the impact of global warming–as disappointing as this conclusion may be. The priority has to be to make such calculations possible in the future. »
http://ocean.mit.edu/~cwunsch/…..ay2007.pdf
Deuxième erreur, M [XXXXXXX] :
La cohérence entre Envisat et Jason est très bien comprise depuis 2011 aussi. Il s’agissait d’une erreur dans l’algorithme prenant en compte l’autocalibration de l’altimètre RA-3 (Point Target Response), qui avait pour conséquence une estimation erronée de la hauteur significative des vagues (H1/3) et par conséquent une correction fausse du biais électromagnétique.
Je ne me hasarderai pas à vous expliquer plus avant, cherchez par vous même, si toutefois vous le pouvez. Personne n’a besoin de branquignols climato-sceptiques pour comprendre et corriger les anomalies dans les données, heureusement.
Bilan final :
– M. Usbek ignore qu’en moyennant des données, on diminue le bruit d’erreur. (#39)
– M. Usbek ne sait pas lire une figure et confond variation temporelle du niveau de la mer et niveau de la mer. (#66)
– M. Usbek ne prend pas la peine de lire les papiers qu’il cite. (#119)
– M. Uskek ne se tient pas au courant des retraitements et études faites en permanence sur les données, elles sont pourtant publiées, publiques, trouvables facilement. (#118, #120)
– M. Usbek est un perroquet, qui d’ailleurs ne comprend pas l’anglais. (#117)
– Et j’ai gardé le meilleur pour la fin : M Usbek croit qu’on peut réduire « la marge d’erreur due à la variabilité océanique » sans dire comment on pourrait faire (oui, je ne m’en lasse pas, il ne m’a jamais répondu là-dessus). (#39)
Je lance donc un grand appel à idées:
Aidons […] à diminuer la variabilité océanique ! Toutes idées bienvenues.
Au passage : deuxième prix pour Nicias et son désormais fameux « Par exemple, vos instruments sont posés à terre et la terre bouge. » Faudra faire mieux la prochaine fois…
Ne reste donc rien de cet article pourri, nul et non avenu. Rien ne permet de supposer que le reste du site ne soit pas du même accabi.
Allez, ciao [XXXXXXX] !
Phil Philippe (#120),
Vous donnez une belle image des climato catastrophistes ; bravo, continuez , vous n’arrivez pas à la cheville de NKM
Phil Philippe (#119),
M PHIL PHILIPPE nous ressort la citation en entier de Wunsch, qui confirme exactement la conclusion citée par USBEK. M Phil Philippe marque une fois de plus contre son camp.
Phil Philippe (#118),
merci pour l’info sur l’antenne et merci pour envisat …je vais essayer de voir ça…dommage que vous ne donniez pas de référence..je doute d’avoir le temps voir les capacités , cela a l’air technique ..
j’espère juste ne pas trouver que la continuité des données sera prise quelque part comme hypothèse de base guidant des corrections, sinon vos insultes seront mal venues.
SI la convergence des mesures est fortuite est relève de process indépendants et propres à chaque satellite, c’est un argument fort de qualité, si l »origine d’un biais a été découverte et que la continuité supposée des mesures satellitaires set à en déduire sa valeur, les données satellitaires sont affaiblies; ça me semble évident.
L’argument fort des satellite a toujours été leur capacité à mesurer le niveau de la mer au mm près de façon indépendante.
mais pour le reste..non un biais est un biais si on connais on origine, sinon c’est une énigme.
bah je commence un peu à lire sur les techniques ici ( http://planet-terre.ens-lyon.f…..-ocean.xml completement au hasard) de mesures et c’est typique de ce que je déteste, on présente p une explication relative à la technique mais on omet de dire au départ que le satellite ne mesure pas le niveau de la mer mais le niveau de la surface « vue’ du satellite, ce qui n’est déjà pas la même chose, imaginez une mer grosse…
bien sur je pense que cela est pris en compte quelque part, moi je ne fais pas la présomption de stupidité! mais je ne vois pas comment on peut faire sans faire quelque hypothèses ( aie)… et pourquoi les gens qui présentent cela ne le disent pas!!!! PENIBLE.
c’est idiot mais donc les satellites doivent sur ce point surestimer le niveau….
Il manque d’ailleurs une introduction à ces machins du genre qu’est ce que la surface de la mer du point de vue géometrique…j’ai beaucoup de mal à penser qu’on puisse avoir choisi la longueur d’onde d’un appareil sans avoir réfléchi à ça auparavant sur le plan mathématique et comme je sais que ceci est pris en compte dites pourquoi on ne commence pas par cela???
mais déjà…surface de la mer vue du ciel, pas niveau de la mer..ballot…et j’ai lu une page dans un texte généraliste…
Phil Philippe (#121), soyez un peu moins arrogant, ces programmes sont faits avec de l’argent public , si l’affirmation d’un niveau des océans connu au mm près reste dans le domaine académique..on s’en fout, car personne ne se préoccupe du niveau des océans..amusez vous à lire des publications scientifiques si ça vous amuse…
Mais si cette affirmation justifie la mise en place de taxes, on change de registre et n’oubliez pas qui est le patron et qui vous paie.
ça peut vous paraître idiot mais je ne me fie pas à quelques mesures pour un truc si difficile à appréhender que le niveau des océans.
et je vous rappelle que si il y a eu la moindre intercalibration entre les satellites…l’affirmation « nous mesurons le niveau des océans de façon absolue » tombe…
à une époque la parole d’un type en lequel j’avais confiance m’aurait suffit…maintenant je doute… et votre mépris ne vous sert pas..
Vous parlez à votre patron, vous devez humblement nous présenter les justifications en ne pas nous rétorquer elles existent quelque part dans les publications… ceci pour l’arrogance et le mépris. Ou voulez vous qu’on vote pour des types qui nous disent de ne pas financer la recherche publique?
vous essaierez de convaincre un investisseur privé de l’intérêt de mesurer le niveau de la mer au mm…
et au niveau du niveau de la mer par satellite j’ai aussi pensé qu’il n’y a rien de trivial à recomposer une hauteur à partir de m’amplitude de l’echo en fonction du temps surtout si la surface présente une structure géométrique aux grandeurs de l’ordre de la longueur d’onde. je dois y réfléchir, il peut y avoir un biais aussi par là ( et pas une erreur aléatoire!) mais je suis ouvrier et j’ai autre chose à faire . Bien sûr, je sais que cette question a été abordée …je le répète je ne fais pas un procès de compétence mais je fais volontiers un procès en « ripolinage pour montrer de belles choses à ceux qui nous on donné des sous et qui ne peuvent pas vérifier ce qu’on dit »..
voyez e7ic (#112),
je ne sais pas comment ils font avec les satellites..mais 7ic le sais…
il connait tout de A à Z…ou il alu des gens qui savent…
bien sur il élude tout à fait que un satellite fait une mesure globale d’un volume d’atmosphère tandis qu’il accepte avec ferveur la capacité à extrapoler la temperature d’un volume d’air énorme à partir d’un échantillon de quelques litres de gaz grâce à une expérience de calorimétrie ou l’appareil de mesure doit avoir la même masse que l’échantillon mesuré…
je sais bien que des tests empiriques ont été effectués et que donc les gens sont convaincus que c’est acceptable alors que c’est rigoureusement erroné …
pourquoi Zic doute des satellites et pas des données terrestres??????? je doute des deux…la convergence et la multiplicité des mesures est pour moi la seule choses qui puisse convaincre de la vérité d’une mesure et de son incertitude.
lemiere jacques (124) La référence est Ollivier est al. 2012: http://www.tandfonline.com/doi…..012.721632
Toutes les références sur l’altimétrie sont recensées sur http://sealevel.jpl.nasa.gov/science/litdb/
Continuez, vous êtes sur la bonne voie ! Contrairement à d’autres…