(Merci à Myke de ce rappel opportun d'une prédiction faite ….en 2007 et qui ne s'est pas encore produite…)
• • • • •
Un nouveau modèle climatique donne un réchauffement brutal dès 2009.
Publié le lundi 3 septembre 2007. Actualité publiée dans Nature
Article retiré suite à la réclamation du site Spectro Sciences… (Voir commentaire N°32, ci-dessous)
(Mais pour compenser mais toujours sur le même site d'infos, voici une annonce de refroidissement.
La fin du réchauffement climatique ?
Le professeur Lev Karline, recteur de l’Université d’hydrométéorologie de Saint-Pétersbourg, qui est également un Centre régional de formation de l’Organisation météorologique mondiale, estime que le réchauffement climatique touche à sa fin.
Le point de vue le plus répandu parmi les chercheurs, explique Lev Karline, est que le climat a eu, au cours des 150 dernières années, une tendance marquée à un réchauffement progressif. Et les modèles mathématiques donnent parfois raison à certains défenseurs du caractère inévitable d’un prochain réchauffement de notre planète. D’aucuns n’excluent pas de leurs prévisions des scénarios apocalyptiques d’élévation de la température du globe de deux ou trois degrés Celsius dans les toutes prochaines années, avec l’ensemble des conséquences sur notre environnement.
« Mais il existe aussi d’autres points de vue, diamétralement opposés, défendus notamment par les chercheurs de notre Université », poursuit Lev Karline. « Les modifications climatiques que nous avons observées ces cents dernières années s’expliquent, selon nous, mis à part l’influence technologique de l’homme, essentiellement par la versatilité naturelle ». Autrement dit, « par les liens Soleil-Terre, par l’activité solaire et d’autres facteurs ». Il est facile de se convaincre (selon Lev Karline, NDLR), si l’on analyse les facteurs cosmogéophysiques, qu’il y a trois ou quatre ans, ces facteurs étaient au plus bas, et que d’ici quelques années la tendance au réchauffement climatique finira par évoluer vers un refroidissement progressif, poursuit Lev Karline. « Il y a tout lieu de penser que les prévisions augurant un réchauffement climatique ne vont pas se justifier : dans les prochaines décennies, nous retrouverons les normes climatiques que nous avons connues dans les années 70 du XXe siècle, affirme le chercheur pétersbourgeois ».
Origine : BE Russie numéro 21 (9/06/2009) – Ambassade de France en Russie / ADIT
(NdBdP : L'avertissement parle de lecture au premier et au second degré et cite Realclimate. com comme référence, à lire au degré que l'on préfère. Si on lit l'anglais, on peut AUSSI aller là pour avoir tous les termes du débat Watts up whit that, Climate audit, Global warming science -liste non limitative-).
240 réponses à “L’hiver sera-t-il chaud ?”
Robert (#150), c’est toi qui ne suit pas, pauvre tache. Tu confonds un ensemble de mesures d’une même température (affectées par l’erreur de mesure dû au thermomètre, au TOBS…) et une série de température (donnée sans intervalle d’erreur) qui évolue dans le temps et qui ne peut en aucun cas être représenté par un estimateur tel qu’une droite.
Il n’y a aucune erreur donnée dans une série de température, donc parler de calculs d’erreur prouve bien que tu comprends que dalle aux résultats donnés par Matlab, notamment la signification de l’écart-type de la pente d’une régression linéaire.
Tu cherches à noyer le poisson pour ne pas avoir assumer tes âneries du style « la variance d’un signal diminue TOUJOURS avec le nombre de mesures”.
Eh bien monsieur-le-spécialiste, comment expliquez-vous qu’ »une série de température qui évolue dans le temps ne peut en aucun cas être représenté par un estimateur tel qu’une droite. » alors que toutes les publications qu’on peut trouver le font ? Seriez-vous plus intelligent que l’ensemble de la communauté scientifique réunie ? avez-vous une preuve indépendante, n’importe laquelle, un article qui nous dit qu’on ne peut pas représenter la série temporelle de température par des fittings par exemple linéaires ?
C’est bien ce qui me semblait… Au passage : pourquoi la variance de la série donnée vaut-elle 1,2 ? Allez, ça doit être facile pour un génie comme vous !
Robert (#152), les publis sont loins de représenter « toutes » l’évolution de la température par une droite, arrête de raconter n’importe quoi.
Utiliser une droite pour représenter une évolution cyclique comme la température, c’est de la débilité profonde. Parce que si on suivait ton raisonnement, la droite qu’on trace entre l’an 1000 et 2009 aura moins d’erreur que celle entre 1900 et 2009. Si on suivait ton raisonnement, on verrait des droites sur les publis sur les cycles glaciaux-interglaciaux de 100.000 ans. Mieux encore, selon toi, la droite qu’on trace sur sur 8 cycles de Milankovitch aura « moins d’erreur autour de la valeur de sa pente » que sur 2 cycles. Super !
Ca prouve bien que ton interprétation de « l’erreur standard sur la pente » ne vaut pas un clou. Et ce n’est pas en faisant diversion en portant la discussion sur autre chose quand on met ton nez dans ton caca que tu vas pouvoir cacher tes inepties.
C’est pas des « fittings par exemple linéaires ». Pour l’instant, tu n’as fait que le fitting linéaire, en décrétant que plus on allonge la période, plus on diminue l’erreur.
C’est donc à toi de trouver un article pour prouver tes dires, pas à moi de prouver que tu dis des âneries. En plus on a la preuve que ce que tu racontes que des conneries, comme par exemples “la variance d’un signal diminue TOUJOURS avec le nombre de mesures” (la variance de la température AUGMENTE quand on allonge la série !), connerie que tu te gardes bien d’assumer.
Tu es en pleine faillite intellectuelle, pov mec.
Et si on revenais enfin à nos moutons, à savoir si l’hiver sera plus chaud au lieu de continuer à s’étriper sur les stats, ce qui n’intéresse pas grand monde.
désolé cher ami, mais j’ai déjà donné un lien qui montre, très clairement, que l’erreur commise sur les paramètres d’une régression linéaire diminue avec le nombre de points. il faudrait veiller à la lire, cette référence, c’est tout.
le cas de la variance pour la température est encore une preuve de votre incompréhension profonde des analyses de tendance. commencez par m’expliquer pourquoi la valeur de la variance donnée par Laurent est fausse, et je pourrai alors vous parler de la suite.
Finalement, je n’ai jamais dit qu’une régression linéaire était toujours la meilleure représentation d’un signal. J’ai simplement dit que la variance de l’estimateur diminue quand le signal devient plus long. Le choix du type d’estimateur est un cran plus haut – mais si vous ne savez pas calculer la variance sur 5 mesures, je ne vois pas pourquoi aller plus loin. Et inutile de devenir insultant, ça n’apporte rien à votre argumentation
ouais, d’accord avec manu – c’est désespérant.
pour l’hiver qui vient : j’ai cru remarquer que l’Europe de l’ouest connaît pour le moment une saison plutôt chaude, en opposition avec les US où l’automne est plutôt glacial. La situation est donc mitigée…
En ce qui concerne les pôles, la banquise arctique ne se porte pas très bien et pourrait d’ici peu passer en-dessous des niveaux records de 2007. Cela semble surtout dû à une arrivée d’eau chaude provenant du nord atlantique et pacifique.
Pour ce qui est de la température globale, l’anomalie pour octobre semble rester plus élevée que celle de 2008, mais à des niveaux très loins des records connus.
Qu’est-ce que cette histoire de mitigé ?
Si c’est glacial d’un côté et chaud ailleurs, rien n’est atténué, ni modéré, ni mélangé, au contraire !
Robert (#150),
Je trouve également 1,2 pour la variance.
De toute façon, il ne faut plus discuter avec Laurent, il n’a aucune compétance. Ce petit calcul le démontre très bien. Dans un autre topic, il s’est fait remonter les bretelles par l’administrateur suite à son intolérence.
Incompétant + intolérent = cela commence à faire beaucoup.
Robert (#155), « l’erreur commise sur les paramètres d’une régression linéaire », quoi que ça puisse vouloir dire, n’a rien à voir avec la variance d’une série de température. En quoi faut il expliquer pour que ça rentre dans ta petite tête ??? Quant à TON calcul de la variance sur 5 mesures, ça n’a aucun rapport ce que je dis, n’essaye pas de faire une diversion grossière.
Non, tu as dit que je cite, “la variance d’un signal diminue TOUJOURS avec le nombre de mesures”, alors arrête de mentir comme un goret pour détourner le sujet quand on te montre le résultat exactement inverse (la variance de la température AUGMENTE avec la longueur de la série) . Ce qui prouve bien que tu es incapable de faire la différence entre l’écart-type d’une série et l’écart-type de la pente de la régression linéaire de la série, deux choses totalement distinctes (et qui n’ont rien à voir avec « l’erreur »).
Et si, je te re-cite, « la régression linéaire n’est pas toujours la meilleur représentation d’un signal » (punaise, tu comprends vite, toi !), alors ça prouve bien que ta « démonstration » que la régression linéaire sur 30 ans aurait « moins d’erreur » qu’une régression linéaire sur 5 ou 10 ans ne vaut pas un clou.
Robert (#152),
Bah vas-y…. dis-nous le qu’on rigole bien fort…. (d’autant que la variance ne peut pas être supérieure à l’espérance de la valeur, qui dans ce cas est de 1).
Pour tout ce qui concerne la théorie du signal, la variance est la moyenne des carrés des écarts à la moyenne, ce qui donne exactement (0,8**2+0,8**2+0,8**2+1,2**2+1,2**2)/5=0,96 (tout le monde peut faire ce calcul ultra simple)
Je te vois déjà…tu va sans doute ergoter, et me dire que la vérité n’est pas là et que la variance est l’espérance des carrés des écarts à l’espérance, ce qui n’est pas rigoureusement pareil… Mais cela sera du grand n’importe quoi, vu que c’est exactement la même chose:
L’espérance des carrés de X est de 1 et L’espérance de X (0,2) au carré donnet 0,04… on retombe exactement sur la même valeur pour la variance, à savoir 0,96.
Il n’y a pas 36 définitions de la variance en théorie du signal, il n’y en a qu’une, et c’est celle que j’ai donné plus haut.
Ce n’est même plus que tu t’enfonce… tu atteint le stade de la bouffée délirante…
Mais j’attends avec impatience que tu nous débité ta dernière sornette…
Tu es docteur en quoi déjà?
Orangina (#158),
Mdr…
Si Robert te soutenais mordicus que 1+1=5, tu trouverai certainement la même chose… 😉
Allez Laurent, je vous donne encore une chance : facteur de Bessel; après ça, je ne peux plus rien pour vous !
Robert (#162),
Arrête de faire le pitre.
Si tu dois démontrer que mon calcul est faux (et donc que la définition de la variance est fausse), fait-le…. ce sera un scoop à la fois pour les mathématiques et les statistiques.
En attendant, tout ce que tu montre, c’est que tu es un imbécile ignare.
Laurent vous nourrissez le troll, c’est navrant de devoir le constater.
Il en vient à de l’analyse harmonique pour des stats élémentaires après avoir prouvé sa méconnaissance de la langue.
Arrêtez
Il en vient à rien du tout, il utilise des mots qu’il ne comprend pas.
J’attend tout de même qu’il me donne sa définition de la variance…. on a le droit de rire, quand même… 😉
Avec la formule de la variance affichée c’est mieux :
Formule générale, m = moyenne et s² la variance observé sur un échantillon reprsentatif de taille n :
Si Robert disait que 1 + 1 = 5, alors je lui répondrait que c’est faux car : 1 + 1 = 2
Bélier mais pas mouton.
Et le résultat est : >>>>>>>>>> 1,2
Laurent (#160), la valeur qu’a donnée Robert, c’est l’estimateur sans biais de la variance où l’on divise par (n-1) au lieu de n (n-1 à cause d’un degré de liberté de moins dû au calcul de l’espérance, cf cours de stat niveau première)
C’est ce que donne par convention la formule « var » des algo de calculs dans les calculettes ou les softs sur PC. Donc au lieu de diviser par n=5, notre « docteur en physique stochastique » a pris le résultat de la division par n-1=4 d’où 1,2 sans comprendre en quoi ça consiste, comme le résultat du calcul de l’écart-type de la pente.
Mais ça lui permet de continuer brasser du vent pour noyer le poisson et d’éviter ainsi d’assumer ses âneries pondues à la chaîne, technique de rhétorique d’un classique à pleurer.
Orangina (#166), votre formule, c’est pas la variance, c’est l’estimateur sans biais de la variance et c’est ce qui est PAR CONVENTION implanté dans les algos de calcul.
C’est pas ce pinaillage qui change que ce soit quand n est assez grand comme dans une série de température. Surtout quand ce pinaillage vient d’un type qui ne fait pas la différence entre écart-type d’une série et écart-type de la pente d’une régression linéaire de la série.
miniTAX (#168),
J’avoue que je n’aurais même pas imaginé qu’on puisse confondre variance et estimateur sans biais de la variance…..
Laurent (#170),
Variance, c’est bien la marque de lingerie, non? :
http://www.alavieenrose.fr/com…..agence-rp/
J’adore! 😉
floyd (#171),
Vous êtes machiavéliquement intéressant Floyd !
Rebonjour à tous,
pour clôre cette bête discussion : Orangina a raison, il faut utiliser le facteur de Bessel ici. rien à voir avec le fait que ce serait un « algorithme conventionnel ». Lorsqu’on doit calculer la variance sur un échantillon fini d’une variable stochastique, il faut tourjours retirer un degré de liberté et c’est tout. N’importe quelle personne qui a dû un jour calculer la variance d’une série de mesures le sait (c’est ce qu’on appelle l’estimateur non-biaisé). Sauf vous, semble-t-il… A moins que vous puissiez me prouver que j’ai tort ?
Robert (#173),
mamamia….. il n’a pas perdu l’occasion de ressortir une connerie de plus le Robert….
ça devient même un peu lassant et un peu moins drôle.
Passons sur le fait qu’il ne connait pas la signification des mots et refuse d’accepter que la variance n’est pas la même chose que l’estimateur sans biais de la variance….
Mon petit Roro…. va donc relire le post 102 ou je défini la série comme composée de valeurs équiprobable, hypothèse que vous avez gardé en 104:
Comme vous ne le savez apparemment pas (pas plus d’ailleurs que quoique ce soit en stat), la probabilité de chaque tirage équiprobable d’une série de mesure est exactement 1/n, et donc l’espérance de la série exactement connue, et exactement égale à la moyenne.
… et donc le calcul standard de la variance est tout à fait correct et non biaisé (théorème de base des statistiques), et l’utilisation de l’estimateur non biaisé, moins précis que le calcul de la variance elle-même, est tout à fait innoportune.
Quelle accumulation de déclarations fausses et stupides!!!!
Ce qui est bête… c’est que tu aurait pu t’éviter tout cela en acceptant d’avoir eu tord sur
… qui est pourtant évidement une idiotie… et il n’est même pas besoin d’avoir un bagage statistique pour le comprendre… suffit de regarder les séries…
Robert (#75), Robert (#72),
Méthode des moindre carrés: on utilise l’erreur qu’on veut faire pour faire une « interpolation » , pas l’inverse… A l’époque j’avais appris une méthode avec le théorème de Rolle pour les interpolation polynomiale – si je me souviens bien :p
regression linéaire: il n’y a que les réchauffistes qui sont capables d’utiliser ça sur les T° et l’erreur (intuitivement défini, parceque là encore..) me semble chaotique selon la taille de la fenêtre sur laquelle on fait notre analyse…D’ailleurs on fait des regression linéaire pour tout aujourd’hui sans savoir ce que c’est (comme la stat..)
diminution de l’erreur avec le nombre de mesure: une erreur peut être négative?
Une question sur la stat que me pose souvent, mais un graph de corrélation, ne doit on pas le faire dans le meilleur des cas avec deux variables de même nature?
super.mouton (#175),
Bah… mathématiquement, on peut toujours corréler des pommes et des oranges… Mais si on ne connait pas de relations physiques entre les deux variables, ce qu’on obtient, c’est juste une mauvaise mesure de « ressemblance ».
On m’a posé une question à laquelle je n’ai su répondre avec conviction : à quand la prochaine glaciation ? Le sait-on avec « certitude » (forcément à la louche, j’imagine) ? C’est en millénaires ? Entre cinq et dix ?
Hacène (#177),
Elle a débuté il y a environ 120.000 ans et s’est terminée il y a environ 10.000 ans
Laurent (#178),
Certes, Laurent, certes, et merci, mais ça c’est la dernière, pas la prochaine ! 😉
Tiens ! Skyfal n’a pas changé d’heure ?!! Veut croire que l’été est encore là ?… 😉
@Hacène #177
L’interglaciaire actuel devrait être à bout de souffle : Il a pas loin de 11000 ans :mais, ce n’est pas très précis. à mille ans près. Évidemment.
Quant à la prochaine glaciation, personne ne le sait. Certains affirment que les 0,04% CO2 va la repousser (LOL !)
Disons : pas moins de 20 à 30 ans, 100 ans, 500 ans , 1000 ans…?
Mais 1000 ans ça paraît si loin.
Qui sait ? C’est la question à beaucoup d’euros !
Alors signez vos courriers comme un collègue US :
« Enjoy the interglacial ».
Hacène (#179),
Ooops… désolé…
Suivant les cycles de Milankovitch, dans environ 10.000 ans…. avec une incertitude de quelques milliers d’années… 😉
Hacène (#177),
Les « scénarios de André Berger et Marie France Loutre de l’université de Louvain » donnent environ 50000 ans avec un taux haut de CO2 (anthropique ou non) et 10000 avec un faible. Mais tout cela n’est qu’hypothétique…
laurent : je vous ai demandé de calculer la variance et la moyenne sur la série, pas celles de la distribution dont elles sont extraites, il s’agit donc OBLIGATOIREMENT de l’estimateur. La variance de la population vaut 1. Celle de la série que je vous ai donnée 1,2. C’est la dure réalité
Allez hop, encore une référence externe qui supporte mon affirmation
http://www.stat.wvu.edu/SRS/Mo…..ments.html
Ils donnent l’exemple de chiffres compris entre 1 et 10 tirés de façon purement aléatoire. la variance d’une série de mesure ne converge vers celle de la distribution de population sous-jacente que lorsque le nombre de points tend vers l’infini.
A quand la moindre référence de votre part nous indiquant que la variance sur la série que je vous ai donnée se ; calcule comme vous le dites? J’ai la réponse : jamais, car c’est faux, point, à la ligne.
Argus (#181), Laurent (#182), chria (#183),
Merci à tous. En bref, on en sait pas grand chose, apparemment, si ce n’est que ça finira bien par arrive. Disons probablement au moins quelques siècles, peut-être quelques millénaires. La théorie de Milankovitch et notre connaissance des paramètres orbitaux de la Terre ne devraient-ils pas nous aider à y voir plus clair ? J’imagine que l’on connaît bien ces paramètres pour le passé et que l’on sait anticiper leur évolution, non ?
@ Hacène #185
Quelques millénaires ? ça me paraît un peu beaucoup…
Mais oui, c’est bien Milankovitch. Mais tout cela n’a pas la précision d’une horloge atomique. il y a des fluctuations.
Il suffit de regarder le derniers épisodes glaciaires vus par les carottes de Vostok. Ce n’est pas très régulier.
Mais, en gros, Milankovitch colle assez bien pour que sa théorie soit acceptée (pas comme celle du GIEC).
Berger, comme bien d’autres , ont des vestes réversibles et des graphiques à géométrie variable; après avoir annoncé dans les années 70 la prochaine glaciation pour dans 10 000 ans,
A.Berger écrit lui même dans son livre “climat de la Terre”(1992), “qu’en l’absence de toute autre perturbation naturelle ou anthropique, le refroidissement de la Terre, commencé il y a 6000 ans, se poursuivra encore pendant 5000 ans avant que le climat ne se réchauffe légèrement, pour plonger ensuite vers des conditions glaciaires d’ici à 60000 ans”.
Il fallait bien intégrer la théorie naissante de l’effet de serre du CO2 dans ses écrits.
Mais pour ceux que cela intéresse, il y a une énigme que je n’ai jamais pu résoudre et qui concerne la position de l’an 2000 sur sa courbe d’insolation des latitudes au delà de 65° Nord. Situé sur un maximum en 1984, elle dégringole au creux suivant en 2006, alors que la courbe est toujours la même; translation équivoque , mais qui explique mon entête.
Robert (#184),
Bah non… ce n’est une obligation que pour vous… pas pour l’ensemble des statisticiens du monde qui ne confondent pas variance, et estimateur non biaisé de la variance.
…. vous avez décidément un gros problème avec le langage…
Si je dis Robert, ce n’est pas Charles… ça vous va mieux comme cela 😉
De toute façon, et pour revenir à votre proposition de base:
… est faux (démontré plus haut)
Laurent (#188),
Laisse tomber Laurent; c’est pas la peine de discuter avec quelqu’un qui confond météo et climat
Au sujet de la prochaine ère glacière, une chose est sure, elle sera bien plus destructrice pour l’humanité que notre fameux RCA.
Juste une petite remarque : ère glaciaire …. erreur souvent faite à droite et à gauche…
Araucan (#191),
Désolé
J’en profite pour rappeler (amicalement) à Laurent qu’avec tu on met « s »
(petite) Ère glaciaire (refroidissement) vs Ère glacière (réchauffement) ! Tu m’étonnes que c’est flou pour certains…
Et un petit coup d’Allègre qui nous promet un hive froid…
http://www.marianne2.fr/Allegr…..82580.html
Araucan (#194),
Comme ça, ça ira mieux:
Allègre : « Hulot est un marchand de soupe »
Laurent, vous êtes incorrigible ! toujours en train de déblatérer votre blabla sans la moindre source d’information neutre qui supporte ce que vous dites. Ca n’a aucune valeur, vous comprenez ? Répéter la même chose non stop sans apporter la moindre preuve ne sert à rien ! A quand un lien vers un document sérieux qui nous indique que pour calculer la variance d’un ensemble FINI de mesures, il faut diviser par N et pas N-1 ? Nous attendons tous impatiemment…
Quant à votre « preuve » que la variabilité augmente avec l’intervalle de temps pour les données de températures mentionnées : pouvez-vous rappeler à l’audience, cher spécialiste, comment on compare la variabilité de deux séries de mesure qui n’ont pas la même moyenne ? Mmmmm ?
Robert (#196),
Les informations neutres sur la variance, on te les a déjà données, liens à l’appui. Si tu les avais lus, ça t’aurais éviter de débiter tes clowneries. Et n’importe quel crétin des Alpes les aurait trouvées en 10 secondes , sauf toi, monsieur le « docteur en physique stochastique », cf par exemple ici ou ici …
Et ça prétend être « docteur », pfff, tu vends aussi des bas infroissables et de l’eau sèche pour compléter ta retraite de camelot ?
Ah, merci minitax ! merci de confirmer mes dires ! La variance présente le facteur 1/N dans le cas de populations dites complètes (cf l’exemple des cotes obtenues). C’est à dire lorsque les données représentent l’ensemble de la population…
Lorsque la population étudiée ne représente qu’une partie de l’échantillonage total, il faut utiliser le facteur N-1, dit de Bessel. Les deux convergent quand N tend vers l’infini
Sources :
Handbook of stochastic methods, CW Gardiner, Springer Series in Synergetics
Applied Probability and Stochastic Processes, R M Feldman, C Valdez-Flores, Springer-Verlag
Robert (#198),ces liens ne confirment en rien tes dires, tout au contraire. Si tu ne comprends pas ce qui y est écrit, relis plusieurs fois, avec le doigt.
Bah oui, et la variance de tes 5 chiffres est bien 0,96 trouvé par Laurent et non 1,2. C’est con pour toi hein, monsieur le docteur en ânerie stochastique.
Robert (#196),
Comment peut on faire de la statistiques sur des données qui selon le moment où on fait la mesure, les facteurs influant celle-ci, changent…? Juste une petite question comme ça que je me pose de temps en temps… Je comprend bien ce qu’on peut dire T° moyenne, mais bon, comparer la T° moyenne d’une ère glaciaire (hihi) et d’une ère inter-glaciaire laisse souvent à désirer si on ne précise pas justement que ce sont deux ères différentes. faire la moyenne des deux sans rien préciser est un non-sens. Heureusement, je crois pas encore avoir vu quelque chose comme ça. Par contre je l’ai vu pour El nino et la nina: alors qu’il serait intéressant de comparer deux périodes El nino on mélange carément tout… Enfin, je ne suis vraiment pas une spécialiste en stat, mais ce que je sais, c’est que par prudence, je ne compare pas des pommes et des poires comme dis Laurent.
Pour la méthode de Rolle, j’y ait rerefléchit hier soir, et je crois pas que c’était ça… faut que je revoit mes cours moi :p , suis en plein déménagement, mais si ça vous intéresse, je peux chercher…. Sinon, en fait je crois que pour les interpolation de lagranges etc… on utilise des propriétés sur les matrices: En général interpoler revient à résoudre des équations qu’on exprime en matrice. En définissant une norme sur ces matrices, on obtient des inégalités sur l’erreur exprimé en fonction des coefficients du polynôme (parcequ’en général, ça sera des polynôme, mais je crois qu’on peut faire la même chose avec Fourier… ) , le nombre de points, etc… Mais je vais revoir mon cours au lieu de déblater des c*** car j’ai eu 3 ou 4 cours sur ça, mais avec des petites nuances (interpolation, régression, méthode moindre carré, etc..) et c’est très flou….