Shutdown…

Pas d’indicateurs climatiques en ce moment suite au shutdown, résultat de la guéguerre entre Trump et le congrès américain.

Publicités
Publié dans indicateurs climatiques | Laisser un commentaire

prévisions de température globale de 2019 à 2030

C’est un exercice risqué auquel je me livre, mais j’ai suffisamment confiance dans mon modèle pour que je me lance.

J’ai apporté quelques changements aux données que je rentre dans le modèle.

Concernant les forçages, je considère maintenant qu’ils seront voisins du scénario RCP 6.0, le RCP 8.5 que je considérais auparavant étant un peu au dessus de la « réalité » observée (notamment en ce qui concerne les émissions) et je fais le pari que l’influence des différentes COP va finir par ce faire sentir.

Concernant l’ENSO ( les Niño et les Niña) j’ai jugé très improbable les prévisions actuelles des modèles pour l’année 2019.

En effet, l’évènement énorme de 2014-2015-2016 devrait, si on examine les statistiques voir arriver une période de refroidissement dans cette zone.

C’est pourquoi j’ai considéré que le scénario de l’après 1998 devrait se reproduire après et au cours de 2019.

Dans ces conditions, les anomalies seraient de:

2019:0.45°C, 2020:0.32, 2021:0.26, 2022:0.32, 0.23:0.42, 2024:0.58, 2025:0.57, 2026:0.61, 2027:0.55, 2028:0.59, 2029:0.48, 2030:0.48°C

On aurait donc, suivant le Niño de 14-15-16, une période de relatif refroidissement à 0.36°C de moyenne, de 2017 à 2023.

Il faudrait attendre 2024 pour dépasser le record de température de 2016 (0.55°C CE) et le nouveau record s’établirait à 0.61°C en 2026.

Le graphe ci dessous, montre cette évolution, les observations NASA-GISS de 1979 à 2018 corroborant presque parfaitement la justesse du modèle CE:

On notera que la tendance linéaire s’affaiblit à 0.16°C/décennie de 1979 à 2030.

Pour mémoire les prévisions du Hadley Center établies en janvier 2018:

Elles courent jusqu’en 2022 et ne présentent absolument pas la même évolution.

On se demande d’ailleurs comment il est possible de prédire un épisode El Niño beaucoup plus fort que le 2015-2016 à aussi peu d’intervalle.

Ne serait-ce pas, disons, un peu alarmiste?

Enfin on verra qui a raison…

Publié dans prévisions annuelles | Laisser un commentaire

évolution de la température globale de 1979 à 2018

Ci dessous le graphique montrant l’évolution de l’anomalie globale de température, selon les observations et réanalyse d’une part (en bleu) et selon le modèle (maison) climat evolution (CE) (en orange) d’autre part.

Toutes les anomalies sont calculées par rapport à la moyenne 1981-2010.

Pour la courbe en bleu il s’agit de la moyenne entre NASA-GISS, Hadley selon Cowtan and Way (modifiée par kriging) et la réanalyse NCEP/NCAR.


Hormis la moindre variabilité de la courbe CE, cette dernière semble bien correspondre aux « observations ».Néanmoins la régression linéaire de CE, 0.196°C/décennie, est supérieure à celle « observée », 0.181°C/décennie.

La sensibilité climatique utilisée dans CE est de 2.5°C.

Elle donne une température de surface qui croît un peu plus vite que dans la « réalité » d’autant que le flux de chauffage ou bilan radiatif TOA de 2005 à 2015 est également supérieur pour CE, 0.81W/m2, que la partie médiane des observations selon Loeb et al 2017, 0.71W/m2.

On pourrait donc en conclure, un peu rapidement et sans que ce soit une certitude bien sûr, que la sensibilité climatique « réelle » se situerait plutôt entre 2 et 2.5°C.

Pour l’année 2018, CE donne une anomalie globale de 0.45°C alors que, pour le moment, celle observée (jusqu’à octobre pour Hadley et novembre pour NASA et NCEP) est de 0.39°C.

Il se confirme que 2018 sera très probablement la 4ème année la plus chaude de l’Histoire moderne.

Nota: je n’ai pas fait figurer les analyses satellitaires de la basse troposphère pour deux raisons.

1: il ne s’agit pas des mêmes milieux (comment comparer la température à 2m et à une altitude moyenne d’environ 3000m?).

2: il y a beaucoup trop de différence  entre les deux bases de données existantes, RSS et UAH

PS: concernant l’évolution RSS qui serait, d’après un commentaire, plus « plate » que l’évolution de la température de surface, ce graphique montre qu’il n’en n’est rien:

Avec 0.197°C/décennie on est bien supérieur à 0.181°C/décennie indiqué plus haut.

Par contre UAH, avec 0.13°C/décennie, soit 34% de moins qu’ UAH, est effectivement plus « plate », mais qu’ils se mettent d’accord entre eux, avant qu’on puisse publier leurs résultats.

Il y a suffisamment d’incertitude, de controverses, et de parti pris dans ce domaine, pour qu’on en rajoute.

Publié dans indicateurs climatiques | 4 commentaires

indicateurs climatiques de novembre 2018

Anomalie globale de température de 0.34°C pour ce mois de novembre 2018 selon NCEP et par rapport à la moyenne 1981-2010.

Ceci place ce mois à la 8ème place des plus chauds mois de novembre depuis 1948 selon cet organisme.

La moyenne annuelle s’élève à 0.396°C ce qui place 2018 à la 4ème place des plus chaudes.

évolution annuelle de température depuis 40 ans: la tendance s’élève à 0.18°C/décennie

Dans le détail:

HN:0.46°C

HS:0.22°C

Arctique:1.30°C

Tropiques:0.40°C

Antarctique:0.30°C


On semble toujours se diriger vers un épisode El Niño au cours de cet hiver et printemps prochain, sans qu’on puisse faire un pronostic quelconque de sa force. Force dont dépendra l’anomalie de 2019.

 

Pour 2018, neutre sur ce plan, on ne peut toujours pas constater d’accélération d’un réchauffement climatique qui continue son train train inexorable.

Publié dans indicateurs climatiques, Uncategorized | 7 commentaires

Resplandy et al 2018


Nous allons reparler un peu bilan radiatif, par le truchement d’un article paru récemment sur Nature.

Il s’agit de :

Quantification of ocean heat uptake from changes in atmospheric O2 and CO2 composition de

L. Resplandy, R. F. Keeling, Y. Eddebbar, M. K. Brooks, R. Wang, L. Bopp, M. C. Long, J. P. Dunne, W. Koeve & A. Oschlies

Le principe décrit dans l’article est simple dans le fond,plus compliqué dans son exploitation chiffrée.Nous allons le décrire très succinctement.

La loi de Henry précise que la solubilité des gaz dans l’eau est une fonction de la température.

Plus l’eau est chaude et plus la solubilité est faible et inversement.

En mesurant la teneur en oxygène, par exemple, dans l’atmosphère, on devrait avoir un accès direct à la température océanique, donc à la chaleur océanique, donc au bilan radiatif si vous avez bien suivi.

Le problème étant que la teneur en oxygène varie également par un tas d’autres facteurs, un des plus importants étant la combustion des carburants fossiles.

A titre d’exemple, la combustion de 10 Gt, quantité annuelle en 2017, de carburant fossile  (exprimés en C) consomme 40 Gt d’oxygène, soit 33ppm de la quantité totale d’oxygène dans l’atmosphère.

Pour baisser la teneur en O2 de 1%, c’est-à-dire pour passer de 21% à 20%, il faudrait brûler 14000 Gt de carburant fossile.On a donc de la marge.

En fait, les auteurs ne considèrent pas uniquement l’O2 mais l’APO (Atmospheric Potential  Oxygen) = O2+1.1CO2.

L’APO se comporte vis-à-vis du réchauffement climatique comme un gaz rare et est donc utilisé comme traceur de ce dernier.

Les différents flux d’APO sont résumés dans le schéma ci-dessous:

On retrouve à droite, par exemple, la variation due aux activités industrielles.

Les raisonnement en delta par rapport à l’APO de 1991 est relativement déroutant puisqu’ ainsi l’erreur augmente avec la valeur de la mesure.

C’est à partir de ce dernier point que les auteurs vont, semble t-il, faire un peu n’importe quoi dans le traitement statistique des données.

La courbe de delta APO climate est ci-dessous:

On remarque bien, en b, la bande orange qui s’élargit.

Le delta APO clim est corrélé à la chaleur océanique gagnée ou perdue dans l’intervalle.

Le coefficient indiqué par les auteurs est de 0.87+-0.03 per meg par 10^22 J.

Les auteurs trouvant 1.16 per meg /an, ils aboutissent à 1.33+-0.20 10^22J/an.

C’est ce chiffre qui permet à certains d’affirmer que le réchauffement est plus élevé de 60% par rapport aux chiffres précédents.

Etude critique de Nic Lewis

Le graphe ci-dessous est très révélateur à ce sujet :

D’emblée il apparaît très bizarre à Lewis que la simplerégression linéaire donne 0.88 per meg/an (droite bleue) alors que les auteurs indiquent 1.16per meg/an (droite rouge).

Nous n’allons pas entrer dans les  traitements statistiques qui ont permis à Lewis de réfuter totalement non le fond de l’étude mais ses résultats.

Vous pouvez les trouver sur le site Climate Etc ici, ici, et ici.

Vous trouverez également la réponse de Keeling sur le site de Realclimate ici.

Vous verrez que Keeling reconnaît son erreur mais introduit un nouveau ratio O/C égal à 1.05 contre 1.1, ce qui lui permet de moins baisser la tendance initiale.

 C’est franchement du grand n’importe quoi et ceci disqualifie complètement l’étude, ses auteurs et peer reviewers, et les médias s’en étant fait l’écho.

En fait on passe de cette figure :

A celle-ci :

La marge d’erreur est considérablement plus élevée et l’incertitude absolue est de 60% de la valeur centrale et encore, par un subterfuge peu glorieux de dernière minute.

Avec ce 1.21 +-0.72 10^22 J/an augmenté de 3% (voir article précédent) on arrive à un bilan radiatif de 0.77+-0.46 W/m2 pour la période 1991-2017.

On peut s’amuser en utilisant les données des auteurs à calculer la tendance de 2005 à 2015 pour se raccorder à l’article précédent et la détermination de Loeb et al 2017 : 0.71 W/m2 rappelons le.

On trouve 0.47 per meg/an qui correspond à 0.34W/2 en bilan radiatif pour cette période, soit 2 fois moins que Loeb 2017.

Sur une aussi courte période on peut douter de la significativité de ce chiffre, mais tout de même, on est très très très loin des annonces, alarmistes, initiales.

Pour ne pas compliquer les choses nous reparlerons plus tard mais brièvement du fameux processus de peer review, soit disant sensé ne pas laisser passer ce genre d’erreur.

Mais il est clair que si ce qu’ont trouvé Resplandy et al 2018 était vrai pour la période 2005-2015, il faudrait réviser les valeurs de sensibilité climatique non vers le haut, comme l’espéraient les auteurs et la revue Nature, mais considérablement vers le bas, une sensibilité climatique de 1°C étant alors vraisemblable.

Nous n’en sommes pas (encore ?) là…

Publié dans chaleur océanique | 2 commentaires

Bilan radiatif TOA

Le bilan radiatif mesuré au sommet de l’atmosphère (TOA), est une composante essentielle de la réaction du système climatique terrestre aux divers forçages qui s’y exercent.

Si on connaît les valeurs des forçages, de la température de surface et du réchauffement du système (donc du bilan radiatif), on a un accès à une valeur proche de la sensibilité climatique réelle (variation de température à l’équilibre de la surface suite à un doublement de la teneur en CO2)

Des trois variables citées plus haut, seule la variation de température de surface est, en principe, la plus facile à déterminer.

Disons bien « en principe » car la couverture des mesures terrestres n’est pas complète(régions polaires en particulier) et la détermination des SST (températures de surface des océans) n’est pas si évidente.

Les bases de données subissent d’ailleurs des réajustements incessants et toujours (à 99%), il faut le noter, dans le sens d’un réchauffement plus important.

Concernant les forçages radiatifs, si on pense connaître ceux des gaz comme le CO2, le CH4, la vapeur d’eau (qui n’est pas un forçage mais une rétroaction), etc., il n’en est pas de même des aérosols dont on se demande toujours quels sont leurs effets sur les nuages.

Enfin, le troisième paramètre, le bilan radiatif, qui permet de mesurer le réchauffement du système climatique (RC), est l’objet du présent article.

Deux méthodes pour déterminer le bilan radiatif

1-mesures in situ

Il s’agit exclusivement de mesures de température par balises ARGO de la zone 0-1800m de profondeur de quasiment l’ensemble des océans de la planète.

La dernière analyse à ma connaissance date de 2016 et concerne la période juin 2005 à juin 2015, période très récente donc.

Il s’agit de :

Improving estimates of earth’s energy imbalance de Johnson, Lyman, Loeb

En résumé on trouve :

Océan de 0 à 1800m :0.61+-0.09 W/m2

Océan de 1800m aux abysses :0.07+-004W/m2 (estimation)

Reste du système :0.03+-0.01W/m2

Total : 0.71+-0.10W/m2

L’océan représente donc 96% du total

2-mesure flux radiatifs par satellite (CERES EBAF4.0)

Il s’agit de mesurer les flux descendants et montants de SW (petites longueurs d’onde) et LW (grandes longueurs d’onde)

Malheureusement, comme l’indique cette étude de Loeb, le bilan donne une valeur de 4.3W/m2 bien plus haute que les valeurs in situ et donc pas exploitable en tant que telle.

On procède alors à un étalonnage en abaissant les valeurs de 4.3-0.71W/m2 = 3.59W/m2.

S’il est considéré par les spécialistes que les variations relatives des mesures de flux sont correctes, car assez bien corrélées à ce qui se passe in situ, il n’en demeure pas moins que cette méthode est inutilisable pour déterminer de façon indépendante le bilan radiatif.

Nous ne disposons donc que d’une seule méthode fiable pour le moment, la méthode par mesure de l’oxygène atmosphérique, dont nous parlerons prochainement, étant très imprécise (50% d’erreur).

3- que disent les modèles ?

Pour la période juin 2005 à juin 2015, le déséquilibre moyen des modèles est de 1.01W/m2.

Il est donc 42% plus fort que ce qui est mesuré.

D’autre part, la température de surface des modèles pendant la même période est de 0.24°C/décennie.

Les mesures de NASA-GISS (pourtant en pointe dans le domaine de l’augmentation de température)  indiquent pour cette période 0.14°C/décennie.

Cependant la période est un peu courte pour permettre une grande significativité.

Sur 30 ans avant 2015 on est à 0.165°C/décennie.

Une application « bête » de l’équation de l’équilibre du flux radiatif indiquerait une sensibilité climatique très faible dans ces conditions, à peine supérieure à 1°C pour un doublement de la teneur en CO2.

Avec un modèle un peu plus « sophistiqué » on devrait atteindre une sensibilité autour de 1.5°C.

Conclusion

Les mesures sont donc loin de corroborer les modèles

Les périodes sont probablement trop courtes pour éliminer la variabilité naturelle, mais on comprend, malgré tout, les efforts incessants du consensus pour tenter de réconcilier observations et modèles quoique, dans leur esprit, il semblerait que la moyenne des modèles soit la réalité qu’on ne saurait pas observer.

Mais si les observations restent en l’état, cela aura des répercussions sur la perception qu’auront les gens de la réalité du discours seriné par le consensus relayé par des médias bégayant ce même discours dont ils ne comprennent pas un traitre mot.

Finalement cela voudrait dire qu’il y a finalement très peu de chances (risques) qu’on dépasse 2°C, voire moins, à la fin du siècle.

Surtout qu’il semble que les efforts de réduction de consommation de carburants fossiles soient quand même, même si c’est laborieux, enfin engagés.

Est-ce trop optimiste?

Peut-être, l’avenir nous le dira.

Publié dans chaleur océanique, Uncategorized | 2 commentaires

indicateurs climatiques d’octobre 2018

L’anomalie globale selon NCEP par rapport à 1981-2010 s’élève à 0.50°C, en augmentation donc.

Ce mois d’octobre est à la 5ème place des octobre les plus chauds.

Dans le détail:

HN:0.80°C

HS:0.20°C

Arctique:3.30°C

Tropiques: 0.32°C

Antarctique: 0.54°C

On notera une très forte anomalie sur une immense région allant du pôle nord vers 45°N, à l’exception d’une zone « américano-atlantique ».

Cette zone, couvrant 16% de la surface terrestre, présente une anomalie de 3°C.

Son poids dans l’anomalie globale est de 0.46°C environ.

On notera que l’épisode Niño se développe brutalement, laissant craindre, pour les mois prochains, une amplification de l’anomalie de surface.

1018 nino

Publié dans indicateurs climatiques | Laisser un commentaire