De l’origine de la bouffée de chaleur de 2015-2017

L’anomalie de température de la période 2015-2017 a été de 0.49°C, selon NASA-GISS, par rapport à 1981-2010.

Si on considère la tendance linéaire des 30 années avant cette période, soit 0.165°C/décennie et qu’on détrende l’anomalie par rapport à cette tendance, l’écart de température devient pour 2015,2016,2017, respectivement de 0.15, 0.26, 0.16°C.

La moyenne pour ces 3 années s’établit donc à 0.19°C arrondi à 0.2°C.

Ce blip de 0.2°C, avec un maximum à 0.26°C, représente donc l’anomalie par rapport à un réchauffement supposé linéaire.

C’est une anomalie dans l’anomalie.

L’origine première de ce blip est la phase positive de l’ENSO, l’El Niño, démarrée en 2015.

Il est clair cependant, comme dit souvent ici, que le Niño de 2015 (15) s’est appuyé sur celui de 2014 (14), apparemment avorté.

C’est donc un très gros évènement, bien supérieur à celui de 1997-1998 (97)

Alors que le 97 avait été suivi d’une Niña (l’inverse du Niño) importante, le 15 (appuyé sur le 14) s’est poursuivi en 2016-2017 par une phase neutre très légèrement négative par  période.

Mais il y a eu autre chose en 2017 car l’anomalie est restée trop élevée.

Je considère pour ma part qu’une partie importante de l’anomalie de 2017 provient d’un Arctique très chaud toute l’année.

Concernant ce dernier point, l’origine principale, à mon sens réside dans une invasion d’eaux chaudes des latitudes inférieures au dessus de 65°N.

Certes les rétroactions positives peuvent jouer dans cette région mais pas à ce point et aussi brutalement.

 

Cet article récent reprend ce qui est dit ici, mais certaines affirmations sont surprenantes.

En particulier celle-ci:

« A 0.24°C jump of record warm global mean surface temperature (GMST) over the past three consecutive record-breaking years (2014-2016) was highly unusual and largely a consequence of an El Niño that released unusually large amounts of ocean heat from the subsurface layer of the northwestern tropical Pacific (NWP). This heat had built up since the 1990s mainly due to greenhouse-gas (GHG) forcing and possible remote oceanic effects »

 

Bon ils parlent de 2014-2016, alors que l’année 2014 était presque normale, et pas de 2017 qui était hautement anormale.(quoique cela conforte le fait que l’évènement a démarré en 2014, ce dont on ne parle que très peu)

Mais ce qui est le plus choquant est l’affirmation que la chaleur dégagée était accumulée depuis les années 90 et résultait principalement de l’action des gaz à effet de serre (GES).

Personnellement je ne vois pas comment on peut différencier une chaleur qui vient des GES de celle qui provient de l’accumulation naturelle dans le Pacifique ouest de chaleur lors de l’ENSO.

Les W/m2 ne sont pas marqués en rouge ou en vert à ce que je sache.

Alors certes il y a forcément une partie de réchauffement climatique dans le blip, ne serait-ce que parce que l’eau chaude accumulée est un peu plus chaude du fait du RC, mais un petit peu de RC accumulé depuis les années 90, là non.

Il serait ennuyeux que ce soit encore un moyen détourné pour rendre le RC anthropique responsable de tout, y compris des variations de température provenant des oscillations internes.

Ce serait encore un exemple de cette logique du « toujours plus » qui prévaut dans les cercles mainstream.

Toujours plus de réchauffement par rectification des données de température, toujours plus d’élévation du niveau de la mer, toujours plus de conséquences du réchauffement y compris récemment pour expliquer la vague de froid aux USA.

Ce que je me demande c’est jusqu’où ils oseront aller et franchement çà me désespère.

 

Publicités
Publié dans mécanismes | 1 commentaire

Robock et le geoengineering

Sans doute depuis qu’il est né, pour Robock, le geoengineering (GE) c’est le Diable incarné.

Dans cette étude, encore une fois, il plante une banderille contre un GE, même pas encore au début du début d’un projet de mise en place.

En voici l’abstract (traduction google):

La géoingénierie solaire reçoit une attention accrue en matière de politiques en tant qu’outil potentiel pour compenser le réchauffement climatique. Alors que les réponses climatiques à la géoingénierie ont été étudiées en détail, les conséquences potentielles sur la biodiversité sont largement inconnues. Pour éviter l’extinction, les espèces doivent soit s’adapter ou se déplacer pour suivre les climats changeants. Ici, nous évaluons les effets de la mise en œuvre rapide, la poursuite et la fin soudaine de la géoingénierie sur les vitesses du climat – les vitesses et les directions avec lesquelles les espèces devraient se déplacer pour suivre les changements climatiques. Comparé à un scénario modéré de changement climatique (RCP4.5), la mise en œuvre de la géoingénierie rapide réduit ces vitesses vers zéro dans les « hot spots » de la biodiversité terrestre. En revanche, un arrêt soudain augmenterait ces vitesses à un rythme sans précédent (moyennes globales> 10 km an-1) qui sont plus de deux fois supérieures aux vitesses de changement climatique récentes et futures dans les « hot spots » de la biodiversité mondiale. En outre, comme les vitesses du climat auraient plus que doublé, une fragmentation rapide du climat se produirait dans les biomes tels que les prairies tempérées et les forêts où les vecteurs de température et de vitesse divergent spatialement de plus de 90 °. L’arrêt rapide de la géoingénierie augmenterait considérablement les menaces pour la biodiversité dues au changement climatique.

Enfin, je ne sais pas moi, mais d’une part on n’a pas à mettre le GE en oeuvre rapidement.

Il n’y a pas le feu au lac tout de même.

Quant à un arrêt soudain, d’autre part, c’est stupide de chez stupide.

Il est bien évident que si on met en oeuvre le GE, c’est une opération de longue haleine, qu’il n’est pas question d’arrêter du jour au lendemain.

Le GE, principalement par injection de substances réfléchissantes dans la stratosphère, reste une solution d’attente ou de secours, en attendant qu’on puisse réduire les émissions de CO2 et autres gaz à effet de serre de manière très significative et durable et en parallèle que le GE par captage du CO2 atmosphérique puisse être mis en service a très grande échelle (dur dur à mon avis mais bref).

Quant à l’arrêter, allons Robock, que se passerait-il si d’un seul coup on arrêtait la production d’électricité, les transports, les vaccins, les antibiotiques, les engrais, etc. etc.?

Est-ce qu’on a déjà arrêté, ne serait-ce qu’un mois, la production et l’épandage d’engrais dans le monde depuis, allez, 60 ans?

Quant à la biodiversité, dont Robock, à mon avis, se fout complètement, que d’outrages elle a subi et subit depuis des dizaines, centaines, milliers d’années suite à l’action de l’Homme?

Quand on pense qu’en France, par exemple, ce sont les chasseurs qui gèrent la biodiversité animale et qui poussent des hauts cris avec force tags sur les routes, et avec leurs « amis » éleveurs, lorsqu’on réintroduit quelques malheureux ours dans les Pyrénées.

Risible.

Non Robock, franchement, cela devient du terrorisme intellectuel que de vouloir taper sur une solution possible permettant de réduire réellement le réchauffement climatique.

Heu mais remarquez, maintenant que j’y pense, finalement, quelque part, Robock, sans doute involontairement, apporte de l’eau au moulin GE.

En effet, si jamais, par hasard, inadvertance, folie (mode ironique), on démarrait le GE solaire, on aurait encore moins envie de l’arrêter, vues les conséquences apocalyptiques que décrivent Robock et consorts.

 

Publié dans geo engineering | Laisser un commentaire

évolution de la température de 1988 à 2017

Les climatologues retiennent, habituellement, une durée de 30 ans pour juger de l’évolution du climat.

Cette période est sensée être suffisamment longue pour que le bruit statistique soit fortement atténué et donc pour que la tendance linéaire ne soit pas trop dénuée de signification.

J’ai retenu la base NASA-GISS pour déterminer cette évolution.

Cette base est considérée comme « extrémiste » en ce sens qu’elle donne la plus forte évolution des températures de l’ensemble des autres bases de données.

Elle recueille en général, on s’en doute, l’assentiment de tous les partisans d’un réchauffement climatique fort.

Je vais donc donner ici l’évolution NASA-GISS brute et corrigée de l’ENSO et du Pinatubo.

Pour le Pinatubo, j’ai choisi de le gommer en le remplaçant par une évolution linéaire entre les deux années sensées borner ses effets.

Pour l’ENSO j’ai utilisé le modèle maison pour déterminer la correction à apporter.

C’est simple, on fait tourner le modèle avec ENSO, puis sans, et on fait la différence des températures globales obtenues pour obtenir la correction à apporter à la bases NASA-GISS.

Voici d’abord les données brutes par rapport à la moyenne 1981-2010.

puis les données corrigées:

 

Que peut-on observer?

1-l’anomalie de température corrigée a nettement diminué en 2015 et 2016 par rapport à la donnée brute, mais beaucoup moins en 2017.

2-la tendance linéaire diminue du brut vers le corrigé et ceci est quasi totalement du au gommage du Pinatubo

3-le rang des 3 dernières années est conservé mais avec des différences de taille entre le brut et le corrigé.

En effet, les années 2016 et 2017, bien que débarrassées de l’ENSO, semblent se détacher nettement du lot.

Alors s’agit-il du franchissement d’un seuil, de l’influence d’un réchauffement extrême de l’Arctique (que NASA-GISS prend en compte intégralement avec ses extrapolations)?

Ce réchauffement de l’Arctique est-il réellement à ce point ou y a t-il une exagération  due à la méthode de calcul NASA-GISS?

Y a t-il eu un autre phénomène lié à la circulation océanique, par exemple un déversement d’eaux chaudes vers les hautes latitudes?

Pour l’instant les experts en sont réduits à quelques débuts d’hypothèses.

En tout cas l’année 2018 sera cruciale pour savoir dans quoi nous sommes désormais engagés…

EDIT: influence de l’Arctique

En utilisant les données NCEP, très faciles d’emploi, on peut déterminer une influence de l’Arctique.

Je dis « une » car ce sont des données entièrement recalculées.

En appliquant la même méthode que plus haut on peut retrancher l’influence de l’Arctique et voici ce que ça donne:

Comme on le constate, les années 2016 et 2017 sortent encore du lot mais cette fois elles sont dans un ordre « logique » et 2017 est bien la plus chaude.

La tendance linéaire devient beaucoup plus faible puisque par rapport aux données brutes on a perdu le 1/3 de la valeur.

Les régions polaires sont assez pauvrement échantillonnées et leurs températures sont extrapolées à partir de quelques points de mesure.

Il n’y a pas de raison de ne pas en tenir compte, toutefois, il faut avoir tout ceci en tête, si on veut « s’amuser » à classer les années.

Publié dans indicateurs climatiques | 2 commentaires

Sensibilité climatique plus forte: une fake news?

La sensibilité climatique se définit comme l’augmentation de température de surface à la suite d’un doublement de la teneur en CO2 dans l’atmosphère.

Cette sensibilité est de 3.2°C pour la moyenne des modèles.

Récemment une étude, Brown et Caldeira 2017, indiquait que, finalement (oh surprise!!), ce serait les modèles à plus haute sensibilité qui seraient d’avantage dans la réalité que les autres.

Ainsi, la sensibilité climatique utilisée pour prévoir la température future, ne serait plus 3.2°C, mais 3.7°C (15% de plus en fait).

Je vous laisse consulter les réponses, ici et ici, d’un des rares contradicteurs de cette étude: Nic Lewis.

Bon je ne trancherai pas ici, mais je trouve la méthode de Brown et Caldeira très contestable.

En effet, se baser sur la réponse (mesurée de façon très imprécise) du flux radiatif TOA aux variations saisonnières pour sélectionner les meilleurs modèles, ne bénéficie d’aucune démonstration mathématique, à ma connaissance.

Enfin bref, je mets tout de même mon grain de sel, mais en envisageant plutôt le comportement à long terme du système climatique tel qu’il est observé par rapport à ma propre simulation.

J’utilise pour ce faire deux « observations », la chaleur captée par le système et la température de surface.

Pour ma simulation d’abord, en utilisant une sensibilité de 2.5°C, je calcule une élévation de température sur les 30 dernières années de 0.185°C par décennie, en phase avec ce qui est mesuré par l’organisme le plus « chaud », NASA-GISS, 0.185°C également.

Concernant l’estimation de la chaleur captée par le système, je dispose de l’évaluation de Johnson, Lyman, Loeb, de 2016.

Malheureusement cette évaluation n’est plus disponible en ligne mais je cite le passage intéressant:

« Here, we update our calculations (Figure 1), and find a net heat uptake of 0.71±0.10 W m-2 from 2005.5–2015.5 (with 0.61±0.09 W m-2 taken up by the ocean from 0–1800 m; 0.07±0.04 W m-2 by the deeper ocean4; and 0.03±0.01 W m-2 by melting ice,
warming land, and a warming and moister atmosphere. »

Le chiffre intéressant est 0.71W/m2 de flux (absorbé par le système) de mi-2005 à mi-2015.

Pour ma part, avec mon modèle à 2.5°C, je trouve 0.89W/m2 de flux moyen.

Si on fait une petite règle de trois, un flux de 0.61 à 0.81W/m2 ferait apparaître une sensibilité climatique de 2.0 à 2.33°C.

2.16 °C en moyenne, soit bien plus faible que les 3.7°C de Brown et Caldeira.

Notons que le même Nic Lewis a fortement remis en question, chez Judith Curry, la valeur du forçage indirect des aérosols, trop forte selon lui (en valeur absolue).

(Bien sûr tout cela émane de sites dits climato-sceptiques mais ce n’est pas une raison pour ne pas les citer, de mon point de vue s’entend)

Ce forçage étant négatif, cela voudrait dire que le forçage total s’exerçant sur le système climatique serait plus fort qu’annoncé.

Je crois que d’autres études vont dans ce sens, mais je ne les ai pas sous la main tout de suite.

En conséquence la sensibilité serait encore plus faible qu’évalué plus haut et une valeur aussi basse que 1.5°C serait dans le domaine du possible.

Bien sûr c’est encore beaucoup trop mais tout cela pour dire qu’il ne me semble pas que les valeurs hautes de la sensibilité soient vraisemblables.

A suivre…

Publié dans mécanismes | Laisser un commentaire

indicateurs climatiques de juillet 2017

L’anomalie de ce mois de juillet 2017, selon NCEP, a augmenté légèrement par rapport au mois dernier.

Avec 0.45°C d’anomalie globale, ce mois est le 2ème mois de juillet le plus chaud de la base NCEP devant 2011 (0.39°C) et derrière 2016 (0.56°C).

La répartition latitudinale ne présente pas de grandes disparités:

HN: 0.56°C

HS:0.34°C

Arctique:0.22°C

tropiques 0.40°C

Antarctique:-0.23°C

L’anomalie NASA-GISS, estimée  pour ce mois, s’élève à 0.39°C.(estimation suivant corrélation NCEP/NASA-GISS)

Ceci permet de compléter la comparaison entre les anomalies calculées par le logiciel climat-evolution et NASA-GISS:

Comme on le voit cette correspondance est toujours excellente mais il faut toutefois noter un léger excès (0.05°C) de NASA-GISS par rapport à CE en moyenne depuis le début de l’année.

C’est à surveiller.

 

Les anomalies de température de surface de l’océan (SST) se sont élevées à environ 0.31°C par rapport à 1981-2010 selon CDAS:

A noter la brutale augmentation en fin de mois.

Les anomalies journalières globales (terres+océans), selon NCEP, ont fortement augmenté la dernière semaine du mois:

Rappelons qu’il s’agit ici des températures de l’air à 2m au dessus de la surface, calculées par un modèle météo.

L’oscillation El Niño est restée neutre à 0.5°C d’indice environ:

 

Elle est prévue baisser légèrement mais rester neutre par la suite:

 

On peut ainsi établir une prévision de 0.45°C pour août 2017 et pour les autres mois de l’année.

La moyenne de l’année 2017 s’élèverait ainsi à 0.44°C, ce qui ferait de cette année 2017 la 3ème plus chaude après 2016 (0.66°C) et 2015 (0.46°C).

Néanmoins la déjà forte moyenne depuis le début d’année selon NCEP, soit 0.53°C, entraînerait, pour vérifier ce pronostic, que les 5 derniers mois soient inférieurs à 0.36°C en moyenne.

Il n’y a pas de raison objective pour que cela se produise, mise à part la variabilité climatique hors Niño qui a déjà agi dans un sens.

Alors pourquoi pas dans l’autre?

Cela étant dit, nous suivrons avec intérêt le reste de l’année et un écart trop grand avec le modèle pourrait signifier que quelque chose nous échappe.

 

Publié dans indicateurs climatiques | Laisser un commentaire

risque fort de dépasser 3°C à la fin du 21ème siècle

Selon cette étude parue dans Nature climate change, il n’y aurait que 5% de chances de rester en dessous de 2°C d’augmentation de température depuis l’ère préindustrielle.

Abstract

« Les projections du Groupe intergouvernemental sur les changements climatiques (GIEC) récemment publiées, donnent des fourchettes probables d’augmentation de la température mondiale en 2100 dans quatre scénarios pour la population, la croissance économique et l’utilisation du carbone.

Toutefois, ces projections ne reposent pas sur une approche entièrement statistique. Nous utilisons ici une version spécifique de l’identité de Kaya pour élaborer une prévision probabiliste statistiquement basée sur les émissions de CO2 et le changement de température en 2100.

En utilisant les données pour 1960-2010, y compris les projections démographiques probabilistes de l’ONU pour tous les pays, nous développons un modèle hiérarchique bayésien conjoint pour le produit intérieur brut (PIB) par habitant et l’intensité du carbone. Nous constatons que l’intervalle de 90% pour les émissions cumulatives de CO2 comprend les deux scénarios intermédiaires du GIEC, mais pas les extrêmes.

La gamme probable d’augmentation de la température à l’échelle mondiale est de 2,0 à 4,9°C, avec une médiane de 3,2°C et une probabilité de 5% (1%) qu’elle soit inférieure à 2°C (1,5 ° C). La croissance de la population n’est pas un facteur majeur. Notre modèle n’est pas un scénario «Business As Usual», mais plutôt basé sur des données qui montrent déjà l’effet des politiques d’atténuation des émissions. Pour atteindre le but d’un réchauffement inférieur à 1,5 ° C, l’intensité du carbone devrait diminuer beaucoup plus rapidement que dans le passé récent. »

 

Voilà, on s’en doutait bien sûr mais cette étude étaye, scientifiquement, nos doutes concernant la réalisation de cet objectif des 2°C.

Les auteurs n’ont pas utilisé un scénario BAU mais intégré des efforts d’atténuation des émissions de GES.

On peut en tirer la conclusion que, si on se contente d’accords type COP21, on aura de « bonnes chances » de finir le siècle à plus de 3°C

On peut donc continuer à faire l’autruche auto satisfaite (et savante) en se contentant  de demi mesures pour éviter de monter trop haut.

Ou alors se lancer, comme préconisé souvent ici, dans des opérations de géo ingénierie à grande échelle.

A condition aussi d’un effort décuplé dans le domaine nucléaire (au sens large c’est à dire incluant des énergies « nouvelles ») afin de se passer enfin des carburants fossiles à des fins énergétiques.

On prend, actuellement, le chemin inverse.

On développe les énergies renouvelables basées sur l’énergie solaire en occultant le fait qu’elles sont par nature intermittentes et qu’elles doivent être soutenues par des centrales à charbon comme en Allemagne, en Chine ou en Inde.

Et, un peu partout, on réduit la part du nucléaire en omettant que cette industrie a besoin d’un effet de masse pour se développer et même simplement perdurer.En agissant de la sorte on la fragilise et on favorise ainsi, involontairement,les accidents.

Mais restons confiants, actuellement la géo ingénierie est décriée, comme une atteinte intolérable à la nature, comme contraire à l’éthique.

Comme si l’éthique à la mode consistait à accepter de dépasser 3°C en 2100…

Non, la géo ingénierie, un jour ou l’autre, s’imposera comme la seule solution pour réellement stabiliser le climat pendant les quelques siècles où notre « trace fossile » subsistera.

 

Publié dans scénarios | 8 commentaires

indicateurs climatiques de juin 2017

Enfin un mois qui revient dans des valeurs acceptables au point de vue température globale.

L’anomalie s’est en effet élevée à 0.38°C, ce qui est certes encore très haut, mais bien loin du 0.91°C de février 2016, en plein El Niño.

Juin 2017 se place tout de même en 3ème position derrière 2016 (0.51°C) et 2013 (0.39°C) juste devant 2005 et 1998 (0.37°C), mais en 51ème tous mois confondus.

Notons, qu’à part 2013, toutes les années précitées étaient des années Niño, ce qui n’est pas le cas de 2017, bien que l’indice Niño de ce mois soit de 0.55°C environ, soit neutre mais bien positif quand même.

Ce 0.55°C implique une augmentation de température globale de 0.04°C environ.

Côté pôles cela s’est fortement amélioré puisque l’Arctique est à 0.25°C et surtout l’Antarctique à -0.85°C.

Les banquises, malheureusement, sont toujours dans l’état où les ont laissé les formidables anomalies hivernales pour l’Arctique et estivales pour l’Antarctique.

Bref, il semble que la colossale vague de chaleur qui s’est abattue sur le globe de 2015 à 2016, soit enfin derrière nous.

Cette anomalie de ce mois vient confirmer le fait que, contrairement à certains discours alarmistes, il n’y a pas d’accélération incontrôlée du réchauffement climatique.

Ceci dit, il est toujours bien là et plus que jamais…

 

 

 

 

Publié dans indicateurs climatiques | Laisser un commentaire