Robock et le geoengineering

Sans doute depuis qu’il est né, pour Robock, le geoengineering (GE) c’est le Diable incarné.

Dans cette étude, encore une fois, il plante une banderille contre un GE, même pas encore au début du début d’un projet de mise en place.

En voici l’abstract (traduction google):

La géoingénierie solaire reçoit une attention accrue en matière de politiques en tant qu’outil potentiel pour compenser le réchauffement climatique. Alors que les réponses climatiques à la géoingénierie ont été étudiées en détail, les conséquences potentielles sur la biodiversité sont largement inconnues. Pour éviter l’extinction, les espèces doivent soit s’adapter ou se déplacer pour suivre les climats changeants. Ici, nous évaluons les effets de la mise en œuvre rapide, la poursuite et la fin soudaine de la géoingénierie sur les vitesses du climat – les vitesses et les directions avec lesquelles les espèces devraient se déplacer pour suivre les changements climatiques. Comparé à un scénario modéré de changement climatique (RCP4.5), la mise en œuvre de la géoingénierie rapide réduit ces vitesses vers zéro dans les « hot spots » de la biodiversité terrestre. En revanche, un arrêt soudain augmenterait ces vitesses à un rythme sans précédent (moyennes globales> 10 km an-1) qui sont plus de deux fois supérieures aux vitesses de changement climatique récentes et futures dans les « hot spots » de la biodiversité mondiale. En outre, comme les vitesses du climat auraient plus que doublé, une fragmentation rapide du climat se produirait dans les biomes tels que les prairies tempérées et les forêts où les vecteurs de température et de vitesse divergent spatialement de plus de 90 °. L’arrêt rapide de la géoingénierie augmenterait considérablement les menaces pour la biodiversité dues au changement climatique.

Enfin, je ne sais pas moi, mais d’une part on n’a pas à mettre le GE en oeuvre rapidement.

Il n’y a pas le feu au lac tout de même.

Quant à un arrêt soudain, d’autre part, c’est stupide de chez stupide.

Il est bien évident que si on met en oeuvre le GE, c’est une opération de longue haleine, qu’il n’est pas question d’arrêter du jour au lendemain.

Le GE, principalement par injection de substances réfléchissantes dans la stratosphère, reste une solution d’attente ou de secours, en attendant qu’on puisse réduire les émissions de CO2 et autres gaz à effet de serre de manière très significative et durable et en parallèle que le GE par captage du CO2 atmosphérique puisse être mis en service a très grande échelle (dur dur à mon avis mais bref).

Quant à l’arrêter, allons Robock, que se passerait-il si d’un seul coup on arrêtait la production d’électricité, les transports, les vaccins, les antibiotiques, les engrais, etc. etc.?

Est-ce qu’on a déjà arrêté, ne serait-ce qu’un mois, la production et l’épandage d’engrais dans le monde depuis, allez, 60 ans?

Non Robock, franchement, cela devient du terrorisme intellectuel que de vouloir taper sur une solution possible permettant de réduire réellement le réchauffement climatique.

Heu mais remarquez, maintenant que j’y pense, finalement, quelque part, Robock, sans doute involontairement, apporte de l’eau au moulin GE.

En effet, si jamais, par hasard, inadvertance, folie (mode ironique), on démarrait le GE solaire, on aurait encore moins envie de l’arrêter, vues les conséquences apocalyptiques que décrivent Robock et consorts.

 

Publicités
Publié dans geo engineering | Laisser un commentaire

évolution de la température de 1988 à 2017

Les climatologues retiennent, habituellement, une durée de 30 ans pour juger de l’évolution du climat.

Cette période est sensée être suffisamment longue pour que le bruit statistique soit fortement atténué et donc pour que la tendance linéaire ne soit pas trop dénuée de signification.

J’ai retenu la base NASA-GISS pour déterminer cette évolution.

Cette base est considérée comme « extrémiste » en ce sens qu’elle donne la plus forte évolution des températures de l’ensemble des autres bases de données.

Elle recueille en général, on s’en doute, l’assentiment de tous les partisans d’un réchauffement climatique fort.

Je vais donc donner ici l’évolution NASA-GISS brute et corrigée de l’ENSO et du Pinatubo.

Pour le Pinatubo, j’ai choisi de le gommer en le remplaçant par une évolution linéaire entre les deux années sensées borner ses effets.

Pour l’ENSO j’ai utilisé le modèle maison pour déterminer la correction à apporter.

C’est simple, on fait tourner le modèle avec ENSO, puis sans, et on fait la différence des températures globales obtenues pour obtenir la correction à apporter à la bases NASA-GISS.

Voici d’abord les données brutes par rapport à la moyenne 1981-2010.

puis les données corrigées:

 

Que peut-on observer?

1-l’anomalie de température corrigée a nettement diminué en 2015 et 2016 par rapport à la donnée brute, mais beaucoup moins en 2017.

2-la tendance linéaire diminue du brut vers le corrigé et ceci est quasi totalement du au gommage du Pinatubo

3-le rang des 3 dernières années est conservé mais avec des différences de taille entre le brut et le corrigé.

En effet, les années 2016 et 2017, bien que débarrassées de l’ENSO, semblent se détacher nettement du lot.

Alors s’agit-il du franchissement d’un seuil, de l’influence d’un réchauffement extrême de l’Arctique (que NASA-GISS prend en compte intégralement avec ses extrapolations)?

Ce réchauffement de l’Arctique est-il réellement à ce point ou y a t-il une exagération  due à la méthode de calcul NASA-GISS?

Y a t-il eu un autre phénomène lié à la circulation océanique, par exemple un déversement d’eaux chaudes vers les hautes latitudes?

Pour l’instant les experts en sont réduits à quelques débuts d’hypothèses.

En tout cas l’année 2018 sera cruciale pour savoir dans quoi nous sommes désormais engagés…

EDIT: influence de l’Arctique

En utilisant les données NCEP, très faciles d’emploi, on peut déterminer une influence de l’Arctique.

Je dis « une » car ce sont des données entièrement recalculées.

En appliquant la même méthode que plus haut on peut retrancher l’influence de l’Arctique et voici ce que ça donne:

Comme on le constate, les années 2016 et 2017 sortent encore du lot mais cette fois elles sont dans un ordre « logique » et 2017 est bien la plus chaude.

La tendance linéaire devient beaucoup plus faible puisque par rapport aux données brutes on a perdu le 1/3 de la valeur.

Les régions polaires sont assez pauvrement échantillonnées et leurs températures sont extrapolées à partir de quelques points de mesure.

Il n’y a pas de raison de ne pas en tenir compte, toutefois, il faut avoir tout ceci en tête, si on veut « s’amuser » à classer les années.

Publié dans indicateurs climatiques | 2 commentaires

Sensibilité climatique plus forte: une fake news?

La sensibilité climatique se définit comme l’augmentation de température de surface à la suite d’un doublement de la teneur en CO2 dans l’atmosphère.

Cette sensibilité est de 3.2°C pour la moyenne des modèles.

Récemment une étude, Brown et Caldeira 2017, indiquait que, finalement (oh surprise!!), ce serait les modèles à plus haute sensibilité qui seraient d’avantage dans la réalité que les autres.

Ainsi, la sensibilité climatique utilisée pour prévoir la température future, ne serait plus 3.2°C, mais 3.7°C (15% de plus en fait).

Je vous laisse consulter les réponses, ici et ici, d’un des rares contradicteurs de cette étude: Nic Lewis.

Bon je ne trancherai pas ici, mais je trouve la méthode de Brown et Caldeira très contestable.

En effet, se baser sur la réponse (mesurée de façon très imprécise) du flux radiatif TOA aux variations saisonnières pour sélectionner les meilleurs modèles, ne bénéficie d’aucune démonstration mathématique, à ma connaissance.

Enfin bref, je mets tout de même mon grain de sel, mais en envisageant plutôt le comportement à long terme du système climatique tel qu’il est observé par rapport à ma propre simulation.

J’utilise pour ce faire deux « observations », la chaleur captée par le système et la température de surface.

Pour ma simulation d’abord, en utilisant une sensibilité de 2.5°C, je calcule une élévation de température sur les 30 dernières années de 0.185°C par décennie, en phase avec ce qui est mesuré par l’organisme le plus « chaud », NASA-GISS, 0.185°C également.

Concernant l’estimation de la chaleur captée par le système, je dispose de l’évaluation de Johnson, Lyman, Loeb, de 2016.

Malheureusement cette évaluation n’est plus disponible en ligne mais je cite le passage intéressant:

« Here, we update our calculations (Figure 1), and find a net heat uptake of 0.71±0.10 W m-2 from 2005.5–2015.5 (with 0.61±0.09 W m-2 taken up by the ocean from 0–1800 m; 0.07±0.04 W m-2 by the deeper ocean4; and 0.03±0.01 W m-2 by melting ice,
warming land, and a warming and moister atmosphere. »

Le chiffre intéressant est 0.71W/m2 de flux (absorbé par le système) de mi-2005 à mi-2015.

Pour ma part, avec mon modèle à 2.5°C, je trouve 0.89W/m2 de flux moyen.

Si on fait une petite règle de trois, un flux de 0.61 à 0.81W/m2 ferait apparaître une sensibilité climatique de 2.0 à 2.33°C.

2.16 °C en moyenne, soit bien plus faible que les 3.7°C de Brown et Caldeira.

Notons que le même Nic Lewis a fortement remis en question, chez Judith Curry, la valeur du forçage indirect des aérosols, trop forte selon lui (en valeur absolue).

(Bien sûr tout cela émane de sites dits climato-sceptiques mais ce n’est pas une raison pour ne pas les citer, de mon point de vue s’entend)

Ce forçage étant négatif, cela voudrait dire que le forçage total s’exerçant sur le système climatique serait plus fort qu’annoncé.

Je crois que d’autres études vont dans ce sens, mais je ne les ai pas sous la main tout de suite.

En conséquence la sensibilité serait encore plus faible qu’évalué plus haut et une valeur aussi basse que 1.5°C serait dans le domaine du possible.

Bien sûr c’est encore beaucoup trop mais tout cela pour dire qu’il ne me semble pas que les valeurs hautes de la sensibilité soient vraisemblables.

A suivre…

Publié dans mécanismes | Laisser un commentaire

indicateurs climatiques de juillet 2017

L’anomalie de ce mois de juillet 2017, selon NCEP, a augmenté légèrement par rapport au mois dernier.

Avec 0.45°C d’anomalie globale, ce mois est le 2ème mois de juillet le plus chaud de la base NCEP devant 2011 (0.39°C) et derrière 2016 (0.56°C).

La répartition latitudinale ne présente pas de grandes disparités:

HN: 0.56°C

HS:0.34°C

Arctique:0.22°C

tropiques 0.40°C

Antarctique:-0.23°C

L’anomalie NASA-GISS, estimée  pour ce mois, s’élève à 0.39°C.(estimation suivant corrélation NCEP/NASA-GISS)

Ceci permet de compléter la comparaison entre les anomalies calculées par le logiciel climat-evolution et NASA-GISS:

Comme on le voit cette correspondance est toujours excellente mais il faut toutefois noter un léger excès (0.05°C) de NASA-GISS par rapport à CE en moyenne depuis le début de l’année.

C’est à surveiller.

 

Les anomalies de température de surface de l’océan (SST) se sont élevées à environ 0.31°C par rapport à 1981-2010 selon CDAS:

A noter la brutale augmentation en fin de mois.

Les anomalies journalières globales (terres+océans), selon NCEP, ont fortement augmenté la dernière semaine du mois:

Rappelons qu’il s’agit ici des températures de l’air à 2m au dessus de la surface, calculées par un modèle météo.

L’oscillation El Niño est restée neutre à 0.5°C d’indice environ:

 

Elle est prévue baisser légèrement mais rester neutre par la suite:

 

On peut ainsi établir une prévision de 0.45°C pour août 2017 et pour les autres mois de l’année.

La moyenne de l’année 2017 s’élèverait ainsi à 0.44°C, ce qui ferait de cette année 2017 la 3ème plus chaude après 2016 (0.66°C) et 2015 (0.46°C).

Néanmoins la déjà forte moyenne depuis le début d’année selon NCEP, soit 0.53°C, entraînerait, pour vérifier ce pronostic, que les 5 derniers mois soient inférieurs à 0.36°C en moyenne.

Il n’y a pas de raison objective pour que cela se produise, mise à part la variabilité climatique hors Niño qui a déjà agi dans un sens.

Alors pourquoi pas dans l’autre?

Cela étant dit, nous suivrons avec intérêt le reste de l’année et un écart trop grand avec le modèle pourrait signifier que quelque chose nous échappe.

 

Publié dans indicateurs climatiques | Laisser un commentaire

risque fort de dépasser 3°C à la fin du 21ème siècle

Selon cette étude parue dans Nature climate change, il n’y aurait que 5% de chances de rester en dessous de 2°C d’augmentation de température depuis l’ère préindustrielle.

Abstract

« Les projections du Groupe intergouvernemental sur les changements climatiques (GIEC) récemment publiées, donnent des fourchettes probables d’augmentation de la température mondiale en 2100 dans quatre scénarios pour la population, la croissance économique et l’utilisation du carbone.

Toutefois, ces projections ne reposent pas sur une approche entièrement statistique. Nous utilisons ici une version spécifique de l’identité de Kaya pour élaborer une prévision probabiliste statistiquement basée sur les émissions de CO2 et le changement de température en 2100.

En utilisant les données pour 1960-2010, y compris les projections démographiques probabilistes de l’ONU pour tous les pays, nous développons un modèle hiérarchique bayésien conjoint pour le produit intérieur brut (PIB) par habitant et l’intensité du carbone. Nous constatons que l’intervalle de 90% pour les émissions cumulatives de CO2 comprend les deux scénarios intermédiaires du GIEC, mais pas les extrêmes.

La gamme probable d’augmentation de la température à l’échelle mondiale est de 2,0 à 4,9°C, avec une médiane de 3,2°C et une probabilité de 5% (1%) qu’elle soit inférieure à 2°C (1,5 ° C). La croissance de la population n’est pas un facteur majeur. Notre modèle n’est pas un scénario «Business As Usual», mais plutôt basé sur des données qui montrent déjà l’effet des politiques d’atténuation des émissions. Pour atteindre le but d’un réchauffement inférieur à 1,5 ° C, l’intensité du carbone devrait diminuer beaucoup plus rapidement que dans le passé récent. »

 

Voilà, on s’en doutait bien sûr mais cette étude étaye, scientifiquement, nos doutes concernant la réalisation de cet objectif des 2°C.

Les auteurs n’ont pas utilisé un scénario BAU mais intégré des efforts d’atténuation des émissions de GES.

On peut en tirer la conclusion que, si on se contente d’accords type COP21, on aura de « bonnes chances » de finir le siècle à plus de 3°C

On peut donc continuer à faire l’autruche auto satisfaite (et savante) en se contentant  de demi mesures pour éviter de monter trop haut.

Ou alors se lancer, comme préconisé souvent ici, dans des opérations de géo ingénierie à grande échelle.

A condition aussi d’un effort décuplé dans le domaine nucléaire (au sens large c’est à dire incluant des énergies « nouvelles ») afin de se passer enfin des carburants fossiles à des fins énergétiques.

On prend, actuellement, le chemin inverse.

On développe les énergies renouvelables basées sur l’énergie solaire en occultant le fait qu’elles sont par nature intermittentes et qu’elles doivent être soutenues par des centrales à charbon comme en Allemagne, en Chine ou en Inde.

Et, un peu partout, on réduit la part du nucléaire en omettant que cette industrie a besoin d’un effet de masse pour se développer et même simplement perdurer.En agissant de la sorte on la fragilise et on favorise ainsi, involontairement,les accidents.

Mais restons confiants, actuellement la géo ingénierie est décriée, comme une atteinte intolérable à la nature, comme contraire à l’éthique.

Comme si l’éthique à la mode consistait à accepter de dépasser 3°C en 2100…

Non, la géo ingénierie, un jour ou l’autre, s’imposera comme la seule solution pour réellement stabiliser le climat pendant les quelques siècles où notre « trace fossile » subsistera.

 

Publié dans scénarios | 8 commentaires

indicateurs climatiques de juin 2017

Enfin un mois qui revient dans des valeurs acceptables au point de vue température globale.

L’anomalie s’est en effet élevée à 0.38°C, ce qui est certes encore très haut, mais bien loin du 0.91°C de février 2016, en plein El Niño.

Juin 2017 se place tout de même en 3ème position derrière 2016 (0.51°C) et 2013 (0.39°C) juste devant 2005 et 1998 (0.37°C), mais en 51ème tous mois confondus.

Notons, qu’à part 2013, toutes les années précitées étaient des années Niño, ce qui n’est pas le cas de 2017, bien que l’indice Niño de ce mois soit de 0.55°C environ, soit neutre mais bien positif quand même.

Ce 0.55°C implique une augmentation de température globale de 0.04°C environ.

Côté pôles cela s’est fortement amélioré puisque l’Arctique est à 0.25°C et surtout l’Antarctique à -0.85°C.

Les banquises, malheureusement, sont toujours dans l’état où les ont laissé les formidables anomalies hivernales pour l’Arctique et estivales pour l’Antarctique.

Bref, il semble que la colossale vague de chaleur qui s’est abattue sur le globe de 2015 à 2016, soit enfin derrière nous.

Cette anomalie de ce mois vient confirmer le fait que, contrairement à certains discours alarmistes, il n’y a pas d’accélération incontrôlée du réchauffement climatique.

Ceci dit, il est toujours bien là et plus que jamais…

 

 

 

 

Publié dans indicateurs climatiques | Laisser un commentaire

de la fiabilité des modèles de prévision de l’ENSO

L’ENSO (El Niño Southern Oscillation) est le phénomène le plus important qui influence  la variabilité climatique annuelle (à raison de 75% environ).

On l’a vu récemment avec l’épisode Niño 2015/2016 qui a fait bondir l’anomalie annuelle de plus de 0.2°C.

Sans compter les variations régionales bien plus fortes en terme de température et de précipitations.

En conséquence, la prévision de ce phénomène revêt une importance considérable.

Le moins qu’on puisse dire est que les modèles numériques utilisés, pour prédire telle ou telle phase de cette oscillation, et son amplitude, sont encore assez loin d’être au point, en particulier lorsque leur initialisation a lieu au printemps.

En témoignent ces deux graphiques issus du bureau australien de météorologie (BoM), à seulement deux mois d’intervalle, pour prévoir, par exemple, l’état de l’ENSO en juillet 2017.

Tout d’abord celui du 16 avril qui prévoyait (moyenne des modèles) un léger Niño:

 

puis celui du 16 juin 2017 qui ne prévoit plus qu’une situation neutre:

 

Sans parler du résultat de certains modèles individuels, comme celui du BoM par exemple, ou l’écart d’indice est de l’ordre de -1°C entre prévisions de juin et d’avril.

Ce fait est connu et constitue en quelque sorte une piqure de rappel pour ceux qui ont une trop grande foi dans les modèles de prévisions à moyen terme.

Pourtant, si on revient à l’ENSO et si on écoute les experts, ce phénomène est parmi les plus connus.

Néanmoins les variables qui influent sur une mécanique qui fait intervenir les océans et l’atmosphère semblent trop nombreuses pour que les modèles actuels soient capables de nous pondre une prévision fiable.

Il en est de même pour les modèles de prévision saisonnière qui ont un taux de réussite aussi bon qu’un simple jet de dés.

Ceci veut donc dire qu’on ne sait pas prévoir ce qui semble comporter une certaine dose de chaos.

Je dis bien « semble » car comment déceler ce qui relève du vrai chaos, au sens mathématique du terme, de ce qui peut être déterminé par un certain nombre de paramètres?

Mais tout ceci peut-il nous faire douter de l’inéluctabilité du réchauffement climatique d’origine anthropique?

Probablement pas, mais en tout cas, de son amplitude et de son déroulement, peut-être.

Le climat est chaotique, certes, mais pas au point de nous faire hésiter une seconde sur le fait qu’en Europe, il fait nettement plus froid en hiver qu’en été, ou même, plus trivialement, que si on chauffe de l’eau, il est assez rare, hum, qu’elle gèle…

 

 

 

Publié dans modèles | 1 commentaire