¿Podemos seguir hablando del cuento del clima en estas fechas? Yo creo que a la antigua usanza, no. O sea, no como una cuestión de interés público importante. No digamos ya nada de urgente. Desgraciadamente, hemos recuperado el significado clásico de urgente, que no tiene nada que ver con el significado posmoderno. Pero también creo que sí merece la pena seguir el asunto al modo en que se atiende una discusión académica muy verde, y de resultados nada fiables y muy cambiantes, pero ciertamente interesante. No sé, como quien sigue con pasión la paleoantropología y los orígenes del hombre moderno. Con mucha curiosidad, y con ninguna confianza. Esto es, como entretenimiento. Más o menos intelectual, pero entretenimiento sin más.

Anteriormente nos habíamos quedado en la comparación de la nueva generación de modelos climáticos (CMIP6), con las generaciones anteriores, y con los datos que hay a partir de termómetros. Pero no con respecto a la temperatura que representan, sino con su aspecto principal: el calentamiento que predicen por determinada concentración extra de CO2 en el aire. Lo que llaman sensibilidad climática. (En realidad es con cualquier “forzamiento” climático; pero quedémonos con el CO2, que es la madre del cordero y del debate científico). Teníamos que los modelos nuevos van mucho más “desparramados” que los anteriores. Van ocupando todo el mapa, en lugar de ir centrándose hacia una sensibilidad climática más probable. Estrictamente, van hacia menos conocimiento, no más. (Conocimiento en el sentido de la respuesta a lo que supuestamente nos preocupa: ¿cuánto calienta el CO2, allí en la playa?)

Veíamos la evolución de los modelos del IPCC, con los histogramas de sus tres versiones sucesivas. CMIP3, CMIP5 y CMIP6. Histograma no es más que el número de modelos que producen un resultado, por tramos. Se van yendo para los lados, abarcando más resultados, en lugar de irse concentrando hacia un resultado más “popular”. También tiene gracia que los últimos, los CMIP6, hacen un gráfico que sugiere un camello de dos chepas. Como si los modelos se dividieran en dos tipos, bastante incompatibles entre sí.

ecs-histogramas-cmip-3-5-6

¿Y lo nuevo de hoy? Un estudio comparando lo que hace uno de los modelos nuevos de sensibilidad alta, con lo que se conoce del clima en un episodio de calentamiento del pasado remoto. Para ver si lo que dice el modelo que debería ocurrir en aquellos condiciones se corresponde con lo que se sabe (o se cree) que ocurrió realmente. Se trata del Eoceno Temprano, hace 50 millones de años. Una etapa en la que las selvas tropicales prosperaban en los trópicos. Pero para el modelo, la temperatura en esa zona debería exceder los 55º centígrados. Y esa temperatura es muy superior a la que permite la fotosíntesis, y hace incompatible la temperatura del modelo con la existencia conocida de las selvas en la zona.

La época es la del pico de temperatura que representa este gráfico de Wikipedia [–>]. Donde dice Eocene Optimum.

65-millions-climate-change

Según la presentación del estudio, el modelo predice temperaturas lo largo del globo, para el Eoceno Temprano, cuando menos 6º por encima de las que indica la evidencia geológica. ¡6 grados! Eso querría decir que tiene una “sensibilidad climática” pasadísima de vueltas. Y sensibilidad climática es exactamente lo que interesa saber: es lo que calienta el CO2 extra de nuestros pecados, o cualquier “forzamiento” del clima. Los niveles de CO2 estaban en el orden de 1.000 – 2.000 ppm en la época del trabajo que comentamos. (Es muy improbable que ahora vayamos a superar las 600 – 800 ppm, ni siquiera queriendo).

Y tenemos el problema de siempre. Si tienes modelos que aparentemente se pasan ¡6 grados! al intentar reproducir la temperatura del Eoceno Temprano, ¿por qué no tiras el modelo a la basura? Y la respuesta habitual es todos los modelos dicen algunas cosas muy mal, pero esperan que sí digan algunas cosas bien. Sólo que los distintos modelos aciertan y fallan en cosas diferentes. Pero no se puede saber de antemano cuáles son. Y bien está; eso quiere decir que sirven para unas cosas, pero no sirven para otras. Por ejemplo, sirven como curiosidad académica y entretenimiento de aficionados, pero no como elementos para tomar decisiones para problemas especulativos de dentro de ochenta años.

Pongamos la sensibilidad climática del modelo CESM2 dentro del histograma de la última generación de modelos. Representado por el punto rojo. Se añade el rango (5% – 95%) de uno de los últimos estudios de sensibilidad climática basados en observaciones a partir de termómetros. Algo en principio bastante más fino y fiable que los de paleoclima.

modelos-cmip6-y-lewis-y-cesm2

Y este es el entretenimiento, que no urgencia ni emergencia, de hoy. Pare evadirse un rato de los problemas de verdad.

Fuentes:

Del nuevo estudio, Science Daily:

De la noticia, WUWT:

De los histogramas de la sensibilidad climática en los modelos CMPI6, aquí mismo:

Del CO2 durante el Óptimo Climático del Eoceno, NOAA:

 

inm-cm5-pasado

Uno de los argumentos más clásicos de los afirmacionistas del drama climático, es que sólo se pueden modelar las temperaturas recientes conocidas (desde 1850) si se mete en el modelo el efecto de calentamiento del CO2.

Dejemos que desarrolle el argumento la web de referencia del activismo afirmacionista:

Testing models against the existing instrumental record suggested CO2 must cause global warming, because the models could not simulate what had already happened unless the extra CO2 was added to the model. All other known forcings are adequate in explaining temperature variations prior to the rise in temperature over the last thirty years, while none of them are capable of explaining the rise in the past thirty years.  CO2 does explain that rise, and explains it completely without any need for additional, as yet unknown forcings.

El argumento tendría cierto peso si se pudiera modelar decentemente la variabildad interna del sistema. Que no es el caso. Y aun así, sólo sería cierto peso; no mucho. Porque hay modelos que representan más o menos bien el pasado con mucho efecto de calentamiento del CO2, y otros con muy poco.

No, no lo has entendido mal. Hay modelos que reproducen más o menos bien la temperatura global entre 1850 y ahora, metiendo en el modelo un efecto muy grande del CO2 que hemos emitido. Grande, por ejemplo, como 5,6ºC de aumento de temperatura por doblar la cantidad de CO2 en la atmósfera. Y hay otros modelos que hacen exactamente lo mismo, con un efecto pequeño del CO2. Pequeño, como 1,8ºC de aumento de temperatura por doblar la cantidad de CO2 en aire. O sea, un efecto tres veces menor.

Y aquellos a los que los afirmacionistas llaman “negacionistas”, no niegan que el CO2 produzca calentamiento. Afirman que toda la evidencia empírica apunta a un efecto entre pequeño y moderado. Y también tienen la osadía de decir que ese efecto moderado de calentamiento, es más probable que se demuestre beneficioso en conjunto, que perjudicial.

Guy Callendar, padre de lo que se podría llamar la “climatología del CO2”, era un “negacionista” redomado.

callendar-1938

En dibujito, el cachondeo de “los modelos” se puede expresar así.

negacionistas-e-ipcc

Supongo que se entiende. Hay modelos climáticos que sí entran dentro de lo que dicen los malvados “negacionistas”. Especialmente en la nueva generación, la CMIP6. Y destaca dentro de ellos un modelo heroico. El mismo que ocupaba la posición más baja en la generación CMI5, la repite en la CMIP6. Es el modelo del INM-CM (Modelo Climático del Instituto para Matemáticas Numéricas, de Moscú).

Como muestra el gráfico del principio, reproduce la temperatura global de superficie, entre 1850 y ahora, tan bien como cualquier otro. Mejor que muchos.

inm-cm5-pasado

Y no sólo. La temperatura global de superficie es la parte fácil, porque los modelos están “tuneados” para conseguir precisamente eso. Y lo hacen todos. Lo que no hace casi ninguno es aproximarse en el calentamiento más arriba de la superficie. Que es más relevante, porque es donde se produce “el efecto invernadero”. Casi ninguno … ¡menos el modelo jabato de Putin! Lo podemos ver en el clásico gráfico de Christy; es el único modelo que va junto a las observaciones en la troposfera media.

inm-mid-troposphere

Así que el gran argumento es bastante bastardo. Nadie dice que el CO2 no tenga ningún efecto en la temperatura; vaya, entre los especialistas críticos del cuento de terror del clima. Y “los modelos” no dicen todos lo mismo. Ni de coña. Aun más. Como veíamos el otro día, según avanzan las generaciones de los modelos, el mensaje es cada vez más dispar entre ellos.

(Nota: ECS es lo que calienta el modelo la temperatura de superficie por doblar el CO2, y esperando al equilibrio del sistema – unos siglos).

ecs-histogramas-cmip-3-5-6

Es verdad que cuando los afirmacionistas hablan de “los modelos”, se refieren a la media de los modelos. Pero es que la media de los modelos es un resultado francamente poco popular entre ellos mismos. ¡Son los modelos los que no creen en la media de los modelos! ¿Vamos a no hacerles caso en lo único con sentido que dicen?

Total, otra trola: no se puede modelar el clima que hemos conocido, sin contar con el efecto del CO2. Bueno, ningún sistema caótico se puede modelar, pero lo que modelan los chicos del clima sí se puede hacer con un efecto moderado y nada preocupante del CO2. Los rusos, que no tienen ningún problema con la idea de que en la taiga haga un poco menos de frío, ni están nada histéricos con el asunto, lo hacen estupendamente.

¿Vamos a creernos el modelo INM-CM, porque nos guste? ¡No, eso es cosa de los afirmacionistas! Solamente estamos jodiendo un argumento bastardo muy muy habitual.

Fuentes:

 

 

La respuesta depende de lo que queramos saber, por supuesto. Si se trata de entender los intríngulis de cómo funciona el sistema climático, y otras interesantes pero arcanas cuestiones académicas, es muy posible que con la gran mejora de los modelos climáticos vayamos sabiendo más. Desde luego dan más detalles, aunque habría que saber si son detalles correctos, o si son compatibles entre unos modelos y otros. Pero si se trata de la emergencia climática que nos tiene en un sin vivir, de si estamos a diez años o a dos mil de la hecatombe, lo que necesitamos saber es cuánto calentamiento se puede esperar por las emisiones de CO2. No es lo mismo una bañera a 30º, que a 93º.

Por ejemplo, el último gran informe de IPCC, el AR5 de 2013, decía que el calentamiento más probable por doblar el CO2 en la atmósfera era entre 1,5º y 4,5º. Sin poder dar una cifra concreta de mayor probabilidad, por incompatibilidad entre las distintas líneas de evidencia.

El asunto es que se trata de problemas que encaras de forma muy diferente si la cifra real está cerca de 1,5º, que si está cerca de 4,5º. Usarías estrategias diferentes, y elegir la equivocada podría ser muy doloroso.

Los chicos del clima tienden a estar muy obsesionados con la idea de la media de los modelos. Pero como vamos a ver, esa media parece tener cada vez menos sentido. Y cada nueva generación de modelos climáticos nos está haciendo saber menos, respecto de esa pregunta clave para el asunto de la supuesta emergencia. Por una parte se desparraman más, dando una respuesta con mayor incertidumbre en lugar de menor. Y por otra parte, la media de los modelos va siendo cada vez un valor menos popular para  los modelos mismos. Cada vez son menos los que dan una respuesta cercana a la media, y tienden a preferir, o valores francamente más bajos, o francamente más altos.

Valga como resumen este gráfico de los resultados de los modelos, para esa pregunta de cuánto se calentaría el clima por el CO2, representando la frecuencia -por tramos- de respuestas de las tres últimas versiones de modelos climáticos. ECS, o equilibrium climate sensitivity, es lo que calentaría el CO2 por doblar su cantidad. Lo de la última generación, CMIP6, es relativamente provisional porque todavía no han salido los datos de todos los grupos de trabajo.

Las barras marcan el número de modelos que da un resultado en ese margen, y cada el margen es de 0,5º, desde cero a siete grados. La cifra significa el final del margen: donde dice 0,5, quiere decir los resultados entre 0,1º y 0,5º, ambos incluidos.

ecs-histogramas-cmip-3-5-6

Se ve claro cómo se van desparramando.

  • Rango versión CMIP3: 2,1º – 4,3º
  • Rango versión CMIP5: 2,1º – 4,7º
  • Rango versión CMIP6 (provisional): 1,8º – 5,6º

Esto no es saber más sobre cuánto calienta el CO2 en la playa, según “mejoran” los modelos, sino menos.

Podemos ver los histogramas de las dos últimas versiones, juntos.

Lo que ha cambiado, hacia más calentamiento, es el extremo de los modelos que tienen una ECS alta; el otro apenas lo ha hecho. Si divides los resultados de estas dos últimas generaciones de modelos por la mitad, la mitad baja ha subido la media en sólo 0,2º, entre una y otra versión; pero la mitad alta lo ha hecho en 0,8º. Cuatro veces más.

Cada vez van teniendo más pinta de una distribución bimodal. Con dos “modas”, o valores más populares o probables. ¿Influiría eso en que en el último IPCC no dieran un valor más probable, como otras veces solían? El motivo que alegaban era la falta de acuerdo entre las distintas lineas de evidencia. (Modelos, y otras cosas). Pero hubiera tenido gracia que hubieran dicho que el valor más probable era la media de los modelos, como la vez anterior, y alguien les enseñara un histograma de los mismos, que nunca suelen poner, y dijera: ¿cómo va a ser el valor más probable, cuando ese es el resultado que menos modelos dan? ¡En esa zona sólo hay dos modelos, y en la más popular hay siete! En la siguiente, cinco. Y hay con cuatro, y con tres. No parece que la media sea un valor especialmente probable.

Tiene más matices esto de la ECS y su distribución. El argumento por excelencia de los “afirmacionistas”, en defensa de su idea y de sus modelos, es que sin el efecto de calentamiento del CO2 no podrían reproducir la temperatura global desde que se mide con termómetros (hacia 1880). Es un buen argumento si aceptamos alguna asunción que no está probada; pero, vale, ¿de qué efecto de calentamiento del CO2 hablamos? Porque dicen “calentamiento”, así, a pelo; pero en absoluto es lo mismo un efecto de calentamiento 1,8º por doblar el CO2, que uno de 5,6º en la misma circunstancia. Y sin embargo, con efectos tan distintos reproducen igual de bien las temperaturas de los últimos 150 años. Es como si consiguieran un modelo en el que se vive igual ganando 30.000 €, que ganando 93,000 €. Algo huele bastante raro.

Ahora la gran pregunta es qué dirá el IPCC en su próxima Biblia respecto a la sensibilidad climática. Respecto a cuánto se puede esperar que caliente el CO2. Si añadimos los nuevos modelos CMIP6 al gráfico que solemos poner sobre la idea al respecto de diferentes métodos y grupos, nos queda así.

Cálculos observacionales nuevos, no hay. Lo que si hay es algún “paper” de muy última hora (no hay tiempo de responder), pretendiendo que ese tipo de cálculos basados en la temperatura conocida con termómetros, que siempre habían sido kosher, ahora resulta que ya no valen. Porque patatas.

De alguna manera van a tener que salvar la narrativa preestablecida. Lo interesante será ver con qué cuento salen. Pero lo que no hay cuento que salve es que sus prodigiosos modelos, cuanto más mejoran, menos respuesta dan.

– ¿Cuánto calienta el CO2; cuánto problema es, si es que es problema?

– Depende.

– ¿De qué?

– Del modelo; de la linea de evidencia; de cosas.

– ¿Y ese famoso consenso?

– Bueno, el consenso es que calienta. Y que eso es “malo” porque lo asociamos moralmente a “pecado”, y con independencia de la cantidad; no por ninguna evidencia empírica, ni nada razonable. ¡No seas “negacionista”!

– ¿Y en qué sentido es peor ser “negacionista”, que “afirmacionista”? ¿Va de popularidad, de la niña Greta, o qué?

Fuentes (me había dejado ayer las fuentes atrás, por si alguien quiere repetir los histogramas).

Va sobre la eterna discusión de si los modelos climáticos van francamente más calientes que la realidad, o no. Y me interesaba echarle una mirada distinta. Por una parte al mar, que es la madre del cordero del sistema climático. Por otra parte, tratar de usar una serie de temperatura distinta e independiente de los termómetros y de los satélites UAH y RSS de siempre. A poder ser, algo que no sientan la necesidad de estar corrigiendo todo el rato.

Y finalmente, me interesan los trópicos. La gran incógnita / discusión es cómo reacciona el sistema climático a los efectos externos. Los “forzamientos”. Puede resistirse a ellos, como si tuviera un termostato; o puede amplificarlos, como si fuera una cabra loca. Y nadie lo sabe – aunque unos y otros aleguen saber lo que creen. Lo que sí parece claro es que en los trópicos sí hay algún efecto termostato. Se ve. Cuando hace calor, saltan nubes y tormentas, y enfrían; cuando está fresco,  las nubes y tormentas se forman mucho más tarde, si es que llegan a hacerlo. Y también parece claro que en los grandes cambios climáticos, tipo glaciaciones, en los trópicos se notan mucho menos. Especialmente en los trópicos marinos. ¿Se nota esto en el mar, en el Calentamiento Global Acojonante? ¿Y los modelos, cómo lo ven?

Bob Tisdale [–>] solía hacer comparaciones interesantes de ese tipo. Pero comparaba la media de los modelos con sólo una de las series de observaciones. La de NASA OIv2 (Reynolds). La serie me sirve muy para el propósito. Es independiente de las que he mencionado. Usa satélites, pero es una medición distinta. La temperatura de la “piel” del mar. Y la controla / chequea contra mediciones de superficie. No la cambian todo el rato, como las otras. Yo he conocido la versión 2, desde siempre, mientras que  las demás van saltando de versión en versión cada pocos años.

Tampoco me gusta nada comparar las observaciones con la media de los modelos. No creo que la media tenga ningún valor especial, y se pierde la información sobre el “desparrame” de los modelos. Esa costumbre que tienen de ocupar todo el mapa.

Así que esa esa sido la idea. Repetir lo de Tisdale, pero con *todos* los modelos que figuran en el Klimate Explorer [–>]. Son 39. Un peñazo guapo. Y usando dos series de mediciones, para que no sea sólo la de NOAA Reynolds, que da menos calentamiento que las sospechosas habituales. He metido también HadSST4; recién salida de sus últimas correcciones, y bien convencional entre los “afirmacionistas”. Es la serie que usa el Met Office británico; la más “clásica” que hay.

Los gráficos. Creo que lo más claro es representar las tendencias lineales de calentamiento, en grados por década. Para que no haya discusiones del método de “empalmar” el origen de modelos y observaciones en un gráfico de líneas típico. Aquí sólo hay números fríos, representados gráficamente. Y para el período 1982 – 2018, porque es cuando empieza la serie Reynolds, y uso medias anuales.

El mar tropical. De 24ºN a 24ºS. Los modelos (CMIP5), en azul claro, están en orden alfabético. Cada punto representa la tendencia lineal de la temperatura por década de cada modelo entre 1982 y 2018. En morado, lo mismo para las observaciones.

observaciones-y-modelos-mar-tropicos

El mar “global”. En realidad he sacado entre 60ºN y 60ºS, porque en las zonas donde hay mar helado cada serie lo hace de forma distinta, que a su vez son diferentes que los modelos.

Lo mismo de antes, en 60ºN – 60ºS:

observaciones-y-modelos-mar

 

Parece que hay un gran consenso entre los modelos para no coincidir con las mediciones, en el mar. Un consenso, digamos, caliente.

Enlaces. Todos los datos vienen del Klimate Exlorer, del Instituto Meteorológico de Holanda. Estos son los enlaces directos, con las opciones ya elegidas. (El KE resulta un poco laberinto si no se ha usado antes, y así es más fácil).

Mar trópicos (24ºN – 24ºS):

Mar 60ºN 60ºS:

NOAA Reynolds OIv2:

HadSST4:

ecs-cmip5-y-cmip6-juntos

Están poco a poco publicando detalles de la nueva generación de modelos climáticos. Los CMIP6, que se usarán para el próximo gran informe del IPCC. Y el detalle más relevante siempre es la “sensibilidad climática”. Lo que calienta el CO2, según los modelos. Al final, es lo que importa. Si quieres saber cuánto problema tienes, si es que tienes, depende de cuánto caliente el CO2 que emitimos. Y también de cuánto emitamos en adelante, pero menos. Vamos a seguir emitiendo a mansalva, digan lo que digan, porque lo contrario sí que sería un problema gordo.

En los nuevos modelos ha subido la sensibilidad climática media de los modelos. Mucho. De 3,2º por doblar el CO2, a 4,1º. Y resulta curioso viendo el historial anterior. En el año 2007, con los modelos de entonces (CMIP3), el IPCC daba una sensibilidad más probable de 3,0º. En el año 2013, con los modelos CMIP5, la sensibilidad media de los modelos era de 3,2º. Pero dijeron que no podían dar una sensibilidad mas probable, por desacuerdo entre las distintas líneas de evidencia y estudios. Resulta que los cálculos  basados en observaciones (termómetros) daban en torno a 2º, y los más recientes algo menos. Así que dieron un rango más probable en lugar de una cifra más probable. Era: 1,5º – 4,5º, mezclando modelos y observaciones; y usando un rango de los modelos en vez de la media. Que es el mismo rango que han venido dando desde 1978 (informe Charney), en una ciencia que avanza muchísimo … menos en su métrica principal.

Y ahora los nuevos modelos (CMIP6) pegan un pelotazo, subiendo la sensibilidad climática de la media de los modelos de 3,2º a 4,1º. Teniendo en cuenta toda la magia (tuneos) que hay en los modelos, es muy discutible que esa media de los modelos tenga un significado especial. Muy discutible, y muy discutido. Pero con la nueva generación de modelos el asunto resulta extraordinario. No se trata solo de un aumento en la sensibilidad climática media, sino que su distribución es completamente diferente. En las dos generaciones de modelos las mayores frecuencias se concentran en extremos opuestos. Arriba los modelos anteriores, abajo los nuevos. ECS: sensibilidad climática.

ecs-cmip5-y-cmip6-distr-medianas

También es interesante ver la frecuencia de la media. En este gráfico cambiamos el rango de conteo, para que en cada caso la media de los modelos quede en el medio de un rango. Y poder ver cuántos modelos se concentran en el rango de ese valor medio.

ecs-cmip-5-y-cmip6-medias

No parece que la media de los modelos sea un valor muy popular entre ellos, pero en la nueva generación sorprende lo bien habitados que están los valores extremos alejados de la media, y a ambos lados.

En el primer gráfico he puesto juntos CMIP5 y CMIP6. No pongo los CMIP3 porque la sensibilidad la calculaban de otra forma. Pero es común para 5 y 6. Lo repito aquí:

ecs-cmip5-y-cmip6-juntos

Los nuevos modelos (rojo), ademas de cambiar la distribución, y de hacer todavía menos popular la media de los modelos, han conseguido abarcar todo el mapa. Siguen manteniendo una presencia decente en la parte baja, pero además han conseguido colonizar la zona de hervir, antes despoblada.

Y ya la guinda es que si en 2007 no podían dar una sensibilidad climática mas probable, por desacuerdo entra las distintas líneas de evidencia y estudios, ¿qué van a decir ahora? ¿Cambiarán o descartarán la línea de evidencia (las observaciones) que estaba en franco desacuerdo con los modelos? En todo caso esto no parece un avance del conocimiento, precisamente. Supongo que venderán que cuanta más incertidumbre, mayores son las posibilidades de una hecatombe. Y procurarán que no se note la mala pinta que le dan estos bandazos a la idea de una “ciencia establecida”. Porque con los bandazos siempre hay el mismo problema.  Si cada generación de modelos es un mundo diferente, ¿por qué vas a pensar que la generación de ahora representa un mundo real?

Ya que estamos, podemos poner la distribución de ambas generaciones de modelos, limpia; sin señalar ni la media ni la mediana.

ecs-cmip5-y-cmip6-distr

Nota: esto todavía puede cambiar porque faltan algunos modelos por publicar su sensibilidad climática. Pero no puede cambiar mucho, porque no faltan tantos.

Un añadido de interés. Sobre los problemas de la modelo-manía, Andrea Saltelli en Nature:

Modelling hubris may lead to “trans-science”, a practice which lends itself to the language and formalism of science but where science cannot provide answers. Models may be used as a convenient tool of displacement – from what happens in reality to what happens in the model

Fuentes.

De los modelos CMIP6, Yue Dong en Twitter (clic en su imagen para llegar al tuit).

ecs-cmip6

De lo modelos CMIP5: IPCC AR5, WG1, chapter 9.

ecs-cmip5

Añadido para los comentarios:

negacionistas-e-ipcc

 

 

myles-allen

Interesante entrevista en la radio de Julia Hartley-Brewer a Myles Allen:

Julia:

¿Puede explicar en términos simples cuál era la predicción (de los modelos) y cuál es la realidad?

Allen:

Bien la realidad es muy clara. Estamos ahora en una temparatura como un grado más caliente que en la época preindustrial,  entre 0,9º y 1º,  y las temperaturas están todavía subiendo (sabe el futuro),  pero si miramos a este grupo particular de modelos, indican que para el tiempo en el que se alcanza el nivel de emisiones que tenemos, deberíamos tener 1,3º de calentamiento. Sólo son tres décimas de grado de discrepancia,  pero si tu objetivo es no pasar de 1,5º, esto es, sólo medio grado por encima de lo que estamos ahora, esa discrepancia importa mucho.

Bueno, no. A la discrepencia se le puede llamar “solo tres décimas” si estamos hablando en el bar, pero un 27% de discrepancia es mucho más indicativo. Ninguna broma. Si esos modelos dicen que doblar el CO2 produce un calentamiento más probable entre 2ºC y 4,5ºC, con esta novedad pasaría a un rango de 1,5ºC a 3,5ºC.

¡Qué pillines! Por eso el IPCC cambió su rango más probable, reduciendo la parte baja de los modelos pero sin cambiar la alta (y les quedó 1,5ºC – 4,5ºC). Por tener líneas de evidencia contradictorias, decían. Lo acojonate es que las “líneas de evidencia” son dos; los modelos y la realidad. En el mundo posmoderno los modelos son tan línea de evidencia como la realidad.

Nota: En el caso de ese rango, el producto de la realidad no significa una verdad. Es la interpretación de la realidad partiendo de las asunciones de una teoría. Por ejemplo que no ha habido ningún calentamiento natural. Ninguno, como en cero. Además de otras asunciones, literalmente sacadas de la gorra, como que los aerosoles (la contaminación) han ocultado una parte muy sustancial del calentamiento del CO2.

Seguimos extractando:

Allen:

La conclusión de nuestro estudio es que esto hace la diferencia entre que el objetivo establecido en París sea absolutamente inalcanzable, a que sea justo alcanzable si nos esforzamos mucho. Y esto es muy importante, porque hubiera sido muy difícil mantener la motivación … pero lo que este estudio  muestra es que no es inalcanzable, sino que simplemente llevará mucho trabajo.

Y Julio pregunta por  “la pausa” (entre 1998 y 2014) en el calentamiento.

Allen:

Yo nunca he sido un gran creyente en la pausa, porque había otros indicadores de que el calentamiento se seguía acumulando. El nivel del mar seguía subiendo, y la temperatura del interior del océano también.

Acojonante, porque el nivel del mar sigue subiendo … ¡al mismo ritmo con mucho CO2 que con poco CO2!

nivel-del-mar-co2

Una subida del nivel del mar no dice nada. Necesitan una aceleración notable, que buscan como locos. Algunos estudios encuentran una aceleración birriosa, y otros no encuentran ninguna aceleración.  Los hay incluso con desaceleración. Allen se está marcando un pegote que tiene que saber que no vale. Pero cuela, porque no le puedes pedir a todos los periodistas que conozcan todos los trucos de una “ciencia” llena de ellos.

Y respecto al calentamiento del mar debajo de la superficie, no se puede descartar que sea natural, y sobre todo, no lo cuantifica respecto a lo que necesitan los modelos.

Más adelante Julia trata que Allen confiese que el estudio sobre el consenso del 97% de los científicos es basura desacreditada, pero sólo consigue que Allen conteste que la ciencia no se hace por votación y que nunca ha estado interesado en ese porcentaje.

Allen:

Lo que me interesa son los datos. Y si miras a los datos, no puedes expliar los datos sin una sustancial infuencia humana.

Y eso es falso. No los puedes modelar, pero explicar sí. Variabilidad natural interna no forzada de un plazo mayor del que les conviene admitir. Y, sencillamente, no se puede descartar. Tampoco se puede descartar el CO2, pero su efecto observado depende enteramente de esa variabilidad interna. No puedes saber uno si no sabes el otro. Y por mucho que te dé por asumir que la variabilidad interna de largo plazo (décadas) es cero, que lo asumas no lo hace cierto.

Ahora mismo, en ese estudio, le acaban de quitar un 27% de efecto al CO2. De 1,3º de calentamiento, a 0,9º – 1º. Bastaría la muy posible y verosímil idea de que la variabilidad natural mutidecadal haya contribuido con la misma cantidad -“sólo dos o tres décimas de grado”- al calentamiento, para que el efecto del CO2 fuera la mitad de lo que llevan los modelos. Y entonces tendrías un no-problema, con tendencia a bendición.

Julia:

¿Es necesariamente malo si el mundo se calienta, y deberíamos hacer algo al respecto?

Esa es la pregunta más intelignte con todo dogma. ¿Oiga, y eso es malo? ¿Por qué?

Allen:

Esta es una pregunta muy diferente. Una de las cosas que hemos aprendido en los últimos 20 años, y francamente me sorprende, es lo poco que le gusta a la gente que le cambien el clima sin preguntarles (es literal). Es una cuestión de cuánto cambio climático está preparada la gente para tolerar, y una de las cosas que hemos descubierto es que a la gran mayoría de gente no le gusta la idea de perder el clima de su infancia, y que les den otro sin su permiso.

¿Alguien ha visto alguna vez una demagogia más barata en acción? ¡La infancia! ¡Sin su permiso! Y por supuesto, sin preguntarles cuánto están dispuestos a perder de riqueza para conseguir no cambiar la infancia … en la eventualidad de que el carro de asunciones en las que se basa el cuento sean ciertas.

Sigue Allen:

Una de las cosas que la Global Warming Policy Foundation (los “negacionistas”, vaya) nunca te va a decir es cuánto calentamiento están dispuestos a aceptar.

Otra mentira. No sé si la GWPF ha entrado específicament en eso, pero los científicos “negacionistas” en general sí dicen que 1,5º, o 2º, o incluso 2,5º, es muy poco verosímil que tengan efectos negativos netos. Y muy verosímil que los tengan positivos. Lo cual es la perfecta forma de decir cuánto calor están dispusos a tolerar.

Julia:

¿Con todo el respeto, creo que no ha contestado a mi pregunta? ¿Es necesariamente malo un calentamiento de un par de grados?

Allen:

Depende de quién seas. Si vives en un pequeña isla nación que puede desaparecer según sube el nivel del mar, puedes tener un sentimiento muy fuerte al respecto.

Más demagogia basura sin control. Se refiere a los atolones del Pacífico. El mar ya está subiendo, desde antes del CO2, y los atolones no están desapareciendo. Son islas dinámicas que se mueven con el nivel del mar. Cosa que sabemos desde Darwin. Pero incluso si queremos soñar con aceleraciones espantosas de la subida del nivel del mar, que deberíamos estar viendo y no vemos, aun así ahí vive una cantidad de gente ridículamene pequeña. Sería infnitamente más barato subvencionarles una vida con más recursos de los que tienen, en otra parte, que desquiciar la economía global con fantasías de “energía verde”.

Y lo remata diciendo que él mismo, con su sueldo de académico, sólo se ha podido permitir una casa en la llanura de Oxford, susceptible a inundaciones. Fue un cachondeo en Twitter, que no encuentro ahora. La gente sacó su casa, y precios de casas similares en venta en la misma zona, que resula ser muy muy cara. Y le explicarón que sí, que se lo puede permitir de sobra. Pero que igual no cree tanto como dice en las inundaciones del Calentamiento Global Acojonante, del mismo modo que Obama o Al Gore no parecen creer en la peligrosa subida del nivel del mar.

Esto es lo que hay.

Fuente (la entrevista)

Últimamente están saliendo varias reconstrucciones de paleo-temperatura de la península. Traemos la última, con anillos de árboles. Una serie de pinos en el Pirineo. Se supone que reconstruyen las temperaturas de verano, los meses de mayo y junio, y agosto y septiembre. Si quieres saber por qué esos meses en concreto, lee el trabajo; es muy largo. El mensaje resulta maravillosamente anti-alarmista.

Extendiéndose durante el período de los años 1186 a 2014, la nueva reconstrucción revela en general unas condiciones más cálidas hacia 1200 y 1400, y de nuevo después de hacia 1850. El verano más frío fue en 1258 (-4.4°C respecto al período de referencia 1961-1990), tras la erupción volcánica más fuerte conocida de la era. El siglo XX se caracteriza por un fuerte enfriamiento de verano en la década de  1970, seguido de un aumnto de temperatura hasta 2003, y un descenso posterior. Se encuentra muy poco acuerdo con las simulaciones de modelos climáticos, que sobreestiman consistentemente el calentamiento de verano reciente, y subestiman los cambios de temperatura pre-industriales.

Lo que más me gusta es la comparación con los modelos climáticos. La línea roja es la nueva recontrucción, y las verdelinas son cuatro modelos climáticos. Todas llevan un filtro paso bajo de 20 años.

buengten-et-al-2017-fig7

Está claro que los modelos se apuntan a que no existe cambio climático natural más allá de unas oscilaciones de corto plazo. ¡Son negacionistas del cambio climático natural! — como dice Roy Spencer. Sobe todo si haces una media entre ellos, y frenas las alegrías del modelo verde fosfrito (CCSM-4) – que es el extravagante del grupo. También destaca que el calentamiento moderno no tiene nada de especial. Como sabe todo el mundo, menos los cantamañanas de la marcha por la ciencia.

¡Se parecen a Rawandi! 😉

Pero yo tampoco lanzaría las campanas al vuelo con esta reconstrucción del Pirineo. Aunque sea muy importante por estar en el patio trasero de Bilbao. Porque si comparas con la reconstrucción que vimos hace poco tiempo, que era con árboles en la zona de Soria y desde 1600, no se parecen ni castaña. A pesar de que también sea patio trasero de la capital de la galaxia.

buengten-con-tejedor

Mejor prescindimos de los detalles, tan poco convincentes, y nos quedamos con la literatura. Entre los autores está Zorita, que ya ha visto muchas veces que los modelos climáticos no son capaces de simular la variabilidad natural de siglos pasados, relativamente bien conocida.

La variabilidad de largo plazo reconstruida excede la variabilidad de décadas a siglos simulada en cuatro modelos climáticos de última generación. Esta ddiscordancia está en línea con una tendencia general de los modelos a subestimar la amplitud de la variabilidad natural de baja frecuencia reconstruida durante e último milenio (Bothe et al. 2013; Fernández-Donado et al. 2013; Phipps et al. 2013; Luterbacher et al. 2016; Ljungqvist et al. 2012). Este desacuerdo podría indicar que el papel de la variabilidad interna no forzada es mayor que el esperado (Goosse 2017; Matsikaris et al. 2016), y/o que la sensibilidad climática a los forzamientos prescritos necesita ajustes.

Explico. La Climatología del Calentamiento Global Acojonante, que es lo mismo que decir los modelos climáticos, ven el cambio climático como una simplificación pasmosa. Los modelos serán muy complicados, pero la película no podría ser más sencilla. El clima tiene una oscilaciones rápidas (de alta frecuencia), caóticas, que se promedian al cabo de poco más de una década. A partir de ese plazo, los cambios se deben a los “forzamientos climáticos”. Que son, o naturales o artificiales. Y dentro del plazo de uno o dos milenios sólo son estos:

Naturales:

  1. Volcanes. Enfrian, y cada uno dura poco. Puede ser un efecto grande.
  2. El sol, Calienta y enfría, y sus variaciones apenas tienen efecto en los últimos 2.000 años.

Artificiales (hombre pecador):

  1. Contaminación: Enfría.
  2. Gases invernadero. Calientan.

Con esta película es obvio que entre el año 0 DC y 1850 DC (lo preindustrial, o natural) no pueden tener cambio climático. Sólo un muy ligero enfriamiento por lo de los ciclos de Milankovitch, y unas bajadas fuertes por los volcanes — que desaparecen al cabo de poco tiempo. Y eso es justo lo que se ve en las líneas verdes del gráfico.

buengten-et-al-2017-fig7

Y es lo que NO se ve en la línea roja de temperatura reconstruida a partir de anillos de los árboles. Que no será de confianza (a mi no me parece), pero es que sabemos por los textos históricos que el clima variaba, y un huevo. Y lo sabemos por el rango geográfico de las distintos tipos de árboles, según se expande / contrae el rango en latitud y en altitud. Y por los glaciares, que también se expandían ¡y retrocedían! antes de la era industrial. O sea, sabemos que el clima sí se puede calentar en plazo de décadas / siglos (sin que cuente el ciclo de Milankovitch), pero los modelos climáticos no pueden hacerlo.

Por eso dicen los autores del trabajo que, o bien el clima puede cambiar por sí mismo (caos, o la variabilidad interna no forzada que dicen), o bien los forzamientos que tienen en cuenta en los modelos necesitan ajustes (están mal). O ambas. Y eso hace que la “evidencia” (es sólo teórica) del Calentamiento Gobal Acojonante quede francamente en cuestión.

Fuentes:

Büngten et al 2017:

Tejedor et al 2017:

Gracias a:

 

Si tú ves Mann y Rahmstorf en el mismo “paper” ya sabes que tienes el circo asegurado.

“Hemos llegado tan cerca como se puede de demostrar una relación directa entre el cambio climático y una gran familia de extremos meteorológicos recientes”, dijo Michael Mann, distinguido profesor de ciencias atmosféricas, y afamado Fake Nobel (por escrito); así como inventor del truco para esconder el declive, y el falso palo de hockey que pretendía negar el cambio climático natural. “Falta identificar de hecho los eventos en los modelos climáticos”, añadió.

casi-llegan

Y ahí, en dos frases de Mickey Mann, tienes el cuento del clima en todo su esplendor. Los científicos de la movida tienen una meta que alcanzar. Pero no es la sana meta -motivada por la curiosidad- de saber cómo funciona el sistema que estudian, sino la de demostrar la relación entre el hombre pecador y todos los males imaginables. Y para colmo, no estudian el sistema real, sino los juegos de computadora que han creado ellos mismos como herramienta de asustar.

El truco va así. Por una parte se han fijado en unos cuantos extremos meteorológicos recientes. Como la ola europea de calor en 2003; las inundaciones de Pakistán en 2010; la ola de calor rusa de 2011; las de Tejas y Oklahoma de 2013; y los incendios de California en 2015. Y han econtrado (ya se sabía) que ese tipo de fenómenos suelen estar relacionados con ondulaciones más pronunciadas y persistentes del jet stream.

También dicen que esas ondulaciones potentes han sido más frecuentes recientemente. No dicen (creo) que entre 1950 y 1970 también vieron lo mismo, en una fase de enfriamiento global.

Y ahora llega la magia. En casi un setenta por ciento de “una combinación (docenas) de los aproximadamente 50 modelos climáticos” del grupo CMIP5, aumentaba, desde la época preindustrial, la distribución de temperatura que favorece la formación de esas ondulaciones exageradas del jet stream. Y el juego se llama concurso de popularidad entre modelos.

Pregunta: ¿van a tirar a la basura el más de 30% de los modelos de esa selección porque no dan la respuesta adecuada? No señor. Porque en otro experimento futuro, ante otra problema distinto, puede ocurrir que sean, precisamente los modelos que ahora no contestan bien, los que nos digan lo que queremos. Los que nos acerquen a esa meta que tenemos de demostrar que la culpa es del hombre pecador. Tenemos modelos para todos los gustos; los removemos, y ¡hops! sale lo que queremos. Por eso nunca descartan modelos. Por eso no hay modelos mejores que otros. No tienen selección natural, salvo los que claramente nunca van a dar la respuesta predeterminada en ningún caso.

Y luego te encuentras con que a los modelistas del cuento este resultado de abajo les parece muy bueno. (Es de otro tema distinto, pero es un ejemplo espectacular).

modelos-climaticos-y-realidad-tmt-trop-gavin-curry

Normal. ¿Han medido en ese estudio que los extremos meteorológicos sean más frecuentes o peores? No, no lo son. O al menos el IPCC, que también quiere demostrar lo mismo, no lo ha encontrado. Ni las compañías de seguros tampoco, y les importa mucho saberlo. La realidad no dice tal cosa. Pero como en casi el 70% de una parte de los modelos ocurren unas condiciones que favorecen los extremos climáticos, y a pesar de que bien pudiera tener la razón el más de 30% que dice lo contrario (o ninguno), resulta que hemos llegado lo más cerca que se puede a demostrar que tenemos que cobrarte un pastón. ¡Somos unos machotes!

Por cierto, en la primera frase hablan de “la actual sequía sin precedentes de California”. Realidad: en absoluto es sin precedentes, y ya se ha acabado para la fecha de publicación del artículo.

Fuente, WUWT:

 

La climatóloga Judith Curry acaba de publicar una pieza sobre los modelos climáticos y el uso muy inadecuado que se les da.

curry-climate-models

Resumen ejecutivo.

Hay considerable debate sobre la fidelidad y utilidad de los modelos climáticos. Este debate ocurre dentro de la comunidad de científicos del clima, que están en desacuerdo sobre el peso que se les debe dar a los modelos respecto de los análisis observacionales. Los resultados de los modelos se usan también por los economistas, las agencias reguladoras, y los responsables políticos. Los modelos han recibido considerable escrutinio de la comunidad más amplia de científicos, ingenieros, expertos de software, y filósofos de la ciencia.  Ese informe intenta describir el debate que rodea los modelos climáticos para un público educado pero no técnico.

Yo le veo un problema. Para el que ha seguido la discusión del cambio climático no tiene nada que no conozca, y pare el que empiece de nuevas puede ser un poco “duro”. Tal vez se puedan resaltar un par de puntos para tratar de esquematizar la línea argumental. Serían el uso que se les da a los modelos, y los problemas conocidos y muy obvios que tienen para ese uso.

Los modelos son herramientas útiles para tratar de comprender, muy a groso modo, el funcionamiento del sistema climático y las interacciones entre sus partes. O algunas de ellas. Pero se usan para atribuir la mayor parte del calentamiento observado desde 1950 al CO2, y para decidir qué problemas producirían las emisiones de CO2 en caso de continuar. El trabajo de Curry es un exhaustivo repaso de por qué no sirven para ninguno de estos dos últimos propósitos. Pero ni de lejos.

Sin ánimo de un resumen completo, los problemas por los que los modelos no sirven para averiguar esos dos aspectos clave de cara a las “políticas climáticas”, vienen de la forma de hacerse los modelos y de los resultados contrarios a las observaciones que producen.

Resultados. Con los modelos tratan de decir cuánto calienta el CO2 que se emite, y qué otros efectos causa ese calentamiento — como subida del nivel del mar, sequías, huracanes, o lo que sea. Pero eso se puede tratar de averiguar también observando el calentamiento y el aumento del CO2 que ha habido, sumado al resto de elementos que influyen en el clima. Y los dos procedimientos producen resultados muy distintos. Si ponemos los estudios observacionales más recientes comparados con el rango de los modelos, podemos verlo en este cuadro.

ecs-estudios-recientes

De los estudios observacionales sólo hemos puesto el valor más probable. En su distribución de probabilidades se meten más dentro y más fuera del rango de los modelos. Como esto (faltan algunos, que no tengo):

Los CMIP (en naranja) son los modelos. Los azules, los cálculos con observaciones. Y Curry explica que la parte alta de los estudios que se reflejan ahí ha quedado desfasada por recientes estudios (Stevens 2015) sobre uno de los elementos que toman en consideración. El efecto de los aerosoles. Y todos deberían revisar a la baja su resultados en la parte superior. El único que lo ha hecho es Lewis, y queda así con la raya azul marcando el límite superior (95%).

lewis-usando-stevens

Son resultados incompatibles los de los modelos y los de las observaciones. Y por eso el último informe del IPCC (2013) se limitó a proporcionar un rango (1,5 – 4,5), sin poder dar un valor más probable — como tenía por costumbre. Explica que es por la discrepancia entre “las distintas líneas de evidencia”, donde “evidencia” son las observaciones … ¡y sobre todo los modelos!

El “tuneado” de los modelos. Explica Curry, con las citas oportunas, que los modelos tienen un motón de ajustes arbitrarios, cada uno distintos. Y su capacidad para reproducir (más o menos) las temperaturas del siglo XX no viene de su calidad, sino de la selección oportunística de un conjunto de ajustes. Pero entonces la atribución del calentamiento de la segunda mitad del siglo, y del futuro calentamiento, es una broma. Tienes un resultado (mas o menos) adecuado porque ya sabías las temperaturas que tenías que reproducir, y tienes ajustes a la carta para hacerlo. Pero puedes haberlo conseguido usando las razones equivocadas. Y eso no te hace saber lo que pasará en el futuro, ni la causa de lo que observas.

Problema gordo: Estos modelos, que obviamente exageran (Curry dice que como X2) el calentamiento del CO2, son los que usan los economistas para que luego los políticos hagan las leyes. Y todo parte de una manzana podrida.

Este es, más o menos, el resumen de la línea argumental. Hay muchos más detalles, por supuesto.

¿Cómo responden los alarmistas a la crítica de los modelos? Como siempre. Con la carallada de que es la mejor herramienta que tenemos. Pero eso no te dice ni que la herramienta sea buena, ni que sea adecuada. Un ejemplo de discusión en Twitter:

curry-twitter

Son unos jetas. No hay más que abrir los ojos para darse cuenta de que el clima (global) es mucho mejor en los siglos XX/XXI que en los siglos XVII/XVIII. Y, por ejemplo, la subida del nivel del mar que citan lleva subiendo al mismo ritmo inocente desde mucho antes de los “efectos antropogénicos” en el clima.

¿A quién le ha preocupado jamás la subida del nivel del mar de 1900 a 1960? ¡Pues es la misma que de 1960 a aquí! Y el mamón alarmista lo sabe de sobra, pero lo usa aunque no tenga sentido.

Nota: Los gráficos no vienen del trabajo de Curry, pero es de los estudios que habla y se ve mejor.

Fuente, The Global Warming Policy Foundation.

 

Este es uno de los asuntos más extraños, y -para mi- una de las mayores demostraciones de la falta de seriedad de esa que llaman ciencia del cambio climático. Imagina que el siguiente gráfico representa dos predicciones distintas sobre la evolución de una variable hasta fin de siglo.

global-warming-and-peak-oil

¿Qué dirías? Probablemente que se trata de una broma. O una de las predicciones es una coña, o ambas.

Pero te explican que las dos predicciones están basadas en “la mejor ciencia disponible”, teniendo en cuenta toda la literatura científica más actual publicada. En cuyo caso supongo que puedes sugerir que “ciencia” y “ciencia” no es lo mismo, si no distinguimos entre ciencias maduras, de resultados contrastados, y ciencias muy verdes y en un estado esencialmente especulativo. Pero te van a fastidiar, porque te dirán que se trata de “ciencia establecida”.

– Déjese de bromas. Ciencia “establecida” es la que acierta consistentemente las predicciones, y esas dos predicciones no pueden acertar ambas. Ni siquiera mirando el resultado hartos de grifa.

Expliquemos lo que se ve en el gráfico. Dos curvas que representan las emisiones humanas de CO2 en el tiempo, si no hacemos nada para disminuir las emisiones de CO2. Vaya, si no nos portamos bien.

La azul es histórico (medición) hasta 2015, y predicción de un “escenario” del IPCC a partir de ahí. Es el escenario que venden como “business as usual”. Van sumados todos; petróleo, gas y carbón. Con la mejor ciencia que tenemos a nuestra disposición.

La naranja es otra predicción, desde 2015, de lo mismo. Con una diferencia; trata de averiguar cuánto CO2 se puede emitir, sin cortarse, pero con una idea realista de las reservas que hay y las que se pueden encontrar, y los avances en la extracción “no convencional”. Publicada en un estudio reciente (Wang et al 2016), que ha recopilado la literatura científica desde el año 2000, para tener en cuenta los hallazgos y posibilidades de los yacimientos “no convencionales”. El fracking y tal. También es con la mejor ciencia que tenemos a nuestra disposición. Pero el resultado no tiene nada que ver con la anterior “mejor ciencia”. Son dos “mejores ciencias” muy muy distintas.

Y el problema no es una cuestión académica remota. Una predicción dice que en 2100 estaremos emitiendo 28 GtC en CO2; y la otra dice que serán 7 GtC, con un pico en 2034 de 11 GtC. Y si tenemos en cuenta que el Calentamiento Global Acojonante depende básicamente del CO2 que se emita, de 28 a 7 hay un factor de 4.

Vamos a ver qué quiere decir eso en temperatura, en el mundo del IPCC, y de forma muy gráfica. Repito, mundo IPCC, con una teoría que hace agua por todas partes, y unos modelos que sabemos que exageran de largo el calentamiento. Pero se trata de saber la diferencia en temperatura entre una predicción con la mejor ciencia disponible, y otra predicción también con la mejor ciencia disponible.

El primer gráfico venía de la digitalización de la figura 2 de Wang et al 2016. Represantando sólo las dos curvas de interés, que aquí van resaltadas.

global-warming-peak-oil

A señalar. La predicción de Wang (la curva verde) está entre las dos azules de puntos, más cerca de la azul clara. Son los “escenarios” del IPCC llamados RCP6.0 y RCP4.5. Y está mucho más cerca del escenario bajo, el RCP4.5. Estos “escenarios” 6.0 y 4.5 suponen diversos grados de portarse bien. De reducir emisiones con muchas leyes de Obama. Pero los que miran los combustibles fósiles que hay, y los que puede haber, en un ejercicio igual de imaginario que el del IPCC, dicen que nos vamos a portar así de bien sin que hagan falta leyes ni Oabamas. Vale con Trump.

Miremos los escenarios del IPCC, y su CO2 y temperatura. Hasta 2300, y así nos preocupamos de los nietos de los nietos de los nietos.

rcps-a-2300

La diferencia entre la predicción de combstibles fósiles infinitos y la predicción con la mejor estimacion de sus existencias es, en 2100, de 3,2ºC de calentamiento respecto de hoy, a 1,65ºC. Y en 2300 la diferencia es de 7,1ºC, a unos 2,5ºC.

Nota. Ese escenario del IPCC, de emisiones a tutiplén, no se lo cree ni Obama [–>]. Pero es lo que siempre usan en la prensa y en los estudios impactantes cuando oyes barbaridades de lo que subirá el nivel del mar, y lo que se achicharrarán los pájaros y las flores.

Por supuesto, estas cifras de calentamiento en los escenarios del IPCC similares a lo que permiten las existencias imaginables de combustibles fósiles, son también muy exageradas. Mucho. Usan los modelos climáticos de chichinabo y miedo. Pero Willis Eschenbach ha hecho un trabajo muy interseante en WUWT, aplicando la literatura reciente sobre lo que calienta el CO2 usando observaciones reales — y por lo demás toda la teoría y asunciones del IPCC. Es a su vez también la “mejor ciencia disponible”. Con un resultado tan diferente como venimos viendo en los anteriores casos. Aun mucho mas bajo (menos calentamiento).  En concreto, un máximo de 0,6ºC de calentamiento en 2100 usando esos cálculos de forma convencional, y hasta 0,8ºC aplicando las muy discutibles “mejoras” que le han metido los alarmistas de la NASA a los cálculos convencionales. Un rollo muy novedoso que pretende que los vatios del CO2 valen distinto que los demás vatios.

Willis en WUWT:

Cuando te digan que se trata de una “ciencia establecida”, y “la mejor ciencia disponible”, ya sabes lo que quieren decir. Nada. Es un vacile.

Fuentes:

Wang et al 2016:

Riahi et al 2011:

Eschenbach en WUWT:

IPCC:

Larry Kummer (editor de Fabius Maximus) en Ca’n Curry:

Y un mensaje:

parte_nones-mensaje

critica-bastarda

Este es, presumiblemente, el mejor momento para los alarmistas del clima en la próxima década y media. En 1998 hubo un El Niño muy fuerte, y en 2016 también. Y el siguiente, si se mantiene la misma pauta (1983, 1998, 2916) será en poco más de quince años. Como esos El Niño muy fuertes le pegan un notable subidón a la temperatura global, es el mejor momento para que parezca que los modelos climáticos no van sobre-calentados. Lo vemos en el gráfico que presenta Hawkins, en el que destacamos (amarillo) los dos últimos Niños muy fuertes.

hawkins-modelos-termometros-el-nino

CMIP5 (los grises) son los modelos.

La raya negra vertical discontinua que dice Historical <-> RCPs separa la parte de predicción (derecha) de la parte en que los modelos están tuneados para reproducir las temperaturas medidas (izquierda).

El cuadrilátero rojo rayado es la apuesta de predicción del IPCC en 2013, por el procedimiento de “expert opinion”. Muestra que el IPCC no se cree mucho los modelos, y rebaja su calentamiento. Al punto que si no hubiera ningún calentamiento  entre 2005, cuando empieza la predicción, y 2030, el IPCC diría que esa falta de calentamiento es perfectamente consistente con su predicción de Calentamiento Global Acojonante. Lo mostramos con la raya amarilla

hawkins-sin-calentamiento-2030

Todo esto va referido a las observaciones con termómetros de superficie. Sin tocar ni de lejos las observaciones desde satélites, que son básicamente incompatibles con el cálculo de temperatura global a partir de los termómetros.

Aun así, estos gráficos de Hawkins, que siguen la pauta del IPCC, tienen un truco que no se puede olvidar. Si el Calentamiento  Global Acojonante empezó entre 1975 y 1980, por qué empiezan el gráfico en 1985, y usan 1986 – 2005 como período de referencia? El efecto de esa elección es unir las dos series (modelos y observaciones) hacia la mitad del período de referencia (1995), y así disimular la diferencia acumulada entre ambas desde el principio del Calentamiento Global Acojonante.

Steve McIntyre lo expresa con este gráfico, al que también le añade los satálites. Y explica:

AR5 reference period 1986-2005 is a graphic “trick” which hides cumulative discrepancy since 1979. Perspective w 1979-90

mcintyre-models-observations-2016

El gráfico izquierda es satélites, y el derecho termómetros de superficie.

O el gráfico que solemos poner aquí, con medias de cinco años en lugar de anuales, satélites (azul) y modelos climáticos (rojo):

También se puede expresar en números, que Hawkins no hace. Tendencia lineal 1979 – 2016 expresada en ºC / década.

 

Fuentes:

Climate Lab Book:

Ed Hawkins en Twitter:

Steve McIntyre en Twitter:

dilbert-climate-models

Scott Adams, el autor de Dilbert, ha estado azuzando la discusión del Calentamiento Global Acojonante desde su blog [–>]. Donde azuzar tiene el significado DRAE: incitar a los perros para que embistan.

Niega conocer el asunto como para juzgarlo, alegando que no tiene los conocimientos necesarios. Pero al mismo tiempo asegura que sí sabe mucho sobre persuasión -que no tiene por qué estar relacionada con la realidad- y que le parece mas persuasiva la argumentación de los escépticos. Lo hace de una forma bastante cachonda.

Desde el punto de vista de la persuasión, y basado en lo que he visto, la gente que dice que los modelos no son fiables es mucho más convincente que la gente que cree que los modelos son fiables. Pero la persuasión no está siempre conectada con la verdad. La verdad del cambio climático no está enteramente disponible para mi, dada mi falta de conocimiento y formación en los campos relevantes. De momento me sitúo con el consenso de los científicos, lo que me pone en el lado débil del juego de la persuasión en este debate. Mi equipo realmente necesita ayuda.

No hace falta explicar el rebote que tienen todos los alarmistas del clima con un planteamiento de este tipo. La operación Dilbert ha sido de una sutileza mayúscula. Porque, sin plantearlo expresamente, ha situado la discusión en su punto justo. Que es justo el punto del que los alarmistas la quieren sacar. La credibilidad de los modelos. Y Adams ha conseguido que todo *el* problema sea exclusivamente esa. ¿Son creíbles los modelos?

Al entrar los alarmistas a ese trapo, han confesado indirectamente lo que siempre tratan de ocultar. Que no tienen ninguna evidencia empírica, y que toda su “ciencia” y alarma está basada en unos modelos de credibilidad más que discutible. Cierto, plantean que los modelos sí son creíbles. Pero al no tener nada más que presentar, han dejado desnuda la realidad; que todo depende de esos modelos. Y esa es una discusión muy muy delicada. Como dice Adams, con muy mala pinta para los alarmistas.

A modo de homenaje a Dilbert, ofrezco otro argumento sobre la falta de credibilidad de los modelos. Porque no lo he visto en la kerfuffle que ha montado Scott. Siempre vemos representado el resultado de los modelos en anomalías. O sea, en la variación de temperatura de cada modelo, con independencia de a qué temperatura esté circulando. Pero la diferencia de temperatura absoluta (no de variación de temperatura) entre los distintos modelos llega a tres grados.

desparrame-modelos-climaticos

Tres grados es casi la diferencia que hay entre una tierra en estado de glaciación, y la nuestra. Y los procesos de los que depende el efecto de un forzamiento como el del CO2, el que el sistema climático amplifique más o menos ese efecto, dependen de la temperatura. Por ejemplo la evaporación, las nubes, y la lluvia. O el albedo (reflejo) de la nieve y el hielo.

O sea, cuando hablemos de modelos, y de su credibilidad, nunca olvidemos esto:

dilbert-climate-models

Una nota al margen. En el enfado de los alarmistas, menosprecian a Adams señalando que es un dibujante de comics. Al parecer olvidan que el estudio / payasada del 97% de consenso en el que siempre se basan, estaba dirigido por … ¡un dibujante de comics!

Fuentes:

Judith Curry:

Scott Adms:

Los alarmistas del clima están mostrando ahora comparaciones de modelos climáticos y realidad con mucha afición. Por ejemplo:

Que si ponemos el gráfico sólo, es esto:

modelos-realidad-superficie

Y parece que los modelos van de cine. Las mediciones de termómetros de superficie van justo un poco por encima de la media de los modelos. Y se ve muy bien por qué hasta hace poco (como 2012  – 2014) no les gustaba comparar los modelos con la realidad. ¡Porque la realidad se estaba saliendo del margen de los modelos!

modelos-realidad-superficie-2

El truco es que ahora acaba de haber un El Niño de los fuertes (como el de 1998), y eso sube espectacularmente la temperatura global.

el-ninho-34

En la media de los modelos no se refleja El Niño, porque como no se puede predecir, cada uno lo tiene en un momento diferente (si es que lo tiene) y en el promedio desaparecen. Y entonces, si quieres hacer una comparación modelos realidad, o no la haces en el momento de El Niño, o comparas dos situaciones en El Niño de similar fuerza.

Destacamos los dos Niños fuertes (1998 y 2016), y vemos cómo el de 1998 se salía del margen de los modelos por arriba, y el de 2016 se queda poco por encima de la media.

en-modelos-realidad-superficie

¿Eso quiere decir que los modelos van muy bien, o querrá decir que van francamente más calientes que la realidad? En todo caso habrá que esperar unos pocos años a que se estabilice después del arreón del El Niño.

Nota: El “escenario” de los modelos que usa el gráfico (RCP 4.5) es de muchas menos emisiones que las que hay, pero en 2016 no se nota todavía en la temperatura. Es para emisiones futuras.

Y luego hay otra cuestión importante. Lo que miden con termómetros y con satélites está empezando a ser incompatible. O los termómetros están midiendo efectos no climáticos (por ejemplo, urbanización), o sus ajustes y correcciones son un cachondeo, o hay algún problema con los satélites. O hay un problema con el entendimiento del clima. Porque un calentamiento debería notarse más en la altura a la que miden los satélites, y las mediciones dicen lo contrario.

En principio, la medición desde satélites es mucho más adecuada. Porque están midiendo algo global (las garitas de termómetros nunca se pensaron para eso) y porque el “efecto invernadero” ocurre en la troposefra a media altura – y de ahí se traslada hacia abajo.

Según los satélites, vemos esta comparación modelos / realidad.

modelos-realidad-satelites-2

Este es el gráfico que solemos poner, con una media de cinco años – que es lo típico para ver una tendencia sin demasiado vaivén. Pero le podemos añadir la media anual (en rosa) para hacer lo mismo que el gráfico de los alarmistas.

modelos-realidad-satelites

También podemos señalar los dos El Niño fuertes:

modelos-realidad-satelites-3

En este caso los modelos usan el escenario de emisiones más alto (RCP 8.5), pero ya digo que todavía no hay diferencia entre los distintos escenarios. Son para el futuro.

Resumiendo. Termómetros de superficie y satélites están empezando a contar películas diferentes, incompatibles. Los dos van más fríos que los modelos. Los satélites, mucho más fríos.

 

Judith Curry nos trae un nuevo “paper” en Science, y lo comenta. Lo mejor probablemente es leerlo allí directamente:

Pero voy a intentar explicar la importancia del asunto para los que no han seguido a fondo la discusión hasta ahora.

Imagina que tienes un sistema físico cuyas leyes conoces. Por ejemplo una olla llena de agua, con un volumen determinado. Y que está afectado por unos factores externos que también conoces. Por ejemplo, fuego por debajo, de mayor o menor intensidad; y una tapa por arriba, más o menos cerrada. Y puedes predecir: con el mismo fuego, si cierras más la tapa, el agua se calentará.

olla-al-fuego

En ese sentido, la teoría del Calentamiento Global (Acojonante) es no polémica.  Y lleva siendo no polémica desde -por lo menos- Guy Callendar, en 1937. Sólo que entonces no era Acojonante [–>]. El CO2 que emitimos es como cerrar un poco la tapa. Algo tiene que calentar. El problema está en averiguar si ese “algo” es:

  • Inapreciable
  • Un calentamiento suave y beneficioso
  • Un calentamiento moderado de consecuencias discutibles
  • Un calentamiento Acojonante.

Nota: Lo de que un calentamiento suave sea beneficioso también debería ser no polémico. La así llamada “temperatura pre-industrial” es una temperatura mala, por demasiado fría.

En esa “temperatura pre-industrial” el Támesis se helaba (a veces también el Ebro), y se perdían las cosechas por el frío. Este cuadro de Gabriel Bella es Venecia en 1708.

venice_frozen_lagoon_1708-gabriel-bella

Es obvio; el problema es saber cuantificar ese “efecto tapa” del CO2. Porque dejar de emitir CO2 es -de momento- carísimo; nos empobrecemos. Mucho. Y porque ese empobrecimiento podría suponer evitar algo inapreciable, que sería una estupidez; o incluso evitar algo bueno, que sería una canallada.

Aunque el problema parece fácil (la temperatura es una función del calor que entra menos el calor que sale), en realidad no lo es. Esa cuantificación no es fácil, porque la temperatura de la olla no era constante antes de que moviéramos la tapa. Había otras cosas que cambiaban la temperatura antes de nuestras emisiones, y que siguen operativas. ¿Variaba el fuego? ¿Variaba la tapa por si misma (sin ayuda nuestra)? ¿Variaba la temperatura externa o el viento, haciendo cambiar la temperatura del agua de la olla? ¿Variaban las paredes, emitiendo hacia afuera más o menos calor? ¿Variaba el líquido de dentro — por ejemplo algo revolviendo el agua a mayor o menor velocidad?

Nota: Estas variaciones que pueden afectar a la temperatura es lo que llaman, en la jerga del cambio climático, forzamientos.

Aunque hayas visto que la temperatura ha subido un poco, no puedes saber cuánto es por el ligero cierre de la tapa, y cuánto es por las demás cosas – de las cuales unas conoces y otras no. Resumiendo: No hay forma de saber el calentamiento achacable al ligero cierre de la tapa si no sabes lo que hubiera cambiado la temperatura en ausencia de ese ligero cierre.  O sea, no puedes conocer el cambio climático antropogénico si no conoces el cambio climático natural. Esto también es algo no polémico.

Y aquí es donde entran en juego los modelos climáticos. En teoría, un procedimiento muy bonito y muy limpio. Metemos leyes conocidas de la física en unas fórmulas, y nos resulta una temperatura. La diferencia que hay entre incluir el efecto directo del CO2 extra (la física radiativa del CO2, que es conocida) y no hacerlo, nos da el efecto total de ese CO2 que estamos emitiendo. Y sería cierto si fuera verdad; pero no lo es. Porque no meten sólo física conocida. Muchos de los forzamientos, de los que hablábamos antes, no son muy conocidos. Y mucha de la física conocida no la pueden resolver los modelos; les falta potencia en órdenes de magnitud. Y siempre les va a faltar – es el problema del sistema caótico. Así que en vez de resolver las ecuaciones, las parametrizan. Y el conjunto de esos ajustes, los forzamientos no conocidos que ponen más o menos a huevo, y las parametrizaciones, son el famoso tuneo del que no hablan casi nunca.

Y no se trata de que el tuneo sea necesariamente tramposo. Puede ser hasta inconsciente. Si con unos ajustes el modelo produce unas temperaturas del pasado (conocidas) absurdas, lo descartan. Y no lo publican hasta no tener unos ajustes que parezcan razonables, y den unas temperaturas del siglo XX parecidas a la realidad. El problema está en “parezcan razonables”, porque es algo que depende de lo que tengan en la cabeza antes de hacer los ajustes.

Volvamos al caldero de antes.

olla-al-fuego

Puedes decidir que los humanos, además de haber cerrado un poco la tapa (eso calienta), también estaban revolviendo el líquido con una cuchara (eso enfría). Y dependiendo de la velocidad con que lo hicieran, enfriaba más o menos. Pero no sabes cuánto. Y puedes obtener la misma temperatura a base de un efecto muy fuerte de cerrar la tapa, contrarrestado por un revolver rápido; o a base de un efecto suave de cerrar la tapa, contrarrestado suavemente por una cuchara lenta. El resultado es el mismo, la misma temperatura, pero el efecto de cerrar la tapa es muy diferente. Y el efecto de cerrar la tapa es justamente lo que querías saber. Para tratar de imaginar lo que hará en el futuro. Pero depende de la parametrización de la cuchara, si es un cálculo, o del forzamiento que le adjudiques si es un forzamiento.

Ahí está el quid. ¿Conocemos y podemos comparar esos tuneos para saber (1) que se han hecho con “prejuicios” en los dos sentidos, y (2) cuáles dan un resultado mejor?

Los modelos climáticos reproducen todo lo que pueden aplicando las leyes de la física en cajas imaginarias de decenas de kilómetros de lado. Pero algunos procesos, como la formación de nubes, son de grano demasiado fino para eso, y los modelistas usan “parametrizaiones” intentando aproximar estos efectos. Durante años, los científicos del clima han tuneado sus paremetrizaciones para que los modelos coincidan en general con los registros climáticos. Pero, temiendo críticas de los escépticos del clima, han estado largamente mudos sobre cómo tunean sus modelos, y por cuánto.

Eso viene del abstract. Dentro lo desarrolla más.

Durante años, los científicos del clima han estado mudos en público sobre su “salsa secreta”: Lo que ocurría en los modelos se quedaba en los modelos. El tabú reflejaba miedos de que los contrarios usaran la práctica del tuneo para sembrar dudas sobre los modelos — y, por extensión, sobre la realidad del calentamiento antropogénico. “La comunidad se puso a la defensiva”, explica Stevens. “Tenía miedo de hablar de cosas que pensaban que podrían usarse injustamente contra ellos”.

Evidente: Si los tuneos pueden sembrar dudas, y los ocultas, estás ocultando las dudas. Y eso es, exactamente, exagerar la certidumbre. O inventársela.

Daniel Williamson,  un estadístico de la Universidad de Exeter, expone que los centros (de modelización) deberían presentar múltiples versiones de sus modelos para comparación, cada uno con estrategias de tuneo diferentes. El método actual oscurece la incertidumbre e inhibe la mejoría. “Una vez que la gente sea más abierta, podemos hacerlo mejor”.

Esto, que parece más o menos oscuro, no tiene nada de marginal. Es la madre del cordero de la discusión del clima. Porque los modelos son la supuesta “prueba” de la alarma; lo único que hay a ese respecto. Y la prueba (imaginaria) que alegan es que no pueden modelar el clima conocido (1850 – 2016) sin que el CO2 no sea un gran problema. Pero se callaban que eso depende mucho del tuneo. Ahora parece que van a abrir ese manto de sombra. Dicen; proponen.

Judith Curry fue vilipendiada y tachada de “negacionista” por su paper The uncertainty monster [–>], en el que explicaba la incertidumbre introducida por el tuneo misterioso, y por las incertidumbres estructurales de los modelos. Ahora avisa:

Me pregunto si estos mismos modelistas del clima se dan cuenta de la lata de gusanos que están abriendo.

Pero mejor leerlo en su blog, entero:

 

Malcom Roberts es un senador australiano muy combativo contra las “políticas climáticas”. Y por tanto contra la ciencia que las soporta. No es exactamente fino, y dice bastante burradas que no se pueden sostener. Pero sí es un pesado; muy útilmente pelma. Y ha producido un momento público extremadamente ilustrativo para la discusión del cuento del Cambio Climático Acojonante.

Le pregunta en el senado al Dr. Alan Finkel:

En base a qué crees que el CO2 afecta a clima y debe ser cortado

Se refiera a cortar las emisiones, claro. Y la pregunta es lo mismo que preguntar por la prueba del cuento que se traen. Finkel es el Chief Scientist de Australia. Un cargo público [–>] cuya responsabilidad es asesorar al gobierno australiano en cuestiones científicas y tecnológicas. El vídeo, de dos minutos y medio, se puede ver en este [–>] enlace. Y la ventaja, aparte de la formalidad y la publicidad del senado, es que le pide una respuesta breve y concisa (no se ve en el vídeo). Finkel se enrolla todo lo que se atreve, pero supongo que no le daban mucho tiempo. Y deja muy muy claro lo que siempre intentan dejar incomprensible. Resumo la respuesta, quitando la paja (el nota podía haber usado 15 segundos en lugar de 150):

Creo que los principios son muy claros.

– Emitimos mucho CO2 y eso hace que esté aumentando su concentración en el aire. Lo medimos.

– Este CO2 extra “atrapa” calor, y eso produce un calentamiento por razones físicas. Lo medimos.

– El tercer paso es el impacto. El CO2 está aumentando y con él la temperatura. ¿Qué le hace eso al clima? Y esta es la parte donde se hace muy muy difícil. Ahora estás en el terreno de los modelos.

Y acaba con un gesto, como diciendo -eso es; ahí tienes. Este gesto:

finkel-y-la-prueba-del-calentamiento-global

Y ahí está el asunto con el que mienten como perros. Dicen que hay un “consenso” y suficiente “evidencia empírica” como para tener una “ciencia establecida”. Y es muy cierto en lo que respecta a los dos primeros puntos. Pero en esos dos puntos no han mostrado ningún problema. Un calentamiento suave y el CO2 extra fertilizando las plantas es como si te toca la lotería.

Las “razones físicas” por las que se sabe que el CO2 produce un calentamiento, también señalan que es un poco de calentamiento que no le puede preocupar a nadie. Lo hemos repetido hasta la náusea; para saltar de un poco de calentamiento a Houston tenemos un problema hace falta imaginar una amplificación fuerte del efecto de esas “razones físicas”. Y esa amplificación imaginaria nunca ha pasado del estado especulativo; no hay ninguna evidencia empírica de tal asunto.

Nota marginal: más explicación en: ¿Es razonable pensar que provocamos “calentamiento global” con el CO2? ¿Y que sea un problema?

Los modelos si producen esa amplificación fuerte, pero es que están diseñados (tuneados) para ello.

Hablemos ahora de los modelos. Los climatólogos críticos con la vaina del alarmismo señalan que los modelos van muy calientes, son irreales. Y si la realidad va más fría que los modelos, eso significa que no hay tal amplificación fuerte. O no es tan fuerte. Pero claro; con decir que los que hacen esas críticas son “negacionistas”, y mentir diciendo que están vendidos a Big Oil,  seguimos adelante con el cuento.

Vale, escuchemos a los alarmistas. Acaban de publicar un trabajo con la clara intención de mostrar que los modelos van muy bien. Roy Spencer explica cómo han elegido las series de datos que les favorcen (alguna convenientemente recién corregida), y olvidado las series de datos que les van mal. Además de algún truquillo guarrete que han usado. Aquí:

New Santer et al. Paper on Satellites vs. Models: Even Cherry Picking Ends with Model Failure

La comparación es en la troposfera media. Muy oportuna, porque es el lugar donde ocurre toda la acción del “efecto invernadero”. Y los autores, con Ben Santer y Carl Mears (el de RSS) a la cabeza, son de lo más alarmista que puedes encontrar en el mercado del alarmismo. Ninguna posibilidad de que pensar que tienen ganas de señalar problemas en los modelos.

Y esto es todo lo que consiguen.

Cuando tenemos en cuenta el impacto de enfriamiento estratosférico en la troposfera media (Spencer dice que está mal hecho) y cuando usamos las versiones más recientes de los datos de los satélites (Spencer dice que pasan de los globos sonda), el desfase anteriormente proclamado entre las tendencias simulada y observada del calentamiento se reduce a ≈ 1.7 [Comparing tropospheric warming in climate models and satellite data –>]

Traducido. Los modelos sólo exageran la realidad multiplicando el calentamiento x 1,7. O el calentamiento real sólo es el 59% del calentamiento imaginario. ¡Y esto lo dicen los alarmistas, haciendo toda la gimnasia que se han atrevido! Están contentos porque la misma medición llevada a cabo por sus críticos resulta en un exceso de calentamiento de los modelos de x 3.

Para acabar, pongamos contexto a ese 59% de los alarmistas. En el último informe del IPCC (2013) no se han atrevido a dar un calentamiento más probable, precisamente por el desacuerdo entre los modelos y la realidad. Entre las “distintas líneas de evidencia”, dicen literalmente — y llamando “evidencia” a los modelos. En el informe anterior (2007), el IPCC daba un calentamiento más probable por doblar el CO2 de unos 3ºC. Pues bien, el 59% de 3ºC son 1,8ºC. Cantidad que coincide mucho con los cálculos más recientes de la “sensibilidad climática”. Son cálculos por otros medios, usando modelos y la realidad en un plazo mucho más largo; 130 años en lugar de los 37 de los satélites. Y esos estudios son los que nunca ves en los periódicos, porque los alarmistas no quieren ni oír hablar de ellos.

El resumen gráfico que suelo poner:

Es muy sencillo; poco calentamiento no produciría ninguna alarma (en realidad es bueno, y más con el CO2 extra), y esta gente está en el mercado de la alarma. Vive muy bien de ese mercado.

Fuentes.

WUWT:

Sydney Morning Herald:

Roy Spencer:

Santer y compañia:

Vuestra humilde plaza: