Este pasado julio se han publicado dos trabajos científicos, reseñados en la plaza, que debieran cambiar la discusión del calentamiento global, cambio climático, o como le quieran llamar. Pero antes de explicar qué es lo que cambia,  tal vez convenga señalar dónde se han publicado. En las revistas de dos sociedades meteorológicas muy prestigiosas. El Boletín de la Sociedad Meteorológica Americana (BAMS), y la revista del Instituto Meteorológico Internacional de Estocolmo (Tellus).

bams

Tellus logos

Uno de los estudios se refiere a cómo se mide el calentamiento global. El otro a la confianza en los modelos climáticos. Confianza que tiene dos patas. La atribución a las emisiones de CO2 del calentamiento observado y la predicción de un achicharramiento futuro. O sea, estamos hablando de los tres elementos que forman el núcleo, la base del cuento del cambio climático. Enumerando.

  1. Calentamiento observado.
  2. Atribución al CO2 del calentamiento observado.
  3. Predicciones terroríficas.

Nota al margen: Que las dos revistas sean de sociedades de meteorólogos tiene su importancia. Se trata de mediciones, y de la fiabilidad de los modelos que se usan (para la atribución y para las predicciones). Y ese es justamente el campo natural de la experiencia de la meteorología.

1. Calentamiento observado.

El calentamiento se mide en tres sitios distintos, con tres procedimientos diferentes.

  1. El aire de superficie con termómetros, y con unas interpolaciones acojonantes para donde no hay termómetros.
  2. El aire a media altura de la troposfera, con satélites.
  3. La superficie del agua del mar, con una mezcla de termómetros de boyas y satélites diferentes de los anteriores.

Ninguna de las mediciones es ideal, y todas tienen sus problemas y compromisos. Y lo que es peor, resultan bastante incompatibles. Los termómetros de superficie miden mucho más calentamiento que los satélites, sobre todo en los continentes. La medición de la temperatura de la superficie del mar también da un calentamiento demasiado escaso para la teoría del Calentamiento Global Acojonante.

En el primero de los estudios en cuestión comparan esas mediciones en tiempo real con un reanálisis. El del Centro Europeo de Predicción a Medio Plazo [–>]. Que por una parte usa más datos meteorológicos, pero que no están disponibles en tiempo real, y modelos meteorológicos (vaya, los que sí funcionan) para corregir posibles sesgos en las mediciones. Además usan otras mediciones de temperatura que no pueden usar los sistemas citados, como las que toman los aviones.

Llegan a las siguientes conclusiones. Para saber el estado del sistema climático, por ejemplo el “calentamiento global”, lo mejor es usar o las series de la troposfera media (lo que llamamos las mediciones de satélites), o las de la superficie del agua del mar. E idealmente les parece que la mejor medida es la del reanálisis de la temperatura de la troposfera media.

Aparte de una serie de consideraciones meteorológicas, bastante obvias, como que en la superficie continental ocurren muchos cambios que no tienen relación con el sistema climático, encuentran que el reanálisis -que consideran una medición independiente- confirma mucho más las temperaturas de los satélites que las de los termómetros. Los números que dan para el resultado global son estos, desde 1979 (porque ya hay satélites).

cederlof-2016-reanalisis

Esto tiene una consecuencia muy clara en la discusión. Tanto los termómetros como los satélites observan mucho menos calentamiento que el que predicen los modelos climáticos. Pero esa diferencia es mucho mayor en los satélites. Por eso los alarmistas se están esforzando mucho en desacreditar las mediciones de satélites, y este estudio lo que hace es reforzarlas notablemente. Cederlof, Bentsson y Hodges no ponen esa diferencia en el estudio. Saben que todos los lectores (especialistas) la tienen en la cabeza. Pero yo os la recuerdo.

calentamientos-varios-y-modelos

La diferencia entre los modelos climáticos y lo que miden con termómetros de superficie está en el límite de lo aceptable (78%), pero en el caso de los satélites se sitúa en una diferencia completamente inaceptable (48%).

Nota marginal. Todas, pero todas todas esas noticias recurrentes sobre ¡¡¡récord!!! de temperatura, vienen de las mediciones de termómetros que estos meteorólogos consideran que no son las que sirven para saber el estado del sistema climático y el calentamiento global.

El trabajo:

 

2. Atribución del calentamiento al CO2.

IPCC (2013):

It is extremely likely [95 percent confidence] more than half of the observed increase in global average surface temperature from 1951 to 2010 was caused by the anthropogenic increase in greenhouse gas concentrations and other anthropogenic forcings together.

¿De dónde diablos sale ese 95% de confianza? ¡De los modelos! Los modelos reproducen muy bien ese calentamiento 1951 – 2010 usando el “forzamiento antropogénico”, y si los ejecutas todos ellos (son algo más de 20) varias veces, sólo un 5% de las veces reproducirían ese calentamiento sin que el “forzamiento antropogénico” no fuera culpable de -al menos- la mitad del calentamiento.

Problema. IPCC (2007):

If the model has been tuned to give a good representation of a particular observed quantity, then agreement with that observation cannot be used to build confidence in that model.

Y el segundo estudio que traemos versa justamente sobre eso; el tuneo de los modelos. Muestra que no está en absoluto documentado cómo y con qué criterios hace cada modelo su tuneo. Por ejemplo, para descartar los modelos que están tuneados para reproducir las temperaturas 1950 – 2010 como parte del 95% de confianza del IPCC en su alegre afirmación. Es peor; concluyen que ese tuneo es un … “de facto litmus test for climate models”.

The increase of about one Kelvin of the global mean temperature observed from the beginning of the industrial era, hereafter 20th century warming, is a de facto litmus test for climate models. However, as a test of model quality, it is not without issues because the desired result is known to model developers and therefore becomes a potential target of the development.

En muchos casos los modelistas dicen que sí, que reproducir las temperaturas del siglo XXI era un objetivo del modelo. Pero en todos los casos se puede sospechar que los modelistas saben qué parámetros arbitrarios favorecen ese resultado, y no van a hacer un modelo con una representación demasiado irreal del siglo pasado.

3. Predicciones terroríficas.

Es el mismo problema del punto anterior. Si la confianza en la predicción de los modelos viene de su capacidad de reproducir las temperaturas conocidas del siglo pasado, pero el modelo está tuneado para hacer precisamente eso a base de elegir los parámetros arbitrarios que conviene, la confianza es … ninguna. Porque puedes reproducir las temperaturas del siglo XXI con los parámetros equivocados. De hecho lo hacen, por ejemplo dando “sensibilidades climáticas” muy distintas, cuando sólo una puede ser la buena. El pasado queda igual, pero la predicción es muy diferente.

El trabajo:

 

Conclusión: Imagina cómo queda la discusión del cuento de clima si el calentamiento es como la mitad de lo que dicen los modelos, y la atribución del calentamiento al CO2 y las predicciones de achicharramiento salen … del tuneo de los modelos.

Los dos estudios en la plaza:

Y el primero de ellos en ca’n Curry, que no lo había sacado todavía: