sdut-ocean-warming

La historia tuvo mucho bombo de prensa, cómo no. Una nueva forma de averiguar el calentamiento de los océanos, a base de medir su degasificación. A mayor temperatura, pueden disolver menos gases. Y les resultaba que el calentamiento del mar era mucho mayor del que se pensaba.

princeton-ow

La idea de esta forma independiente de medirlo no era mala, aunque no la llevaron muy bien a cabo. El problema es que cuando impones consensos, todo el mundo aplaude los estudios que nos gustan, sin mirar mucho las entretelas. No vayamos a joder las “buenas” noticias. ¡Nos vamos a morir más rápido de lo que pensábamos! Así que ni los autores, ni los revisores de Nature,  ni ninguno de las docenas de científicos del “consenso” especialistas que leyeron el estudio, se dieron cuenta de los muy obvios errores que contenía. Tuvo que ser un muy vilipendiado “negacionista” el que llamara la atención sobre el asunto. Nic Lewis. Lo hizo en el blog de la no menos vilipendiada Judith Curry, pocos días después de la publicación.

De sus conclusiones:

Los hallazgos en el trabajo de Resplandy et al fueron publicados, con revisión por pares, en la principal revista científica del mundo. Con una gran cobertura de prensa. A pesar de esto, una rápida revisión de la primera página fue suficiente para levantar dudas sobre la exactitud de los resultados. Y bastaron unas pocas horas de análisis y cálculos, basadas sólo en la información publicada, para mostrar errores aparentemente serios (y con seguridad inadvertidos) en los cálculos subyacentes.

Nic Lewis es un científico amateur, y tardío. Amateur, en el sentido de que no cobra por los estudios que hace. Matemático, dedicaba a la estadística para el mundo de las finanzas hasta que, jubilado, se interesó el “cambio climático”. Especialmente en lo relativo a los cálculos de la “sensibilidad climática” (lo que calienta el CO2). Ya les había corregido algunas prácticas estadísticas a los profesionales del clima, y se había convertido en una especie de “grano en el culo”. Muy incómodo, porque nadie puede discutirle ni sus conocimientos matemáticos, en general muy superiores a los de los científicos académicos, ni el cuidado con el que trabaja. Ha publicado estudios con la flor y nata de los especialistas que se dedican al problema de la atribución del calentamiento al CO2. Y los últimos, mano a mano con Judith Curry. El efecto de su presencia en el mundillo del cambio climático ha sido rebajar notablemente los cálculos de lo que calienta el CO2. En los dos extremos del margen. Y eso es un fastidio enorme para los alarmistas.

En el caso de este estudio, Lewis señalaba dos problemas gordos. Que no se puede calcular la tasa de calentamiento como lo hacían. El uso de la estadística, no la parte física. Y que los márgenes de confianza que usaban eran totalmente irreales. De momento, los autores han reconocido esta segunda crítica.

Es un nuevo método prometedor, pero no hemos conseguido una buena precisión en el primer pase.

wapo-ow-2

sdut-ocean-warming

Los alarmistas están diciendo que todo es muy normal; que así es como la ciencia se va corrigiendo y avanzando. Y tienen toda la razón. Pero se olvidan de la parte en la que los “negacionistas” han sido necesarios para ese avance de la ciencia, porque ningún alarmista ha sido capaz de ver un problema que, según Lewis, era obvio en la primera lectura de la primera página del cacareado estudio. Ha sido necesario el prestigio de la “negacionista” Curry para llamar la atención, y el fino conocimiento del “negacionista” amateur Lewis para ver el problema.

¿Qué tal si aprendemos la lección, nos dejamos las floridas etiquetas y los insultos en casa, y reconocemos que la crítica no es una inmoralidad, sino algo necesario para un conocimiento de fuste?

Fuentes:

Resplandy et al 2018

Nota de prensa en Princeton University

Nic Lewis en ca’n Curry (1)

Nic Lewis en ca’n Curry (2)

San Diego Union-Tribune:

Washington Post:

 

 

 

 

 

Es el típico falso argumento de los alarmistas del clima.

¡El cambio climático (quieren decir calentamiento global) es incuestionable!

¿Y qué? Por eso nadie lo cuestiona.

¡Es culpa del CO2 (o la mayor parte, según el IPCC)!

¿Y qué? La cuestión es el calentamiento que puedes esperar. El que ha habido hasta el momento es muy bueno. Compara con el Támesis congelándose con frecuencia.

Y si le añades el efecto fertilizador del CO2 sobre la vegetación (reverdecimiento global), más que bueno es buenísimo.

¿Y en adelante? Depende de dos cosas. De cuánto efecto de calentamiento tiene el CO2, y de cuánto CO2 haya en el aire. La primera, la cuantificación de ese efecto de calentamiento, es la clave. Le llaman sensibilidad climática, y la métrica que usan es lo que se calentaría el clima al doblar el CO2 – y esperar que el sistema llegue al equilibrio. Por “clave” quiero decir que se pueden -tal vez- tomar medidas que afecten a la cantidad de CO2 en el aire futuro, pero su efecto viene dado.

Hay dos formas principales de calcular esa sensibilidad climática. Con los modelos climáticos, en los que varía en el rango de 2º – 4,5º; y con balances de energía, a traves del cambio de temperatura observado y asumiendo las entradas y salidas de energía del sistema (los “forzamientos”) del IPCC. Cálculos que vienen dando -los más recientes- entre 1,6º y 2º. Por mencionar dos destacados, Lewis y Curry 2014 (1,6º) y Otto et al 2013 (2º). Y por eso el IPCC (2013) dice que la sensibilidad climática más probable está entre 1,5º y 4,5º. También dice que no puede señalar una cifra concreta como de mayor probabilidad, como habían hecho hasta entonces, por la incompatibilidad de “las distintas líneas de evidencia”. Y es obvio; los resultados con los dos tipos de cálculo son poco compatibles.

ecs-modelos-observaciones

Pero no hay ningún motivo de peso para pensar que la respuesta a lo que calienta el CO2 esté dentro de ese rango (1,5 – 4,5) sumando ambos tipos de “evidencia”. (Pasemos por alto llamar “evidencia” a los modelos). Por muy amplio que sea el margen. Porque incluso los cálculos a partir de observaciones llevan dentro asunciones del IPCC que no están en absoluto garantizadas. La principal, que no hay variabilidad climática interna (no forzada) en plazos superiores a la década, o década y poco. Por explicarlo fácil: que sin volcanes y sin “guarradas antropogénicas” el clima no variaría en un plazo de varias décadas a siglos. Y eso es mucho asumir, y tiene mucha evidencia en contra. Aunque tampoco sea una evidencia muy fina.

Pero esta es una cuestión muy interesante que despeja Roy Spencer en su blog. ¿Cómo variaría ese cálculo de la sensibilidad climática con observaciones, usando otras asunciones? Por ejemplo, que del calentamiento observado, una parte sea antropogénica y la otra sea natural.

Usa, de los estudios con observaciones, el más prestigioso. Son 17 autores, todos muy renombrados, y la mayoría de ellos han hecho estudios similares. Solos, o con equipos diferentes. Incluso tiene un “negacionista” entre ellos. Nic Lewis, el del otro estudio mencionado con Curry.

La respuesta viene clara en este gráfico, que expresa la sensibilidad climática en función del porcentaje de calentamiento natural.

spencer-otto-nat-anthro

Si todo el calentamiento es antropogénico (la columna del 1.0), la sensibilidad climática sería 2.1º. Quiere decir que la tierra se calentaría 2,1º por pasar de 300 a 600 ppm de CO2. Y puedes hacer mucha gimnasia para plantear que eso eso es un gran problema, pero requiere mucho esfuerzo e insistencia. Y aun así no te va a creer mucha gente.

En cambio, si solamente el 60% del calentamiento observado es “antropogénico”, la sensibilidad climática sería de 1,1º con el cálculo de Otto et al. Y ni el más lacrimógeno de los alarmistas podría convencer a nadie de que eso sea un problema, y no una bendición.

Volvamos al principio, al argumento clásico de esta gente. Todos esos “papers” que miden lo del consenso. Basan el consenso en esta afirmación del IPCC (2013): La mayor parte del calentamiento desde la mitad del siglo XX es de origen antropogénico. Estos números de Spencer explican con clariad por qué la respuesta que merecen es: ¿Y qué? Ni siquiera con un 70% antropogénico presentarías algo que la persona sensata media pueda considerar un problema, ni de lejos.

Menos lobos, Caperucita.

Imagina que te digan:

Hace casi 40 años partimos de unos argumentos físicos puramente teóricos. Y con unos modelos llegamos a unas conclusiones muy indefinidas. Podíamos estar enfrentándonos, desde a un no-problema, hasta al fin del mundo. Pero en estos cuarenta años hemos acumulado una gran cantidad de datos, y es hora de que pasemos de la fase de creación de consenso a la fase de contraste de hipótesis.

¿Qué pensarías? Supongo que lo único que se puede pensar es que se trata de una ciencia completamente verde; que no se entiende qué diablos pintaba una creación de consenso ahí; y que alguien está proponiendo ahora hacer ciencia como en plan serio.

Pues ese es exactamente el caso. La ciencia es la ciencia del Calentamiento Global Acojonante, y la propuesta se ha publicado en noviembre en una revista del AGU de la mano de científicos señeros del ramo. Y el resumen del planteamiento que he hecho es bastante literal, aunque tenga cierta mala leche. La idea de pasar de la creación de consenso al contraste de hipótesis es, palabra por palabra, el titulo del tercer punto del trabajo.

Un paso atrás para situarnos. ¿Hay un problema con las emisiones de CO2? Depende de la respuesta a estas tres preguntas:

  1. ¿Cuánto calienta el CO2 que hemos emitido / vayamos a emitir?
  2. ¿Qué efectos tiene ese calentamiento?
  3. ¿Cuánto cuesta ese efecto, sea en términos monetarios o ecológicos?

Para tener un problema necesitas (1) una cantidad de calentamiento que (2) provoque unas consecuencias que (3) consideres como problema.

El truco, hasta ahora, era muy claro. No tenemos ni idea, ni siquiera de la primera respuesta. O la tenemos con un margen tan grande que cabe cualquier cosa. Pero precisamente porque cabe cualquier cosa, tenemos que dejar de emitir CO2 por si acaso. Literalmente, por no saber. Que manda cojones como argumento de una ciencia establecida. Y nada como tirarnos casi 40 años con la misma ignorancia, para conseguir mantener una alarma financieramente estupenda.

alarma-pasta

El trabajo que comentamos hoy afecta a esa primera pregunta.

Bjorn Stevens y tres más proponen cambiar de actitud. Vaya, ser serios. Si tienes un margen muy amplio para lo que crees que calienta el CO2, lo que tienes en realidad son hipótesis distintas. Y lo suyo es tratarlas como tales, y hacer con ellas un contraste de hipótesis. Examinar qué datos y condiciones son compatibles con cuáles de las hipótesis, y qué datos y condiciones refutarían a cuáles de ellas. Vaya; pensar con claridad.

Y proponen un esquema. Lo importante aquí, creo yo, es el planteamiento. Que, sorprendentemente, es totalmente novedoso entre “el consenso”.  Apuesto a que los detalles son discutibles, y se discutirán. Pero la idea misma (detalles al margen) es completamente indiscutible.

Está bien explicado en el estudio, y sólo lo veremos muy por encima. Mejor leer el original. Pero añadiré a mala leche unas anotaciones para situar a los “negacionistas” y a los “afirmacionistas”. Para que se visualice la formidable mentira que nos han estado contando con eso de los “negacionistas”.

La medición ortodoxa de cuánto calienta el CO2 es lo que llaman “sensibilidad” (climática). Las unidades son ºC al doblar la cantidad de CO2 y esperar al equilibrio. El “pattern effect” son distintas posibles distribuciones de temperatura en el globo que pueden hacer cambiar el balance radiativo, aunque la temperatura global media sea la misma. Los “negacionistas” defienden una sensibilidad baja, y los “afirmacionistas” alta. Así en general, los que son llamados “negacionistas” proponen 2ºC o menos.

Su planteamiento se resume en este gráfico:

narrowing-bounds-ecs-1

Detalles interesantes. La temperatura observada (el Calentamiento Global Acojonante observado) no es una condición de refutación ni siquiera de la sensibilidad más baja (<1ºC). Lo que traducido quiere decir que el calentamiento observado no es una demostración de problema futuro, ni de broma. Usando toda la teoría y el rollo mental del IPCC al completo (el trabajo está totalmente incardinado en el consenso).

Los elementos que consideran,  son:

– Forzamiento de los aerosoles, que supuestamente ha ocultado parte del efecto del CO2. Cuanto más negativo, mayor sensibilidad permite. (Dudoso)

– El “pattern effect” mencionado. (Dudoso)

– La temperatura de los trópicos en el anterior máximo glacial (hace 21.000 años). Cuanto más fríos estuvieran comparados con hoy, más sensibilidad permite. (¿¿??)

– La temperatura (o el “forzamiento”) durante el PETM (hace 50 millones de años). Cuanto más caliente (o cuanto menor forzamiento) mayor sensibilidad. (¿¿??)

– El efecto de realimentación de las nubes al calentamiento producido por el CO2. Cuanto más positivo, más sensibilidad.

Los aerosoles y el “pattern effect” permiten todas las posibilidades, menos una sensibilidad por encima de 4,5ºC .

La temperatura de los trópicos en el anterior máximo glacial pone en duda sensibilidades por debajo de 1,5ºC, según los autores. Pero échale un galgo a esa medición.

Lo mismo pasa con la temperatura (global) hace 50 millones de años. Varios galgos.

La realimentación que produzcan las nubes es la madre del cordero, y lo ha sido desde el principio. Es una discusión científica en curso, y fuerte, que eventualmente se podrá medir. Los autores no creen posible una sensibilidad negativa de las nubes, que apuntaría a una sensibilidad muy baja, pero está en discusión. (Realmente es *la* discusión).

Con los valores de probabilidad que le dan a esos elementos, sacan esta distribución de probabilidades de sensibilidad.

stevens-ecs-pdf

Destacamos lo mismo que antes. El calentamiento observado (rosa, Instrumental Record Only) permite ser tan “negacionista” como “afirmacionista”.

negacionistas-afirmacionistas-1

Son las demás cábalas, de las que “evidencia empírica” no hay ni media, lo que desproporciona el asunto hacia el lado de los “afirmacionistas”. Pero ni siquiera con eso se quedan los”negacionistas” sin terreno.

negacionistas-afirmacionistas-2

Y, muy en contra de lo que proponía IPCC en 2013, tiene una probablilidad comparable por encima de 4 que por debajo de 1,5.

El planteamiento tiene dos grandes virtudes. Por una arte apunta bien a lo que sería necesario estudiar para poder tener una idea real de la sensibilidad. (Otra posibilidad es que el “paradigma sensibilidad” sea completamente equivocado, pero no le vamos a pedir peras al olmo). Y finalmente destroza la estúpida y muy canalla idea de que los científicos del clima se dividen en “negacionistas” y “la ciencia”. Por ejemplo, no le ven ninguna pega a la sensibilidad calculada por Nic Lewis y Judy Curry, a los que el cafrerío alarmista llama “negacionistas”, “anti-ciencia”, y todos los insultos que se les ocurren.

Ya de paso, situamos también a Spencer y a Lindzen, y así tenemos a los tres de fuera del consenso que más han trabajado en el problema de la sensibilidad del clima.

narrowing-bounds-ecs-3

Paramos aquí. Ya está bien de rollo por hoy.

Bueno, un añadido matutino. Otra forma de ver la coña de los “negacionistas”. Este es el cuadro que presenta el IPPC sobre estudios de sensibilidad climática usando evidencia instrumental. El recuadro de puntos separa la zona “negacionista” de la zona “afirmacionista”.

ecs-instrumental-en-ipcc-ar5

Tiene su guasa. Ahí hay 20 autores o estudios. Los puntos marcan la sensibilidad que tiene mayor probabilidad en cada estudio. Y mirado por la más probable, ocho de esos veinte estudios serían “negacionistas” (40%), y doce “afirmacionistas” (60%). Pero los cafres del clima sólo les llaman “negacionistas” a aquellos cuyos estudios no producen “colas” gordas hacia la derecha, hasta los 3º, apuntando al menos a la posibilidad de un problema. Y eso muestra la obsesión del “afirmacionismo”.  Que no se niegue la posibilidad de un calentamiento preocupantemente fuerte con motivo de las emisiones de CO2. Casualmente, justo lo necesario para mantener una financiación extraordinaria destinada a esa especialidad. La ignorancia (por indefinición de la “evidencia”) como industria.

Time series of the number of publications that have the phrase “climate change” (left axis) or “global warming” (right axis) in the title. Data was taken from webofknowledge.com.

Fuentes.

AGU, Earth’s Future.

Blog Judith Curry:

IPCC, AR5 WGI Fig 12.2-1 (WGI cap. 12):

Wlater Hannah:

Lectura extra recomendada.

GWPF:

Recién salido del horno para el lector atento.

satelites-vs-garitas-clima-bengtsson

cederlof-et-al-2016

A mis amigos los periodistas pirrados por el argumento de autoridad. Mirad lo destacado en rojo. International Meteorological Institute in Stockholm. Y Lennart Bengtsson, que ha dirigido el European Centre for Medium-Range Prediction (1981-1990), y el Max Planck Institute for Meteorology después. Actualmente es Senior Research Fellow en el Environmental Systems Science Centre de la Universidad de Reading. O sea, Dios. Como Lindzen, pero más en plan de manos a la obra que teórico. Y el mismo prestigio profesional superlativo.

Y recordad esta frase del estudio (clic en la imagen).

It is therefore suggested to use either the more robust tropospheric temperature or ocean surface temperature in studies of climate sensitivity.

Son dos tipos datos de temperaturas que se caracterizan por tener menos calentamiento que los de superficie — esos que usáis todo el rato en los periódicos para gritar ¡récord! casi cada año. Y sobre todo se caracterizan por tener un calentamiento mucho menor que los modelos climáticos en sus respectivas áreas; aproximadamente como la mitad.

Lo muestra bien esta gráfica que tanto os perturba.

junio-2016-tem-global-uah-y-modelos

Resaltan los problemas obvios -pero que no suelen salir en vuestros periódicos- de los datos de termómetros de superficie. Problemas ajenos (o antes de) los aparatos. Meteorológicos, como efectos de la “capa límite” con inversiones térmicas agudas; antropogénicos, como la urbanización y otros cambios ambientales; y estadísticos, como la muy incompleta cobertura de termómetros que exige interpolaciones espaciales más que delicadas.

A la vista de esos problemas, el sabio meteorólogo descarta en principio los termómetros de superficie como medición útil del “cambio climático”, y de la “sensibilidad climática”, buscando una alternativa superior. ¿La hay? De eso trata este estudio; de evaluar las distintas alternativas que hay.

Nota marginal. Los científicos alarmistas climáticos habituales no suelen ser meteorólogos. Por ejemplo, Hansen es físico de fluidos; GavinSchmidt -su sucesor- es climatólogo y modelista climático; Trenberth, “Ciencias”; Mickey Mann, climatólogo y geofísico. Y los que conocen, predicen con acierto, y le toman las medidas al sistema climático, son los meteorólogos.

Para contrastar la validez de los datos de los satélites usan, aparte de los satélites, las mediciones de temperatura de los aviones (hay muchas desde que comienzan los satélites en 1979, y un reanálisis que conjuga esos datos con modelos meteorológicos (que sí funcionan). Controlan lo sesgos y problemas; consideran los satélites mucho más válidos que los termómeros de superficie; y establecen un producto o mecanismo de control independiente.

As part of the re-analysis process, the observational data undergo an advanced data bias control (Dee et al., 2011 and references therein). Satellite and aircraft data, assimilated by the re-analyses, have undergone systematic evaluation for the period after 1979, and we therefore believe that the re-analysis data can be considered as a reasonably independent robust source of tropospheric data (Simmons et al., 2014).

An alternative to using the tropospheric temperatures is to use sea surface temperatures (SSTs). The atmospheric temperature approximately 2 m above the ocean surface on average does not differ from the SST in a significant way, and temperature trends calculated over many years are expected to be the same as that of the SST.

Las explicaciones son fáciles de seguir.

Y la conclusión:

We therefore strongly suggest that tropospheric temperature trends from re-analyses should replace surface temperature trends in future climate validation studies. If we use the temperature trend of the layer 700–400 hPa or any other similar measure, instead of the surface temperature trend, then this is probably a better representation of the global tropospheric temperature and presumably a more robust quantity to assess climate change.

Los termómetros de superficie están exagerando mucho el calentamiento por causas ajenas al sistema climático — y al CO2.

Las consecuencias son dos. El Calentamiento Global Acojonante es mucho menor del que parece cuando miras en los lugares adecuados (troposfera media o superficie del mar). Y los cálculos sobre lo que calienta el CO2 que emitimos, si los hicieran mirando en los lugares en el que se muestra bien, darían una cifra sensiblemente inferior. De cajón; si el mismo CO2 ha causado notablemente menos calentamiento de lo que parecía, el efecto del CO2 es notablemente inferior de lo que creíamos. Pero es verdad que hay un problema con eso. Mediciones de temperatura con satélites sólo hay desde 1.979. Es poco tiempo para un estudio de sensibilidad climática. Aun así la ideas es clara. La alarma está muy exagerada; y podemos comprender las causas físicas de la exageración en una medida razonable.

Nota marginal. Los cálculos de sensibilidad climática mejores y más recientes ya se habían salido del rango de los modelos del IPCC. Por eso aumentaron ese rango en 2013. Antes la parte baja era 2º en vez de 1,5, y los cuatro últimos estudios estarían fuera.

Pero estos estudios del gráfico son con termómetros de superficie. El cálculo, según lo que dice el estudio de Cederlöf, Bengtsson y Hodges, debería resultar inferior usando una medición más adecuada. Y Bengtsson es Dios.

Este es el cuento de hoy.

Agradecimiento: Roger Pielke Sr. y Ryan Maue; dos clásicos. Pielke, además de meteorólogo también, es de los autores más citados en la especialidad. Por lo de la autoridad que les pirra a los periodistas, digo.

 

Parecerá broma el título, pero no tiene nada de broma.

Mira esta imagen. Viene de un vídeo del científico coordinador del experimento CLOUD que estudia las nubes en el CERN.  Kirkby. Y dice que hasta ahora creían que en la época “preindustrial” había menos nubes, porque la contaminación tiene partículas que hacen de “semillas” de las nubes, facilitando su formación y duración. En el mismo aire, con la misma humedad y temperatura, se forman nubes / niebla con mayor o menor facilidad dependiendo de la presencia de pequeñas partículas que hagan de núcleos de condensación del vapor de agua. Como de “semillas” de nubes. Y como en la época preindustrial no había contaminación, no debía haber partículas que hacieran de núcleos de condensación.

Yo no lo había oído hasta ahora, pero si lo dice Kirkby será así. Los chicos del clima son capaces de creer lo que sea; incluso que las nubes son un invento moderno,  propio del Calentamiento Global Acojonante.

El dibujo con el que lo expresa:

kirkby-cloud

¿La idea es clara, no? Antes de la época industrial había muchas menos nubes, porque no había tantas partículas en el aire que hicieran de “semillas” de las nubes. Calentología o ciencia posmoderna en estado puro. Si sólo conozco un mecanismo que cree “semillas” para las nubes, y ese mecanismo viene de la contaminación industrial, debe querer decir que antes de la industria había menos nubes.

En estos dos experimentos / mediciones nuevos han descubierto otro mecanismo, natural esta vez, que forma “semillas” para las nubes. Los “aromas” de las plantas y los árboles. Aerosoles biogénicos, en vez de aerosoles de contaminación.

kirkby-cloud-2

¿Y cómo afecta esto a la calentología, o climatología del CO2? Porque se trata de imaginar un efecto de calentamiento muy fuerte del CO2. Y ya ha habido un aumento notable del CO2. Desde 1.750, de 275 ppm a 400 ppm. Mirando ese cambio de temperatura respecto de ese aumento del CO2, se podría calcular cuánto aumenta el CO2 la temperatura. Si imaginas que la naturaleza no está haciendo nada por sí misma, o que crees que sabes lo que hace.

El problema es que haciendo ese cálculo no les resulta tanto calentamiento por el CO2 como les gustaría. Y entonces tienen un truco. Imaginar que otro proceso que ha acompañado al aumento CO2, como los aerosoles de contaminación, ha frenado parte del calentamiento que debería producir el CO2. Esas nubes extra del primer dibujo, que están reflejando la luz del sol, y enfriando la tierra. Disminuyendo -de momento- el efecto de calentamiento del CO2. ¡Pero ya verás tú en el futuro!

kirkby-cloud

Así puedes imaginar un efecto fuerte del CO2, sin necesidad de medirlo. No se nota (de momento), porque está oculto por el efecto de los aerosoles industriales en las nubes. Pero dentro de poco nos vamos a achicharrar, porque ahora somos más limpios y eliminamos mucho la contaminación.

Y esto del CERN fastidia un poco lo que habían imaginado. No, lo siento; ese freno u ocultación del efecto del CO2 es irreal, porque la naturaleza (bosques y plantas) ya producía nubes sin necesidad de fabricas modernas. Tienen que rebajar el cálculo teórico del efecto de calentamiento del CO2.

Se le pueden poner números. Este es el cuadro relevante del último informe del IPCC (2.013).

forzamientos-radiativos-ipcc-co2-nubes

Donde la idea es que el CO2 produce un efecto (radiativo, no de temperatura) de 1,68 W/m2, que está frenado por los aerosoles industriales en 0,55 W/m2. O sea, contando el freno imaginario de los aerosoles, serían 1,13 W/m2. Si sumamos el resto de los elementos dan 2,29 W/m2.

Ahora lo miramos respecto de la temperatura.

Según IPCC, 2,29 W/m2 han producido un aumento X de temperatura, que observamos.

Corregido por experimento CERN, serían 2,81 (2,29 + 0,55) W/m2 los que han producido el mismo aumento observado de temperatura.

Querría decir que hacen falta como un 20% más de W/m2 para producir la misma subida de temperatura. Lo que significa que el efecto del CO2 sobre la temperatura (y el de cualquier “forzamiento”) es un 20% menor de lo que venía pensando el IPCC.

Un poco de contexto. Los aerosoles y su efecto son una parte clave de la discusión. Se ve en el cuadro anterior que el mismo IPCC considera “bajo” su grado de certidumbre (conocimiento) sobre el efecto de los aerosoles. Es la forma edulcorada de decir: NPI. Incluso confiesan que bien podrían no tener efecto, como sugieren los dos estudios nuevos (el IPCC da un rango de -1,33 W/m2 a -0,06 W/m2).

En los últimos años (como desde 2012) ya habían rebajado el efecto que imaginan de freno al calentamiento del CO2, por los aerosoles. Y ese era el motivo principal de que los nuevos estudios sobre la “sensibilidad climática” (lo que se calienta el clima por doblar la cantidad de CO2) dieran resultados mucho más bajos. En la parte baja del amplísimo rango del IPCC. Como muestra el gráfico que solemos poner.

sensibilidad-climatica-ecs-estudios-ordenados-tiempo-2016

Y esto nuevo del CERN, que no conocían, les tendría que obligar a rebajar aun más el efecto de los aerosoles.  Y con ello la “sensibilidad climática” — y  por tanto el calentamiento que se puede esperar del CO2. ¿Será suficiente para salirse de la parte baja del rango del IPCC? Ya veremos, está emocionante.

Además, uno de los experimentos nuevos muestra un efecto notable de los rayos cósmicos en la formación de “semillas” de nubes. Tiene relación con lo de los “aerosoles biogénicos” (“aromas” de la vegetación), en el sentido de que los rayos cósmicos estimulan la producción de “semillas” de nubes por parte de los aerosoles biogénicos.  Y como los rayos cósmicos varían mucho, a menudo en relación con el sol, ya tienen un nuevo mecanismo de variabilidad natural del clima. Que, ni conocían, ni tienen en cuenta.

Dice Kirkby:

CLOUD has found that oxidised biogenic vapours produce abundant particles in the atmosphere in the absence of sulphuric acid. Previously it was thought that sulphuric acid – which largely arises from sulphur dioxide emitted by fossil fuels – was essential to initiate particle formation. We found that ions from galactic cosmic rays strongly enhance the production rate of pure biogenic particles – by a factor 10-100 compared with particles without ions, when concentrations are low

También dice Kirkby muchas otras cosas, como que a pesar de sus resultados nos vamos a achicharrar. Hace unos años hubo un pollo en el CERN, a partir del cual las comunicaciones del equipo del CLOUD pasan previamente el filtro del jefe del CERN. Se supone que para que el resultado se presente de forma políticamente correcta. Y desde entonces siempre hacen los comunicados con estos dos pasos:

  1. Lo que dicen los experimentos (menos lobos, Caperucita)
  2. Lo que hay que decir (nos vamos a achicharrar), pero que NO sale de los experimentos, sino de la imaginación del IPCC.

Se nota de cojones en el vídeo:

Tiene guasa el lenguaje. Cuenta Kirkby en el vídeo que, respecto a los modelos, las nuevas mediciones deberían “reducir ligeramente el calentamiento y mejorar el rango” (hacerlo menos amplio).

Vamos a tener calentamiento, pero lo que va a hacer el experimento CLOUD es afinar la predicción. Va a haber un calentamiento “considerable”, pero tendremos una predicción más precisa.

Y lo dice con sonrisa de niño malo. Imagina. Cambiamos la predicción del IPCC, un rango de 1,5ºC a 4,5ºC por doblar el CO2, por otra que diga -por ejemplo- entre 1ºC y  2,4ºC.  Y tendríamos los tres elementos que señala Kirkby con su sonrisa.

– Una ligera reducción del calentamiento. La parte baja del rango sólo bajaría 0,5ºC.

– Una predicción más precisa. La amplitud del rango más probable bajaría de 3ºC a 1,4ºC.

– Podría llamarse un calentamiento “considerable”. Por ejemplo, considerablemente bueno.

Pero en realidad ese sería un calentamiento completamente en la línea de los “negacionistas”. Porque lo que no dice Kirkby es lo importante. Que eso supone cambiar un presunto problema por un claro no-problema. Todo el discurso del alarmismo climático se basa en ese margen de predicción escandalosamente amplio, que llevan más de 30 años manteniendo exactamente igual [–>]. Lo del “principio de precaución”, porque podría ser muuucho calentamiento. Y saben de sobra que lo que permiten los datos es podar la parte alta del margen, porque es completamente especulativa.

Si este estudio fuera de los habituales con el clima, los alarmistas lo atacarían con furor. Porque ninguno vale una m**rd*. Ni los estudios alarmistas, ni los “escépticos”. Pero el CERN hace ciencia experimental de verdad, que no se pude contrarrestar con gimnasia especulativa. Así que se lo van a tener que tragar.

No va a ser ningún bombazo mediático. Es difícil de entender / explicar, y afecta a una parte relativamente pequeña (20%) y oscura de la discusión. Pero añadido a las otras rebajas que ya ha habido, y a lo escaso del calentamiento que se ve, puede ser muy relevante. Muy relevante para la ciencia, que en realidad sólo les importa a los “negacionistas”.

Enlaces:

Los estudios:

En la blogosfera:

Le llaman “sensibilidad climática” a lo que se supone que se calentaría la tierra por doblar la cantidad de CO2 en la atmósfera. Ya llevamos más de un 40% en lo de doblar el CO2, si contamos desde lo que llaman “época preindustrial”. El problema es que medir esa “sensibilidad climática” es muy difícil (si acaso posible), y hay resultados demasiado diferentes y con demasiado margen cada uno, en los muchos intentos que llevan hasta el momento.

Acaba de haber un encuentro mundial de especialistas:

La prensa es muy raro que mencione encuentros como este. Total, solo se trata de saber cuánto calculan los científicos que se calentará la tierra con el CO2 que emitimos. Y como no tienen el menor consenso al respecto, se conoce que no tiene gracia. No vayamos a pensar que puede que no haya ningún problema.

Por ejemplo, Google News muestra en todo su esplendor la falta de interés por parte de las empresas profesionales de información en saber si los científicos miden un problema, o miden un no-problema. ¿A quién le importan las mediciones de los científicos? Lo que queremos es opinión. Y a poder ser, la que toca.

Uno de ellos, Nic Lewis, está haciendo tres entradas en Climate Audit que me gustaría señalar. Sólo para mayores.

Pero ya aprovecho para poner unos gráficos aptos para todos los públicos, que me parecen de interés. Porque solemos decir que la calentología no avanza. Vamos a mostrar que sí — pero que no suelen publicitarlo.

Mini explicación. Para hacer ese cálculo usan tres procedimientos:

  1. Modelos climáticos solos. (Imaginación a poder).
  2. Modelos climáticos muy constreñidos por las temperaturas observadas en 150 años. (Imaginación + realidad).
  3. “Paleoclima” con “proxys”. (Realidad con un margen de error -en la medición- de infarto).

Los tres métodos son muy malos, pero no igualmente malos. Y tienden a dar resultados diferentes por grupos. Esto es, los datos de “paloeclimatología” unos resultados muy altos (¡miedo, miedo!); los resultados de los modelos solos un resultado como el que le gusta al IPCC (miedo, pero remotamente creíble); y los resultados de los termómetros apoyados en los modelos dan una cifras de calentamiento presumible que no le gustan nada a la tropa del IPCC. Por eso mantienen los dos métodos de cálculo que cualquier persona normal despreciaría de antemano. Modelos y “paleoT”.

Lewis se centra en los resultados de sacados de termómetros. Por seriedad. No en vano es el instrumento que se inventó para medir la temperatura. No la “temperatura global”, es cierto; pero es lo que más se acerca.

Una última nota. Solemos decir que la calentología no ha avanzado nada desde que se inventó [–>] . 36 añazoss tiene ya la tía. Y siempre con el mismo resultado para la “sensibilidad climática”. Un rango entre 1,5ºC y 4,5ºC de calentamiento por doblar la cantidad de CO2. No es un resultado cualquiera. Es muy inteligente. La parte baja del rango resulta suficientemente creíble para cualquier climatólogo -digamos- clásico, y la mitad superior es adecuada como para vender una alarma bastante guapa.

Quédese el lector con esta cifra. +2ºC. Es la frontera irrenunciable del alarmismo. Una sensibilidad climática que no supere eso, no produce una alarma vendible con facilidad. Por ejemplo, porque hablaríamos de una temperatura conocida por los humanos modernos en su breve estancia sobre el planeta. Hace unos 100.00 años, y hace unos 8.000 años. No se podría vender “sin precedentes”.

Ahora podemos ver los gráficos que saco de Lewis. Ya hay contexto.

El primero no es de Lewis. Está sacado de los datos de uno de los suyos. Quería ver el cambio en el tiempo del cálculo, para ver si hay o no hay avance. Y representa los cálculos de la “sensibilidad climática” basados en termómetros, ordenados por tiempo de publicación de cada estudio. A la izquierda los más antiguos. Abarcan desde 2002 hasta ahora. Los cuatro últimos (derecha) son de 2013 (2) y 2014 (2).

ecs-tiempo-lewis

Es evidente que la ciencia sí ha cambiado. Presumiblemente, avanzado. Pero no precisamente en el sentido que queremos. ¿Por qué no nos cuentan la buena noticia? ¡Pues por eso, porque es buena! La parte de abajo del rango del IPCC (rectángulo rosita) significa no-problema.

Alguien podría preguntarse por qué no reducen el rango. Si toda la parte de arriba del rectángulo esta vacía en todos los estudios más recientes, por qué no hacen un rectángulo (rango) más bajo? Por ejemplo, de 1,5ºC a 2,5ºC.

Pues porque basta con convencerse de que los termómetros no valen, y que son mucho mejor los modelos a pelo. O las estalactitas, etc, de “paleotemperatura”. Vaya, la magia.

Por si alguien tiene curiosidad, lo mismo, pero poniendo los años concretos de cada estudio.

ecs-estudios-anhos

Este otro gráfico, que sí es de Lewis, muestra la manera de ocupar la parte de arriba del rango del IPCC. ¡Con los modelos en libertad! Lo rojo.

ecs-mejores-lewis

Colorín, colorado, …

Enlaces:

Nic Lewis:

Añadido. Un gráfico sin especial significado, pero para ver juntos los datos clave. El CO2 al doblar su cantidad, la temperatura observada, y el rango de previsión de calentamiento del IPCC. Pero, y es un gran pero, ese rango (ECS) es para cuando el sistema se equilibra; no para cuando se alcanza el 2XCO2. Y siempre te pueden decir que tarda siglos en equilibrarse, o lo que convenga.

ecs-rango-ipcc-y-temperatura-global

Si ponemos lo mismo, pero para el rango de previsión de calentamiento más o menos inmediato (le llaman TCR), quedaría así:

ecs-rango-ipcc-tcr-y-temperatura-global

En “Calentología desde cero” [–>] vimos que, aunque no suelen decirlo, la calentología se basa en dos teorías diferentes. Ambas necesarias para producir una alarma.

1. La “teoría invernadero” -consolidada y generalmente aceptada por (casi) todos- que dice que si seguimos como hasta ahora, sin dejar de emitir CO2, calentaríamos la “temperatura global” en 1ºC – 1,2ºC para aproximadamente el año 2.100.  Esto no representa ningún problema, y muy probablemente representa un beneficio.

2. La “teoría de la amplificación”. Se trata de decir: vale, pero si el CO2 calienta un poco el aire en superficie (como 1ºC hacia el año 2.100), ¿cómo reaccionará el sistema climático? ¿Se quedará sin más con ese pequeño calentamiento debido al aumento del CO2, u ocurrirá que el sistema climático lo amplifica – (o lo disminuye)?

A esta (hipotética) amplificación o atenuación le han llamado “sensibilidad” del sistema climático. Que, como están obsesionados con el CO2, definen así: el cambio que se produciría en la temperatura global media por multiplicar por dos la cantidad de CO2 en el aire. Pero aunque usan el CO2 para la definición, en realidad sirve para cualquier “agente externo” que cause un cambio en el sistema.

Me gustaría señalar lo hipotético que es todo en esta segunda teoría. Hay muchos trabajos científicos que han pretendido estudiarla. Y en el último, todavía antes de revisión, y en discusión abierta, ponen ejemplos de trabajos anteriores, para señalar las diferencias. No son todos los que hay, pero el autor los debe de considerar los más significativos. Unos se basan en “proxys” de cambios climáticos muy antiguos, y otros en mediciones modernas, sean termómetros o satélites.

Conclusiones:

El muy amplio rango de valores de sensibilidad climática obtenidos de diferentes grupos de datos de paleoclimatología, termómetros o satélites, sugiere o unas condiciones de “feedbacks” (retroalimentaciones) muy cambientes para los distintos datos, o la existencia de factores adicionales más allá de los “feebacks” que afectan ahora a las temperaturas.

A mi también me sugiere la posibilidad de que los datos no sean tan estupendos como creen, y / o que la idea de la “sensibilidad” del sistema climático, como un número único y de relación lineal con los cambios debidos a “agentes externos”, sea en realidad un concepto completamente equivocado.

He cogido la tabla que ha hecho Lubos Motl [–>], ordenada de más a menos “sensibilidad” (en vez de por fecha de publicación), y le he añadido la columna [ºC Interv], para señalar los grados que hay en cada resultado entre el valor menor y el mayor. Y he puesto colorines para señalar de dónde viene cada estudio. Naranja proxys paleoclimatología, verde termómetros, azul satélites. No es de extrañar que los alarmistas se hayan enamorado últimamente de la paleoclimatología. Ni que lo sensatos se la sigan tomando con la poca seriedad que se la han tomado siempre. (Hablamos en estos estudios, en “paleo”, de temperaturas de hace centenares de miles de años, hasta millones de años).

Año Autor (es) Med. Intervalo ºC Interv C.L.
2010 Pagani et al. [8] 7 – 9 2ºC
2012 Dowsett [6] 4 – 8 4ºC
2012 Hansen, Sato con “feedbacks” lentos. 6 4 – 8 4ºC 66%
2004 Lea 5.2 4.4 – 6.0 1.6ºC 95%
2012 Rohling et al. 3.1 1.7 – 5 3.3ºC 66%
2007 IPCC AR4 3 2 – 4.5 2.5ºC 66%
2011 Annan, Hargreaves [3] 2 – 4 2ºC 95%
2012 Hansen, Sato sin “feedbacks” lentos. 3 2 – 4 2ºC 66%
2006 Forest et al. 2.9 2.1 – 8.9 6.4ºC 90%
2010 Kohler et al. 2.4 1.4 – 5.2 3.8ºC
2011 Schmittner et al. 2.3 1.7 – 2.6 0.9ºC 66%
2008 Chýlek, Lohmann [1.8] 1.3 – 2.3 1ºC 95%
2012 Gillett [1.55] 1.3 – 1.8 0.5ºC
2012 Lewis 1.3 0.8 – 2.1 1.3ºC 90%
2009 Douglas, Christy 1.1 0.0ºC
2012 Asten 1.1 0.7 – 1.5 0.8ºC 66%
2011 Lindzen, Choi 0.7 0.5 – 1.3 0.8ºC 95%

Una forma gráfica de verlo podría ser representar eso en distintas columnas, según sean datos de paleoclimatología, termómetros, o satélites. Y marcando -de medio grado en medio grado- los cuadrados donde hay al menos un estudio que da esa sensibilidad como resultado medio.

Donde, por debajo de recuadro del rango que da el IPCC estaríamos hablando de un perfecto no problema.

En resumen. No estamos hablando de la teoría del “efecto invernadero”, que (casi) nadie niega, ni hay grandes disputas sobre su cuantificación. Estamos hablando de otra teoría muy diferente. La de los “feedbacks positivos”, o gran sensibilidad del clima. O de esos cuadros de ahí arriba, y de no sé qué consenso que dicen que tienen el 97% de los “científicos del cambio climático”.

Nota: Hay algunos matemáticos que aseguran que los chicos del clima no tienen ni idea de lo que se traen entre manos, y que ni siquiera existe todavía una teoría matemática medianamente desarrollada para encarar el misterio al que se enfrentan. Por ejemplo: