modelos


Si tú ves Mann y Rahmstorf en el mismo “paper” ya sabes que tienes el circo asegurado.

“Hemos llegado tan cerca como se puede de demostrar una relación directa entre el cambio climático y una gran familia de extremos meteorológicos recientes”, dijo Michael Mann, distinguido profesor de ciencias atmosféricas, y afamado Fake Nobel (por escrito); así como inventor del truco para esconder el declive, y el falso palo de hockey que pretendía negar el cambio climático natural. “Falta identificar de hecho los eventos en los modelos climáticos”, añadió.

casi-llegan

Y ahí, en dos frases de Mickey Mann, tienes el cuento del clima en todo su esplendor. Los científicos de la movida tienen una meta que alcanzar. Pero no es la sana meta -motivada por la curiosidad- de saber cómo funciona el sistema que estudian, sino la de demostrar la relación entre el hombre pecador y todos los males imaginables. Y para colmo, no estudian el sistema real, sino los juegos de computadora que han creado ellos mismos como herramienta de asustar.

El truco va así. Por una parte se han fijado en unos cuantos extremos meteorológicos recientes. Como la ola europea de calor en 2003; las inundaciones de Pakistán en 2010; la ola de calor rusa de 2011; las de Tejas y Oklahoma de 2013; y los incendios de California en 2015. Y han econtrado (ya se sabía) que ese tipo de fenómenos suelen estar relacionados con ondulaciones más pronunciadas y persistentes del jet stream.

También dicen que esas ondulaciones potentes han sido más frecuentes recientemente. No dicen (creo) que entre 1950 y 1970 también vieron lo mismo, en una fase de enfriamiento global.

Y ahora llega la magia. En casi un setenta por ciento de “una combinación (docenas) de los aproximadamente 50 modelos climáticos” del grupo CMIP5, aumentaba, desde la época preindustrial, la distribución de temperatura que favorece la formación de esas ondulaciones exageradas del jet stream. Y el juego se llama concurso de popularidad entre modelos.

Pregunta: ¿van a tirar a la basura el más de 30% de los modelos de esa selección porque no dan la respuesta adecuada? No señor. Porque en otro experimento futuro, ante otra problema distinto, puede ocurrir que sean, precisamente los modelos que ahora no contestan bien, los que nos digan lo que queremos. Los que nos acerquen a esa meta que tenemos de demostrar que la culpa es del hombre pecador. Tenemos modelos para todos los gustos; los removemos, y ¡hops! sale lo que queremos. Por eso nunca descartan modelos. Por eso no hay modelos mejores que otros. No tienen selección natural, salvo los que claramente nunca van a dar la respuesta predeterminada en ningún caso.

Y luego te encuentras con que a los modelistas del cuento este resultado de abajo les parece muy bueno. (Es de otro tema distinto, pero es un ejemplo espectacular).

modelos-climaticos-y-realidad-tmt-trop-gavin-curry

Normal. ¿Han medido en ese estudio que los extremos meteorológicos sean más frecuentes o peores? No, no lo son. O al menos el IPCC, que también quiere demostrar lo mismo, no lo ha encontrado. Ni las compañías de seguros tampoco, y les importa mucho saberlo. La realidad no dice tal cosa. Pero como en casi el 70% de una parte de los modelos ocurren unas condiciones que favorecen los extremos climáticos, y a pesar de que bien pudiera tener la razón el más de 30% que dice lo contrario (o ninguno), resulta que hemos llegado lo más cerca que se puede a demostrar que tenemos que cobrarte un pastón. ¡Somos unos machotes!

Por cierto, en la primera frase hablan de “la actual sequía sin precedentes de California”. Realidad: en absoluto es sin precedentes, y ya se ha acabado para la fecha de publicación del artículo.

Fuente, WUWT:

 

La climatóloga Judith Curry acaba de publicar una pieza sobre los modelos climáticos y el uso muy inadecuado que se les da.

curry-climate-models

Resumen ejecutivo.

Hay considerable debate sobre la fidelidad y utilidad de los modelos climáticos. Este debate ocurre dentro de la comunidad de científicos del clima, que están en desacuerdo sobre el peso que se les debe dar a los modelos respecto de los análisis observacionales. Los resultados de los modelos se usan también por los economistas, las agencias reguladoras, y los responsables políticos. Los modelos han recibido considerable escrutinio de la comunidad más amplia de científicos, ingenieros, expertos de software, y filósofos de la ciencia.  Ese informe intenta describir el debate que rodea los modelos climáticos para un público educado pero no técnico.

Yo le veo un problema. Para el que ha seguido la discusión del cambio climático no tiene nada que no conozca, y pare el que empiece de nuevas puede ser un poco “duro”. Tal vez se puedan resaltar un par de puntos para tratar de esquematizar la línea argumental. Serían el uso que se les da a los modelos, y los problemas conocidos y muy obvios que tienen para ese uso.

Los modelos son herramientas útiles para tratar de comprender, muy a groso modo, el funcionamiento del sistema climático y las interacciones entre sus partes. O algunas de ellas. Pero se usan para atribuir la mayor parte del calentamiento observado desde 1950 al CO2, y para decidir qué problemas producirían las emisiones de CO2 en caso de continuar. El trabajo de Curry es un exhaustivo repaso de por qué no sirven para ninguno de estos dos últimos propósitos. Pero ni de lejos.

Sin ánimo de un resumen completo, los problemas por los que los modelos no sirven para averiguar esos dos aspectos clave de cara a las “políticas climáticas”, vienen de la forma de hacerse los modelos y de los resultados contrarios a las observaciones que producen.

Resultados. Con los modelos tratan de decir cuánto calienta el CO2 que se emite, y qué otros efectos causa ese calentamiento — como subida del nivel del mar, sequías, huracanes, o lo que sea. Pero eso se puede tratar de averiguar también observando el calentamiento y el aumento del CO2 que ha habido, sumado al resto de elementos que influyen en el clima. Y los dos procedimientos producen resultados muy distintos. Si ponemos los estudios observacionales más recientes comparados con el rango de los modelos, podemos verlo en este cuadro.

ecs-estudios-recientes

De los estudios observacionales sólo hemos puesto el valor más probable. En su distribución de probabilidades se meten más dentro y más fuera del rango de los modelos. Como esto (faltan algunos, que no tengo):

Los CMIP (en naranja) son los modelos. Los azules, los cálculos con observaciones. Y Curry explica que la parte alta de los estudios que se reflejan ahí ha quedado desfasada por recientes estudios (Stevens 2015) sobre uno de los elementos que toman en consideración. El efecto de los aerosoles. Y todos deberían revisar a la baja su resultados en la parte superior. El único que lo ha hecho es Lewis, y queda así con la raya azul marcando el límite superior (95%).

lewis-usando-stevens

Son resultados incompatibles los de los modelos y los de las observaciones. Y por eso el último informe del IPCC (2013) se limitó a proporcionar un rango (1,5 – 4,5), sin poder dar un valor más probable — como tenía por costumbre. Explica que es por la discrepancia entre “las distintas líneas de evidencia”, donde “evidencia” son las observaciones … ¡y sobre todo los modelos!

El “tuneado” de los modelos. Explica Curry, con las citas oportunas, que los modelos tienen un motón de ajustes arbitrarios, cada uno distintos. Y su capacidad para reproducir (más o menos) las temperaturas del siglo XX no viene de su calidad, sino de la selección oportunística de un conjunto de ajustes. Pero entonces la atribución del calentamiento de la segunda mitad del siglo, y del futuro calentamiento, es una broma. Tienes un resultado (mas o menos) adecuado porque ya sabías las temperaturas que tenías que reproducir, y tienes ajustes a la carta para hacerlo. Pero puedes haberlo conseguido usando las razones equivocadas. Y eso no te hace saber lo que pasará en el futuro, ni la causa de lo que observas.

Problema gordo: Estos modelos, que obviamente exageran (Curry dice que como X2) el calentamiento del CO2, son los que usan los economistas para que luego los políticos hagan las leyes. Y todo parte de una manzana podrida.

Este es, más o menos, el resumen de la línea argumental. Hay muchos más detalles, por supuesto.

¿Cómo responden los alarmistas a la crítica de los modelos? Como siempre. Con la carallada de que es la mejor herramienta que tenemos. Pero eso no te dice ni que la herramienta sea buena, ni que sea adecuada. Un ejemplo de discusión en Twitter:

curry-twitter

Son unos jetas. No hay más que abrir los ojos para darse cuenta de que el clima (global) es mucho mejor en los siglos XX/XXI que en los siglos XVII/XVIII. Y, por ejemplo, la subida del nivel del mar que citan lleva subiendo al mismo ritmo inocente desde mucho antes de los “efectos antropogénicos” en el clima.

¿A quién le ha preocupado jamás la subida del nivel del mar de 1900 a 1960? ¡Pues es la misma que de 1960 a aquí! Y el mamón alarmista lo sabe de sobra, pero lo usa aunque no tenga sentido.

Nota: Los gráficos no vienen del trabajo de Curry, pero es de los estudios que habla y se ve mejor.

Fuente, The Global Warming Policy Foundation.

 

Este es uno de los asuntos más extraños, y -para mi- una de las mayores demostraciones de la falta de seriedad de esa que llaman ciencia del cambio climático. Imagina que el siguiente gráfico representa dos predicciones distintas sobre la evolución de una variable hasta fin de siglo.

global-warming-and-peak-oil

¿Qué dirías? Probablemente que se trata de una broma. O una de las predicciones es una coña, o ambas.

Pero te explican que las dos predicciones están basadas en “la mejor ciencia disponible”, teniendo en cuenta toda la literatura científica más actual publicada. En cuyo caso supongo que puedes sugerir que “ciencia” y “ciencia” no es lo mismo, si no distinguimos entre ciencias maduras, de resultados contrastados, y ciencias muy verdes y en un estado esencialmente especulativo. Pero te van a fastidiar, porque te dirán que se trata de “ciencia establecida”.

– Déjese de bromas. Ciencia “establecida” es la que acierta consistentemente las predicciones, y esas dos predicciones no pueden acertar ambas. Ni siquiera mirando el resultado hartos de grifa.

Expliquemos lo que se ve en el gráfico. Dos curvas que representan las emisiones humanas de CO2 en el tiempo, si no hacemos nada para disminuir las emisiones de CO2. Vaya, si no nos portamos bien.

La azul es histórico (medición) hasta 2015, y predicción de un “escenario” del IPCC a partir de ahí. Es el escenario que venden como “business as usual”. Van sumados todos; petróleo, gas y carbón. Con la mejor ciencia que tenemos a nuestra disposición.

La naranja es otra predicción, desde 2015, de lo mismo. Con una diferencia; trata de averiguar cuánto CO2 se puede emitir, sin cortarse, pero con una idea realista de las reservas que hay y las que se pueden encontrar, y los avances en la extracción “no convencional”. Publicada en un estudio reciente (Wang et al 2016), que ha recopilado la literatura científica desde el año 2000, para tener en cuenta los hallazgos y posibilidades de los yacimientos “no convencionales”. El fracking y tal. También es con la mejor ciencia que tenemos a nuestra disposición. Pero el resultado no tiene nada que ver con la anterior “mejor ciencia”. Son dos “mejores ciencias” muy muy distintas.

Y el problema no es una cuestión académica remota. Una predicción dice que en 2100 estaremos emitiendo 28 GtC en CO2; y la otra dice que serán 7 GtC, con un pico en 2034 de 11 GtC. Y si tenemos en cuenta que el Calentamiento Global Acojonante depende básicamente del CO2 que se emita, de 28 a 7 hay un factor de 4.

Vamos a ver qué quiere decir eso en temperatura, en el mundo del IPCC, y de forma muy gráfica. Repito, mundo IPCC, con una teoría que hace agua por todas partes, y unos modelos que sabemos que exageran de largo el calentamiento. Pero se trata de saber la diferencia en temperatura entre una predicción con la mejor ciencia disponible, y otra predicción también con la mejor ciencia disponible.

El primer gráfico venía de la digitalización de la figura 2 de Wang et al 2016. Represantando sólo las dos curvas de interés, que aquí van resaltadas.

global-warming-peak-oil

A señalar. La predicción de Wang (la curva verde) está entre las dos azules de puntos, más cerca de la azul clara. Son los “escenarios” del IPCC llamados RCP6.0 y RCP4.5. Y está mucho más cerca del escenario bajo, el RCP4.5. Estos “escenarios” 6.0 y 4.5 suponen diversos grados de portarse bien. De reducir emisiones con muchas leyes de Obama. Pero los que miran los combustibles fósiles que hay, y los que puede haber, en un ejercicio igual de imaginario que el del IPCC, dicen que nos vamos a portar así de bien sin que hagan falta leyes ni Oabamas. Vale con Trump.

Miremos los escenarios del IPCC, y su CO2 y temperatura. Hasta 2300, y así nos preocupamos de los nietos de los nietos de los nietos.

rcps-a-2300

La diferencia entre la predicción de combstibles fósiles infinitos y la predicción con la mejor estimacion de sus existencias es, en 2100, de 3,2ºC de calentamiento respecto de hoy, a 1,65ºC. Y en 2300 la diferencia es de 7,1ºC, a unos 2,5ºC.

Nota. Ese escenario del IPCC, de emisiones a tutiplén, no se lo cree ni Obama [–>]. Pero es lo que siempre usan en la prensa y en los estudios impactantes cuando oyes barbaridades de lo que subirá el nivel del mar, y lo que se achicharrarán los pájaros y las flores.

Por supuesto, estas cifras de calentamiento en los escenarios del IPCC similares a lo que permiten las existencias imaginables de combustibles fósiles, son también muy exageradas. Mucho. Usan los modelos climáticos de chichinabo y miedo. Pero Willis Eschenbach ha hecho un trabajo muy interseante en WUWT, aplicando la literatura reciente sobre lo que calienta el CO2 usando observaciones reales — y por lo demás toda la teoría y asunciones del IPCC. Es a su vez también la “mejor ciencia disponible”. Con un resultado tan diferente como venimos viendo en los anteriores casos. Aun mucho mas bajo (menos calentamiento).  En concreto, un máximo de 0,6ºC de calentamiento en 2100 usando esos cálculos de forma convencional, y hasta 0,8ºC aplicando las muy discutibles “mejoras” que le han metido los alarmistas de la NASA a los cálculos convencionales. Un rollo muy novedoso que pretende que los vatios del CO2 valen distinto que los demás vatios.

Willis en WUWT:

Cuando te digan que se trata de una “ciencia establecida”, y “la mejor ciencia disponible”, ya sabes lo que quieren decir. Nada. Es un vacile.

Fuentes:

Wang et al 2016:

Riahi et al 2011:

Eschenbach en WUWT:

IPCC:

Larry Kummer (editor de Fabius Maximus) en Ca’n Curry:

Y un mensaje:

parte_nones-mensaje

critica-bastarda

Este es, presumiblemente, el mejor momento para los alarmistas del clima en la próxima década y media. En 1998 hubo un El Niño muy fuerte, y en 2016 también. Y el siguiente, si se mantiene la misma pauta (1983, 1998, 2916) será en poco más de quince años. Como esos El Niño muy fuertes le pegan un notable subidón a la temperatura global, es el mejor momento para que parezca que los modelos climáticos no van sobre-calentados. Lo vemos en el gráfico que presenta Hawkins, en el que destacamos (amarillo) los dos últimos Niños muy fuertes.

hawkins-modelos-termometros-el-nino

CMIP5 (los grises) son los modelos.

La raya negra vertical discontinua que dice Historical <-> RCPs separa la parte de predicción (derecha) de la parte en que los modelos están tuneados para reproducir las temperaturas medidas (izquierda).

El cuadrilátero rojo rayado es la apuesta de predicción del IPCC en 2013, por el procedimiento de “expert opinion”. Muestra que el IPCC no se cree mucho los modelos, y rebaja su calentamiento. Al punto que si no hubiera ningún calentamiento  entre 2005, cuando empieza la predicción, y 2030, el IPCC diría que esa falta de calentamiento es perfectamente consistente con su predicción de Calentamiento Global Acojonante. Lo mostramos con la raya amarilla

hawkins-sin-calentamiento-2030

Todo esto va referido a las observaciones con termómetros de superficie. Sin tocar ni de lejos las observaciones desde satélites, que son básicamente incompatibles con el cálculo de temperatura global a partir de los termómetros.

Aun así, estos gráficos de Hawkins, que siguen la pauta del IPCC, tienen un truco que no se puede olvidar. Si el Calentamiento  Global Acojonante empezó entre 1975 y 1980, por qué empiezan el gráfico en 1985, y usan 1986 – 2005 como período de referencia? El efecto de esa elección es unir las dos series (modelos y observaciones) hacia la mitad del período de referencia (1995), y así disimular la diferencia acumulada entre ambas desde el principio del Calentamiento Global Acojonante.

Steve McIntyre lo expresa con este gráfico, al que también le añade los satálites. Y explica:

AR5 reference period 1986-2005 is a graphic “trick” which hides cumulative discrepancy since 1979. Perspective w 1979-90

mcintyre-models-observations-2016

El gráfico izquierda es satélites, y el derecho termómetros de superficie.

O el gráfico que solemos poner aquí, con medias de cinco años en lugar de anuales, satélites (azul) y modelos climáticos (rojo):

También se puede expresar en números, que Hawkins no hace. Tendencia lineal 1979 – 2016 expresada en ºC / década.

 

Fuentes:

Climate Lab Book:

Ed Hawkins en Twitter:

Steve McIntyre en Twitter:

dilbert-climate-models

Scott Adams, el autor de Dilbert, ha estado azuzando la discusión del Calentamiento Global Acojonante desde su blog [–>]. Donde azuzar tiene el significado DRAE: incitar a los perros para que embistan.

Niega conocer el asunto como para juzgarlo, alegando que no tiene los conocimientos necesarios. Pero al mismo tiempo asegura que sí sabe mucho sobre persuasión -que no tiene por qué estar relacionada con la realidad- y que le parece mas persuasiva la argumentación de los escépticos. Lo hace de una forma bastante cachonda.

Desde el punto de vista de la persuasión, y basado en lo que he visto, la gente que dice que los modelos no son fiables es mucho más convincente que la gente que cree que los modelos son fiables. Pero la persuasión no está siempre conectada con la verdad. La verdad del cambio climático no está enteramente disponible para mi, dada mi falta de conocimiento y formación en los campos relevantes. De momento me sitúo con el consenso de los científicos, lo que me pone en el lado débil del juego de la persuasión en este debate. Mi equipo realmente necesita ayuda.

No hace falta explicar el rebote que tienen todos los alarmistas del clima con un planteamiento de este tipo. La operación Dilbert ha sido de una sutileza mayúscula. Porque, sin plantearlo expresamente, ha situado la discusión en su punto justo. Que es justo el punto del que los alarmistas la quieren sacar. La credibilidad de los modelos. Y Adams ha conseguido que todo *el* problema sea exclusivamente esa. ¿Son creíbles los modelos?

Al entrar los alarmistas a ese trapo, han confesado indirectamente lo que siempre tratan de ocultar. Que no tienen ninguna evidencia empírica, y que toda su “ciencia” y alarma está basada en unos modelos de credibilidad más que discutible. Cierto, plantean que los modelos sí son creíbles. Pero al no tener nada más que presentar, han dejado desnuda la realidad; que todo depende de esos modelos. Y esa es una discusión muy muy delicada. Como dice Adams, con muy mala pinta para los alarmistas.

A modo de homenaje a Dilbert, ofrezco otro argumento sobre la falta de credibilidad de los modelos. Porque no lo he visto en la kerfuffle que ha montado Scott. Siempre vemos representado el resultado de los modelos en anomalías. O sea, en la variación de temperatura de cada modelo, con independencia de a qué temperatura esté circulando. Pero la diferencia de temperatura absoluta (no de variación de temperatura) entre los distintos modelos llega a tres grados.

desparrame-modelos-climaticos

Tres grados es casi la diferencia que hay entre una tierra en estado de glaciación, y la nuestra. Y los procesos de los que depende el efecto de un forzamiento como el del CO2, el que el sistema climático amplifique más o menos ese efecto, dependen de la temperatura. Por ejemplo la evaporación, las nubes, y la lluvia. O el albedo (reflejo) de la nieve y el hielo.

O sea, cuando hablemos de modelos, y de su credibilidad, nunca olvidemos esto:

dilbert-climate-models

Una nota al margen. En el enfado de los alarmistas, menosprecian a Adams señalando que es un dibujante de comics. Al parecer olvidan que el estudio / payasada del 97% de consenso en el que siempre se basan, estaba dirigido por … ¡un dibujante de comics!

Fuentes:

Judith Curry:

Scott Adms:

Los alarmistas del clima están mostrando ahora comparaciones de modelos climáticos y realidad con mucha afición. Por ejemplo:

Que si ponemos el gráfico sólo, es esto:

modelos-realidad-superficie

Y parece que los modelos van de cine. Las mediciones de termómetros de superficie van justo un poco por encima de la media de los modelos. Y se ve muy bien por qué hasta hace poco (como 2012  – 2014) no les gustaba comparar los modelos con la realidad. ¡Porque la realidad se estaba saliendo del margen de los modelos!

modelos-realidad-superficie-2

El truco es que ahora acaba de haber un El Niño de los fuertes (como el de 1998), y eso sube espectacularmente la temperatura global.

el-ninho-34

En la media de los modelos no se refleja El Niño, porque como no se puede predecir, cada uno lo tiene en un momento diferente (si es que lo tiene) y en el promedio desaparecen. Y entonces, si quieres hacer una comparación modelos realidad, o no la haces en el momento de El Niño, o comparas dos situaciones en El Niño de similar fuerza.

Destacamos los dos Niños fuertes (1998 y 2016), y vemos cómo el de 1998 se salía del margen de los modelos por arriba, y el de 2016 se queda poco por encima de la media.

en-modelos-realidad-superficie

¿Eso quiere decir que los modelos van muy bien, o querrá decir que van francamente más calientes que la realidad? En todo caso habrá que esperar unos pocos años a que se estabilice después del arreón del El Niño.

Nota: El “escenario” de los modelos que usa el gráfico (RCP 4.5) es de muchas menos emisiones que las que hay, pero en 2016 no se nota todavía en la temperatura. Es para emisiones futuras.

Y luego hay otra cuestión importante. Lo que miden con termómetros y con satélites está empezando a ser incompatible. O los termómetros están midiendo efectos no climáticos (por ejemplo, urbanización), o sus ajustes y correcciones son un cachondeo, o hay algún problema con los satélites. O hay un problema con el entendimiento del clima. Porque un calentamiento debería notarse más en la altura a la que miden los satélites, y las mediciones dicen lo contrario.

En principio, la medición desde satélites es mucho más adecuada. Porque están midiendo algo global (las garitas de termómetros nunca se pensaron para eso) y porque el “efecto invernadero” ocurre en la troposefra a media altura – y de ahí se traslada hacia abajo.

Según los satélites, vemos esta comparación modelos / realidad.

modelos-realidad-satelites-2

Este es el gráfico que solemos poner, con una media de cinco años – que es lo típico para ver una tendencia sin demasiado vaivén. Pero le podemos añadir la media anual (en rosa) para hacer lo mismo que el gráfico de los alarmistas.

modelos-realidad-satelites

También podemos señalar los dos El Niño fuertes:

modelos-realidad-satelites-3

En este caso los modelos usan el escenario de emisiones más alto (RCP 8.5), pero ya digo que todavía no hay diferencia entre los distintos escenarios. Son para el futuro.

Resumiendo. Termómetros de superficie y satélites están empezando a contar películas diferentes, incompatibles. Los dos van más fríos que los modelos. Los satélites, mucho más fríos.

 

Judith Curry nos trae un nuevo “paper” en Science, y lo comenta. Lo mejor probablemente es leerlo allí directamente:

Pero voy a intentar explicar la importancia del asunto para los que no han seguido a fondo la discusión hasta ahora.

Imagina que tienes un sistema físico cuyas leyes conoces. Por ejemplo una olla llena de agua, con un volumen determinado. Y que está afectado por unos factores externos que también conoces. Por ejemplo, fuego por debajo, de mayor o menor intensidad; y una tapa por arriba, más o menos cerrada. Y puedes predecir: con el mismo fuego, si cierras más la tapa, el agua se calentará.

olla-al-fuego

En ese sentido, la teoría del Calentamiento Global (Acojonante) es no polémica.  Y lleva siendo no polémica desde -por lo menos- Guy Callendar, en 1937. Sólo que entonces no era Acojonante [–>]. El CO2 que emitimos es como cerrar un poco la tapa. Algo tiene que calentar. El problema está en averiguar si ese “algo” es:

  • Inapreciable
  • Un calentamiento suave y beneficioso
  • Un calentamiento moderado de consecuencias discutibles
  • Un calentamiento Acojonante.

Nota: Lo de que un calentamiento suave sea beneficioso también debería ser no polémico. La así llamada “temperatura pre-industrial” es una temperatura mala, por demasiado fría.

En esa “temperatura pre-industrial” el Támesis se helaba (a veces también el Ebro), y se perdían las cosechas por el frío. Este cuadro de Gabriel Bella es Venecia en 1708.

venice_frozen_lagoon_1708-gabriel-bella

Es obvio; el problema es saber cuantificar ese “efecto tapa” del CO2. Porque dejar de emitir CO2 es -de momento- carísimo; nos empobrecemos. Mucho. Y porque ese empobrecimiento podría suponer evitar algo inapreciable, que sería una estupidez; o incluso evitar algo bueno, que sería una canallada.

Aunque el problema parece fácil (la temperatura es una función del calor que entra menos el calor que sale), en realidad no lo es. Esa cuantificación no es fácil, porque la temperatura de la olla no era constante antes de que moviéramos la tapa. Había otras cosas que cambiaban la temperatura antes de nuestras emisiones, y que siguen operativas. ¿Variaba el fuego? ¿Variaba la tapa por si misma (sin ayuda nuestra)? ¿Variaba la temperatura externa o el viento, haciendo cambiar la temperatura del agua de la olla? ¿Variaban las paredes, emitiendo hacia afuera más o menos calor? ¿Variaba el líquido de dentro — por ejemplo algo revolviendo el agua a mayor o menor velocidad?

Nota: Estas variaciones que pueden afectar a la temperatura es lo que llaman, en la jerga del cambio climático, forzamientos.

Aunque hayas visto que la temperatura ha subido un poco, no puedes saber cuánto es por el ligero cierre de la tapa, y cuánto es por las demás cosas – de las cuales unas conoces y otras no. Resumiendo: No hay forma de saber el calentamiento achacable al ligero cierre de la tapa si no sabes lo que hubiera cambiado la temperatura en ausencia de ese ligero cierre.  O sea, no puedes conocer el cambio climático antropogénico si no conoces el cambio climático natural. Esto también es algo no polémico.

Y aquí es donde entran en juego los modelos climáticos. En teoría, un procedimiento muy bonito y muy limpio. Metemos leyes conocidas de la física en unas fórmulas, y nos resulta una temperatura. La diferencia que hay entre incluir el efecto directo del CO2 extra (la física radiativa del CO2, que es conocida) y no hacerlo, nos da el efecto total de ese CO2 que estamos emitiendo. Y sería cierto si fuera verdad; pero no lo es. Porque no meten sólo física conocida. Muchos de los forzamientos, de los que hablábamos antes, no son muy conocidos. Y mucha de la física conocida no la pueden resolver los modelos; les falta potencia en órdenes de magnitud. Y siempre les va a faltar – es el problema del sistema caótico. Así que en vez de resolver las ecuaciones, las parametrizan. Y el conjunto de esos ajustes, los forzamientos no conocidos que ponen más o menos a huevo, y las parametrizaciones, son el famoso tuneo del que no hablan casi nunca.

Y no se trata de que el tuneo sea necesariamente tramposo. Puede ser hasta inconsciente. Si con unos ajustes el modelo produce unas temperaturas del pasado (conocidas) absurdas, lo descartan. Y no lo publican hasta no tener unos ajustes que parezcan razonables, y den unas temperaturas del siglo XX parecidas a la realidad. El problema está en “parezcan razonables”, porque es algo que depende de lo que tengan en la cabeza antes de hacer los ajustes.

Volvamos al caldero de antes.

olla-al-fuego

Puedes decidir que los humanos, además de haber cerrado un poco la tapa (eso calienta), también estaban revolviendo el líquido con una cuchara (eso enfría). Y dependiendo de la velocidad con que lo hicieran, enfriaba más o menos. Pero no sabes cuánto. Y puedes obtener la misma temperatura a base de un efecto muy fuerte de cerrar la tapa, contrarrestado por un revolver rápido; o a base de un efecto suave de cerrar la tapa, contrarrestado suavemente por una cuchara lenta. El resultado es el mismo, la misma temperatura, pero el efecto de cerrar la tapa es muy diferente. Y el efecto de cerrar la tapa es justamente lo que querías saber. Para tratar de imaginar lo que hará en el futuro. Pero depende de la parametrización de la cuchara, si es un cálculo, o del forzamiento que le adjudiques si es un forzamiento.

Ahí está el quid. ¿Conocemos y podemos comparar esos tuneos para saber (1) que se han hecho con “prejuicios” en los dos sentidos, y (2) cuáles dan un resultado mejor?

Los modelos climáticos reproducen todo lo que pueden aplicando las leyes de la física en cajas imaginarias de decenas de kilómetros de lado. Pero algunos procesos, como la formación de nubes, son de grano demasiado fino para eso, y los modelistas usan “parametrizaiones” intentando aproximar estos efectos. Durante años, los científicos del clima han tuneado sus paremetrizaciones para que los modelos coincidan en general con los registros climáticos. Pero, temiendo críticas de los escépticos del clima, han estado largamente mudos sobre cómo tunean sus modelos, y por cuánto.

Eso viene del abstract. Dentro lo desarrolla más.

Durante años, los científicos del clima han estado mudos en público sobre su “salsa secreta”: Lo que ocurría en los modelos se quedaba en los modelos. El tabú reflejaba miedos de que los contrarios usaran la práctica del tuneo para sembrar dudas sobre los modelos — y, por extensión, sobre la realidad del calentamiento antropogénico. “La comunidad se puso a la defensiva”, explica Stevens. “Tenía miedo de hablar de cosas que pensaban que podrían usarse injustamente contra ellos”.

Evidente: Si los tuneos pueden sembrar dudas, y los ocultas, estás ocultando las dudas. Y eso es, exactamente, exagerar la certidumbre. O inventársela.

Daniel Williamson,  un estadístico de la Universidad de Exeter, expone que los centros (de modelización) deberían presentar múltiples versiones de sus modelos para comparación, cada uno con estrategias de tuneo diferentes. El método actual oscurece la incertidumbre e inhibe la mejoría. “Una vez que la gente sea más abierta, podemos hacerlo mejor”.

Esto, que parece más o menos oscuro, no tiene nada de marginal. Es la madre del cordero de la discusión del clima. Porque los modelos son la supuesta “prueba” de la alarma; lo único que hay a ese respecto. Y la prueba (imaginaria) que alegan es que no pueden modelar el clima conocido (1850 – 2016) sin que el CO2 no sea un gran problema. Pero se callaban que eso depende mucho del tuneo. Ahora parece que van a abrir ese manto de sombra. Dicen; proponen.

Judith Curry fue vilipendiada y tachada de “negacionista” por su paper The uncertainty monster [–>], en el que explicaba la incertidumbre introducida por el tuneo misterioso, y por las incertidumbres estructurales de los modelos. Ahora avisa:

Me pregunto si estos mismos modelistas del clima se dan cuenta de la lata de gusanos que están abriendo.

Pero mejor leerlo en su blog, entero:

 

Página siguiente »