modelos


La climatóloga Judith Curry acaba de publicar una pieza sobre los modelos climáticos y el uso muy inadecuado que se les da.

curry-climate-models

Resumen ejecutivo.

Hay considerable debate sobre la fidelidad y utilidad de los modelos climáticos. Este debate ocurre dentro de la comunidad de científicos del clima, que están en desacuerdo sobre el peso que se les debe dar a los modelos respecto de los análisis observacionales. Los resultados de los modelos se usan también por los economistas, las agencias reguladoras, y los responsables políticos. Los modelos han recibido considerable escrutinio de la comunidad más amplia de científicos, ingenieros, expertos de software, y filósofos de la ciencia.  Ese informe intenta describir el debate que rodea los modelos climáticos para un público educado pero no técnico.

Yo le veo un problema. Para el que ha seguido la discusión del cambio climático no tiene nada que no conozca, y pare el que empiece de nuevas puede ser un poco “duro”. Tal vez se puedan resaltar un par de puntos para tratar de esquematizar la línea argumental. Serían el uso que se les da a los modelos, y los problemas conocidos y muy obvios que tienen para ese uso.

Los modelos son herramientas útiles para tratar de comprender, muy a groso modo, el funcionamiento del sistema climático y las interacciones entre sus partes. O algunas de ellas. Pero se usan para atribuir la mayor parte del calentamiento observado desde 1950 al CO2, y para decidir qué problemas producirían las emisiones de CO2 en caso de continuar. El trabajo de Curry es un exhaustivo repaso de por qué no sirven para ninguno de estos dos últimos propósitos. Pero ni de lejos.

Sin ánimo de un resumen completo, los problemas por los que los modelos no sirven para averiguar esos dos aspectos clave de cara a las “políticas climáticas”, vienen de la forma de hacerse los modelos y de los resultados contrarios a las observaciones que producen.

Resultados. Con los modelos tratan de decir cuánto calienta el CO2 que se emite, y qué otros efectos causa ese calentamiento — como subida del nivel del mar, sequías, huracanes, o lo que sea. Pero eso se puede tratar de averiguar también observando el calentamiento y el aumento del CO2 que ha habido, sumado al resto de elementos que influyen en el clima. Y los dos procedimientos producen resultados muy distintos. Si ponemos los estudios observacionales más recientes comparados con el rango de los modelos, podemos verlo en este cuadro.

ecs-estudios-recientes

De los estudios observacionales sólo hemos puesto el valor más probable. En su distribución de probabilidades se meten más dentro y más fuera del rango de los modelos. Como esto (faltan algunos, que no tengo):

Los CMIP (en naranja) son los modelos. Los azules, los cálculos con observaciones. Y Curry explica que la parte alta de los estudios que se reflejan ahí ha quedado desfasada por recientes estudios (Stevens 2015) sobre uno de los elementos que toman en consideración. El efecto de los aerosoles. Y todos deberían revisar a la baja su resultados en la parte superior. El único que lo ha hecho es Lewis, y queda así con la raya azul marcando el límite superior (95%).

lewis-usando-stevens

Son resultados incompatibles los de los modelos y los de las observaciones. Y por eso el último informe del IPCC (2013) se limitó a proporcionar un rango (1,5 – 4,5), sin poder dar un valor más probable — como tenía por costumbre. Explica que es por la discrepancia entre “las distintas líneas de evidencia”, donde “evidencia” son las observaciones … ¡y sobre todo los modelos!

El “tuneado” de los modelos. Explica Curry, con las citas oportunas, que los modelos tienen un motón de ajustes arbitrarios, cada uno distintos. Y su capacidad para reproducir (más o menos) las temperaturas del siglo XX no viene de su calidad, sino de la selección oportunística de un conjunto de ajustes. Pero entonces la atribución del calentamiento de la segunda mitad del siglo, y del futuro calentamiento, es una broma. Tienes un resultado (mas o menos) adecuado porque ya sabías las temperaturas que tenías que reproducir, y tienes ajustes a la carta para hacerlo. Pero puedes haberlo conseguido usando las razones equivocadas. Y eso no te hace saber lo que pasará en el futuro, ni la causa de lo que observas.

Problema gordo: Estos modelos, que obviamente exageran (Curry dice que como X2) el calentamiento del CO2, son los que usan los economistas para que luego los políticos hagan las leyes. Y todo parte de una manzana podrida.

Este es, más o menos, el resumen de la línea argumental. Hay muchos más detalles, por supuesto.

¿Cómo responden los alarmistas a la crítica de los modelos? Como siempre. Con la carallada de que es la mejor herramienta que tenemos. Pero eso no te dice ni que la herramienta sea buena, ni que sea adecuada. Un ejemplo de discusión en Twitter:

curry-twitter

Son unos jetas. No hay más que abrir los ojos para darse cuenta de que el clima (global) es mucho mejor en los siglos XX/XXI que en los siglos XVII/XVIII. Y, por ejemplo, la subida del nivel del mar que citan lleva subiendo al mismo ritmo inocente desde mucho antes de los “efectos antropogénicos” en el clima.

¿A quién le ha preocupado jamás la subida del nivel del mar de 1900 a 1960? ¡Pues es la misma que de 1960 a aquí! Y el mamón alarmista lo sabe de sobra, pero lo usa aunque no tenga sentido.

Nota: Los gráficos no vienen del trabajo de Curry, pero es de los estudios que habla y se ve mejor.

Fuente, The Global Warming Policy Foundation.

 

Este es uno de los asuntos más extraños, y -para mi- una de las mayores demostraciones de la falta de seriedad de esa que llaman ciencia del cambio climático. Imagina que el siguiente gráfico representa dos predicciones distintas sobre la evolución de una variable hasta fin de siglo.

global-warming-and-peak-oil

¿Qué dirías? Probablemente que se trata de una broma. O una de las predicciones es una coña, o ambas.

Pero te explican que las dos predicciones están basadas en “la mejor ciencia disponible”, teniendo en cuenta toda la literatura científica más actual publicada. En cuyo caso supongo que puedes sugerir que “ciencia” y “ciencia” no es lo mismo, si no distinguimos entre ciencias maduras, de resultados contrastados, y ciencias muy verdes y en un estado esencialmente especulativo. Pero te van a fastidiar, porque te dirán que se trata de “ciencia establecida”.

– Déjese de bromas. Ciencia “establecida” es la que acierta consistentemente las predicciones, y esas dos predicciones no pueden acertar ambas. Ni siquiera mirando el resultado hartos de grifa.

Expliquemos lo que se ve en el gráfico. Dos curvas que representan las emisiones humanas de CO2 en el tiempo, si no hacemos nada para disminuir las emisiones de CO2. Vaya, si no nos portamos bien.

La azul es histórico (medición) hasta 2015, y predicción de un “escenario” del IPCC a partir de ahí. Es el escenario que venden como “business as usual”. Van sumados todos; petróleo, gas y carbón. Con la mejor ciencia que tenemos a nuestra disposición.

La naranja es otra predicción, desde 2015, de lo mismo. Con una diferencia; trata de averiguar cuánto CO2 se puede emitir, sin cortarse, pero con una idea realista de las reservas que hay y las que se pueden encontrar, y los avances en la extracción “no convencional”. Publicada en un estudio reciente (Wang et al 2016), que ha recopilado la literatura científica desde el año 2000, para tener en cuenta los hallazgos y posibilidades de los yacimientos “no convencionales”. El fracking y tal. También es con la mejor ciencia que tenemos a nuestra disposición. Pero el resultado no tiene nada que ver con la anterior “mejor ciencia”. Son dos “mejores ciencias” muy muy distintas.

Y el problema no es una cuestión académica remota. Una predicción dice que en 2100 estaremos emitiendo 28 GtC en CO2; y la otra dice que serán 7 GtC, con un pico en 2034 de 11 GtC. Y si tenemos en cuenta que el Calentamiento Global Acojonante depende básicamente del CO2 que se emita, de 28 a 7 hay un factor de 4.

Vamos a ver qué quiere decir eso en temperatura, en el mundo del IPCC, y de forma muy gráfica. Repito, mundo IPCC, con una teoría que hace agua por todas partes, y unos modelos que sabemos que exageran de largo el calentamiento. Pero se trata de saber la diferencia en temperatura entre una predicción con la mejor ciencia disponible, y otra predicción también con la mejor ciencia disponible.

El primer gráfico venía de la digitalización de la figura 2 de Wang et al 2016. Represantando sólo las dos curvas de interés, que aquí van resaltadas.

global-warming-peak-oil

A señalar. La predicción de Wang (la curva verde) está entre las dos azules de puntos, más cerca de la azul clara. Son los “escenarios” del IPCC llamados RCP6.0 y RCP4.5. Y está mucho más cerca del escenario bajo, el RCP4.5. Estos “escenarios” 6.0 y 4.5 suponen diversos grados de portarse bien. De reducir emisiones con muchas leyes de Obama. Pero los que miran los combustibles fósiles que hay, y los que puede haber, en un ejercicio igual de imaginario que el del IPCC, dicen que nos vamos a portar así de bien sin que hagan falta leyes ni Oabamas. Vale con Trump.

Miremos los escenarios del IPCC, y su CO2 y temperatura. Hasta 2300, y así nos preocupamos de los nietos de los nietos de los nietos.

rcps-a-2300

La diferencia entre la predicción de combstibles fósiles infinitos y la predicción con la mejor estimacion de sus existencias es, en 2100, de 3,2ºC de calentamiento respecto de hoy, a 1,65ºC. Y en 2300 la diferencia es de 7,1ºC, a unos 2,5ºC.

Nota. Ese escenario del IPCC, de emisiones a tutiplén, no se lo cree ni Obama [–>]. Pero es lo que siempre usan en la prensa y en los estudios impactantes cuando oyes barbaridades de lo que subirá el nivel del mar, y lo que se achicharrarán los pájaros y las flores.

Por supuesto, estas cifras de calentamiento en los escenarios del IPCC similares a lo que permiten las existencias imaginables de combustibles fósiles, son también muy exageradas. Mucho. Usan los modelos climáticos de chichinabo y miedo. Pero Willis Eschenbach ha hecho un trabajo muy interseante en WUWT, aplicando la literatura reciente sobre lo que calienta el CO2 usando observaciones reales — y por lo demás toda la teoría y asunciones del IPCC. Es a su vez también la “mejor ciencia disponible”. Con un resultado tan diferente como venimos viendo en los anteriores casos. Aun mucho mas bajo (menos calentamiento).  En concreto, un máximo de 0,6ºC de calentamiento en 2100 usando esos cálculos de forma convencional, y hasta 0,8ºC aplicando las muy discutibles “mejoras” que le han metido los alarmistas de la NASA a los cálculos convencionales. Un rollo muy novedoso que pretende que los vatios del CO2 valen distinto que los demás vatios.

Willis en WUWT:

Cuando te digan que se trata de una “ciencia establecida”, y “la mejor ciencia disponible”, ya sabes lo que quieren decir. Nada. Es un vacile.

Fuentes:

Wang et al 2016:

Riahi et al 2011:

Eschenbach en WUWT:

IPCC:

Larry Kummer (editor de Fabius Maximus) en Ca’n Curry:

Y un mensaje:

parte_nones-mensaje

critica-bastarda

Este es, presumiblemente, el mejor momento para los alarmistas del clima en la próxima década y media. En 1998 hubo un El Niño muy fuerte, y en 2016 también. Y el siguiente, si se mantiene la misma pauta (1983, 1998, 2916) será en poco más de quince años. Como esos El Niño muy fuertes le pegan un notable subidón a la temperatura global, es el mejor momento para que parezca que los modelos climáticos no van sobre-calentados. Lo vemos en el gráfico que presenta Hawkins, en el que destacamos (amarillo) los dos últimos Niños muy fuertes.

hawkins-modelos-termometros-el-nino

CMIP5 (los grises) son los modelos.

La raya negra vertical discontinua que dice Historical <-> RCPs separa la parte de predicción (derecha) de la parte en que los modelos están tuneados para reproducir las temperaturas medidas (izquierda).

El cuadrilátero rojo rayado es la apuesta de predicción del IPCC en 2013, por el procedimiento de “expert opinion”. Muestra que el IPCC no se cree mucho los modelos, y rebaja su calentamiento. Al punto que si no hubiera ningún calentamiento  entre 2005, cuando empieza la predicción, y 2030, el IPCC diría que esa falta de calentamiento es perfectamente consistente con su predicción de Calentamiento Global Acojonante. Lo mostramos con la raya amarilla

hawkins-sin-calentamiento-2030

Todo esto va referido a las observaciones con termómetros de superficie. Sin tocar ni de lejos las observaciones desde satélites, que son básicamente incompatibles con el cálculo de temperatura global a partir de los termómetros.

Aun así, estos gráficos de Hawkins, que siguen la pauta del IPCC, tienen un truco que no se puede olvidar. Si el Calentamiento  Global Acojonante empezó entre 1975 y 1980, por qué empiezan el gráfico en 1985, y usan 1986 – 2005 como período de referencia? El efecto de esa elección es unir las dos series (modelos y observaciones) hacia la mitad del período de referencia (1995), y así disimular la diferencia acumulada entre ambas desde el principio del Calentamiento Global Acojonante.

Steve McIntyre lo expresa con este gráfico, al que también le añade los satálites. Y explica:

AR5 reference period 1986-2005 is a graphic “trick” which hides cumulative discrepancy since 1979. Perspective w 1979-90

mcintyre-models-observations-2016

El gráfico izquierda es satélites, y el derecho termómetros de superficie.

O el gráfico que solemos poner aquí, con medias de cinco años en lugar de anuales, satélites (azul) y modelos climáticos (rojo):

También se puede expresar en números, que Hawkins no hace. Tendencia lineal 1979 – 2016 expresada en ºC / década.

 

Fuentes:

Climate Lab Book:

Ed Hawkins en Twitter:

Steve McIntyre en Twitter:

dilbert-climate-models

Scott Adams, el autor de Dilbert, ha estado azuzando la discusión del Calentamiento Global Acojonante desde su blog [–>]. Donde azuzar tiene el significado DRAE: incitar a los perros para que embistan.

Niega conocer el asunto como para juzgarlo, alegando que no tiene los conocimientos necesarios. Pero al mismo tiempo asegura que sí sabe mucho sobre persuasión -que no tiene por qué estar relacionada con la realidad- y que le parece mas persuasiva la argumentación de los escépticos. Lo hace de una forma bastante cachonda.

Desde el punto de vista de la persuasión, y basado en lo que he visto, la gente que dice que los modelos no son fiables es mucho más convincente que la gente que cree que los modelos son fiables. Pero la persuasión no está siempre conectada con la verdad. La verdad del cambio climático no está enteramente disponible para mi, dada mi falta de conocimiento y formación en los campos relevantes. De momento me sitúo con el consenso de los científicos, lo que me pone en el lado débil del juego de la persuasión en este debate. Mi equipo realmente necesita ayuda.

No hace falta explicar el rebote que tienen todos los alarmistas del clima con un planteamiento de este tipo. La operación Dilbert ha sido de una sutileza mayúscula. Porque, sin plantearlo expresamente, ha situado la discusión en su punto justo. Que es justo el punto del que los alarmistas la quieren sacar. La credibilidad de los modelos. Y Adams ha conseguido que todo *el* problema sea exclusivamente esa. ¿Son creíbles los modelos?

Al entrar los alarmistas a ese trapo, han confesado indirectamente lo que siempre tratan de ocultar. Que no tienen ninguna evidencia empírica, y que toda su “ciencia” y alarma está basada en unos modelos de credibilidad más que discutible. Cierto, plantean que los modelos sí son creíbles. Pero al no tener nada más que presentar, han dejado desnuda la realidad; que todo depende de esos modelos. Y esa es una discusión muy muy delicada. Como dice Adams, con muy mala pinta para los alarmistas.

A modo de homenaje a Dilbert, ofrezco otro argumento sobre la falta de credibilidad de los modelos. Porque no lo he visto en la kerfuffle que ha montado Scott. Siempre vemos representado el resultado de los modelos en anomalías. O sea, en la variación de temperatura de cada modelo, con independencia de a qué temperatura esté circulando. Pero la diferencia de temperatura absoluta (no de variación de temperatura) entre los distintos modelos llega a tres grados.

desparrame-modelos-climaticos

Tres grados es casi la diferencia que hay entre una tierra en estado de glaciación, y la nuestra. Y los procesos de los que depende el efecto de un forzamiento como el del CO2, el que el sistema climático amplifique más o menos ese efecto, dependen de la temperatura. Por ejemplo la evaporación, las nubes, y la lluvia. O el albedo (reflejo) de la nieve y el hielo.

O sea, cuando hablemos de modelos, y de su credibilidad, nunca olvidemos esto:

dilbert-climate-models

Una nota al margen. En el enfado de los alarmistas, menosprecian a Adams señalando que es un dibujante de comics. Al parecer olvidan que el estudio / payasada del 97% de consenso en el que siempre se basan, estaba dirigido por … ¡un dibujante de comics!

Fuentes:

Judith Curry:

Scott Adms:

Los alarmistas del clima están mostrando ahora comparaciones de modelos climáticos y realidad con mucha afición. Por ejemplo:

Que si ponemos el gráfico sólo, es esto:

modelos-realidad-superficie

Y parece que los modelos van de cine. Las mediciones de termómetros de superficie van justo un poco por encima de la media de los modelos. Y se ve muy bien por qué hasta hace poco (como 2012  – 2014) no les gustaba comparar los modelos con la realidad. ¡Porque la realidad se estaba saliendo del margen de los modelos!

modelos-realidad-superficie-2

El truco es que ahora acaba de haber un El Niño de los fuertes (como el de 1998), y eso sube espectacularmente la temperatura global.

el-ninho-34

En la media de los modelos no se refleja El Niño, porque como no se puede predecir, cada uno lo tiene en un momento diferente (si es que lo tiene) y en el promedio desaparecen. Y entonces, si quieres hacer una comparación modelos realidad, o no la haces en el momento de El Niño, o comparas dos situaciones en El Niño de similar fuerza.

Destacamos los dos Niños fuertes (1998 y 2016), y vemos cómo el de 1998 se salía del margen de los modelos por arriba, y el de 2016 se queda poco por encima de la media.

en-modelos-realidad-superficie

¿Eso quiere decir que los modelos van muy bien, o querrá decir que van francamente más calientes que la realidad? En todo caso habrá que esperar unos pocos años a que se estabilice después del arreón del El Niño.

Nota: El “escenario” de los modelos que usa el gráfico (RCP 4.5) es de muchas menos emisiones que las que hay, pero en 2016 no se nota todavía en la temperatura. Es para emisiones futuras.

Y luego hay otra cuestión importante. Lo que miden con termómetros y con satélites está empezando a ser incompatible. O los termómetros están midiendo efectos no climáticos (por ejemplo, urbanización), o sus ajustes y correcciones son un cachondeo, o hay algún problema con los satélites. O hay un problema con el entendimiento del clima. Porque un calentamiento debería notarse más en la altura a la que miden los satélites, y las mediciones dicen lo contrario.

En principio, la medición desde satélites es mucho más adecuada. Porque están midiendo algo global (las garitas de termómetros nunca se pensaron para eso) y porque el “efecto invernadero” ocurre en la troposefra a media altura – y de ahí se traslada hacia abajo.

Según los satélites, vemos esta comparación modelos / realidad.

modelos-realidad-satelites-2

Este es el gráfico que solemos poner, con una media de cinco años – que es lo típico para ver una tendencia sin demasiado vaivén. Pero le podemos añadir la media anual (en rosa) para hacer lo mismo que el gráfico de los alarmistas.

modelos-realidad-satelites

También podemos señalar los dos El Niño fuertes:

modelos-realidad-satelites-3

En este caso los modelos usan el escenario de emisiones más alto (RCP 8.5), pero ya digo que todavía no hay diferencia entre los distintos escenarios. Son para el futuro.

Resumiendo. Termómetros de superficie y satélites están empezando a contar películas diferentes, incompatibles. Los dos van más fríos que los modelos. Los satélites, mucho más fríos.

 

Judith Curry nos trae un nuevo “paper” en Science, y lo comenta. Lo mejor probablemente es leerlo allí directamente:

Pero voy a intentar explicar la importancia del asunto para los que no han seguido a fondo la discusión hasta ahora.

Imagina que tienes un sistema físico cuyas leyes conoces. Por ejemplo una olla llena de agua, con un volumen determinado. Y que está afectado por unos factores externos que también conoces. Por ejemplo, fuego por debajo, de mayor o menor intensidad; y una tapa por arriba, más o menos cerrada. Y puedes predecir: con el mismo fuego, si cierras más la tapa, el agua se calentará.

olla-al-fuego

En ese sentido, la teoría del Calentamiento Global (Acojonante) es no polémica.  Y lleva siendo no polémica desde -por lo menos- Guy Callendar, en 1937. Sólo que entonces no era Acojonante [–>]. El CO2 que emitimos es como cerrar un poco la tapa. Algo tiene que calentar. El problema está en averiguar si ese “algo” es:

  • Inapreciable
  • Un calentamiento suave y beneficioso
  • Un calentamiento moderado de consecuencias discutibles
  • Un calentamiento Acojonante.

Nota: Lo de que un calentamiento suave sea beneficioso también debería ser no polémico. La así llamada “temperatura pre-industrial” es una temperatura mala, por demasiado fría.

En esa “temperatura pre-industrial” el Támesis se helaba (a veces también el Ebro), y se perdían las cosechas por el frío. Este cuadro de Gabriel Bella es Venecia en 1708.

venice_frozen_lagoon_1708-gabriel-bella

Es obvio; el problema es saber cuantificar ese “efecto tapa” del CO2. Porque dejar de emitir CO2 es -de momento- carísimo; nos empobrecemos. Mucho. Y porque ese empobrecimiento podría suponer evitar algo inapreciable, que sería una estupidez; o incluso evitar algo bueno, que sería una canallada.

Aunque el problema parece fácil (la temperatura es una función del calor que entra menos el calor que sale), en realidad no lo es. Esa cuantificación no es fácil, porque la temperatura de la olla no era constante antes de que moviéramos la tapa. Había otras cosas que cambiaban la temperatura antes de nuestras emisiones, y que siguen operativas. ¿Variaba el fuego? ¿Variaba la tapa por si misma (sin ayuda nuestra)? ¿Variaba la temperatura externa o el viento, haciendo cambiar la temperatura del agua de la olla? ¿Variaban las paredes, emitiendo hacia afuera más o menos calor? ¿Variaba el líquido de dentro — por ejemplo algo revolviendo el agua a mayor o menor velocidad?

Nota: Estas variaciones que pueden afectar a la temperatura es lo que llaman, en la jerga del cambio climático, forzamientos.

Aunque hayas visto que la temperatura ha subido un poco, no puedes saber cuánto es por el ligero cierre de la tapa, y cuánto es por las demás cosas – de las cuales unas conoces y otras no. Resumiendo: No hay forma de saber el calentamiento achacable al ligero cierre de la tapa si no sabes lo que hubiera cambiado la temperatura en ausencia de ese ligero cierre.  O sea, no puedes conocer el cambio climático antropogénico si no conoces el cambio climático natural. Esto también es algo no polémico.

Y aquí es donde entran en juego los modelos climáticos. En teoría, un procedimiento muy bonito y muy limpio. Metemos leyes conocidas de la física en unas fórmulas, y nos resulta una temperatura. La diferencia que hay entre incluir el efecto directo del CO2 extra (la física radiativa del CO2, que es conocida) y no hacerlo, nos da el efecto total de ese CO2 que estamos emitiendo. Y sería cierto si fuera verdad; pero no lo es. Porque no meten sólo física conocida. Muchos de los forzamientos, de los que hablábamos antes, no son muy conocidos. Y mucha de la física conocida no la pueden resolver los modelos; les falta potencia en órdenes de magnitud. Y siempre les va a faltar – es el problema del sistema caótico. Así que en vez de resolver las ecuaciones, las parametrizan. Y el conjunto de esos ajustes, los forzamientos no conocidos que ponen más o menos a huevo, y las parametrizaciones, son el famoso tuneo del que no hablan casi nunca.

Y no se trata de que el tuneo sea necesariamente tramposo. Puede ser hasta inconsciente. Si con unos ajustes el modelo produce unas temperaturas del pasado (conocidas) absurdas, lo descartan. Y no lo publican hasta no tener unos ajustes que parezcan razonables, y den unas temperaturas del siglo XX parecidas a la realidad. El problema está en “parezcan razonables”, porque es algo que depende de lo que tengan en la cabeza antes de hacer los ajustes.

Volvamos al caldero de antes.

olla-al-fuego

Puedes decidir que los humanos, además de haber cerrado un poco la tapa (eso calienta), también estaban revolviendo el líquido con una cuchara (eso enfría). Y dependiendo de la velocidad con que lo hicieran, enfriaba más o menos. Pero no sabes cuánto. Y puedes obtener la misma temperatura a base de un efecto muy fuerte de cerrar la tapa, contrarrestado por un revolver rápido; o a base de un efecto suave de cerrar la tapa, contrarrestado suavemente por una cuchara lenta. El resultado es el mismo, la misma temperatura, pero el efecto de cerrar la tapa es muy diferente. Y el efecto de cerrar la tapa es justamente lo que querías saber. Para tratar de imaginar lo que hará en el futuro. Pero depende de la parametrización de la cuchara, si es un cálculo, o del forzamiento que le adjudiques si es un forzamiento.

Ahí está el quid. ¿Conocemos y podemos comparar esos tuneos para saber (1) que se han hecho con “prejuicios” en los dos sentidos, y (2) cuáles dan un resultado mejor?

Los modelos climáticos reproducen todo lo que pueden aplicando las leyes de la física en cajas imaginarias de decenas de kilómetros de lado. Pero algunos procesos, como la formación de nubes, son de grano demasiado fino para eso, y los modelistas usan “parametrizaiones” intentando aproximar estos efectos. Durante años, los científicos del clima han tuneado sus paremetrizaciones para que los modelos coincidan en general con los registros climáticos. Pero, temiendo críticas de los escépticos del clima, han estado largamente mudos sobre cómo tunean sus modelos, y por cuánto.

Eso viene del abstract. Dentro lo desarrolla más.

Durante años, los científicos del clima han estado mudos en público sobre su “salsa secreta”: Lo que ocurría en los modelos se quedaba en los modelos. El tabú reflejaba miedos de que los contrarios usaran la práctica del tuneo para sembrar dudas sobre los modelos — y, por extensión, sobre la realidad del calentamiento antropogénico. “La comunidad se puso a la defensiva”, explica Stevens. “Tenía miedo de hablar de cosas que pensaban que podrían usarse injustamente contra ellos”.

Evidente: Si los tuneos pueden sembrar dudas, y los ocultas, estás ocultando las dudas. Y eso es, exactamente, exagerar la certidumbre. O inventársela.

Daniel Williamson,  un estadístico de la Universidad de Exeter, expone que los centros (de modelización) deberían presentar múltiples versiones de sus modelos para comparación, cada uno con estrategias de tuneo diferentes. El método actual oscurece la incertidumbre e inhibe la mejoría. “Una vez que la gente sea más abierta, podemos hacerlo mejor”.

Esto, que parece más o menos oscuro, no tiene nada de marginal. Es la madre del cordero de la discusión del clima. Porque los modelos son la supuesta “prueba” de la alarma; lo único que hay a ese respecto. Y la prueba (imaginaria) que alegan es que no pueden modelar el clima conocido (1850 – 2016) sin que el CO2 no sea un gran problema. Pero se callaban que eso depende mucho del tuneo. Ahora parece que van a abrir ese manto de sombra. Dicen; proponen.

Judith Curry fue vilipendiada y tachada de “negacionista” por su paper The uncertainty monster [–>], en el que explicaba la incertidumbre introducida por el tuneo misterioso, y por las incertidumbres estructurales de los modelos. Ahora avisa:

Me pregunto si estos mismos modelistas del clima se dan cuenta de la lata de gusanos que están abriendo.

Pero mejor leerlo en su blog, entero:

 

Malcom Roberts es un senador australiano muy combativo contra las “políticas climáticas”. Y por tanto contra la ciencia que las soporta. No es exactamente fino, y dice bastante burradas que no se pueden sostener. Pero sí es un pesado; muy útilmente pelma. Y ha producido un momento público extremadamente ilustrativo para la discusión del cuento del Cambio Climático Acojonante.

Le pregunta en el senado al Dr. Alan Finkel:

En base a qué crees que el CO2 afecta a clima y debe ser cortado

Se refiera a cortar las emisiones, claro. Y la pregunta es lo mismo que preguntar por la prueba del cuento que se traen. Finkel es el Chief Scientist de Australia. Un cargo público [–>] cuya responsabilidad es asesorar al gobierno australiano en cuestiones científicas y tecnológicas. El vídeo, de dos minutos y medio, se puede ver en este [–>] enlace. Y la ventaja, aparte de la formalidad y la publicidad del senado, es que le pide una respuesta breve y concisa (no se ve en el vídeo). Finkel se enrolla todo lo que se atreve, pero supongo que no le daban mucho tiempo. Y deja muy muy claro lo que siempre intentan dejar incomprensible. Resumo la respuesta, quitando la paja (el nota podía haber usado 15 segundos en lugar de 150):

Creo que los principios son muy claros.

– Emitimos mucho CO2 y eso hace que esté aumentando su concentración en el aire. Lo medimos.

– Este CO2 extra “atrapa” calor, y eso produce un calentamiento por razones físicas. Lo medimos.

– El tercer paso es el impacto. El CO2 está aumentando y con él la temperatura. ¿Qué le hace eso al clima? Y esta es la parte donde se hace muy muy difícil. Ahora estás en el terreno de los modelos.

Y acaba con un gesto, como diciendo -eso es; ahí tienes. Este gesto:

finkel-y-la-prueba-del-calentamiento-global

Y ahí está el asunto con el que mienten como perros. Dicen que hay un “consenso” y suficiente “evidencia empírica” como para tener una “ciencia establecida”. Y es muy cierto en lo que respecta a los dos primeros puntos. Pero en esos dos puntos no han mostrado ningún problema. Un calentamiento suave y el CO2 extra fertilizando las plantas es como si te toca la lotería.

Las “razones físicas” por las que se sabe que el CO2 produce un calentamiento, también señalan que es un poco de calentamiento que no le puede preocupar a nadie. Lo hemos repetido hasta la náusea; para saltar de un poco de calentamiento a Houston tenemos un problema hace falta imaginar una amplificación fuerte del efecto de esas “razones físicas”. Y esa amplificación imaginaria nunca ha pasado del estado especulativo; no hay ninguna evidencia empírica de tal asunto.

Nota marginal: más explicación en: ¿Es razonable pensar que provocamos “calentamiento global” con el CO2? ¿Y que sea un problema?

Los modelos si producen esa amplificación fuerte, pero es que están diseñados (tuneados) para ello.

Hablemos ahora de los modelos. Los climatólogos críticos con la vaina del alarmismo señalan que los modelos van muy calientes, son irreales. Y si la realidad va más fría que los modelos, eso significa que no hay tal amplificación fuerte. O no es tan fuerte. Pero claro; con decir que los que hacen esas críticas son “negacionistas”, y mentir diciendo que están vendidos a Big Oil,  seguimos adelante con el cuento.

Vale, escuchemos a los alarmistas. Acaban de publicar un trabajo con la clara intención de mostrar que los modelos van muy bien. Roy Spencer explica cómo han elegido las series de datos que les favorcen (alguna convenientemente recién corregida), y olvidado las series de datos que les van mal. Además de algún truquillo guarrete que han usado. Aquí:

New Santer et al. Paper on Satellites vs. Models: Even Cherry Picking Ends with Model Failure

La comparación es en la troposfera media. Muy oportuna, porque es el lugar donde ocurre toda la acción del “efecto invernadero”. Y los autores, con Ben Santer y Carl Mears (el de RSS) a la cabeza, son de lo más alarmista que puedes encontrar en el mercado del alarmismo. Ninguna posibilidad de que pensar que tienen ganas de señalar problemas en los modelos.

Y esto es todo lo que consiguen.

Cuando tenemos en cuenta el impacto de enfriamiento estratosférico en la troposfera media (Spencer dice que está mal hecho) y cuando usamos las versiones más recientes de los datos de los satélites (Spencer dice que pasan de los globos sonda), el desfase anteriormente proclamado entre las tendencias simulada y observada del calentamiento se reduce a ≈ 1.7 [Comparing tropospheric warming in climate models and satellite data –>]

Traducido. Los modelos sólo exageran la realidad multiplicando el calentamiento x 1,7. O el calentamiento real sólo es el 59% del calentamiento imaginario. ¡Y esto lo dicen los alarmistas, haciendo toda la gimnasia que se han atrevido! Están contentos porque la misma medición llevada a cabo por sus críticos resulta en un exceso de calentamiento de los modelos de x 3.

Para acabar, pongamos contexto a ese 59% de los alarmistas. En el último informe del IPCC (2013) no se han atrevido a dar un calentamiento más probable, precisamente por el desacuerdo entre los modelos y la realidad. Entre las “distintas líneas de evidencia”, dicen literalmente — y llamando “evidencia” a los modelos. En el informe anterior (2007), el IPCC daba un calentamiento más probable por doblar el CO2 de unos 3ºC. Pues bien, el 59% de 3ºC son 1,8ºC. Cantidad que coincide mucho con los cálculos más recientes de la “sensibilidad climática”. Son cálculos por otros medios, usando modelos y la realidad en un plazo mucho más largo; 130 años en lugar de los 37 de los satélites. Y esos estudios son los que nunca ves en los periódicos, porque los alarmistas no quieren ni oír hablar de ellos.

El resumen gráfico que suelo poner:

Es muy sencillo; poco calentamiento no produciría ninguna alarma (en realidad es bueno, y más con el CO2 extra), y esta gente está en el mercado de la alarma. Vive muy bien de ese mercado.

Fuentes.

WUWT:

Sydney Morning Herald:

Roy Spencer:

Santer y compañia:

Vuestra humilde plaza:

 

Página siguiente »