modelos


Últimamente están saliendo varias reconstrucciones de paleo-temperatura de la península. Traemos la última, con anillos de árboles. Una serie de pinos en el Pirineo. Se supone que reconstruyen las temperaturas de verano, los meses de mayo y junio, y agosto y septiembre. Si quieres saber por qué esos meses en concreto, lee el trabajo; es muy largo. El mensaje resulta maravillosamente anti-alarmista.

Extendiéndose durante el período de los años 1186 a 2014, la nueva reconstrucción revela en general unas condiciones más cálidas hacia 1200 y 1400, y de nuevo después de hacia 1850. El verano más frío fue en 1258 (-4.4°C respecto al período de referencia 1961-1990), tras la erupción volcánica más fuerte conocida de la era. El siglo XX se caracteriza por un fuerte enfriamiento de verano en la década de  1970, seguido de un aumnto de temperatura hasta 2003, y un descenso posterior. Se encuentra muy poco acuerdo con las simulaciones de modelos climáticos, que sobreestiman consistentemente el calentamiento de verano reciente, y subestiman los cambios de temperatura pre-industriales.

Lo que más me gusta es la comparación con los modelos climáticos. La línea roja es la nueva recontrucción, y las verdelinas son cuatro modelos climáticos. Todas llevan un filtro paso bajo de 20 años.

buengten-et-al-2017-fig7

Está claro que los modelos se apuntan a que no existe cambio climático natural más allá de unas oscilaciones de corto plazo. ¡Son negacionistas del cambio climático natural! — como dice Roy Spencer. Sobe todo si haces una media entre ellos, y frenas las alegrías del modelo verde fosfrito (CCSM-4) – que es el extravagante del grupo. También destaca que el calentamiento moderno no tiene nada de especial. Como sabe todo el mundo, menos los cantamañanas de la marcha por la ciencia.

¡Se parecen a Rawandi! 😉

Pero yo tampoco lanzaría las campanas al vuelo con esta reconstrucción del Pirineo. Aunque sea muy importante por estar en el patio trasero de Bilbao. Porque si comparas con la reconstrucción que vimos hace poco tiempo, que era con árboles en la zona de Soria y desde 1600, no se parecen ni castaña. A pesar de que también sea patio trasero de la capital de la galaxia.

buengten-con-tejedor

Mejor prescindimos de los detalles, tan poco convincentes, y nos quedamos con la literatura. Entre los autores está Zorita, que ya ha visto muchas veces que los modelos climáticos no son capaces de simular la variabilidad natural de siglos pasados, relativamente bien conocida.

La variabilidad de largo plazo reconstruida excede la variabilidad de décadas a siglos simulada en cuatro modelos climáticos de última generación. Esta ddiscordancia está en línea con una tendencia general de los modelos a subestimar la amplitud de la variabilidad natural de baja frecuencia reconstruida durante e último milenio (Bothe et al. 2013; Fernández-Donado et al. 2013; Phipps et al. 2013; Luterbacher et al. 2016; Ljungqvist et al. 2012). Este desacuerdo podría indicar que el papel de la variabilidad interna no forzada es mayor que el esperado (Goosse 2017; Matsikaris et al. 2016), y/o que la sensibilidad climática a los forzamientos prescritos necesita ajustes.

Explico. La Climatología del Calentamiento Global Acojonante, que es lo mismo que decir los modelos climáticos, ven el cambio climático como una simplificación pasmosa. Los modelos serán muy complicados, pero la película no podría ser más sencilla. El clima tiene una oscilaciones rápidas (de alta frecuencia), caóticas, que se promedian al cabo de poco más de una década. A partir de ese plazo, los cambios se deben a los “forzamientos climáticos”. Que son, o naturales o artificiales. Y dentro del plazo de uno o dos milenios sólo son estos:

Naturales:

  1. Volcanes. Enfrian, y cada uno dura poco. Puede ser un efecto grande.
  2. El sol, Calienta y enfría, y sus variaciones apenas tienen efecto en los últimos 2.000 años.

Artificiales (hombre pecador):

  1. Contaminación: Enfría.
  2. Gases invernadero. Calientan.

Con esta película es obvio que entre el año 0 DC y 1850 DC (lo preindustrial, o natural) no pueden tener cambio climático. Sólo un muy ligero enfriamiento por lo de los ciclos de Milankovitch, y unas bajadas fuertes por los volcanes — que desaparecen al cabo de poco tiempo. Y eso es justo lo que se ve en las líneas verdes del gráfico.

buengten-et-al-2017-fig7

Y es lo que NO se ve en la línea roja de temperatura reconstruida a partir de anillos de los árboles. Que no será de confianza (a mi no me parece), pero es que sabemos por los textos históricos que el clima variaba, y un huevo. Y lo sabemos por el rango geográfico de las distintos tipos de árboles, según se expande / contrae el rango en latitud y en altitud. Y por los glaciares, que también se expandían ¡y retrocedían! antes de la era industrial. O sea, sabemos que el clima sí se puede calentar en plazo de décadas / siglos (sin que cuente el ciclo de Milankovitch), pero los modelos climáticos no pueden hacerlo.

Por eso dicen los autores del trabajo que, o bien el clima puede cambiar por sí mismo (caos, o la variabilidad interna no forzada que dicen), o bien los forzamientos que tienen en cuenta en los modelos necesitan ajustes (están mal). O ambas. Y eso hace que la “evidencia” (es sólo teórica) del Calentamiento Gobal Acojonante quede francamente en cuestión.

Fuentes:

Büngten et al 2017:

Tejedor et al 2017:

Gracias a:

 

Si tú ves Mann y Rahmstorf en el mismo “paper” ya sabes que tienes el circo asegurado.

“Hemos llegado tan cerca como se puede de demostrar una relación directa entre el cambio climático y una gran familia de extremos meteorológicos recientes”, dijo Michael Mann, distinguido profesor de ciencias atmosféricas, y afamado Fake Nobel (por escrito); así como inventor del truco para esconder el declive, y el falso palo de hockey que pretendía negar el cambio climático natural. “Falta identificar de hecho los eventos en los modelos climáticos”, añadió.

casi-llegan

Y ahí, en dos frases de Mickey Mann, tienes el cuento del clima en todo su esplendor. Los científicos de la movida tienen una meta que alcanzar. Pero no es la sana meta -motivada por la curiosidad- de saber cómo funciona el sistema que estudian, sino la de demostrar la relación entre el hombre pecador y todos los males imaginables. Y para colmo, no estudian el sistema real, sino los juegos de computadora que han creado ellos mismos como herramienta de asustar.

El truco va así. Por una parte se han fijado en unos cuantos extremos meteorológicos recientes. Como la ola europea de calor en 2003; las inundaciones de Pakistán en 2010; la ola de calor rusa de 2011; las de Tejas y Oklahoma de 2013; y los incendios de California en 2015. Y han econtrado (ya se sabía) que ese tipo de fenómenos suelen estar relacionados con ondulaciones más pronunciadas y persistentes del jet stream.

También dicen que esas ondulaciones potentes han sido más frecuentes recientemente. No dicen (creo) que entre 1950 y 1970 también vieron lo mismo, en una fase de enfriamiento global.

Y ahora llega la magia. En casi un setenta por ciento de “una combinación (docenas) de los aproximadamente 50 modelos climáticos” del grupo CMIP5, aumentaba, desde la época preindustrial, la distribución de temperatura que favorece la formación de esas ondulaciones exageradas del jet stream. Y el juego se llama concurso de popularidad entre modelos.

Pregunta: ¿van a tirar a la basura el más de 30% de los modelos de esa selección porque no dan la respuesta adecuada? No señor. Porque en otro experimento futuro, ante otra problema distinto, puede ocurrir que sean, precisamente los modelos que ahora no contestan bien, los que nos digan lo que queremos. Los que nos acerquen a esa meta que tenemos de demostrar que la culpa es del hombre pecador. Tenemos modelos para todos los gustos; los removemos, y ¡hops! sale lo que queremos. Por eso nunca descartan modelos. Por eso no hay modelos mejores que otros. No tienen selección natural, salvo los que claramente nunca van a dar la respuesta predeterminada en ningún caso.

Y luego te encuentras con que a los modelistas del cuento este resultado de abajo les parece muy bueno. (Es de otro tema distinto, pero es un ejemplo espectacular).

modelos-climaticos-y-realidad-tmt-trop-gavin-curry

Normal. ¿Han medido en ese estudio que los extremos meteorológicos sean más frecuentes o peores? No, no lo son. O al menos el IPCC, que también quiere demostrar lo mismo, no lo ha encontrado. Ni las compañías de seguros tampoco, y les importa mucho saberlo. La realidad no dice tal cosa. Pero como en casi el 70% de una parte de los modelos ocurren unas condiciones que favorecen los extremos climáticos, y a pesar de que bien pudiera tener la razón el más de 30% que dice lo contrario (o ninguno), resulta que hemos llegado lo más cerca que se puede a demostrar que tenemos que cobrarte un pastón. ¡Somos unos machotes!

Por cierto, en la primera frase hablan de “la actual sequía sin precedentes de California”. Realidad: en absoluto es sin precedentes, y ya se ha acabado para la fecha de publicación del artículo.

Fuente, WUWT:

 

La climatóloga Judith Curry acaba de publicar una pieza sobre los modelos climáticos y el uso muy inadecuado que se les da.

curry-climate-models

Resumen ejecutivo.

Hay considerable debate sobre la fidelidad y utilidad de los modelos climáticos. Este debate ocurre dentro de la comunidad de científicos del clima, que están en desacuerdo sobre el peso que se les debe dar a los modelos respecto de los análisis observacionales. Los resultados de los modelos se usan también por los economistas, las agencias reguladoras, y los responsables políticos. Los modelos han recibido considerable escrutinio de la comunidad más amplia de científicos, ingenieros, expertos de software, y filósofos de la ciencia.  Ese informe intenta describir el debate que rodea los modelos climáticos para un público educado pero no técnico.

Yo le veo un problema. Para el que ha seguido la discusión del cambio climático no tiene nada que no conozca, y pare el que empiece de nuevas puede ser un poco “duro”. Tal vez se puedan resaltar un par de puntos para tratar de esquematizar la línea argumental. Serían el uso que se les da a los modelos, y los problemas conocidos y muy obvios que tienen para ese uso.

Los modelos son herramientas útiles para tratar de comprender, muy a groso modo, el funcionamiento del sistema climático y las interacciones entre sus partes. O algunas de ellas. Pero se usan para atribuir la mayor parte del calentamiento observado desde 1950 al CO2, y para decidir qué problemas producirían las emisiones de CO2 en caso de continuar. El trabajo de Curry es un exhaustivo repaso de por qué no sirven para ninguno de estos dos últimos propósitos. Pero ni de lejos.

Sin ánimo de un resumen completo, los problemas por los que los modelos no sirven para averiguar esos dos aspectos clave de cara a las “políticas climáticas”, vienen de la forma de hacerse los modelos y de los resultados contrarios a las observaciones que producen.

Resultados. Con los modelos tratan de decir cuánto calienta el CO2 que se emite, y qué otros efectos causa ese calentamiento — como subida del nivel del mar, sequías, huracanes, o lo que sea. Pero eso se puede tratar de averiguar también observando el calentamiento y el aumento del CO2 que ha habido, sumado al resto de elementos que influyen en el clima. Y los dos procedimientos producen resultados muy distintos. Si ponemos los estudios observacionales más recientes comparados con el rango de los modelos, podemos verlo en este cuadro.

ecs-estudios-recientes

De los estudios observacionales sólo hemos puesto el valor más probable. En su distribución de probabilidades se meten más dentro y más fuera del rango de los modelos. Como esto (faltan algunos, que no tengo):

Los CMIP (en naranja) son los modelos. Los azules, los cálculos con observaciones. Y Curry explica que la parte alta de los estudios que se reflejan ahí ha quedado desfasada por recientes estudios (Stevens 2015) sobre uno de los elementos que toman en consideración. El efecto de los aerosoles. Y todos deberían revisar a la baja su resultados en la parte superior. El único que lo ha hecho es Lewis, y queda así con la raya azul marcando el límite superior (95%).

lewis-usando-stevens

Son resultados incompatibles los de los modelos y los de las observaciones. Y por eso el último informe del IPCC (2013) se limitó a proporcionar un rango (1,5 – 4,5), sin poder dar un valor más probable — como tenía por costumbre. Explica que es por la discrepancia entre “las distintas líneas de evidencia”, donde “evidencia” son las observaciones … ¡y sobre todo los modelos!

El “tuneado” de los modelos. Explica Curry, con las citas oportunas, que los modelos tienen un motón de ajustes arbitrarios, cada uno distintos. Y su capacidad para reproducir (más o menos) las temperaturas del siglo XX no viene de su calidad, sino de la selección oportunística de un conjunto de ajustes. Pero entonces la atribución del calentamiento de la segunda mitad del siglo, y del futuro calentamiento, es una broma. Tienes un resultado (mas o menos) adecuado porque ya sabías las temperaturas que tenías que reproducir, y tienes ajustes a la carta para hacerlo. Pero puedes haberlo conseguido usando las razones equivocadas. Y eso no te hace saber lo que pasará en el futuro, ni la causa de lo que observas.

Problema gordo: Estos modelos, que obviamente exageran (Curry dice que como X2) el calentamiento del CO2, son los que usan los economistas para que luego los políticos hagan las leyes. Y todo parte de una manzana podrida.

Este es, más o menos, el resumen de la línea argumental. Hay muchos más detalles, por supuesto.

¿Cómo responden los alarmistas a la crítica de los modelos? Como siempre. Con la carallada de que es la mejor herramienta que tenemos. Pero eso no te dice ni que la herramienta sea buena, ni que sea adecuada. Un ejemplo de discusión en Twitter:

curry-twitter

Son unos jetas. No hay más que abrir los ojos para darse cuenta de que el clima (global) es mucho mejor en los siglos XX/XXI que en los siglos XVII/XVIII. Y, por ejemplo, la subida del nivel del mar que citan lleva subiendo al mismo ritmo inocente desde mucho antes de los “efectos antropogénicos” en el clima.

¿A quién le ha preocupado jamás la subida del nivel del mar de 1900 a 1960? ¡Pues es la misma que de 1960 a aquí! Y el mamón alarmista lo sabe de sobra, pero lo usa aunque no tenga sentido.

Nota: Los gráficos no vienen del trabajo de Curry, pero es de los estudios que habla y se ve mejor.

Fuente, The Global Warming Policy Foundation.

 

Este es uno de los asuntos más extraños, y -para mi- una de las mayores demostraciones de la falta de seriedad de esa que llaman ciencia del cambio climático. Imagina que el siguiente gráfico representa dos predicciones distintas sobre la evolución de una variable hasta fin de siglo.

global-warming-and-peak-oil

¿Qué dirías? Probablemente que se trata de una broma. O una de las predicciones es una coña, o ambas.

Pero te explican que las dos predicciones están basadas en “la mejor ciencia disponible”, teniendo en cuenta toda la literatura científica más actual publicada. En cuyo caso supongo que puedes sugerir que “ciencia” y “ciencia” no es lo mismo, si no distinguimos entre ciencias maduras, de resultados contrastados, y ciencias muy verdes y en un estado esencialmente especulativo. Pero te van a fastidiar, porque te dirán que se trata de “ciencia establecida”.

– Déjese de bromas. Ciencia “establecida” es la que acierta consistentemente las predicciones, y esas dos predicciones no pueden acertar ambas. Ni siquiera mirando el resultado hartos de grifa.

Expliquemos lo que se ve en el gráfico. Dos curvas que representan las emisiones humanas de CO2 en el tiempo, si no hacemos nada para disminuir las emisiones de CO2. Vaya, si no nos portamos bien.

La azul es histórico (medición) hasta 2015, y predicción de un “escenario” del IPCC a partir de ahí. Es el escenario que venden como “business as usual”. Van sumados todos; petróleo, gas y carbón. Con la mejor ciencia que tenemos a nuestra disposición.

La naranja es otra predicción, desde 2015, de lo mismo. Con una diferencia; trata de averiguar cuánto CO2 se puede emitir, sin cortarse, pero con una idea realista de las reservas que hay y las que se pueden encontrar, y los avances en la extracción “no convencional”. Publicada en un estudio reciente (Wang et al 2016), que ha recopilado la literatura científica desde el año 2000, para tener en cuenta los hallazgos y posibilidades de los yacimientos “no convencionales”. El fracking y tal. También es con la mejor ciencia que tenemos a nuestra disposición. Pero el resultado no tiene nada que ver con la anterior “mejor ciencia”. Son dos “mejores ciencias” muy muy distintas.

Y el problema no es una cuestión académica remota. Una predicción dice que en 2100 estaremos emitiendo 28 GtC en CO2; y la otra dice que serán 7 GtC, con un pico en 2034 de 11 GtC. Y si tenemos en cuenta que el Calentamiento Global Acojonante depende básicamente del CO2 que se emita, de 28 a 7 hay un factor de 4.

Vamos a ver qué quiere decir eso en temperatura, en el mundo del IPCC, y de forma muy gráfica. Repito, mundo IPCC, con una teoría que hace agua por todas partes, y unos modelos que sabemos que exageran de largo el calentamiento. Pero se trata de saber la diferencia en temperatura entre una predicción con la mejor ciencia disponible, y otra predicción también con la mejor ciencia disponible.

El primer gráfico venía de la digitalización de la figura 2 de Wang et al 2016. Represantando sólo las dos curvas de interés, que aquí van resaltadas.

global-warming-peak-oil

A señalar. La predicción de Wang (la curva verde) está entre las dos azules de puntos, más cerca de la azul clara. Son los “escenarios” del IPCC llamados RCP6.0 y RCP4.5. Y está mucho más cerca del escenario bajo, el RCP4.5. Estos “escenarios” 6.0 y 4.5 suponen diversos grados de portarse bien. De reducir emisiones con muchas leyes de Obama. Pero los que miran los combustibles fósiles que hay, y los que puede haber, en un ejercicio igual de imaginario que el del IPCC, dicen que nos vamos a portar así de bien sin que hagan falta leyes ni Oabamas. Vale con Trump.

Miremos los escenarios del IPCC, y su CO2 y temperatura. Hasta 2300, y así nos preocupamos de los nietos de los nietos de los nietos.

rcps-a-2300

La diferencia entre la predicción de combstibles fósiles infinitos y la predicción con la mejor estimacion de sus existencias es, en 2100, de 3,2ºC de calentamiento respecto de hoy, a 1,65ºC. Y en 2300 la diferencia es de 7,1ºC, a unos 2,5ºC.

Nota. Ese escenario del IPCC, de emisiones a tutiplén, no se lo cree ni Obama [–>]. Pero es lo que siempre usan en la prensa y en los estudios impactantes cuando oyes barbaridades de lo que subirá el nivel del mar, y lo que se achicharrarán los pájaros y las flores.

Por supuesto, estas cifras de calentamiento en los escenarios del IPCC similares a lo que permiten las existencias imaginables de combustibles fósiles, son también muy exageradas. Mucho. Usan los modelos climáticos de chichinabo y miedo. Pero Willis Eschenbach ha hecho un trabajo muy interseante en WUWT, aplicando la literatura reciente sobre lo que calienta el CO2 usando observaciones reales — y por lo demás toda la teoría y asunciones del IPCC. Es a su vez también la “mejor ciencia disponible”. Con un resultado tan diferente como venimos viendo en los anteriores casos. Aun mucho mas bajo (menos calentamiento).  En concreto, un máximo de 0,6ºC de calentamiento en 2100 usando esos cálculos de forma convencional, y hasta 0,8ºC aplicando las muy discutibles “mejoras” que le han metido los alarmistas de la NASA a los cálculos convencionales. Un rollo muy novedoso que pretende que los vatios del CO2 valen distinto que los demás vatios.

Willis en WUWT:

Cuando te digan que se trata de una “ciencia establecida”, y “la mejor ciencia disponible”, ya sabes lo que quieren decir. Nada. Es un vacile.

Fuentes:

Wang et al 2016:

Riahi et al 2011:

Eschenbach en WUWT:

IPCC:

Larry Kummer (editor de Fabius Maximus) en Ca’n Curry:

Y un mensaje:

parte_nones-mensaje

critica-bastarda

Este es, presumiblemente, el mejor momento para los alarmistas del clima en la próxima década y media. En 1998 hubo un El Niño muy fuerte, y en 2016 también. Y el siguiente, si se mantiene la misma pauta (1983, 1998, 2916) será en poco más de quince años. Como esos El Niño muy fuertes le pegan un notable subidón a la temperatura global, es el mejor momento para que parezca que los modelos climáticos no van sobre-calentados. Lo vemos en el gráfico que presenta Hawkins, en el que destacamos (amarillo) los dos últimos Niños muy fuertes.

hawkins-modelos-termometros-el-nino

CMIP5 (los grises) son los modelos.

La raya negra vertical discontinua que dice Historical <-> RCPs separa la parte de predicción (derecha) de la parte en que los modelos están tuneados para reproducir las temperaturas medidas (izquierda).

El cuadrilátero rojo rayado es la apuesta de predicción del IPCC en 2013, por el procedimiento de “expert opinion”. Muestra que el IPCC no se cree mucho los modelos, y rebaja su calentamiento. Al punto que si no hubiera ningún calentamiento  entre 2005, cuando empieza la predicción, y 2030, el IPCC diría que esa falta de calentamiento es perfectamente consistente con su predicción de Calentamiento Global Acojonante. Lo mostramos con la raya amarilla

hawkins-sin-calentamiento-2030

Todo esto va referido a las observaciones con termómetros de superficie. Sin tocar ni de lejos las observaciones desde satélites, que son básicamente incompatibles con el cálculo de temperatura global a partir de los termómetros.

Aun así, estos gráficos de Hawkins, que siguen la pauta del IPCC, tienen un truco que no se puede olvidar. Si el Calentamiento  Global Acojonante empezó entre 1975 y 1980, por qué empiezan el gráfico en 1985, y usan 1986 – 2005 como período de referencia? El efecto de esa elección es unir las dos series (modelos y observaciones) hacia la mitad del período de referencia (1995), y así disimular la diferencia acumulada entre ambas desde el principio del Calentamiento Global Acojonante.

Steve McIntyre lo expresa con este gráfico, al que también le añade los satálites. Y explica:

AR5 reference period 1986-2005 is a graphic “trick” which hides cumulative discrepancy since 1979. Perspective w 1979-90

mcintyre-models-observations-2016

El gráfico izquierda es satélites, y el derecho termómetros de superficie.

O el gráfico que solemos poner aquí, con medias de cinco años en lugar de anuales, satélites (azul) y modelos climáticos (rojo):

También se puede expresar en números, que Hawkins no hace. Tendencia lineal 1979 – 2016 expresada en ºC / década.

 

Fuentes:

Climate Lab Book:

Ed Hawkins en Twitter:

Steve McIntyre en Twitter:

dilbert-climate-models

Scott Adams, el autor de Dilbert, ha estado azuzando la discusión del Calentamiento Global Acojonante desde su blog [–>]. Donde azuzar tiene el significado DRAE: incitar a los perros para que embistan.

Niega conocer el asunto como para juzgarlo, alegando que no tiene los conocimientos necesarios. Pero al mismo tiempo asegura que sí sabe mucho sobre persuasión -que no tiene por qué estar relacionada con la realidad- y que le parece mas persuasiva la argumentación de los escépticos. Lo hace de una forma bastante cachonda.

Desde el punto de vista de la persuasión, y basado en lo que he visto, la gente que dice que los modelos no son fiables es mucho más convincente que la gente que cree que los modelos son fiables. Pero la persuasión no está siempre conectada con la verdad. La verdad del cambio climático no está enteramente disponible para mi, dada mi falta de conocimiento y formación en los campos relevantes. De momento me sitúo con el consenso de los científicos, lo que me pone en el lado débil del juego de la persuasión en este debate. Mi equipo realmente necesita ayuda.

No hace falta explicar el rebote que tienen todos los alarmistas del clima con un planteamiento de este tipo. La operación Dilbert ha sido de una sutileza mayúscula. Porque, sin plantearlo expresamente, ha situado la discusión en su punto justo. Que es justo el punto del que los alarmistas la quieren sacar. La credibilidad de los modelos. Y Adams ha conseguido que todo *el* problema sea exclusivamente esa. ¿Son creíbles los modelos?

Al entrar los alarmistas a ese trapo, han confesado indirectamente lo que siempre tratan de ocultar. Que no tienen ninguna evidencia empírica, y que toda su “ciencia” y alarma está basada en unos modelos de credibilidad más que discutible. Cierto, plantean que los modelos sí son creíbles. Pero al no tener nada más que presentar, han dejado desnuda la realidad; que todo depende de esos modelos. Y esa es una discusión muy muy delicada. Como dice Adams, con muy mala pinta para los alarmistas.

A modo de homenaje a Dilbert, ofrezco otro argumento sobre la falta de credibilidad de los modelos. Porque no lo he visto en la kerfuffle que ha montado Scott. Siempre vemos representado el resultado de los modelos en anomalías. O sea, en la variación de temperatura de cada modelo, con independencia de a qué temperatura esté circulando. Pero la diferencia de temperatura absoluta (no de variación de temperatura) entre los distintos modelos llega a tres grados.

desparrame-modelos-climaticos

Tres grados es casi la diferencia que hay entre una tierra en estado de glaciación, y la nuestra. Y los procesos de los que depende el efecto de un forzamiento como el del CO2, el que el sistema climático amplifique más o menos ese efecto, dependen de la temperatura. Por ejemplo la evaporación, las nubes, y la lluvia. O el albedo (reflejo) de la nieve y el hielo.

O sea, cuando hablemos de modelos, y de su credibilidad, nunca olvidemos esto:

dilbert-climate-models

Una nota al margen. En el enfado de los alarmistas, menosprecian a Adams señalando que es un dibujante de comics. Al parecer olvidan que el estudio / payasada del 97% de consenso en el que siempre se basan, estaba dirigido por … ¡un dibujante de comics!

Fuentes:

Judith Curry:

Scott Adms:

Los alarmistas del clima están mostrando ahora comparaciones de modelos climáticos y realidad con mucha afición. Por ejemplo:

Que si ponemos el gráfico sólo, es esto:

modelos-realidad-superficie

Y parece que los modelos van de cine. Las mediciones de termómetros de superficie van justo un poco por encima de la media de los modelos. Y se ve muy bien por qué hasta hace poco (como 2012  – 2014) no les gustaba comparar los modelos con la realidad. ¡Porque la realidad se estaba saliendo del margen de los modelos!

modelos-realidad-superficie-2

El truco es que ahora acaba de haber un El Niño de los fuertes (como el de 1998), y eso sube espectacularmente la temperatura global.

el-ninho-34

En la media de los modelos no se refleja El Niño, porque como no se puede predecir, cada uno lo tiene en un momento diferente (si es que lo tiene) y en el promedio desaparecen. Y entonces, si quieres hacer una comparación modelos realidad, o no la haces en el momento de El Niño, o comparas dos situaciones en El Niño de similar fuerza.

Destacamos los dos Niños fuertes (1998 y 2016), y vemos cómo el de 1998 se salía del margen de los modelos por arriba, y el de 2016 se queda poco por encima de la media.

en-modelos-realidad-superficie

¿Eso quiere decir que los modelos van muy bien, o querrá decir que van francamente más calientes que la realidad? En todo caso habrá que esperar unos pocos años a que se estabilice después del arreón del El Niño.

Nota: El “escenario” de los modelos que usa el gráfico (RCP 4.5) es de muchas menos emisiones que las que hay, pero en 2016 no se nota todavía en la temperatura. Es para emisiones futuras.

Y luego hay otra cuestión importante. Lo que miden con termómetros y con satélites está empezando a ser incompatible. O los termómetros están midiendo efectos no climáticos (por ejemplo, urbanización), o sus ajustes y correcciones son un cachondeo, o hay algún problema con los satélites. O hay un problema con el entendimiento del clima. Porque un calentamiento debería notarse más en la altura a la que miden los satélites, y las mediciones dicen lo contrario.

En principio, la medición desde satélites es mucho más adecuada. Porque están midiendo algo global (las garitas de termómetros nunca se pensaron para eso) y porque el “efecto invernadero” ocurre en la troposefra a media altura – y de ahí se traslada hacia abajo.

Según los satélites, vemos esta comparación modelos / realidad.

modelos-realidad-satelites-2

Este es el gráfico que solemos poner, con una media de cinco años – que es lo típico para ver una tendencia sin demasiado vaivén. Pero le podemos añadir la media anual (en rosa) para hacer lo mismo que el gráfico de los alarmistas.

modelos-realidad-satelites

También podemos señalar los dos El Niño fuertes:

modelos-realidad-satelites-3

En este caso los modelos usan el escenario de emisiones más alto (RCP 8.5), pero ya digo que todavía no hay diferencia entre los distintos escenarios. Son para el futuro.

Resumiendo. Termómetros de superficie y satélites están empezando a contar películas diferentes, incompatibles. Los dos van más fríos que los modelos. Los satélites, mucho más fríos.

 

Página siguiente »