modelos


dilbert-climate-models

Scott Adams, el autor de Dilbert, ha estado azuzando la discusión del Calentamiento Global Acojonante desde su blog [–>]. Donde azuzar tiene el significado DRAE: incitar a los perros para que embistan.

Niega conocer el asunto como para juzgarlo, alegando que no tiene los conocimientos necesarios. Pero al mismo tiempo asegura que sí sabe mucho sobre persuasión -que no tiene por qué estar relacionada con la realidad- y que le parece mas persuasiva la argumentación de los escépticos. Lo hace de una forma bastante cachonda.

Desde el punto de vista de la persuasión, y basado en lo que he visto, la gente que dice que los modelos no son fiables es mucho más convincente que la gente que cree que los modelos son fiables. Pero la persuasión no está siempre conectada con la verdad. La verdad del cambio climático no está enteramente disponible para mi, dada mi falta de conocimiento y formación en los campos relevantes. De momento me sitúo con el consenso de los científicos, lo que me pone en el lado débil del juego de la persuasión en este debate. Mi equipo realmente necesita ayuda.

No hace falta explicar el rebote que tienen todos los alarmistas del clima con un planteamiento de este tipo. La operación Dilbert ha sido de una sutileza mayúscula. Porque, sin plantearlo expresamente, ha situado la discusión en su punto justo. Que es justo el punto del que los alarmistas la quieren sacar. La credibilidad de los modelos. Y Adams ha conseguido que todo *el* problema sea exclusivamente esa. ¿Son creíbles los modelos?

Al entrar los alarmistas a ese trapo, han confesado indirectamente lo que siempre tratan de ocultar. Que no tienen ninguna evidencia empírica, y que toda su “ciencia” y alarma está basada en unos modelos de credibilidad más que discutible. Cierto, plantean que los modelos sí son creíbles. Pero al no tener nada más que presentar, han dejado desnuda la realidad; que todo depende de esos modelos. Y esa es una discusión muy muy delicada. Como dice Adams, con muy mala pinta para los alarmistas.

A modo de homenaje a Dilbert, ofrezco otro argumento sobre la falta de credibilidad de los modelos. Porque no lo he visto en la kerfuffle que ha montado Scott. Siempre vemos representado el resultado de los modelos en anomalías. O sea, en la variación de temperatura de cada modelo, con independencia de a qué temperatura esté circulando. Pero la diferencia de temperatura absoluta (no de variación de temperatura) entre los distintos modelos llega a tres grados.

desparrame-modelos-climaticos

Tres grados es casi la diferencia que hay entre una tierra en estado de glaciación, y la nuestra. Y los procesos de los que depende el efecto de un forzamiento como el del CO2, el que el sistema climático amplifique más o menos ese efecto, dependen de la temperatura. Por ejemplo la evaporación, las nubes, y la lluvia. O el albedo (reflejo) de la nieve y el hielo.

O sea, cuando hablemos de modelos, y de su credibilidad, nunca olvidemos esto:

dilbert-climate-models

Una nota al margen. En el enfado de los alarmistas, menosprecian a Adams señalando que es un dibujante de comics. Al parecer olvidan que el estudio / payasada del 97% de consenso en el que siempre se basan, estaba dirigido por … ¡un dibujante de comics!

Fuentes:

Judith Curry:

Scott Adms:

Los alarmistas del clima están mostrando ahora comparaciones de modelos climáticos y realidad con mucha afición. Por ejemplo:

Que si ponemos el gráfico sólo, es esto:

modelos-realidad-superficie

Y parece que los modelos van de cine. Las mediciones de termómetros de superficie van justo un poco por encima de la media de los modelos. Y se ve muy bien por qué hasta hace poco (como 2012  – 2014) no les gustaba comparar los modelos con la realidad. ¡Porque la realidad se estaba saliendo del margen de los modelos!

modelos-realidad-superficie-2

El truco es que ahora acaba de haber un El Niño de los fuertes (como el de 1998), y eso sube espectacularmente la temperatura global.

el-ninho-34

En la media de los modelos no se refleja El Niño, porque como no se puede predecir, cada uno lo tiene en un momento diferente (si es que lo tiene) y en el promedio desaparecen. Y entonces, si quieres hacer una comparación modelos realidad, o no la haces en el momento de El Niño, o comparas dos situaciones en El Niño de similar fuerza.

Destacamos los dos Niños fuertes (1998 y 2016), y vemos cómo el de 1998 se salía del margen de los modelos por arriba, y el de 2016 se queda poco por encima de la media.

en-modelos-realidad-superficie

¿Eso quiere decir que los modelos van muy bien, o querrá decir que van francamente más calientes que la realidad? En todo caso habrá que esperar unos pocos años a que se estabilice después del arreón del El Niño.

Nota: El “escenario” de los modelos que usa el gráfico (RCP 4.5) es de muchas menos emisiones que las que hay, pero en 2016 no se nota todavía en la temperatura. Es para emisiones futuras.

Y luego hay otra cuestión importante. Lo que miden con termómetros y con satélites está empezando a ser incompatible. O los termómetros están midiendo efectos no climáticos (por ejemplo, urbanización), o sus ajustes y correcciones son un cachondeo, o hay algún problema con los satélites. O hay un problema con el entendimiento del clima. Porque un calentamiento debería notarse más en la altura a la que miden los satélites, y las mediciones dicen lo contrario.

En principio, la medición desde satélites es mucho más adecuada. Porque están midiendo algo global (las garitas de termómetros nunca se pensaron para eso) y porque el “efecto invernadero” ocurre en la troposefra a media altura – y de ahí se traslada hacia abajo.

Según los satélites, vemos esta comparación modelos / realidad.

modelos-realidad-satelites-2

Este es el gráfico que solemos poner, con una media de cinco años – que es lo típico para ver una tendencia sin demasiado vaivén. Pero le podemos añadir la media anual (en rosa) para hacer lo mismo que el gráfico de los alarmistas.

modelos-realidad-satelites

También podemos señalar los dos El Niño fuertes:

modelos-realidad-satelites-3

En este caso los modelos usan el escenario de emisiones más alto (RCP 8.5), pero ya digo que todavía no hay diferencia entre los distintos escenarios. Son para el futuro.

Resumiendo. Termómetros de superficie y satélites están empezando a contar películas diferentes, incompatibles. Los dos van más fríos que los modelos. Los satélites, mucho más fríos.

 

Judith Curry nos trae un nuevo “paper” en Science, y lo comenta. Lo mejor probablemente es leerlo allí directamente:

Pero voy a intentar explicar la importancia del asunto para los que no han seguido a fondo la discusión hasta ahora.

Imagina que tienes un sistema físico cuyas leyes conoces. Por ejemplo una olla llena de agua, con un volumen determinado. Y que está afectado por unos factores externos que también conoces. Por ejemplo, fuego por debajo, de mayor o menor intensidad; y una tapa por arriba, más o menos cerrada. Y puedes predecir: con el mismo fuego, si cierras más la tapa, el agua se calentará.

olla-al-fuego

En ese sentido, la teoría del Calentamiento Global (Acojonante) es no polémica.  Y lleva siendo no polémica desde -por lo menos- Guy Callendar, en 1937. Sólo que entonces no era Acojonante [–>]. El CO2 que emitimos es como cerrar un poco la tapa. Algo tiene que calentar. El problema está en averiguar si ese “algo” es:

  • Inapreciable
  • Un calentamiento suave y beneficioso
  • Un calentamiento moderado de consecuencias discutibles
  • Un calentamiento Acojonante.

Nota: Lo de que un calentamiento suave sea beneficioso también debería ser no polémico. La así llamada “temperatura pre-industrial” es una temperatura mala, por demasiado fría.

En esa “temperatura pre-industrial” el Támesis se helaba (a veces también el Ebro), y se perdían las cosechas por el frío. Este cuadro de Gabriel Bella es Venecia en 1708.

venice_frozen_lagoon_1708-gabriel-bella

Es obvio; el problema es saber cuantificar ese “efecto tapa” del CO2. Porque dejar de emitir CO2 es -de momento- carísimo; nos empobrecemos. Mucho. Y porque ese empobrecimiento podría suponer evitar algo inapreciable, que sería una estupidez; o incluso evitar algo bueno, que sería una canallada.

Aunque el problema parece fácil (la temperatura es una función del calor que entra menos el calor que sale), en realidad no lo es. Esa cuantificación no es fácil, porque la temperatura de la olla no era constante antes de que moviéramos la tapa. Había otras cosas que cambiaban la temperatura antes de nuestras emisiones, y que siguen operativas. ¿Variaba el fuego? ¿Variaba la tapa por si misma (sin ayuda nuestra)? ¿Variaba la temperatura externa o el viento, haciendo cambiar la temperatura del agua de la olla? ¿Variaban las paredes, emitiendo hacia afuera más o menos calor? ¿Variaba el líquido de dentro — por ejemplo algo revolviendo el agua a mayor o menor velocidad?

Nota: Estas variaciones que pueden afectar a la temperatura es lo que llaman, en la jerga del cambio climático, forzamientos.

Aunque hayas visto que la temperatura ha subido un poco, no puedes saber cuánto es por el ligero cierre de la tapa, y cuánto es por las demás cosas – de las cuales unas conoces y otras no. Resumiendo: No hay forma de saber el calentamiento achacable al ligero cierre de la tapa si no sabes lo que hubiera cambiado la temperatura en ausencia de ese ligero cierre.  O sea, no puedes conocer el cambio climático antropogénico si no conoces el cambio climático natural. Esto también es algo no polémico.

Y aquí es donde entran en juego los modelos climáticos. En teoría, un procedimiento muy bonito y muy limpio. Metemos leyes conocidas de la física en unas fórmulas, y nos resulta una temperatura. La diferencia que hay entre incluir el efecto directo del CO2 extra (la física radiativa del CO2, que es conocida) y no hacerlo, nos da el efecto total de ese CO2 que estamos emitiendo. Y sería cierto si fuera verdad; pero no lo es. Porque no meten sólo física conocida. Muchos de los forzamientos, de los que hablábamos antes, no son muy conocidos. Y mucha de la física conocida no la pueden resolver los modelos; les falta potencia en órdenes de magnitud. Y siempre les va a faltar – es el problema del sistema caótico. Así que en vez de resolver las ecuaciones, las parametrizan. Y el conjunto de esos ajustes, los forzamientos no conocidos que ponen más o menos a huevo, y las parametrizaciones, son el famoso tuneo del que no hablan casi nunca.

Y no se trata de que el tuneo sea necesariamente tramposo. Puede ser hasta inconsciente. Si con unos ajustes el modelo produce unas temperaturas del pasado (conocidas) absurdas, lo descartan. Y no lo publican hasta no tener unos ajustes que parezcan razonables, y den unas temperaturas del siglo XX parecidas a la realidad. El problema está en “parezcan razonables”, porque es algo que depende de lo que tengan en la cabeza antes de hacer los ajustes.

Volvamos al caldero de antes.

olla-al-fuego

Puedes decidir que los humanos, además de haber cerrado un poco la tapa (eso calienta), también estaban revolviendo el líquido con una cuchara (eso enfría). Y dependiendo de la velocidad con que lo hicieran, enfriaba más o menos. Pero no sabes cuánto. Y puedes obtener la misma temperatura a base de un efecto muy fuerte de cerrar la tapa, contrarrestado por un revolver rápido; o a base de un efecto suave de cerrar la tapa, contrarrestado suavemente por una cuchara lenta. El resultado es el mismo, la misma temperatura, pero el efecto de cerrar la tapa es muy diferente. Y el efecto de cerrar la tapa es justamente lo que querías saber. Para tratar de imaginar lo que hará en el futuro. Pero depende de la parametrización de la cuchara, si es un cálculo, o del forzamiento que le adjudiques si es un forzamiento.

Ahí está el quid. ¿Conocemos y podemos comparar esos tuneos para saber (1) que se han hecho con “prejuicios” en los dos sentidos, y (2) cuáles dan un resultado mejor?

Los modelos climáticos reproducen todo lo que pueden aplicando las leyes de la física en cajas imaginarias de decenas de kilómetros de lado. Pero algunos procesos, como la formación de nubes, son de grano demasiado fino para eso, y los modelistas usan “parametrizaiones” intentando aproximar estos efectos. Durante años, los científicos del clima han tuneado sus paremetrizaciones para que los modelos coincidan en general con los registros climáticos. Pero, temiendo críticas de los escépticos del clima, han estado largamente mudos sobre cómo tunean sus modelos, y por cuánto.

Eso viene del abstract. Dentro lo desarrolla más.

Durante años, los científicos del clima han estado mudos en público sobre su “salsa secreta”: Lo que ocurría en los modelos se quedaba en los modelos. El tabú reflejaba miedos de que los contrarios usaran la práctica del tuneo para sembrar dudas sobre los modelos — y, por extensión, sobre la realidad del calentamiento antropogénico. “La comunidad se puso a la defensiva”, explica Stevens. “Tenía miedo de hablar de cosas que pensaban que podrían usarse injustamente contra ellos”.

Evidente: Si los tuneos pueden sembrar dudas, y los ocultas, estás ocultando las dudas. Y eso es, exactamente, exagerar la certidumbre. O inventársela.

Daniel Williamson,  un estadístico de la Universidad de Exeter, expone que los centros (de modelización) deberían presentar múltiples versiones de sus modelos para comparación, cada uno con estrategias de tuneo diferentes. El método actual oscurece la incertidumbre e inhibe la mejoría. “Una vez que la gente sea más abierta, podemos hacerlo mejor”.

Esto, que parece más o menos oscuro, no tiene nada de marginal. Es la madre del cordero de la discusión del clima. Porque los modelos son la supuesta “prueba” de la alarma; lo único que hay a ese respecto. Y la prueba (imaginaria) que alegan es que no pueden modelar el clima conocido (1850 – 2016) sin que el CO2 no sea un gran problema. Pero se callaban que eso depende mucho del tuneo. Ahora parece que van a abrir ese manto de sombra. Dicen; proponen.

Judith Curry fue vilipendiada y tachada de “negacionista” por su paper The uncertainty monster [–>], en el que explicaba la incertidumbre introducida por el tuneo misterioso, y por las incertidumbres estructurales de los modelos. Ahora avisa:

Me pregunto si estos mismos modelistas del clima se dan cuenta de la lata de gusanos que están abriendo.

Pero mejor leerlo en su blog, entero:

 

Malcom Roberts es un senador australiano muy combativo contra las “políticas climáticas”. Y por tanto contra la ciencia que las soporta. No es exactamente fino, y dice bastante burradas que no se pueden sostener. Pero sí es un pesado; muy útilmente pelma. Y ha producido un momento público extremadamente ilustrativo para la discusión del cuento del Cambio Climático Acojonante.

Le pregunta en el senado al Dr. Alan Finkel:

En base a qué crees que el CO2 afecta a clima y debe ser cortado

Se refiera a cortar las emisiones, claro. Y la pregunta es lo mismo que preguntar por la prueba del cuento que se traen. Finkel es el Chief Scientist de Australia. Un cargo público [–>] cuya responsabilidad es asesorar al gobierno australiano en cuestiones científicas y tecnológicas. El vídeo, de dos minutos y medio, se puede ver en este [–>] enlace. Y la ventaja, aparte de la formalidad y la publicidad del senado, es que le pide una respuesta breve y concisa (no se ve en el vídeo). Finkel se enrolla todo lo que se atreve, pero supongo que no le daban mucho tiempo. Y deja muy muy claro lo que siempre intentan dejar incomprensible. Resumo la respuesta, quitando la paja (el nota podía haber usado 15 segundos en lugar de 150):

Creo que los principios son muy claros.

– Emitimos mucho CO2 y eso hace que esté aumentando su concentración en el aire. Lo medimos.

– Este CO2 extra “atrapa” calor, y eso produce un calentamiento por razones físicas. Lo medimos.

– El tercer paso es el impacto. El CO2 está aumentando y con él la temperatura. ¿Qué le hace eso al clima? Y esta es la parte donde se hace muy muy difícil. Ahora estás en el terreno de los modelos.

Y acaba con un gesto, como diciendo -eso es; ahí tienes. Este gesto:

finkel-y-la-prueba-del-calentamiento-global

Y ahí está el asunto con el que mienten como perros. Dicen que hay un “consenso” y suficiente “evidencia empírica” como para tener una “ciencia establecida”. Y es muy cierto en lo que respecta a los dos primeros puntos. Pero en esos dos puntos no han mostrado ningún problema. Un calentamiento suave y el CO2 extra fertilizando las plantas es como si te toca la lotería.

Las “razones físicas” por las que se sabe que el CO2 produce un calentamiento, también señalan que es un poco de calentamiento que no le puede preocupar a nadie. Lo hemos repetido hasta la náusea; para saltar de un poco de calentamiento a Houston tenemos un problema hace falta imaginar una amplificación fuerte del efecto de esas “razones físicas”. Y esa amplificación imaginaria nunca ha pasado del estado especulativo; no hay ninguna evidencia empírica de tal asunto.

Nota marginal: más explicación en: ¿Es razonable pensar que provocamos “calentamiento global” con el CO2? ¿Y que sea un problema?

Los modelos si producen esa amplificación fuerte, pero es que están diseñados (tuneados) para ello.

Hablemos ahora de los modelos. Los climatólogos críticos con la vaina del alarmismo señalan que los modelos van muy calientes, son irreales. Y si la realidad va más fría que los modelos, eso significa que no hay tal amplificación fuerte. O no es tan fuerte. Pero claro; con decir que los que hacen esas críticas son “negacionistas”, y mentir diciendo que están vendidos a Big Oil,  seguimos adelante con el cuento.

Vale, escuchemos a los alarmistas. Acaban de publicar un trabajo con la clara intención de mostrar que los modelos van muy bien. Roy Spencer explica cómo han elegido las series de datos que les favorcen (alguna convenientemente recién corregida), y olvidado las series de datos que les van mal. Además de algún truquillo guarrete que han usado. Aquí:

New Santer et al. Paper on Satellites vs. Models: Even Cherry Picking Ends with Model Failure

La comparación es en la troposfera media. Muy oportuna, porque es el lugar donde ocurre toda la acción del “efecto invernadero”. Y los autores, con Ben Santer y Carl Mears (el de RSS) a la cabeza, son de lo más alarmista que puedes encontrar en el mercado del alarmismo. Ninguna posibilidad de que pensar que tienen ganas de señalar problemas en los modelos.

Y esto es todo lo que consiguen.

Cuando tenemos en cuenta el impacto de enfriamiento estratosférico en la troposfera media (Spencer dice que está mal hecho) y cuando usamos las versiones más recientes de los datos de los satélites (Spencer dice que pasan de los globos sonda), el desfase anteriormente proclamado entre las tendencias simulada y observada del calentamiento se reduce a ≈ 1.7 [Comparing tropospheric warming in climate models and satellite data –>]

Traducido. Los modelos sólo exageran la realidad multiplicando el calentamiento x 1,7. O el calentamiento real sólo es el 59% del calentamiento imaginario. ¡Y esto lo dicen los alarmistas, haciendo toda la gimnasia que se han atrevido! Están contentos porque la misma medición llevada a cabo por sus críticos resulta en un exceso de calentamiento de los modelos de x 3.

Para acabar, pongamos contexto a ese 59% de los alarmistas. En el último informe del IPCC (2013) no se han atrevido a dar un calentamiento más probable, precisamente por el desacuerdo entre los modelos y la realidad. Entre las “distintas líneas de evidencia”, dicen literalmente — y llamando “evidencia” a los modelos. En el informe anterior (2007), el IPCC daba un calentamiento más probable por doblar el CO2 de unos 3ºC. Pues bien, el 59% de 3ºC son 1,8ºC. Cantidad que coincide mucho con los cálculos más recientes de la “sensibilidad climática”. Son cálculos por otros medios, usando modelos y la realidad en un plazo mucho más largo; 130 años en lugar de los 37 de los satélites. Y esos estudios son los que nunca ves en los periódicos, porque los alarmistas no quieren ni oír hablar de ellos.

El resumen gráfico que suelo poner:

Es muy sencillo; poco calentamiento no produciría ninguna alarma (en realidad es bueno, y más con el CO2 extra), y esta gente está en el mercado de la alarma. Vive muy bien de ese mercado.

Fuentes.

WUWT:

Sydney Morning Herald:

Roy Spencer:

Santer y compañia:

Vuestra humilde plaza:

 

Hace relativamente pocos años la comunidad de la alarma del clima se ofendía si alguien hablaba del “tuneado” (ajustado) de los modelos. Pero al final la expresión entró en la literatura oficial, y se quedó. Y no es algo de lo que se hable mucho. Al contrario; tal vez sea el mayor arcano de la ciencia del calentamiento global.

¿Qué es el tuneado; qué es lo que se ajusta? Una serie de parámetros “estimados” que se introducen en el modelo, en vez de que lo calcule el modelo. Con la posibilidad de “estimar” una cantidad u otra muy distinta. En palabras del estudio que nos ocupa:

The process of parameter estimation targeting a chosen set of observations is an essential aspect of numerical modeling. This process is usually named tuning in the climate modeling community.

Veamos el problema. Todo el mundo entiende que los modelos climáticos reciben unos datos del estado inicial del sistema, y después aplican leyes físicas bien conocidas para ver cómo evoluciona. Y que con ese procedimiento son capaces de acertar más o menos decentemente la temperatura global conocida del pasado — por ejemplo entre 1900 y 2000. Lo que produce una muy conveniente conclusión: Si pueden acertar las temperaturas del siglo XX, simplemente aplicando leyes físicas conocidas, eso significa que también pueden acertar las del sigo XXI aplicando las mismas leyes.

Lo que NO te explican, nunca, es que los modelos han sido “tuneados” (ajustados) para reproducir esas temperaturas.

Sintetizando la diferencia entre lo que suponemos y lo que pasa:

tuneado-modelos-climaticos

Expliquemos el significado de ese “nada” que figura como resultado de la triste realidad. O mejor, que lo explique el IPCC [–>]. Por otra parte es obvio.

If the model has been tuned to give a good representation of a particular observed quantity, then agreement with that observation cannot be used to build confidence in that model.

Sin duda es posible que el modelo sirva para comprender la relación entre algunas variables del sistema, si los “ajustes” aplicados son acertados — y eso no se puede saber. Pero de ninguna forma se puede usar como medida de confianza en el modelo el que acierte las temperaturas del siglo XX, si ha sido tuneado para conseguirlo. Y eso es lo que hacen, pero de una forma más o menos oscura. Los científicos nunca dicen en la literatura que la confianza que tienen en los modelos venga de esa capacidad de reproducir las temperaturas del siglo XX. Pero cuando traducen esa literatura a los periodistas y a los políticos, ese es justamente el mensaje que producen.

Ojo; lo que publica el IPCC, y que tomamos por la Biblia, no es literatura científica sino “traducción” (interpretación, etc) de la misma. Especialmente lo que destinan al público. Por ejemplo, las FAQ. Y mira [–>] lo que pasa:

Una tercera fuente de confianza viene de la habilidad de los modelos de reproducir las características de climas y cambios climáticos pasados.

…/…

Un ejemplo es que la tendencia de temperatura global del pasado siglo (mostrada en la figura 1) se puede modelar con gran acierto cuando se incluyen tanto los factores naturales como los humanos que afectan al clima.

Figura 1 (de FAQ 8.1: How Reliable Are the Models Used to Make Projections of Future Climate Change?)

ipcc-ar4-modelos-realidad

Repetición sintetizada de la jugada:

  1. IPCC: Si un modelo está tuneado para reproducir la tendencia de la temperatura global del siglo XX, esa capacidad de reproducirla no se puede usar como medida de confianza del modelo.
  2. IPCC: Una fuente de nuestra confianza en los modelos viene de su gran capacidad de reproducir la tendencia de la temperatura global de siglo XX.

¿¿¿Mande???

Nota. Las dos afirmaciones vienen del mismo informe del IPCC (AR4 – 2007), aunque de secciones distintas. La primera es para los científicos; la segunda para los pardillos.

Ahora sólo queda por saber aquello de lo que no tenemos la menor duda. Si los modelos están tuneados para reproducir la tendencia de temperatura del siglo XX. Del estudio de hoy:

The increase of about one Kelvin of the global mean temperature observed from the beginning of the industrial era, hereafter 20th century warming, is a de facto litmus test for climate models. However, as a test of model quality, it is not without issues because the desired result is known to model developers and therefore becomes a potential target of the development.

El problema es que ese asunto no está documentado. No se sabe cómo lo hacen ni qué criterios usan. De palabra, y según este estudio, parece que un 35% de los modelistas dicen que usan la temperatura del siglo XX para tunear su modelo, y un 30 dice que no. Pero decir es gratis. Y el caso es que todos los modelos que se publican reproducen razonablemente la tendencia de temperatura global del siglo XX, cuando tienen diferencias entre sí tan grandes como que el efecto del CO2 es hasta el doble en unos que en otros. Ese efecto del CO2, con todas las “retroalimentaciones” del sistema, es una salida del modelo, no un parámetro. Sin embargo, a pesar de esa enorme diferencia, mediante el tuneo producen todos el mismo resultado de temperatura del siglo XX que conocían antes de empezar a modelar.

Pongamos un ejemplo gráfico. Los modelo de la generación más reciente, llamada CMPI5, usan (conocen) las temperaturas hasta 2005. Así que todo lo anterior a 2005 es “retropredicción”, y presumiblemente “tuneo”; y lo posterior es predicción propiamente dicha. Y mira lo que pasa:

modelos-climaticos-tuneo-y-prediccion

Seguiremos hablando de este estudio, del que esta entrada tal vez sirva como aperitivo.

Fuente, Judith Curry (mejor empezar por ahí):

los-pobres-se-van-a-calentar-mas

Lo han sacado esta noche en The Guardian (clic), y tal vez tenga repercusión en tu periódico o tele favoritos. Además es un caso precioso, porque no cabe mejor ejemplo de eso que llaman ciencia del calentamiento global – o calentología para los amigos.

La idea es muy impactante. Los países pobres, que han causado muchas menos emisiones de CO2 que los ricos, van a sufrir mucho más por el Calentamiento Global Acojonante. No cabe mayor injusticia; teniendo menos culpa van a tener más penalización. Porque los países pobres tienden a ser los de las zonas tropicales, y los ricos los de las latitudes altas. (Nota: técnicamente, el quintil más rico de la población mundial vive sobre todo en latitudes altas, y el quintil más pobre en latitudes bajas).

El lector avisado se preguntará si acaso va a haber más calentamiento en las zonas tropicales. Porque es lo contrario de lo que pensaba. Y el lector inteligente -o “facha”, según se mire- se preguntará si han medido ya ese fenómeno en  lo que llevamos de Calentamiento Global Acojonante. La respuesta es no. Doble no. El estudio del que sale el artículo, así como el conocimiento estándar, dice literalmente: high latitude regions experience larger warming signals than the global mean. [Página 3, penúltimo párrafo –>]. Lo que implica necesariamente que las latitudes bajas tienen (y tendrán) menos calentamiento que las altas.

¿Y cómo cojones pasan de tener menos calentamiento las regiones con más pobres, a (literalmente) ser golpeadas con mayor dureza por el calentamiento global? Mediante un prodigio llamado calentología. Se basa en una estrategia que utiliza los siguientes pasos:

  1. No medir la realidad. Nunca. Y prescindir de ella si se tiene a mano alguna medición inconveniente.
  2. Utilizar modelos climáticos para una función en la que ya se han demostrado perfectamente inútiles.
  3. Construir un artefacto estadístico que produzca, en esos modelos, el resultado que se desea.
  4. Llamar “evidencia” a las operaciones anteriores.
  5. Anunciar el fin del mundo -o el problema de su interés- a bombo y platillo.
  6. Dejar que la prensa extraiga aun más jugo que el que proporciona la falsa “evidencia”.

En este caso, el artilugio estadístico consiste en cambiar de problema imaginario. En vez de que el problema sea el calentamiento, se define como “días con extremos de temperatura”. Las temperaturas son mucho más estables en los trópicos, con variaciones mucho menores. Y estos calentólogos han encontrado que en los modelos que han usado resulta más probable que ocurran “extremos” en los trópicos, al aumentar el CO2.

By utilising simulations of cumulative carbon dioxide (CO2) emissions and temperature changes from eleven earth system models, we demonstrate that the inherently lower internal variability found at tropical latitudes results in large increases in the frequency of extreme daily temperatures (exceedances of the 99.9th percentile derived from pre-industrial climate simulations) occurring much earlier than for mid-to-high latitude regions.

Pero claro, se olvidan explicar que, precisamente porque los trópicos tienen mucha menos variación de temperatura, la diferencia entre “extremo” y “no extremo”, o la diferencia entre percentiles, es mucho menor. Y probablemente sea irrelevante, o inapreciable. De hecho especifican que esta “emergencia” de la señal de días de calor “extremo” ocurre rápidamente en los trópicos, tanto en los modelos con mucho o con poco calentamiento por CO2 [pág. 5, 2º párrafo –>]. La cantidad de Calentamiento Global Acojonante da igual. Y entonces da la mismo que esos modelos estén representando algo real o irreal; si fuera real, en otros calentamientos anteriores también habría ocurrido el mismo prodigio estadístico, sin que nadie se preocupara por ello. Vaya, sin que lo notara siquiera. ¡Porque los calentamientos (y los enfriamientos) son menores en los trópicos, hagan lo que hagan las estadísticas marginales sobre un concepto irrelevante (en los trópicos) de “percentil extremo”.

El estudio es:

Y ya en el título tiene dos pipas. Los modelos climáticos no son “experiencias”. Y si el artificio estadístico fuera real, no sería propio de un calentamiento “antropogénico”, sino propio de cualquier calentamiento por el motivo que fuera. Por ejemplo, natural.

Esto es la calentología. Un mundo imaginario que presenta problemas inexistentes basados en estadística creativa. Pero no les preguntes cuál es el problema de que en tu pueblo tropical sean diez días en tres años, en lugar de un solo día en el mismo plazo, en los que la temperatura alcance 28,2ºC en lugar de quedarse en 28,1ºC. Un poner. Es sólo quiere decir que eres lo suficientemente torpe para no entender una “emergencia” estadística. Y los torpes nos seguimos quedando con esto:

Slide1

O con esto:

modelos-climaticos-y-realidad-tmt-trop-gavin-curry

Esta es una entrada que continúa la vieja discusión de hasta qué punto los modelos climáticos están fuera de la realidad. O sea, hasta qué punto son predicciones fallidas. Y es un punto de un valor muy muy grande. Predicciones muy fallidas.

En este caso discuten uno de los gráficos más famosos de comparación modelos / realidad. El de Christy, que tanto él como Judith Curry utilizaron en sendas comparecencias en el senado.

Slide1

Los alarmistas se ponen de los nervios con ese dibujo, por motivos obvios. Y hacen unas críticas, que a base de repetirlas por todas partes como loritos, y a base de no escuchar lo que les contestan, se las acaban creyendo. Proponen dos errores imaginarios que supuestamente invalidarían el gráfico. Que Christy alineó mal los modelos con las observaciones, y que no tuvo en cuenta los márgenes de ambos.

En lo de la alineación, el más activo ha sido Verheggen — luego seguido por todos los demás. Y plantea una gimnasia completamente absurdas para tratar de oscurecer el asunto. Un ejercicio inútil, porque para evitar su embarrado del campo basta con decirle: Muestra la tendencia de calentamiento de los modelos y de la realidad, y explica cómo te parecen compatibles dos cifras que difieren en un factor de tres (300%). Para la troposfera tropical (como ese gráfico); si prefieres la cifra global, menos relevante, la diferencia sigue siendo un factor de dos (200%).

Lo contamos aquí, con muchos dibujitos:

Ya parece que han comprendido que el asunto de la alineación no va a ninguna parte. Y que han metido la pata hasta el fondo, porque proponían que Christy (escéptico, del equipo UAH) había cometido un error básico e indudablemente malintencionado. Cuando resulta que Mears (alarmista, del equipo RSS) usaba la misma alineación para su propia comparación entre sus mediciones y los modelos. Sin que ningún alarmista le criticara. Simplemente, se trata de la mejor alineación que se puede hacer para comparar la diferencia de calentamiento de modelos y realidad. Y si lo expresas en números (de tendencia lineal) se acaba la discusión. Un 300% es un 300%, lo dibujes como lo dibujes.

En la otra crítica, la inclusión de los márgenes, la voz cantante la lleva Gavin Schmidt. Hicimos un comentario y aproximación de trazo gordo aquí:

La novedad es que McIntyre ha llevado a cabo un estudio del gráfico que presenta Schmidt, con un análisis estadístico de las consecuencias de lo que propone. Y como suele pasar con McIntyre -y su habitual profundidad y precisión- parece bastante indiscutible lo que concluye:

En el presente caso, de la distribución en el panel derecho (abajo):

  • Una ejecución de un modelo será más caliente que las observaciones más del 99,5% de las veces.
  • Será más caliente por más de 0,1ºC / década aproximadamente el 88% de las veces.
  • Y será más caliente que las observaciones por más de 0,2ºC / década más del 41% del tiempo.

trp_tmt_distributions

Merece la pena leer la entrada completa, para los de aficiones técnicas:

Hay una anécdota marginal en la entrada. El gráfico en discusión de Christy es sobre la troposfera tropical. Pero Steve, que recoge a discusión desde el blog de Curry [–>], piensa que Schmidt hace la crítica con un histograma de la troposfera global (no sólo tropical). En realidad Schmidt había hecho los dos histogramas, global y tropical; pero McIntyre no lo sabe. Y para hacer la comparación buena, lleva a cabo una “emulación” para sacar lo que sería el gráfico de Schmidt en la parte sólo tropical. Y su análisis depende de que la emulación sea correcta.

He puesto los dos juntos. El de Schmidt, desconocido para McIntyre, y la emulación de McIntyre. La emulación es casi perfecta. Y la única diferencia de un punto en una de las barras sólo puede hacer los modelos todavía peores.

histogramas-schmidt-mcintyre-tropical-tmt

Resumiendo la idea clave. Los intentos de los alarmistas de defender sus modelos no se sostienen a la vista de la realidad. Las críticas de los escépticos con gráficos como el de Christy son correctas. El calentamiento real, que sí hay, no tiene nada que ver con el calentamiento de los modelos,  que es de donde viene la alarma. Esta diferencia entra la imaginación / especulación y la realidad, que señala Christy, es cierta:

Slide1

Página siguiente »