Judith Curry nos trae un nuevo “paper” en Science, y lo comenta. Lo mejor probablemente es leerlo allí directamente:

Pero voy a intentar explicar la importancia del asunto para los que no han seguido a fondo la discusión hasta ahora.

Imagina que tienes un sistema físico cuyas leyes conoces. Por ejemplo una olla llena de agua, con un volumen determinado. Y que está afectado por unos factores externos que también conoces. Por ejemplo, fuego por debajo, de mayor o menor intensidad; y una tapa por arriba, más o menos cerrada. Y puedes predecir: con el mismo fuego, si cierras más la tapa, el agua se calentará.

olla-al-fuego

En ese sentido, la teoría del Calentamiento Global (Acojonante) es no polémica.  Y lleva siendo no polémica desde -por lo menos- Guy Callendar, en 1937. Sólo que entonces no era Acojonante [–>]. El CO2 que emitimos es como cerrar un poco la tapa. Algo tiene que calentar. El problema está en averiguar si ese “algo” es:

  • Inapreciable
  • Un calentamiento suave y beneficioso
  • Un calentamiento moderado de consecuencias discutibles
  • Un calentamiento Acojonante.

Nota: Lo de que un calentamiento suave sea beneficioso también debería ser no polémico. La así llamada “temperatura pre-industrial” es una temperatura mala, por demasiado fría.

En esa “temperatura pre-industrial” el Támesis se helaba (a veces también el Ebro), y se perdían las cosechas por el frío. Este cuadro de Gabriel Bella es Venecia en 1708.

venice_frozen_lagoon_1708-gabriel-bella

Es obvio; el problema es saber cuantificar ese “efecto tapa” del CO2. Porque dejar de emitir CO2 es -de momento- carísimo; nos empobrecemos. Mucho. Y porque ese empobrecimiento podría suponer evitar algo inapreciable, que sería una estupidez; o incluso evitar algo bueno, que sería una canallada.

Aunque el problema parece fácil (la temperatura es una función del calor que entra menos el calor que sale), en realidad no lo es. Esa cuantificación no es fácil, porque la temperatura de la olla no era constante antes de que moviéramos la tapa. Había otras cosas que cambiaban la temperatura antes de nuestras emisiones, y que siguen operativas. ¿Variaba el fuego? ¿Variaba la tapa por si misma (sin ayuda nuestra)? ¿Variaba la temperatura externa o el viento, haciendo cambiar la temperatura del agua de la olla? ¿Variaban las paredes, emitiendo hacia afuera más o menos calor? ¿Variaba el líquido de dentro — por ejemplo algo revolviendo el agua a mayor o menor velocidad?

Nota: Estas variaciones que pueden afectar a la temperatura es lo que llaman, en la jerga del cambio climático, forzamientos.

Aunque hayas visto que la temperatura ha subido un poco, no puedes saber cuánto es por el ligero cierre de la tapa, y cuánto es por las demás cosas – de las cuales unas conoces y otras no. Resumiendo: No hay forma de saber el calentamiento achacable al ligero cierre de la tapa si no sabes lo que hubiera cambiado la temperatura en ausencia de ese ligero cierre.  O sea, no puedes conocer el cambio climático antropogénico si no conoces el cambio climático natural. Esto también es algo no polémico.

Y aquí es donde entran en juego los modelos climáticos. En teoría, un procedimiento muy bonito y muy limpio. Metemos leyes conocidas de la física en unas fórmulas, y nos resulta una temperatura. La diferencia que hay entre incluir el efecto directo del CO2 extra (la física radiativa del CO2, que es conocida) y no hacerlo, nos da el efecto total de ese CO2 que estamos emitiendo. Y sería cierto si fuera verdad; pero no lo es. Porque no meten sólo física conocida. Muchos de los forzamientos, de los que hablábamos antes, no son muy conocidos. Y mucha de la física conocida no la pueden resolver los modelos; les falta potencia en órdenes de magnitud. Y siempre les va a faltar – es el problema del sistema caótico. Así que en vez de resolver las ecuaciones, las parametrizan. Y el conjunto de esos ajustes, los forzamientos no conocidos que ponen más o menos a huevo, y las parametrizaciones, son el famoso tuneo del que no hablan casi nunca.

Y no se trata de que el tuneo sea necesariamente tramposo. Puede ser hasta inconsciente. Si con unos ajustes el modelo produce unas temperaturas del pasado (conocidas) absurdas, lo descartan. Y no lo publican hasta no tener unos ajustes que parezcan razonables, y den unas temperaturas del siglo XX parecidas a la realidad. El problema está en “parezcan razonables”, porque es algo que depende de lo que tengan en la cabeza antes de hacer los ajustes.

Volvamos al caldero de antes.

olla-al-fuego

Puedes decidir que los humanos, además de haber cerrado un poco la tapa (eso calienta), también estaban revolviendo el líquido con una cuchara (eso enfría). Y dependiendo de la velocidad con que lo hicieran, enfriaba más o menos. Pero no sabes cuánto. Y puedes obtener la misma temperatura a base de un efecto muy fuerte de cerrar la tapa, contrarrestado por un revolver rápido; o a base de un efecto suave de cerrar la tapa, contrarrestado suavemente por una cuchara lenta. El resultado es el mismo, la misma temperatura, pero el efecto de cerrar la tapa es muy diferente. Y el efecto de cerrar la tapa es justamente lo que querías saber. Para tratar de imaginar lo que hará en el futuro. Pero depende de la parametrización de la cuchara, si es un cálculo, o del forzamiento que le adjudiques si es un forzamiento.

Ahí está el quid. ¿Conocemos y podemos comparar esos tuneos para saber (1) que se han hecho con “prejuicios” en los dos sentidos, y (2) cuáles dan un resultado mejor?

Los modelos climáticos reproducen todo lo que pueden aplicando las leyes de la física en cajas imaginarias de decenas de kilómetros de lado. Pero algunos procesos, como la formación de nubes, son de grano demasiado fino para eso, y los modelistas usan “parametrizaiones” intentando aproximar estos efectos. Durante años, los científicos del clima han tuneado sus paremetrizaciones para que los modelos coincidan en general con los registros climáticos. Pero, temiendo críticas de los escépticos del clima, han estado largamente mudos sobre cómo tunean sus modelos, y por cuánto.

Eso viene del abstract. Dentro lo desarrolla más.

Durante años, los científicos del clima han estado mudos en público sobre su “salsa secreta”: Lo que ocurría en los modelos se quedaba en los modelos. El tabú reflejaba miedos de que los contrarios usaran la práctica del tuneo para sembrar dudas sobre los modelos — y, por extensión, sobre la realidad del calentamiento antropogénico. “La comunidad se puso a la defensiva”, explica Stevens. “Tenía miedo de hablar de cosas que pensaban que podrían usarse injustamente contra ellos”.

Evidente: Si los tuneos pueden sembrar dudas, y los ocultas, estás ocultando las dudas. Y eso es, exactamente, exagerar la certidumbre. O inventársela.

Daniel Williamson,  un estadístico de la Universidad de Exeter, expone que los centros (de modelización) deberían presentar múltiples versiones de sus modelos para comparación, cada uno con estrategias de tuneo diferentes. El método actual oscurece la incertidumbre e inhibe la mejoría. “Una vez que la gente sea más abierta, podemos hacerlo mejor”.

Esto, que parece más o menos oscuro, no tiene nada de marginal. Es la madre del cordero de la discusión del clima. Porque los modelos son la supuesta “prueba” de la alarma; lo único que hay a ese respecto. Y la prueba (imaginaria) que alegan es que no pueden modelar el clima conocido (1850 – 2016) sin que el CO2 no sea un gran problema. Pero se callaban que eso depende mucho del tuneo. Ahora parece que van a abrir ese manto de sombra. Dicen; proponen.

Judith Curry fue vilipendiada y tachada de “negacionista” por su paper The uncertainty monster [–>], en el que explicaba la incertidumbre introducida por el tuneo misterioso, y por las incertidumbres estructurales de los modelos. Ahora avisa:

Me pregunto si estos mismos modelistas del clima se dan cuenta de la lata de gusanos que están abriendo.

Pero mejor leerlo en su blog, entero: