uah-temperatura-global-octubre-2016

Ahora parece bastante seguro que 2016 sí será récord de temperatura también en los satélites, superando -¡por fin!- a 1998. Lo que sin duda dará lugar a jugosos titlulares a fin de año. Olvidando que un récord cada 18 años, y por unos 0,04ºC (puede andar por ahí), no es que quiera decir gran cosa. Bueno, querría decir unos cinco récords en un siglo si hacemos una proyección lienal. Donde el último récord del siglo sería unas dos décimas de grado más que el primero.

Se puede uno hacer la idea con este gráfico:

record-uah-12-meses-octubre-2016

Fuente, Roy Spencer:

El otro día veíamos [–>] a nuestra amiga Mónica López haciendo la imaginaria sección del tiempo de un Telediario veraniego en 2050. Donde las máximas en la mitad de la península eran de unos 50 grados. Producto, claro, del Calentamiento Global Acojonante. La idea, según los “escenarios” y modelos de la gente del cambio climático, es que un calentamiento global aumenta las temperaturas máximas en España.

Es algo que a primera vista parece razonable. Salvo que te dé por sospechar la posibilidad, también razonable, de que el clima sea un sistema caótico con constricciones. Y el caso es que debería haber la posibilidad de verlo, porque ya ha habido Calentamiento Global Acojonate. La primera comprobación debería ser si el calentamiento que ya ha habido ha subido las temperaturas máximas. Intentaremos ir viéndolo poco a poco. Pero para empezar, nada mejor que mirar primero la capital de mundo. ¿Nos estamos achicharrando más con el Calentamiento Global Acojonante de lo que hacíamos antes de emitir tanto CO2? Veamos las temperaturas máximas de Bilbao, desde 1.947.

bilbao-temperaturas-maximas-anuales

No parece que el Calentamiento Global Acojonante esté subiendo las máximas en Bilbao, ni produciendo una tendencia en las mismas. Podría haber más días calientes; esto son sólo datos de la temperatura máxima alcanzada cada año. Intentaremos verlo más adelante. De momento nos quedamos con las máximas que se alcanzan.

Es verdad que 2016 ha alcanzado una máxima alta, pero sólo es el sexto año desde 1947. El campeonato queda así.

  1. 1947
  2. 2003
  3. 1988
  4. 1950
  5. 2011
  6. 2016

Si lo quisiéramos hacer por lustros, una idea rápida podría ser una media móvil de 5 años.

bilbao-temp-max-anuales-y-mm5a

El lustro campeón sería el de 1986 – 1990, seguido de cerca por el de 1981 – 1985, y los demás quedan muy lejos.

La gran pregunta sería. ¿Si el Calentamiento Global Acojonante, ese que dicen que ya estamos sufriendo, no sube las temperaturas máximas, por qué piensan que las subirá en el futuro — si es que llega a haberlo? Es verdad que podría ser una particularidad de Bilbao. No sería la primera. Así que en los próximos días lo miraremos con Sevilla, por ser capital del flamenco; y con Madrid, por capital del imperio.

De momento, relajados. Hace calor, pero no es nada raro.

Datos:

Javier Sevillano, que ha organizado los de AEMET anteriores a 2013 de forma fácilmente digerible:

AEMET, desde 2013:

Recién salido del horno para el lector atento.

satelites-vs-garitas-clima-bengtsson

cederlof-et-al-2016

A mis amigos los periodistas pirrados por el argumento de autoridad. Mirad lo destacado en rojo. International Meteorological Institute in Stockholm. Y Lennart Bengtsson, que ha dirigido el European Centre for Medium-Range Prediction (1981-1990), y el Max Planck Institute for Meteorology después. Actualmente es Senior Research Fellow en el Environmental Systems Science Centre de la Universidad de Reading. O sea, Dios. Como Lindzen, pero más en plan de manos a la obra que teórico. Y el mismo prestigio profesional superlativo.

Y recordad esta frase del estudio (clic en la imagen).

It is therefore suggested to use either the more robust tropospheric temperature or ocean surface temperature in studies of climate sensitivity.

Son dos tipos datos de temperaturas que se caracterizan por tener menos calentamiento que los de superficie — esos que usáis todo el rato en los periódicos para gritar ¡récord! casi cada año. Y sobre todo se caracterizan por tener un calentamiento mucho menor que los modelos climáticos en sus respectivas áreas; aproximadamente como la mitad.

Lo muestra bien esta gráfica que tanto os perturba.

junio-2016-tem-global-uah-y-modelos

Resaltan los problemas obvios -pero que no suelen salir en vuestros periódicos- de los datos de termómetros de superficie. Problemas ajenos (o antes de) los aparatos. Meteorológicos, como efectos de la “capa límite” con inversiones térmicas agudas; antropogénicos, como la urbanización y otros cambios ambientales; y estadísticos, como la muy incompleta cobertura de termómetros que exige interpolaciones espaciales más que delicadas.

A la vista de esos problemas, el sabio meteorólogo descarta en principio los termómetros de superficie como medición útil del “cambio climático”, y de la “sensibilidad climática”, buscando una alternativa superior. ¿La hay? De eso trata este estudio; de evaluar las distintas alternativas que hay.

Nota marginal. Los científicos alarmistas climáticos habituales no suelen ser meteorólogos. Por ejemplo, Hansen es físico de fluidos; GavinSchmidt -su sucesor- es climatólogo y modelista climático; Trenberth, “Ciencias”; Mickey Mann, climatólogo y geofísico. Y los que conocen, predicen con acierto, y le toman las medidas al sistema climático, son los meteorólogos.

Para contrastar la validez de los datos de los satélites usan, aparte de los satélites, las mediciones de temperatura de los aviones (hay muchas desde que comienzan los satélites en 1979, y un reanálisis que conjuga esos datos con modelos meteorológicos (que sí funcionan). Controlan lo sesgos y problemas; consideran los satélites mucho más válidos que los termómeros de superficie; y establecen un producto o mecanismo de control independiente.

As part of the re-analysis process, the observational data undergo an advanced data bias control (Dee et al., 2011 and references therein). Satellite and aircraft data, assimilated by the re-analyses, have undergone systematic evaluation for the period after 1979, and we therefore believe that the re-analysis data can be considered as a reasonably independent robust source of tropospheric data (Simmons et al., 2014).

An alternative to using the tropospheric temperatures is to use sea surface temperatures (SSTs). The atmospheric temperature approximately 2 m above the ocean surface on average does not differ from the SST in a significant way, and temperature trends calculated over many years are expected to be the same as that of the SST.

Las explicaciones son fáciles de seguir.

Y la conclusión:

We therefore strongly suggest that tropospheric temperature trends from re-analyses should replace surface temperature trends in future climate validation studies. If we use the temperature trend of the layer 700–400 hPa or any other similar measure, instead of the surface temperature trend, then this is probably a better representation of the global tropospheric temperature and presumably a more robust quantity to assess climate change.

Los termómetros de superficie están exagerando mucho el calentamiento por causas ajenas al sistema climático — y al CO2.

Las consecuencias son dos. El Calentamiento Global Acojonante es mucho menor del que parece cuando miras en los lugares adecuados (troposfera media o superficie del mar). Y los cálculos sobre lo que calienta el CO2 que emitimos, si los hicieran mirando en los lugares en el que se muestra bien, darían una cifra sensiblemente inferior. De cajón; si el mismo CO2 ha causado notablemente menos calentamiento de lo que parecía, el efecto del CO2 es notablemente inferior de lo que creíamos. Pero es verdad que hay un problema con eso. Mediciones de temperatura con satélites sólo hay desde 1.979. Es poco tiempo para un estudio de sensibilidad climática. Aun así la ideas es clara. La alarma está muy exagerada; y podemos comprender las causas físicas de la exageración en una medida razonable.

Nota marginal. Los cálculos de sensibilidad climática mejores y más recientes ya se habían salido del rango de los modelos del IPCC. Por eso aumentaron ese rango en 2013. Antes la parte baja era 2º en vez de 1,5, y los cuatro últimos estudios estarían fuera.

Pero estos estudios del gráfico son con termómetros de superficie. El cálculo, según lo que dice el estudio de Cederlöf, Bengtsson y Hodges, debería resultar inferior usando una medición más adecuada. Y Bengtsson es Dios.

Este es el cuento de hoy.

Agradecimiento: Roger Pielke Sr. y Ryan Maue; dos clásicos. Pielke, además de meteorólogo también, es de los autores más citados en la especialidad. Por lo de la autoridad que les pirra a los periodistas, digo.

 

No vamos a meternos a explicar por qué ocurre El Niño. Sólo recordar que produce unas oscilaciones grandes de temperatura en el Pacífico ecuatorial, que tienen repercusión en el clima de muchas zonas distintas de la tierra. Y repercute en eso que está tan de moda: la “temperatura global”. Haremos unos gráficos para mostrar esto último.

Cuando miden El Niño, lo que miden son esas diferencias de temperatura mencionadas. Y dentro del gran área donde ocurre, usan la temperatura de una zona menor, porque la consideran más relevante. La que llaman niño 3.4. Mapa. La zona en rojo es la de El Niño 3.4.

el-nino-34-mapa

Y esta es la (anomalía de) temperatura media mensual de esa área en rojo desde que se mide en condiciones (1982)

el-nino34-T-barras

Se ve muy claro que a  veces hay lo que llaman un “súper-Niño”, en que la temperatura pasa de largo de los +2ºC, cuando las demás veces no llega. Y vemos que la temperatura no es muy distinta en los picos de los “súper-Niño”.

  • 1982: +2,79
  • 1998: +2,69
  • 2015: +2,95

Con una media de doce meses, en vez de mensual, las diferencias son algo distintas.

  • 1982: +1,62
  • 1997: +1,80
  • 2015: +1,89

El pico suele ser en diciembre, y por eso le llaman El Niño. Igual que a la lotería.

Otra curiosidad. La zona de El Niño 3.4, cuya temperatura es el principal índice climático del planeta, no está afectado por las emisiones de tu tubo de escape, ni por Calentamiento Global Acojonante alguno. Vaya; ni acojonante, ni no acojonante, ni nada. Ahora es un buen momento para verlo, porque justo hay dos El Niño versión súper al principio y al final de la serie, y se compensa su efecto.

el-nino34-T-linea

Y no es algo sólo de la zona 3,4. Pasa lo mismo si incluimos las zonas 3 y 4 enteras. O sea, el Pacífico ecuatorial entero  no tiene calentamiento global.

el-nino-3-y-4-T-linea

No se pretende que esa falta de calentamiento tenga un significado especial, pero es una curiosidad que no suele saberse.

Ahora veamos la relación entre la temperatura en esa zona de el Niño 3.4 y la temperatura global, con y sin calentamiento global. La serie de temperatura global será la de satélites medida por el equipo UAH (Christy, Sencer).

Queda un gráfico un poco guarro, pero es que son 413 puntos de datos por dos series.

el-nino-y-uah-desde-1982

Se ve muy claro que las oscilaciones mayores de temperatura global vienen precedidas por las oscilaciones de temperatura de esa zona de El Niño. Pero también se ve una diferencia clara entre la primera y la segunda mitad del gráfico. Las series iban separadas, con El Niño por arriba, y se han puesto a la par.

Vamos a hacer un gráfico experimental, rellenando de color las diferencias. Azul cuando es superior El Niño, rojo cuando es superior la temperatura global.

el-nino-y-uah-colorines

En la parte de la derecha, cuando van juntas las series, se ve azul cuando sube la temperatura y rojo cuando baja. Normal, es porque El Niño va adelantado a la temperatura global.

En la parte izquierda hay más azul, que se puede explicar porque las series no van juntas, sino que la temperatura global está por debajo. Pero pasan un par de cosas raras. En 1983 no sube la temperatura, como debiera. Y en 1992 pega un bajón cuando debería subir moderadamente. Son las mayores separaciones de las dos series. La explicación convencional se ve en este gráfico que muestra el “espesor” de la atmósfera (la menor transparencia cuando está espesa) debido a las erupciones volcánicas. La medida es de la atmósfera global, no donde estuviera el volcán de turno.

profundidad-optica-aerosoles.png

La subida del “espesor” en 1982 es por el volcán El Chichón. La de 1991 por el Pinatubo. Ese espesor (profundidad) atmosférico disminuye los rayos de sol que llegan a la superficie del globo.

Pinatubo:

erupcion-pinatubo

Y cerramos esta serie de curiosidades sobre el Niño, la temperatura global, y la pausa, con la pausa. Que nos faltaba. ¿Qué diablos pasa con la pausa? Zoom sobre ella.

el-nino-y-uah-desde-1997

No hay nada que sugiera un salto que vaya a separar las dos series. Al contrario, la bajada de este “súper-Niño” está siendo mucho más junta, con menor retardo del normal. Si suponemos que el índice El Niño 3.4 va a seguir sin calentamiento, y que las series siguen pegadas, ¿qué podemos suponer de la temperatura global medida por los satélites? ¡Que seguirá la pausa! Pero es verdad que el salto, la separación de las series, puede venir después de el Niño. Con La Niña, si hay. Pero también podría ser un salto hacia abajo, y la liamos.😉

Y este es el cuento de hoy.

Datos.

El Niño:

UAH:

Aerosoles:

 

 

klein-clima-capitalismo

El pico de este El Niño, tan fuerte o más que el de 1998, ocurrió hacia fin de año. De ahí le viene el nombre, como a la lotería.

el-ninho-34

Las temperaturas globales, que miden -por ejemplo- con satélites, notan un calentón debido a ese fenómeno de El Niño. Pero llevan un retraso, y el pico está siendo ahora. Se ve muy bien en la actualización de temperatura de UAH, cuyos datos traemos de la web de Roy Spencer [–>].

uah-temp-glob-abr-2016

Es probable, pero nada seguro, que 2016 sea “año récord” en la medición de UAH. Emocionante para los entusiastas de las anécdotas.

Con un poco de contexto se puede comparar con ese límite arbitrario de 2ºC por encima de la “temperatura preindustrial”. No existe una “temperatura preindustrial”, pero es por seguirles el juego. Y la línea de tendencia recta que representamos tampoco tiene mayor significado. Es casi seguro que irá cambiando; siempre lo hace. Pero también es parte del juego de los calentólogos. Les gustan estas cosas.

uah-temperatura-global-abr-16-y-preindustrial

Y se ve en buen contexto el tipo de noticias absurdas que solemos ver. Por ejemplo, con ese gráfico se puede decir que estamos a sólo 0,6º de ese límite tan peligroso que nos hemos sacado de la manga. Estupendo, porque en el anterior El Niño fuerte (1998, hace 18 años) eran 0,7º.

Un contexto más realista es compararlo con los modelos climáticos de los que sale la alarma que tenemos.

uah-temp-global-y-modelos-abr-16

Vamos a hacer una especulación. Un – ¿que pasaría si …? ¿Qué pasaría si en esa línea de media de cinco años de las temperaturas de arriba (azul, gorda) se repite el salto que dio en el anterior Niño fuerte (1998) y la estabilización posterior durante unos años? Llevado a 2.030 sería algo como esto:

uah-y-modelos-especulacion

Nadie dice que vaya a pasar, pero algo como eso sería alejarse todavía más del límite inferior de los modelos, a pesar de que seguiría habiendo Calentamiento Global Acojonante. Sólo que no sería acojonante en absoluto. Es una forma de ver que es un timo cuando dicen “calentamiento”, o “año récord”sin molestarse en precisar o contextualizar. ¿Cuánto calentamiento? En esa especulación hay calentamiento, y hay unos cuántos récords. Lo que no hay es suficiente calentamiento como para asustar. ¿Calentamiento? ¿Si, y qué?

Y ya, un regodeo.  La misma especulación, pero poniendo la recta de tendencia 1979 – 2015, prolongada hasta 2.030. Para que se vea que la especulación no es diferente de lo que viene ocurriendo en los últimos 36 años. Que, insisto, no es algo que tiene que pasar, ni lo más probable, ni nada. Pero sí sería lo menos sorprendente. Nadie se puede sorprender porque siga pasando lo que ya viene pasando.

uah-y-modelos-especulacion-clt

Esa es la historia. Que si el futuro próximo es como los 36 años en los que hay datos de satélites, van a tener que cambiar de cuento para meter miedo y acabar con el capitalismo.

Nota. Esto es sólo para las mediciones que hacen desde satélites. Y para una de las dos; pero la diferencia entre ellas no será muy relevante, porque la diferencia entre sus tendencias lineales son de 0,12ºC / década (UAH) a 0,13ºC / década (RSS). O sea, tres centésimas de grado en los treinta años de la serie.

Añadido. Y ya que estamos, a 2.100:

uah-y-modelos-especulacion-100.png

Datos:

UAH: http://vortex.nsstc.uah.edu/data/msu/v6.0beta/tlt (uahncdc_lt_6.0beta5.txt)

Modelos: https://plazamoyua.com/2015/11/07/temperatura-global-uah-con-modelos-climaticos-hasta-octubre-2015/

La gente interesada en el Calentamiento Global Acojonante puede estar entre mosqueada y harta con el asunto de los récords de temperatura. Por esa incómoda situación en la que hay tanta disparidad entre lo que miden los satélites y lo que miden las garitas de superficie. Los satélites no muestran ningún nuevo récord desde 1.998, y tienen una pausa en el calentamiento de más de 18 años. Mientras que las mediciones con garitas de superficie tienen récords de temperatura cada pocos años, y prácticamente ninguna pausa. ¿Quién tiene razón?

Por supuesto, los alarmistas están empezando a decir que los satélites son una puta mierda y no valen para nada. El ideal, claro, sería tener algún contraste con otro tipo de sistema de medición. ¿Hay algo que sirva?

El meteorólogo Joe Bastardi, de Weather Bell, señalaba ayer la contradicción entre dos productos de la NOAA, a cuenta del récord / no récord famoso. La NOAA lleva una de las series de temperatura global desde garitas de superficie. Con gran récord en 2015. Pero también produce otro producto, para meteorólogos, que incluye mediciones de temperatura global. Es lo que usan los meteorólogos como “input” para sus predicciones. Se llama NCEP. Y señala Bastardi:

bastardi-ncep

bastardi-ncep-2

O sea, está diciendo que la NOAA tiene una serie de temperatura global con gran récord en 2015, y otra serie en la que 2015 no es un récord ni de broma. ¿¿¿WTF???

La primera pregunta sería saber de dónde salen los datos de NCEP. Se trata de un “reanálisis” en tiempo real. Introducen todos los datos que tienen en ese momento ….

This effort involves the recovery of land surface,
ship, rawinsonde, pibal, aircraft, satellite and other data, quality controlling
and assimilating these data with a data assimilation system [–>]

… y con esos datos y un modelo meteorológico reconstruyen el estado del sistema climático para usarlo como base de la predicción. O sea, usan todo lo que existe de datos meteorológicos -y que piensan que tiene calidad- para hacer la previsión meteo. Garitas de superficie (y barcos), radiosondas, aviones, satélites, etc. Lo que NO parece que hacen es ponerse a pensar en cómo corregir los datos cuando muestran una pausa que les molesta.

Con esta introducción, pasemos a ver esos datos y su comparación con las series de temperatura global de satélites y garitas, cada vez más incompatibles entre sí. Datos de media anual de temperatura global.

Reanálisis NCEP (CFSv2):

ncep-global-2015

 

2015 no es récord, sino el 5º. La Pausa sería desde 1998, como en los satélites.

ncep-global-desde-1998

 

Comparemos la serie con las de garitas de superficie del la serie GISS (de la NASA):

ncep-y-giss

Van razonablemente clavados, sin separarse más de 0,1ºC, hasta 2008. Momento en el que deciden separarse.

Puede ser interesante ver la diferencia en la tendencia lineal:

ncep-giss-tendencia-lineal.png

Y ahora con los satélites UAH (también de la NASA).

ncep-y-uah

Tiene más separaciones de 0,1ºC. Pero no son a partir de un año. Están repartidas. Y se explican con los “vaivenes” de El Niño / La Niña. Un producto es temparatura a 2 metros de altura (NCEP) y el otro como a 4 Km. de altura. Lo que van clavadas son las tendencias lineales.

ncep-uah-tendencias-lineales

Este va a ser un poco más mareante, pero puede merecer la pena ver los tres juntos:

ncep-uah-giss

Al final, ¿sirve NCEP como contraste entre satélites y garitas, para ver cuál va mejor? Seguro que los alarmistas ponen el grito en el cielo ante una idea así. Y yo no me atrevería a asegurarlo. Pero como Bastardi señala la contradicción de los récords / no récords de dos productos NOAA, vuestro humilde corresponsal os pone los gráficos para que se pueda ver mejor de lo que habla. Y tener cierto contexto.

Ah, añado. Por si alguien no está aburrido ya. Satélites (UAH) y garitas (GISS) juntos.

uah-y-giss

Datos. He sacado …

UAH, de su sitio:

NCEP, de Weather Bell:

GISS, de Woodfortrees:

Fabius Maximus [–>] es un blog que ha entrado no hace mucho en la discusión del cambio climático, pero con muy buen pie. Empolla mucho la literatura, pero sobre todo tiene buenas ideas. Como de saber pensar. Y acaba de publicar un artículo que pone el dedo en una buena llaga.

Se ha hablado mucho de la imposibilidad de creerse el absurdamente escaso margen de error que, según sus autores, tiene la medición del calentamiento del mar. En volumen, no en superficie. Es algo muy clave, porque más del 90% del calentamiento global se supone que va al mar. Y a Fabius Maximus se le ha ocurrido comparar ese margen de error con el margen de error que consideran para otras mediciones de temperatura del mar, pero en superficie.

La idea es clara. Se usan los mismos instrumentos para las dos mediciones. Termómetros desde los barcos, boyas fijas, boyas sueltas. El margen de la medición de superficie debería ser menor que del volumen, porque mides en dos dimensiones en lugar de tres. Y porque hay muchísimas más mediciones de superficie que de profundidad. Al menos hasta 2005, en que se desarrolla el sistema de boyas Argos, que suben y bajan.

Lo que ha encontrado son dos márgenes de error muy diferentes (diferencia de x20), pero en el sentido contrario del que se podía esperar.

Imagina. Miden los 2.000 metros superiores de todos los océanos, asegurando tener un margen de error de ± 0,01ºC (un poco menos). Y como la medición de calentamiento para esa capa es una media de 0,1ºC desde 1.950, y lo medido es diez veces más que el margen de error, parece como que da confianza.

La imagen que lo representa es de la NOAA.

calentamiento-mar-2000m-NOAA

Es claro que lo que han medido es muy superior al margen.

calentamiento-mar-2000m-margen-NOAA

Pero Fabius Maximus ha rastreado el margen que le otorgan a las mediciones de superficie del mar, que son con los mismos instrumentos. Y se ha encontrado que para la zona de El Niño, que es la climáticamente más importante, y la que más estudian, hablan de un margen de ± 0,3ºC. En una superficie que es como el 2% del mar global, y en dos dimensiones contra tres, y con las mismas herramientas. Pero explican esto:

That’s part of why the ERSSv4 and the OISSTv2 SST data sets, the two most commonly used ones in this country, can disagree by several tenths of a degree. So, while the accuracy of a single thermometer may be a tenth or a hundredth of a degree, the accuracy of our estimates of the entire Nino3.4 region is only about plus or minus 0.3C.

Esas series que cita, ERSSv4 y OISSTv2, son de temperatura del mar globales. Y efectivamente, a veces difieren por varias décimas de grado. ¿Se puede creer un margen en el orden de la centésima de grado para el volumen global del mar hasta 2.000 metros?

Pongamos lo que pasa si pensamos que la medicón del calentamiento del mar (volumen) tiene un margen de error al menos como los que piensan que tienen en superficie. El gráfico de arriba se convertiría en esto:

calentamiento-mar-2000m-margen2-NOAA

Los datos del gráfico salen de: https://www.nodc.noaa.gov/OC5/3M_HEAT_CONTENT/index2.html

Y como ese calentamiento es el 93% del calentamiento global, si el margen de medición fuera de 0,3ºC, no podrías sabrer si ha habido calentamiento o enfriamiento global desde 1.950. Pero ni idea. ¿Tienen explicación los amigos alarmistas? Judith Curry lo ha incluido entre las noticias científicas de la semana [–>]. Esperemos que genere un poco de discusión, y se sientan obligados a explicar el contradiós. Porque manda bemoles.

Para detalles, fuentes, etc; todo muy bien explicado en lo de Fabius Maximus:

Añadido (16/01/2016; 11:00):

Estos están considerando un margen de error estadístico, basado en el error estándar. Pero si alguien mira la realidad que muestran boyas no libres, sale algo muy diferente. Me he acordado que había un estudio al respecto.

On the accuracy of North Atlantic temperature and heat storage fields from Argo. Hadfield et al 2007.

Results:

Over much of the section, the Argo-based
estimates of temperature agree with the cruise measurements
to within 0.5ºC. However, there are several regions in
the 500–1000 m layer west of about 40W where the
differences exceed this value (Figure 9a). Furthermore at
the western boundary, west of 74W, the temperature is
more than 2ºC
warmer in the Argo section than in the cruise
section. As expected, the climatological values from the
WOA typically show larger differences from the cruise
section than the Argo-based sections, particularly in the
surface waters across the section (Figure 9b, upper panel)
and the upper 1200 m at 65–73W.

Viene de Jo Nova: http://joannenova.com.au/2015/06/study-shows-argo-ocean-robots-uncertainty-was-up-to-100-times-larger-than-advertised/

Y hay que tener en cuenta que es para las boyas Argo, con muchísimo menos error que la mayor parte de los datos de los que hablamos. O sea, sólo los últimos cinco años de los 60 de Levitus. El margen de error en los 55 anteriores es muy superior, por cojones. Pero mucho.