Yo, Carlos, también pondré velitas, más bien velones vista la poca fiabilidad de los modelos. Seis horas después aparece éste. ¿Qué significa? ¿mejor o peor? Parece como si todo se desinflara en un momento.
A ver, te lo voy a explicar de aquella manera.......estas hablando de la salida determinista de un modelo a 192 h. Un modelo coge datos de sondeos, barcos, estaciones etc (la principal fuente de datos con los que parte un modelo son satelitales en un 90% aprox) Con todos estos datos se hace una asimilación, es decir, aquí hay una nube, aquí llueve, aquí hay 30ºC etc, desde superficie hasta la tropopausa, es decir por capas en todo el perfil atmosférico. Como los datos satelitales dan lo que dan, y los datos de estaciones, sondeos etc, llegan hasta donde llegan, el modelo allí donde no tienen datos( imaginemos en el medio del Sahara a 200 mb o a 500 mb o a 475 mb, en los océanos o en los polos etc) hace una estimación. ¿que quiere decir esto? Pues que el modelo se inventa como esta la atmósfera en esos sitios de los que no se tienen datos.
Todo esto puede tardar horas ( todos vemos que la salida de las 12z no esta disponible al medio día si no por la tarde) y requiere una gran capacidad de computación ( solo la asimilación de datos sin correr un solo minuto de pronostico necesita realizar mas de 90 millones de ecuaciones). Si has leído hasta aquí, entenderás que ya de comienzo el modelo falla ya que inventa situaciones. Es decir pone una humedad del 30% a 475 mb en medio del Sahara sin saber si ese dato es cierto. Ha hecho una estimación sin saber si es real o no lo es, pero necesita ponerlo para que a la hora de arrancar el modelo existan datos para desarrollar las ecuaciones fisicas que muevan la atmosfera tanto temporal como espacialmente.
Bueno, pues ya sabemos que la salida del GFS ya de partida puede estar mal. Bien, ¿ entonces que soluciones se proponen? Como sabemos que ya desde la asimilación de datos podemos tener errores, ademas de la salida determinista ( ese mapa de colores que has puesto) se corren otras salidas con los datos ligeramente perturbados. Es decir, como no estoy seguro que en medio del Sahara a 475 mb realmente hayan el 30% de HR, hago otro modelo con el 31%, otro con el 29%, otro con el 29.8% etc.
Ahora tenemos una salida con lo que el modelo
estima que son los datos correctos, y otras tantas salidas con datos ligeramente modificados. ¿pero para que hacen esto? Se hace, para intentar contener de alguna manera el margen de error y con ello sacar un ensemble que no es mas que la media del conjunto de salidas.
¿problemas? Tanto el ensemble como el resto de salidas salvo la determinista, suelen ejecutarse a menor resolución que la salida determinista ya que consume mucha capacidad informática ( de ahí que los superordenadores que ejecutan los modelos valgan un pastón)
Bien, ahora tenemos un modelo determinista que de inicio puede no contener los datos reales, una seria de salidas de apoyo con los datos ligeramente alterados (de esa salida determinista que ya de inicio puede estar mal) y un ensemble a baja resolución de todo el conjunto.
Pero el error crece con el tiempo, es lo que se llama la incertidumbre del pronostico. A mas tiempo, mas diferencia entre las distintas salidas, ya que a mas tiempo el desarrollo de las distintas variables dara lugar a situaciones distintas tanto espacial como temporalmente.
Por tanto, intentar sacar conclusiones a medio largo-plazo con una salida deterministasy de un solo modelo es como poco atrevido.
A medio- largo plazo, lo mejor es comparar ensembles de distintos modelos, o multimodelos donde se comparen las salidas deteministas. Interesante también comprobar el spread o dispersión del conjunto o del modelo a analizar. Por otro lado hay que saber que la mayoría de modelos que consultamos producen un arranque en frío. Es decir, yo Ogimet tengo un pc normal, me bajo un paquete de instalación de GFS y no asimilo datos ya que mi ordenador es muy pequeño y no tiene capacidad. Por tanto, me salto de entrada el punto mas interesante que no es otro que la asimilación (no en vano el desarrollo de la asimilación de datos en estos momentos para centro europeo es mas importante incluso que la resolución del modelo)
Hala !!!, y no sigo por que ya me canse de escribir, pero sobre esto hay un mundo de que hablar
