Entrevista del mes: Daniel Santos

Consultor en Meteorología, modelización atmosférica y supercomputación 

Entrevista Del Mes: Daniel Santos

¿En qué consiste el trabajo que llevas a cabo actualmente en AEMET?

Actualmente mi actividad principal está relacionada con la puesta en operación del modelo HARMONIE de 2.5 km de resolución horizontal. Básicamente me encargo de la parte de sistemas del modelo y su gestión mediante un GUI nuevo llamado ecFlow. Al tratarse de un sistema complejo y que corre 4 veces al día en dos áreas, una sobre la Península Ibérica y otra sobre Canarias, hemos de tener el control en todo momento de los datos de entrada y salida del modelo y los posibles fallos durante el cálculo. El ecFlow nos permite visualizar lo que está pasando en cada una de las tareas y tomar medidas para que todo este a tiempo y sin fallos 4 veces al día.

¿Qué mejoras supondrá la implementación del nuevo superordenador de AEMET?

Ahora mismo mi trabajo se desarrolla en los supercomputadores del ECMWF. Hasta que llegue el nuevo supercomputador a AEMET, no tenemos capacidad de cálculo suficiente para implementar HARMONIE en las condiciones que ahora se integra en el ECMWF. Cuando tengamos toda la capacidad de cálculo, tanto HARMONIE, como otros sistemas de predicción serán implementados aquí. Esto permitirá darles mejores herramientas a los predictores para que hagan su trabajo.

Entrevista Del Mes: Daniel Santos
Entrevista Del Mes: Daniel Santos
Nuevos supercomputadores Cray XC30 del ECMWF

¿Cómo ves el futuro de la predicción del tiempo en España?

Pues similar al resto del mundo y con la misma estrategia que en el 99% de las profesiones. Si algo se puede hacer automático y abaratar costes, el futuro/presente va por ahí. Los modelos cada vez son mejores y los ciudadanos quieren cada vez información meteorológica más detallada. Este escenario no se puede cubrir con predictores humanos. Creo que hay muchas predicciones que pueden ser automatizadas bajo la supervisión de predictores. Por ejemplo, la página más visitada de AEMET es la predicción por localidades y es totalmente automática.

Lo que se puede discutir es si la automatización implica una merma en la calidad de las predicciones. Tradicionalmente se habla de una medida de calidad basada en la verificación, como si la calidad de las predicciones sólo se puede establecer con estadísticas de aciertos y fallos.

Un concepto más amplio y que tiene en cuenta el receptor de las predicciones es el de validación. Como vamos a información meteorológica más personalizada, para cada usuario/cliente se puede establecer un grado de validez de las predicciones. Es decir, que no es igual de valida una predicción para un experto, que es capaz de asimilar toda la información que se le da y requiere una precisión máxima, que un ciudadano que solo quiere saber si el próximo día será soleado.

Si se establece la validez como criterio de calidad la automatización puede ser suficiente para gran parte de los ciudadanos en la mayor parte de las ocasiones, para el resto de usuarios más especializados la personalización marcará la diferencia.

Las predicciones más personalizadas requieren un modelo empresarial, de negocio o de servicio público basado en los servicios y no únicamente en la producción operacional del mismo tipo de predicciones. Este tipo de servicios requieren agilidad y tiempos rápidos de respuesta y las empresas privadas tienen su nicho ahí a pesar de que se sigan cobrando los datos obtenidos mediante financiación publica. Aprovecho una vez más para reclamar cesión en abierto de todos los datos meteorológicos o climáticos obtenidos mediante financiación pública.

¿Cuáles son los principales retos a los que se enfrenta la predicción meteorológica en la actualidad?

Diría que el mayor de todos es la comunicación. Seguimos comunicando igual que hace 50 años, con el mismo tipo de mapas y descripciones sinópticas basadas en mapas de topografías de superficies, 850 hPa, 500 hPa… Los modelos dan de sí muchísimo más que no se sabe cómo comunicar e incluso interpretar. Además, si vamos a sistemas más automatizados y personalizados hay que cambiar el modo en el que se comunican los datos de los modelos para que cualquier ciudadano pueda entender las predicciones y ser capaz de tomar sus propias decisiones.

El paradigma de las carencias en comunicación es que llevamos 20 años con predicciones probabilísticas y no hay foro especializado en el que no se discuta como comunicar la incertidumbre y si los ciudadanos están preparados para las probabilidades.

¿Dónde hay un mayor margen de mejora en la modelización numérica del tiempo?

Existen dos campos que se tocan y que son claves: la asimilación de observaciones para la determinación de la condición inicial del modelo y las predicciones probabilísticas.

En cuanto la asimilación de observaciones la clave para los modelos de alta resolución como HARMONIE es la capacidad de extraer toda la información posible de datos de alta frecuencia como son los radares doppler y las medidas de los GPS. Los métodos para tratar estos datos y los del modelo se están usando técnicas basadas en ensembles o predicciones por conjuntos, donde no se realiza una asimilación única sino un grupo de ciclos de asimilación. Estos ciclos de asimilación también son utilizados para generar múltiples predicciones que permiten cuantificar la incertidumbre y dando una información más rica en forma de probabilidades.

Entrevista Del Mes: Daniel Santos
Esquema de una predicción por conjuntos o ensembles. La línea roja representa la evolución real de la atmosfera. El conjunto de líneas negras muestra las posibles evoluciones de un conjunto de condiciones iniciales generadas por un sistema de predicción por conjuntos El conjunto de soluciones permite generar una predicción probabilística.
¿Puedes explicar a nuestros lectores en qué consisten las predicciones probabilísticas?

Eduard D. Lorenz descubrió que pequeños cambios en las condiciones iniciales de un modelo pueden producir soluciones muy diferentes. Esto es lo que se conoce como comportamiento caótico o caos. El famoso efecto mariposa proviene de una conferencia de Lorenz en la American Meteorological Society. Desde ese momento, sabemos que cualquier error, tanto en los datos que usamos para inicializar los modelos como las simplificaciones o errores que los propios modelos contienen, pueden producir predicciones muy diferentes. Para tratar de entender estos errores se emplean diversas técnicas que generan varias soluciones posibles para la predicción. Esto permite hablar de la probabilidad de que algo suceda dependiendo de cuantas de estas soluciones coincidan o no.

Realmente lo que las predicciones probabilísticas nos permiten es estimar el error y el grado de dificultad de predecir algo. Por ejemplo, en verano en Sevilla la probabilidad de que haya sol es muy alta y todos los modelos coincidirían, podríamos pronosticar con mucha seguridad ya que es muy habitual y es muy predecible. Por el contrario, la localización de una tormenta es muy poco predecible si los modelos la sitúan en diferentes puntos, pero podemos establecer áreas en común donde la probabilidad sea más alta y establecer un grado de probabilidad de tormenta en ese área.

En definitiva, con un único modelo la predicción se resume un si o no, mientras que con las probabilidades las tomas de decisiones se basan en que porcentaje de los modelos dicen si y cuantos dicen no.

El problema reside en que tiene que haber un cambio en la comunicación de las predicciones y un cambio de actitud del receptor de las mismas. Desde el punto de vista determinista el predictor apuesta por un carta y el receptor la cree o no para tomar decisiones. En el caso de las predicciones probabilísticas las decisiones pasan a formar parte de las tareas del receptor ya que tomará la que crea mejor, dependiendo de qué grado de riesgo desee.

A nivel europeo ¿hacia dónde va la predicción numérica: disponer de modelos deterministas de muy alta resolución con rápidas actualizaciones, predicciones probabilistas de alta resolución, ambos a la vez?

El desarrollo siempre empieza con el modelo determinista incluyendo mejora y yendo cada vez a modelos de más alta resolución. El límite por ahora sigue estando en la disponibilidad y las capacidades de los modelos para tener en cuenta las observaciones más recientes. Los ciclos de asimilación rápidos de datos radar, GPS y de datos por satélite de alta resolución es la dirección que se está tomando para el nowcasting y la predicción a corto plazo. En el caso del medio, el tratamiento por los globales de datos de satélite y la posibilidad de eliminar ciertas simplificaciones, como la hipótesis de hidrostaticidad, puede hacer que pronto tengamos datos a 5km o menos de resolución en todo el globo.

Con unos modelos numéricos cada vez mejores y con una física más compleja ¿cuál será el papel del predictor o ser humano?

Siempre existirá un nivel de incertidumbre por muchas mejoras que se hagan en la física y en la dinámica de los modelos. Los métodos de observación han de mejorar también para que los datos lleguen y se produzcan esas mejoras en los modelos y que finalmente tengan resultados positivos en las predicciones.

El papel del predictor siempre estará en la interpretación de los modelos para el público general o el usuario especializado. Además creo que unas predicciones más orientadas al servicio personalizado pueden seguir asegurando la existencia de predictores humanos. En cuanto a las predicciones genéricas, las mejoras de los modelos conducen a la automatización.

Muchas empresas privadas tienen modelos no hidrostáticos a 2.5-2.0 Km., o incluso de más resolución. ¿Cómo ves este escenario en el futuro? ¿Cuál será el espacio para los SMN?

Hacer simulaciones con un modelo de código abierto es muy fácil. De hecho, básicamente se necesita un PC con Linux. A partir de ahi, si quieres tenerlas a tiempo todos los días hay que incrementar el poder de cálculo.

La no disponibilidad de datos públicos de modelos globales de alta resolución ni de observaciones en tiempo real hace que la mayoría de estos modelos hagan lo que técnicamente se conoce como downscaling dinámico con arranque en frío. Esta técnica consiste en coger los datos de un modelo global, normalmente GFS a 25 km de resolución al ser gratis, e ir haciendo zoom con el modelo de área limitada pero sin añadir observaciones al no estar en tiempo real. Esto conduce a una menor calidad de los datos de salida del modelo ya que un SMN como AEMET parte de datos actualizados a 16 km del modelo IFS del ECMWF y realiza asimilación en cada uno de sus simulaciones.

Las empresas están cubriendo ese hueco dando servicios personalizados y de proyectos a demanda que los SMN no están dando, pese a la menor calidad de sus modelos. Lo que hay que saber es a que modelo de SMN, o más en general, de sociedad es a la que queremos ir. La coexistencia de lo público y lo privado es compleja. Cuando a lo público se le pide retorno de inversión y no se tiene en cuenta el beneficio social e empresarial, sino sólo el económico, hace que haya que definir unas reglas de juego. Si los datos se dan de forma gratuita y se quiere retorno económico de la inversión, la lucha por el pastel de la personalización con las empresas de servicios está servida. Pero las estructuras de los servicios públicos no están diseñadas para entrar en un negocio donde la competencia, la agilidad y la rapidez de respuesta son claves. Los servicios públicos son instituciones lentas y excesivamente burocratizadas, con poco perfil comercial, de servicio y de búsqueda de clientes. De hecho en AEMET no existe atención al cliente sino al usuario, por algo será.

¿Te animarías a decir cuáles son los mejores modelos numéricos de predicción a escala global y regional?

Claro que me animo, jajaja. Pues IFS y HARMONIE.

El Integrated Forecast System del ECMWF mejora año tras año. Ha demostrado en comparativas con otros modelos globales que actualmente es el mejor. Esto no solo se ve en el plano científico, hay artículos en prensa generalista como The Economist donde se hacen eco de la mayor calidad del modelo IFS respecto al americano GFS.

HARMONIE es el “hijo” de área limitada del IFS como el resultado de la colaboración entre el ECMWF, MeteoFrance y el consorcio HIRLAM. Técnicamente es un modelo mucho más complejo que modelos más conocidos como el famoso WRF.

La diferencia está en lo ya comentado, mientras IFS y HARMONIE son privados con financiación publica, GFS y WRF son código abierto.

¿Dónde invertirías dinero y recursos en la modelización numérica del tiempo?

Desde el punto de vista técnico en ingeniería de sistemas y en la aplicación de métodos de programación ágil. Los modelos son sistemas complejos e incrementales, donde se heredan malas prácticas de programación y de diseño. Basta decir que el 90% de un modelo es FORTRAN, un 5% de C y envuelto de herramientas que son scripts de shell, perl y ahora Python. Esto es un guiño a mis colegas informáticos, los científicos no sabemos programar.

También invertiría, obviamente, en el plano científico. Son necesarios nuevos supercomputadores y nuevos métodos de observación y nuevos predictores numéricos.

La formación es otra de las actividades que realizo y con la que probablemente más disfruto. La inversión en formación universitaria de especialistas tanto en supercomputación como en el uso y desarrollo de modelos es fundamental para el futuro. Para esto hay que tener supercomputación fácilmente accesible en la universidad y programas que tengan en cuenta este tipo de estudios. La supercomputación es la Formula 1 de los ordenadores para ciencia. Si este año tenemos a Alonso, a Sainz y a Merhi en los coches, tenemos que tener “pilotos” en la F1 de la informática.

¿Y cómo se elaboran las predicciones estacionales?

Básicamente son predicciones probabilísticas hechas con modelos globales. Para ello se usan los mismos modelos que operativamente pero las simulaciones son a menor resolución ya que los recursos en supercomputación son limitados.

De estas predicciones fundamentalmente se pueden extraer información de las tendencias ya que la predictibilidad está limitada en el tiempo como ya demostró Lorenz. Se trabaja en que la fiabilidad de la predicción estacional aumente introduciendo factores que en el corto y en el medio plazo no son tan claves, como pueden ser las corrientes oceánicas o las inercias térmicas del suelo.

¿Hacia dónde crees que evolucionarán los espacios del tiempo en TV?, ¿integrarán los comunicadores meteorológicos el lenguaje probabilístico a su discurso?

Estoy convencido en que vamos a ver un gran cambio tarde o temprano en los espacios del tiempo de TV en temas de visualización. Los mapas desaparecerán tal y como los entendemos desde hace 60 años y comenzarán a aparecer infografías mucho más avanzadas que en la actualidad.

Volviendo a incidir en el tema de la personalización, el camino parece ser más internet y las apps o lo que venga en el futuro. Tener la meteo en la palma de la mano en la sociedad de la información y del ocio es clave.

Como ya he comentado antes, el tema probabilístico es cuestión de un cambio más en el receptor que en el comunicador y para eso hay que formar al receptor. El receptor tendrá mucha más información para tomar decisiones, pero si nunca se le facilita el aprendizaje difícilmente las usará.

¿Cuáles son las fortalezas y las debilidades actuales de la predicción climática?

La fortaleza es que hay inversión económica e interés en las predicciones climáticas. Esto hace que cada vez las simulaciones son de mayor resolución e incluyen más factores que influyen en el comportamiento climático.

Las debilidades son que aún nos falta mucho por conocer del comportamiento caótico del sistema climático y, por lo tanto, los modelos no incluyen todo lo que debieran.

Siempre comento que los modelos son modelos y no la realidad. En el corto o medio plazo podemos verificar si el modelo se equivoca o no. Para las predicciones estacionales, hasta dentro de 100 años no sabremos si los escenarios se cumplirán o no. Esto no quiere decir que sean predicciones hechas con una bola de cristal o sin fundamento. Evidentemente los modelos han sido capaces de reproducir comportamientos climáticos pasados de forma razonable. Por lo tanto, es previsible que los reproduzcan bien el clima para escenarios futuros.

Entrevista Del Mes: Daniel Santos
Evolución de la resolución espacial de los modelos climáticos utilizados paro los distintos informes del IPCC.
¿Qué opinas de la supercomputación cuántica?, ¿crees que se llegará a desarrollar y que las ciencias atmosféricas darán un salto cualitativo gracias a ella?

No sé si yo llegaré a ver un supercomputador cuántico, pero el incremento de capacidad de cálculo sería gigantesco.

Por ahora los superordenadores siguen incrementando su capacidad de cálculo, reduciendo su tamaño y su consumo eléctrico. La última revolución esta siendo los coprocesadores basados en tarjetas gráficas. El problema de estos coprocesadores es que requieren recodificar y eso se lleva mal con los gigantescos y mal diseñados modelos meteorológicos. Estamos a la espera si los compiladores más inteligentes nos evitan la recodificación, ya que los coprocesadores son más económicos y más rápidos.

Durante una etapa de tu vida profesional trabajaste para Puertos del Estado, ¿qué labor desarrollaste allí?

En Puertos trabajé para el proyecto SAMPA en el que se desarrolló un sistema de predicción océano-meteorológica para las zona del Estrecho de Gibraltar y con mayor interés en los puertos de la Autoridad Portuaria, Algeciras y Tarifa.

Desde el punto de vista instrumental el sistema está formado tanto por sensores meteorológicos en las cercanías de los puertos, como oceanográficos en la bahía de Algeciras y en el Estrecho.

Toda esta información, junto con la suministrada por AEMET nos permitió diseñar un sistema formado por diversos modelos para la Autoridad Portuaria, entre ellos un modelo meteorológico de interpolación dinámica a 1 km de resolución en el Estrecho. Todos ellos se pueden consultar en la página de Puertos del Estado.

¿Qué nos puedes contar de tu videoblog “Meteoconciencia”(http://meteoconciencia.tumblr.com/)?, ¿qué objetivos persigues con él?

Bueno esto surgió debido a un pequeño empujón de un amigo y tal vez me tenga que volver a empujar para que sea más prolífico. Estoy bastante presente en redes sociales como Twitter o Instagram, pero el microblogging se queda corto para explicar ciertas cosas. El blog normal ya lo he intentado y esto fue una vuelta más de tuerca, tratando de ser más didáctico.

El propio nombre del videoblog son dos juegos de palabras, meteo con ciencia y meteo conciencia. La única manera de concienciar es con la mejor certeza que tenemos que es la ciencia. Vivimos tiempos donde cualquiera puede decir lo que quiera, sin base científica alguna, haciendo uso del gran altavoz que es internet. Esto hace que la gente crea lo que lee e incluso hay una cierta sensación de que la ciencia es mala o está vendida a ciertos poderes establecidos o económicos. En el caso de los meteorólogos la teoría de la conspiración se desmonta por que no conozco a un meteorólogo rico.

La idea detrás de Meteoconciencia es hacer simple lo complejo y tratar de explicar lo que se me ocurre o me preguntan como si fuera a mi hijo. Hay otros tipos de blogs o páginas de meteo mucho más técnicas o profundas, pero a mi me interesa que la gente que se acerca por primera vez a conceptos complejos lo haga de forma simple, comprensible y, si es posible, entretenida.

Reconozco que el soporte video me está costando y no genero tantas entradas como quisiera. En mi twitter @DSantosMunoz trato de etiquetar todo lo que pueda ser de interés meteorológico, climático o de supercomputación con el hastag #meteoconciencia y siempre estoy dispuesto a resolver dudas o tratar de explicar algún concepto.

NOTA DE LA REDACCIÓN: Desde la RAM damos las gracias a Daniel Santos por brindar a nuestros lectores esta interesante entrevista, y le felicitamos por la interesante labor que lleva a cabo.
Esta entrada se publicó en Entrevistas en 10 Jun 2015 por Francisco Martín León