Quelques défis scientifiques actuels en météorologie
Les attentes de la société et des usagers de la météorologie imposent un progrès constant des savoirs et des services. Les réponses proviennent de la communauté scientifique, des grands organismes et milieux académiques français, en Europe et dans le monde. Quelques chercheurs ont bien voulu décrire certains de leurs travaux, qui illustrent une partie de la richesse intellectuelle déployée pour faire progresser la météorologie.
En matière scientifique, le Centre national de recherches météorologiques, unité mixte de recherche CNRS – Météo-France, tient une place particulière, liée à sa proximité avec les météorologues opérationnels. Ses chercheurs abordent de nombreux aspects de la chaîne météorologique, depuis l’observation jusqu’à la valorisation des prévisions, et réalisent un transfert efficace et régulier des avancées scientifiques aux opérationnels.
La météorologie ne se limite pas à la physique de l’atmosphère. De nombreuses sciences sont mobilisées, non seulement pour décrire le complexe « système Terre », mais aussi pour l’observer, traiter l’information efficacement et enfin livrer un message et un service qui soient reçus à temps, compris et constituent une réelle aide à la décision. Les défis actuels des scientifiques sont liés aux couplages, à la représentation explicite de processus à des échelles toujours plus fines. Ils ciblent des phénomènes atmosphériques intenses, décrivent plus précisément la composition de l’air, la microphysique, les nuages. L’enjeu est d’aboutir à des modèles numériques qui pourront être exploités en prévision, ou en rejeu du passé, ou bien encore, au-delà des échéances météorologiques, en projections climatiques. La recherche instrumentale et les campagnes de mesure, comme pour toutes les géosciences, sont déterminantes : compréhension des phénomènes et processus, et préparation des capacités d’assimilation des données observées dans les modèles numériques. Enfin, particularité de l’exercice météorologique, qui impose de lutter en permanence contre le temps qui passe, les chercheurs sont également fortement investis sur les aspects informatiques et numériques, dans un cadre de calcul haute performance.
L’exercice de prévision opérationnelle est d’une redoutable complexité… Le système qu’il faut résoudre est un lieu de chaos – au sens mathématique – et une cascade d’échelles conséquente doit être prise en compte, de la molécule à la planète. La martingale consiste à résoudre les différentes échelles pour espérer capturer les phénomènes et leurs interactions. Elle nécessite de la puissance de calcul, mais aussi une compréhension et des représentations cohérentes de la physique en jeu, sans oublier des observations adaptées pour contraindre la résolution des équations. Elle impose toujours, in fine, des choix, en fonction des phénomènes ou des échéances ciblées. Enfin, il faut servir la masse d’information produite par les systèmes d’observation et par les modèles numériques, désormais mis en œuvre en ensembles. D’autres sciences doivent être mobilisées : information et communication, représentation, décision…
REPÈRES
L’échange rapporté ici a associé Philippe Dandin, Marc Bocquet (91), École des Ponts ParisTech, Cerea, Benjamin Ménétrier, Institut de recherche en informatique de Toulouse, et du Centre national de recherches météorologiques : Ludovic Auger (96), Camille Birman (2007), Philippe Chambon, Philippe Marguinaud (95), Yann Michel (2000), du Groupe de modélisation et assimilation pour la prévision, François Bouttier (86), Olivier Caumont (98), Quentin Libois (2007), Benoît Vié (2004), du Groupe de météorologie à moyenne échelle, Alain Dabas (85), du Groupe de météorologie expérimentale et instrumentale, Matthieu Plu (98), du Groupe de modélisation de grande échelle et climat.
Parmi les calamités météorologiques, la grêle, la foudre, les rafales de vent, les tornades, les fortes précipitations qui accompagnent les orages sont à l’origine de pertes matérielles et humaines importantes. Que fait-on sur les orages ?
Olivier Caumont : Les phénomènes convectifs constituent en effet un enjeu important en métropole et dans les Outre-mer, et plus largement dans le monde. Or, leur prévision, depuis la cellule orageuse isolée qui se bloque sur un point jusqu’aux amas de grande échelle, reste ardue. Cela est en partie dû à la faible prévisibilité de ces phénomènes, problème auquel la prévision d’ensemble s’attache à remédier. Les orages sont en outre de taille modeste en regard des résolutions spatiotemporelles de nos modèles. L’amélioration du réalisme des prévisions d’orages passe donc par une augmentation de la résolution, qui pose notamment des problèmes numériques, mais aussi par une amélioration de la représentation des processus physiques non résolus comme la microphysique, la turbulence, etc. Autant de sujets auxquels nous nous attachons.
Ces phénomènes de fine échelle sont mal perçus par les réseaux d’observation. Quelles pistes explorez-vous en la matière ?
Olivier Caumont : Des observations à l’échelle des orages sont nécessaires pour valider et initialiser les modèles. Depuis plusieurs décennies, la télédétection par radar ou satellites a enrichi les systèmes d’observations classiques, et les progrès continuent à grands pas, avec les projets de l’ESA et d’Eumetsat. L’exploitation de ces mesures de télédétection est néanmoins compliquée par leur lien indirect aux quantités physiques prévues par les modèles. Par ailleurs, depuis quelques années, l’Internet des objets suscite un intérêt croissant. Qu’il s’agisse de capteurs embarqués sur divers types de véhicules ou bien de stations météorologiques personnelles, ces objets fournissent des données en grande quantité et à maillage fin. Elles sont cependant hétérogènes et de qualité incertaine, et doivent être traitées grâce aux avancées de la science des données. Les travaux en la matière sont prometteurs.
“Les phénomènes convectifs constituent un enjeu important
en métropole et dans les Outre-mer”
L’atmosphère est un milieu peuplé d’une quantité de composés, qui jouent des rôles variés dont les moteurs sont les interactions matière-rayonnement. Comment valorisez-vous les campagnes de mesure pour faire progresser la représentation des nuages dans les modèles de prévision ?
Benoît Vié : Bien connaître la composition de l’atmosphère et des nuages, et disposer de codes aptes à simuler les interactions complexes entre leurs différents composés, sont deux objectifs de nos travaux. Les observations détaillées récoltées au cœur des nuages par drones, ballons ou avions permettent de mieux saisir leur cycle de vie. Le développement d’un nouveau schéma microphysique, mené avec des collègues du CNRS, a conduit à une meilleure représentation des processus nuageux. Capable de prévoir non seulement la masse d’eau contenue dans les nuages, mais également le nombre et la taille des hydrométéores (gouttes et cristaux), il fournit des informations essentielles pour déterminer leurs impacts, par exemple sur la visibilité.
Comment représentez-vous les interactions matière rayonnement ? Et que faites-vous pour améliorer les prévisions de production des centrales photovoltaïques ?
Quentin Libois : Pour répondre au défi de la transition énergique, Météo-France met son expertise au service de la prévision de production des énergies renouvelables, et notamment du photovoltaïque. Cela nécessite des prévisions plus fiables et très locales du rayonnement incident en surface. Grâce à une description détaillée de la structure tridimensionnelle de l’atmosphère, un modèle statistique de lancer de rayons permet de calculer très précisément le rayonnement incident en surface, en suivant les trajectoires complexes d’un grand nombre de photons à travers l’atmosphère. Cette approche de laboratoire, actuellement trop coûteuse pour la prévision, deviendra abordable d’ici quelques années, et plus tôt pour des études et du conseil. Nos travaux couplant transfert radiatif et microphysique permettront d’améliorer nettement les prévisions de production photovoltaïque, et aussi d’autres phénomènes météorologiques à fort impact, tels que le brouillard. La recherche travaille sur ces connaissances fondamentales dont les retombées seront positives pour l’aviation, l’énergie, la sécurité et l’économie.
Quels sont les efforts actuels de la communauté météorologique sur ces sujets importants des gaz à effet de serre (CO2, CH4, O3…) et de la qualité de l’air ?
Matthieu Plu : L’atmosphère est un creuset, où molécules et particules d’origine naturelle et anthropique sont transportées, mélangées et subissent des transformations physicochimiques. Prévoir la composition de l’atmosphère présente un intérêt en soi, en raison de ses effets sur la santé humaine, le transport aérien et la production d’énergie solaire, entre autres. Ces dernières décennies, la recherche a beaucoup progressé pour caractériser les sources de polluants, et modéliser les principaux mécanismes chimiques.
Les constituants chimiques ont aussi un effet important sur la météorologie, par leur interaction avec le rayonnement et avec les gouttelettes nuageuses. On connaît l’impact des gaz à effet de serre et des aérosols sur le climat global. Mais ils influent aussi sur les phénomènes météorologiques aux échelles plus fines, tel le brouillard, et sur la météorologie urbaine. L’enjeu aujourd’hui est donc d’intégrer pleinement la modélisation chimique dans les modèles météorologiques. Il s’agit aussi d’y assimiler les données satellitaires pour estimer de façon cohérente l’état de l’atmosphère et des sources de pollution. Nous travaillons donc entre spécialistes de ces différents domaines pour développer un tel couplage atmosphère-chimie-surface qui doit préfigurer l’avenir de la prévision : des produits et services intégrés de l’environnement.
Les événements extrêmes résultent souvent d’interactions entre les compartiments du système Terre : atmosphère-océans-surfaces continentales. Au-delà du couplage entre chimie et physique dans l’atmosphère, comment étudie-t-on ces interactions ?
Camille Birman : Un outil pour mieux comprendre et représenter ces phénomènes consiste à coupler les différents modèles représentant les différents compartiments, à faire évoluer conjointement les différents milieux. On gagne en prévisibilité et on comprend mieux les processus grâce à la prise en compte des boucles de rétroaction et à une représentation plus réaliste des flux aux interfaces. Le couplage entre l’océan et l’atmosphère permet de mieux prévoir l’intensification rapide des cyclones tropicaux à l’approche des zones habitées ; celui avec les vagues améliore la prévision du vent, des courants et des flux à l’interface air-mer ; de même, le couplage avec les surfaces continentales permet de mieux prévoir les épisodes extrêmes : sécheresses, vagues de chaleur, inondations… En particulier en zones de relief, les fortes hétérogénéités spatiales et leur impact sur l’atmosphère sont ainsi mieux explicités.
“Mieux prévoir l’intensification rapide des cyclones tropicaux à l’approche des zones habitées”
Coupler ces modèles, c’est augmenter la complexité du système étudié. Quelles sont les difficultés et les approches envisagées pour les surmonter ?
Camille Birman : Ces systèmes couplés posent un certain nombre de défis. Outre les difficultés techniques, les modèles couplés sont très lourds en coût de calcul et nécessitent des optimisations des codes numériques. Mais le couplage ajoute aussi des degrés de liberté au système, qui imposent une utilisation accrue des observations. Ainsi, l’assimilation d’observations aux interfaces est cruciale pour contraindre le système et éviter des dérives. La quantification des incertitudes des systèmes couplés est aussi un défi. Les ensembles d’assimilation permettent d’apporter des réponses à ces questions, notamment en fournissant une mesure des incertitudes associées à chaque paramètre.
Que nous apportent les observations aux interfaces des différents compartiments du système Terre ?
Benjamin Ménétrier : Nous savons que certaines observations apportent de l’information sur plusieurs compartiments de la Terre, par exemple à la fois sur la température de surface de la mer et celle de l’air environnant. Or, les épisodes de précipitations intenses en Méditerranée sont particulièrement sensibles à cette interface atmosphère océan. Le défi majeur est de prendre en compte ce couplage dans l’initialisation des modèles malgré des géométries et des échelles de temps très hétérogènes entre les compartiments. Mathématiques et sciences numériques sont vitales.
La météorologie est en effet avide de technologies numériques. La performance du calcul numérique est critique, tant pour la recherche que pour la réalisation des prévisions. Comment la recherche s’y intéresse-t-elle ?
Philippe Marguinaud : Un de nos soucis constants porte effectivement sur la performance des algorithmes sur HPC (calculateur haute performance). Les modèles utilisés à Météo-France – Arpège et Arome respectivement pour le global et le régional, pour les simulations allant de quelques heures jusqu’aux échéances climatiques – s’appuient sur un noyau dynamique (i.e. la partie spécifique du logiciel dédiée à la résolution des équations de Navier-Stokes) très économique : développé avec le CEPMMT (Centre européen de prévision météorologique à moyen terme), il tolère des pas de temps élevés et permet d’obtenir une prévision en utilisant moins d’étapes que d’autres algorithmes. Les pas de temps longs de ce noyau dynamique dit « spectral, semi-implicite, semi-lagrangien » restent suffisamment petits pour décrire correctement les phénomènes météorologiques. Sa particularité est qu’il amortit les ondes rapides, telles que les ondes sonores qui n’ont pas d’intérêt pour la prévision. Des expériences d’intercomparaison avec d’autres modèles de prévision numérique ont ainsi montré que le noyau dynamique utilisé aujourd’hui dans les modèles de Météo-France offre sans contestation possible le meilleur rapport performance / coût numérique du monde.
Si tout va bien, pourquoi s’intéresser à ces sujets numériques et informatiques ?
Philippe Marguinaud : Comme expliqué précédemment, la résolution et la complexité des modèles de prévision s’accroissent. Or, la fin de la montée régulière en fréquence des processeurs utilisés dans les systèmes de calcul (loi de Moore) force les modélisateurs à utiliser un nombre de processeurs de plus en plus élevé. Ce détail a son importance, et notre noyau dynamique montre des limites en termes de « scalabilité », c’est-à-dire que sa capacité à utiliser des systèmes informatiques comprenant de plus en plus de processeurs pour diminuer son temps de restitution n’est pas infinie. Ainsi, par exemple, le passage de la résolution d’Arome de 2,5 km à 1,3 km en 2013 aurait théoriquement dû requérir une augmentation de puissance de l’ordre de 10 ; dans la réalité, c’est un facteur 14 sur la puissance de calcul qui a été nécessaire. Notons que les modèles « explicites » sont eux aussi affectés par cette perte de scalabilité.
“Les modèles de Météo-France offrent le meilleur rapport
performance / coût numérique du monde”
Quelle peut être l’issue ?
Ludovic Auger : Cette rupture dans l’évolution de la technologie, ainsi que d’autres limites rencontrées en physique, par exemple dans la représentation de l’orographie, conduit Météo-France et les grands centres de prévision à revisiter les algorithmes utilisés dans les noyaux dynamiques, ainsi qu’à étudier leur possible implémentation sur des architectures de type accélérateurs, comme les processeurs graphiques (GPU).
La puissance de calcul attribuée à la météorologie opérationnelle demeure donc un enjeu vital de progrès ?
Ludovic Auger : Oui, par exemple, dans le cadre du projet Dyamond (intercomparaison de modèles globaux non hydrostatiques https://www.esiwace.eu/services/dyamond) en 2018, une simulation globale à l’échelle 2,5 km de cinquante jours a été menée avec succès et a requis l’utilisation de 300 nœuds équipés de processeurs Intel © Broadwell intégrés dans la machine « Beaufix » installée dans les locaux de Météo-France par le constructeur français Bull. Le modèle français Arpège a produit des simulations à très fine échelle comparable aux meilleurs modèles mondiaux et pour un coût informatique similaire. Cette configuration à très haute résolution, dont l’intérêt est avéré pour de multiples applications, ne sera pas utilisée opérationnellement avant quinze ans, sous réserve que la puissance de calcul disponible continue à croître régulièrement. Arpège dans sa forme actuelle restera compétitif sur cette période de temps, et nous y travaillons avec nos homologues, notamment du CEPMMT.
Quels sont les défis à relever pour initialiser ces modèles du futur, globaux, à résolution kilométrique ?
Yann Michel : Les modèles sont initialisés à partir de prévisions récentes et d’observations variées. Nous changeons actuellement de paradigme pour nous appuyer de plus en plus massivement sur des ensembles afin de décrire statistiquement les erreurs de nos modèles. Le prochain défi est de mieux prendre en compte la non-linéarité, présente à la fois dans la relation entre le modèle et les observations et dans le modèle lui-même. Cet aspect devient crucial aux échelles fines, quand on s’intéresse à l’initialisation des nuages et des précipitations.
L’utilisation des observations spatiales, dans un contexte de forte évolution technologique, doit logiquement faire l’objet de nombreuses recherches ?
Philippe Chambon : Les technologies disponibles pour l’observation de la Terre depuis l’espace évoluent effectivement très vite. Ces évolutions concernent la conception des instruments de télédétection, amenant à une densité spatiotemporelle d’observations accrue, mais aussi la conception des plateformes satellitaires qui se miniaturisent. Le nombre de mesures disponibles pour contraindre les modèles changera d’ordre de grandeur dans les prochaines années. Des capteurs nouveaux apparaîtront. Les défis scientifiques pour exploiter le contenu en information de ces observations sont nombreux. Nous travaillons dès les phases d’appels à idées émises par les agences spatiales, préparons aussi longtemps que possible à l’avance nos outils numériques pour qu’ils soient prêts à tirer le meilleur des observations quand elles apparaissent. Les progrès de la physique et des couplages permettent aussi de mieux exploiter les données mesurées depuis l’espace. Les défis sont aussi technologiques autour des réseaux de communication et du stockage. Des questions sont également posées sur l’accès à des données pouvant être détenues par des opérateurs privés, le New Space… Nous veillons aussi ces évolutions possibles du marché.
L’amélioration de la physique représentée dans les modèles, traitant les échelles fines et les couplages, permet et impose d’exploiter davantage d’observations spatiales.
Que peut-on attendre de l’intelligence artificielle dans ce registre et plus largement en météorologie ?
Marc Bocquet : L’IA peut améliorer le filtrage et le pré-traitement des grandes masses d’observations à assimiler dans les modèles. On envisage également que des réseaux de neurones puissent se substituer à des parties du modèle de prévision particulièrement complexes comme les paramétrisations de la convection profonde ou de l’impact de la turbulence aux échelles non résolues par le modèle. On peut aussi espérer que l’apprentissage profond soit en mesure d’extraire de l’information résiduelle des analyses météorologiques produites par les méthodes classiques, et ainsi contribuer à réduire davantage les biais entre le modèle et la réalité. La communauté scientifique s’organise actuellement pour progresser sur ces axes et sur d’autres secteurs pour lesquels l’IA semble constituer une approche prometteuse. De nombreux tests sont démarrés dans tous les laboratoires, et la communauté s’organise pour stimuler le développement de l’IA en géosciences.
L’observation apparaît plus que jamais essentielle. Quels objectifs poursuit la recherche ?
Alain Dabas : La météorologie repose sur l’observation. Observation pour comprendre la physique des phénomènes et pouvoir les simuler dans les modèles numériques, pour définir l’état initial de l’atmosphère pour une prévision, pour caractériser l’évolution du climat. Les variables à mesurer sont nombreuses et variées : les variables de base (pression, température, humidité), la concentration et la nature des aérosols, la composition chimique, notamment en gaz à effet de serre, la concentration et la taille des gouttes d’eau dans les nuages, les précipitations, les flux d’échange d’énergie et de matière entre les surfaces continentales ou maritimes… Elles doivent aussi si possible couvrir tout le globe, sur terre et mer, du sol jusqu’à la stratosphère !
Que se passe-t-il au sol ?
Alain Dabas : La majeure partie des observations réalisées au niveau du sol provient de réseaux de capteurs opérés par des agences étatiques qui échangent gratuitement leurs données. Des sources d’informations alternatives commencent à être disponibles. Mesurées par des capteurs embarqués sur des objets connectés – capteurs de pression sur smartphone, de température sur voiture, stations météorologiques grand public – ou dérivées de systèmes non pensés pour la météorologie – par exemple l’atténuation de puissance des faisceaux hertziens entre relais téléphoniques, qui permet de remonter à des taux d’humidité… – ces données vont se multiplier, mais posent des problèmes de qualité, de volume et de propriétés qu’il faut résoudre pour en tirer pleinement profit.
“La masse de données d’observations météorologiques disponibles
devrait exploser dans le futur”
Observe-t-on cette tendance en altitude aussi ?
Alain Dabas : En altitude, la source principale provient des satellites météorologiques. Ils embarquent des capteurs de télédétection de plus en plus sophistiqués : radiomètres imageurs optiques fonctionnant dans l’UV, le visible ou l’infrarouge avec des résolutions spectrales de plus en plus fines, radars à hautes fréquences (de 10 à 100 GHz) et des lidars. Tous ces systèmes doivent pouvoir être étalonnés régulièrement pour ne pas introduire de dérive instrumentale dans les longues séries et s’appuient pour cela sur le réseau mondial de radiosondage (sonde accrochée à un ballon gonflé à l’hélium ou l’hydrogène, transmettant ses mesures in situ par radio). Le système est complété par des mesures sur avion de ligne par des capteurs propres (mesure de la vitesse de l’air par sonde Pitot par exemple) ou embarqués spécifiquement pour cela (mesures de composition atmosphérique par le programme Iagos par exemple). D’autres horizons s’ouvrent, avec les satellites bon marché et de très petite taille, sujets sur lesquels nous exerçons une veille active avec les agences spatiales.
New Space, mais aussi drones, technologies innovantes de mesure, miniaturisation…,
autant de sujets faisant l’objet de travaux ?
Alain Dabas : Oui, ce sont autant de sujets sur lesquels nous travaillons avec nos partenaires académiques et industriels, toulousains, et qui font l’objet de prospectives avec l’Insu et le Cnes.
L’utilisation des drones se développe, réservée pour l’instant à des observations de recherche dans des volumes difficiles d’accès (vols dans des zones polluées, à quelques mètres au-dessus de la surface océanique…) : moyennant un savoir-faire conséquent de miniaturisation des capteurs, ces plateformes sont fascinantes pour sonder l’atmosphère. La même logique permet d’imaginer embarquer des capteurs dans le futur sur des avions solaires ou des dirigeables volant plusieurs mois de suite en basse stratosphère, et sur des nuées de nanosatellites.
La masse de données d’observations météorologiques disponibles devrait exploser dans le futur. Ces volumes astronomiques posent des questions de transmission et de traitement. De la compression de données embarquée sur les capteurs devra être mise en œuvre, et des techniques de traitement adaptées au big data devront être développées pour les applications météorologiques.
La volumétrie est aussi un sujet pour les ensembles de simulation qui sont réalisés, et plus fondamentalement se pose la question de leur exploitation et de l’extraction de l’information ?
François Bouttier : Cette approche de modélisation avec des ensembles constitue un changement de paradigme pour les utilisateurs de la météorologie. C’est une évolution marquante pour la prévision météorologique. Pour bien utiliser une prévision, cette dernière doit être la meilleure possible, mais il faut aussi connaître ses incertitudes, qui changent chaque jour. Cela concerne les phénomènes à la limite de ce qui est prévisible (orages, brouillards, prévisions à plusieurs jours d’avance…), mais aussi les phénomènes à fort impact : par exemple, si les pluies prévues sont à la limite du déclenchement de crues catastrophiques, mais que leur intensité est incertaine, on a intérêt à émettre un avertissement si les coûts d’une alerte manquée excèdent ceux d’une fausse alarme.
Cette approche de la prévision, analogue aux techniques financières, nécessite des outils de prévision dédiés à la production d’information météorologique probabiliste. Leur fer de lance est effectivement la prévision d’ensemble, qui consiste à injecter intelligemment du bruit numérique dans les modèles de prévision : leur réaction à ce bruit va indiquer en temps réel l’incertitude sur tous les paramètres météorologiques modélisés. Dans cette approche, il est moins important de produire la meilleure prévision catégorique que d’évaluer honnêtement ce que l’on sait ou pas sur la prévision. Ce type d’information a une grande valeur pour les acteurs économiques et la prévention des catastrophes… La prévision d’ensemble est donc en train de remplacer progressivement les algorithmes plus traditionnels de prévision, déterministes. C’est une révolution en cours des techniques de prévision, mais aussi de la communication de l’information météorologique, qu’il faut désormais présenter de manière probabiliste mais intelligible, y compris pour les usagers qui s’en serviront in fine pour des décisions catégoriques. Les recherches dans ces domaines sont passionnantes car elles touchent à de multiples disciplines et doivent impérativement se faire en lien avec les utilisateurs.