IA et MTO

Du chemin à faire encore

Source Le Monde du 2024-03-20

Des prévisions affinées grâce à l’IA

David Larousserie

Ils ont pour nom FourCastNet, Pangu, GraphCast, GenCast, FuXi ou AIFS. Ils sont les « ChatGPT » de la prévision météo et peut-être bientôt, sous d’autres noms, de la modélisation du climat. En moins de deux ans, ces modèles anticipant les évolutions de l’atmosphère à dix jours ont chamboulé un domaine bien établi.

La révolution de l’intelligence artificielle (IA) a commencé dans ce secteur en février 2022 avec un preprint de l’entreprise américaine de cartes graphiques Nvidia, qui a présenté FourCastNet, rivalisant avec les modèles traditionnels. Puis Huawei a décrit Pangu en novembre 2022, avant que, la veille de Noël, Google Deepmind ne sorte GraphCast, qui donnera lieu presque un an plus tard à une publication dans Science, actant le début d’un nouvel âge. « On s’est pris cet article dans la figure, se souvient Marc Pontaud, directeur de l’enseignement supérieur et de la recherche à Météo-France. Nous avions en tête, comme les autres centres importants dans ce domaine, que ce serait possible, mais nous ne l’attendions pas si vite. »

« Tirages de dés »

Les spécialistes sont bousculés. « J’ai rapidement dû m’adapter », témoigne Mariana Clare, du Centre européen pour les prévisions météorologiques à moyen terme (ECMWF) qui travaille sur les incertitudes des différents modèles. « Les profils de nos recrutements ont évolué, avec la recherche de nouvelles compétences », complète son collègue Zied Ben Bouallegue, spécialiste de la vérification des prévisions.

Plusieurs pays européens (France, Norvège, Suède, Suisse notamment) décident en avril 2023 de s’associer pour construire un modèle à l’échelle de l’Europe de l’Ouest. Six mois plus tard, l’ECMWF adapte GraphCast pour son propre modèle, AIFS. Enfin, Météo-France prévoit qu’un prototype de prévision sera développé avant la fin 2024, à l’échelle de moins de deux kilomètres, et validé en 2025.

Les avantages de ces nouvelles technologies sont impressionnants. Là où il faut de deux à trois heures pour une simulation sur un superordinateur dédié, il ne faut qu’une minute sur un ordinateur doté d’une seule carte graphique pour obtenir un résultat très proche. Ces économies de temps et d’énergie ne vont cependant pas faire baisser l’empreinte carbone de cette activité, car les spécialistes vont profiter de ces gains pour faire plus de prévisions. En effet, ces phénomènes étant par nature instables, plus il y a de « tirages de dés », mieux on peut estimer l’incertitude. Au lieu des 50 prévisions actuelles, toutes les six heures, cela pourrait donc être 1 000 à chaque fois.

Quels sont les secrets de ces IA ? C’est l’application du principe général de l’apprentissage à partir de données. Il s’agit de trouver les paramètres qui permettent, à partir des variables météo à un instant T, de trouver celles à un instant suivant (souvent six heures plus tard). L’un des « secrets » est que les données utilisées sont publiques, mises à disposition par l’ECMWF et calculées, depuis 1940, par les modèles dits physiques, c’est-à-dire reposant sur les lois de la physique (mécanique des fluides, conservation de la masse…), que les IA veulent remplacer. Cette étape nécessite plusieurs semaines de calculs et d’énormes quantités de cartes graphiques. « Tout comme ChatGPT repose sur les données textuelles fournies par les humains, les IA de météo s’appuient sur un colossal travail humain », rappelle Claire Monteleoni, de l’Institut national de recherche en sciences et technologies du numérique (Inria), qui insiste sur l’ancienneté de l’IA dans son domaine. La nouveauté étant la famille particulière d’IA utilisée ici, le deep learning.

Le meilleur pas de temps

« Ça va vite, trop vite sans doute, car il y a beaucoup de choses à comprendre. Ce n’est pas plié ! », tempère Marc Bocquet, chercheur à l’Ecole des ponts ParisTech. Car les limites sont nombreuses. Les nouveaux venus n’égalent pas sur tous les aspects leurs aînés. La résolution spatiale est celle du jeu de données d’entraînement, une maille de 28 × 28 kilomètres. Loin du kilomètre et demi des modèles de prévisions nationaux actuellement déployés. Les événements extrêmes sont rarement bien prédits. « Or le système d’alerte d’un service météo ne peut se permettre de rater un de ces événements atypiques », insiste Claire Monteleoni, qui travaille sur la prévision des effets locaux du changement climatique.

Ces modèles ont aussi quelques lacunes. Ils ont du mal avec les nuages, les régimes et les champs de précipitations. Si la trajectoire d’un cyclone ou d’une tempête peut être décrite, les intensités des vents le sont beaucoup moins bien. « Ils n’ont pas vu le coup de vent de surface de la tempête Ciaran d’octobre dernier, par exemple », note Marc Pontaud. Les spécialistes soulignent en outre quelques incohérences « physiques » avec des grandes lois de l’atmosphère. Leur « opacité » peut aussi rendre incompréhensibles certaines de leurs prédictions.

Surtout, ils sont encore dépendants des modèles physiques qu’ils prétendent remplacer. En effet, ceux-ci sont encore indispensables pour la phase dite d’« assimilation de données » qui précède celle de la prévision proprement dite. Pour prédire, il faut entrer dans le programme les conditions initiales, une centaine de paramètres (température, pression, humidité, vitesse des vents…) avant de le lancer. Ces paramètres sont tirés d’observations de satellites, de stations météo terrestres…, mais il y a des « trous ». Ces derniers sont comblés par un modèle physique qui, à partir notamment des informations du passé, construit l’ensemble de ces conditions initiales. Un modèle d’IA ne sait pas encore faire cette étape, qui prend aussi plusieurs dizaines de minutes. « Des modèles dits “end-to-end”,qui partiraient des observations et fourniraient une prévision à quelques jours, sans l’étape actuelle d’assimilations de données, sont l’un des enjeux », estime Marc Bocquet, qui a déjà démontré que c’était possible, sur un modèle météo bien plus fruste que les actuels.

D’autres groupes s’activent aussi pour chercher quel est le meilleur pas de temps pour les prévisions, six heures, douze heures, moins… D’autres pour diagnostiquer précisément la pertinence des prévisions. Ou hybrider ces modèles d’IA avec des équations physiques, notamment pour la prédiction du climat qui n’a pas encore été bouleversée par les dernières technologies.