Météo et indices de fiabilité

On les utilise de plus en plus dans les bulletins météo. Grâce à eux les prévisions ont fait un pas en avant depuis quelques années : les situations météo difficiles sont plus aisées à reconnaître et dans certains cas les prévisions sont possibles au-delà de 7 ou 8 jours.
Comment ça marche ?

La sensibilité aux conditions initiales : un problème vieux comme le monde.

Dans les années 60, E. N. Lorenz, chercheur au MIT (Massachusetts Institute of Technology) avait mis au point un système de calcul assisté par ordinateur pour simuler les processus météorologiques. Les premiers résultats furent assez encourageants car les modèles numériques arrivaient à reproduire assez fidèlement les flux atmosphériques.

Mais en essayant de faire des prévisions sur des échéances de plus en plus longues, la méthode montra rapidement ses limites. En effet, au-delà de quelques jours les résultats devenaient de plus en plus aléatoires. De là naquit l’idée que dans une chaîne complexe d’événements, une faible variation des données initiales pouvait avoir des répercussions de plus en plus grandes sur le résultat final dès lors que les échéances se rallongeaient.

C’est la fameuse théorie de l’effet papillon qui explique que le simple battement des ailes d’un papillon peut être à l’origine quelques mois plus tard d’un ouragan sur les caraïbes. L’exemple est un peu extrême mais il illustre bien le propos.

Cette théorie met aussi en avant le fait que la limite et la qualité d’une prévision résident avant tout dans la précision des informations introduites dans les systèmes de calcul

Un pas décisif : la prévision d’ensemble et les indices de fiabilité

La méthode du filtrage avait fait ses preuves – elle est encore utilisée aujourd’hui dans la plupart des systèmes de calcul – mais elle avait aussi montré ses limites : dans la meilleure des hypothèses les modèles numériques pouvaient faire des prévisions à 7 jours et le pourcentage de prévisions justes à 5 jours plafonnait à 60%.

Pour aller plus loin dans les prévisions numériques, météorologues et informaticiens partirent de l’idée que les situations météo n’ont pas toujours la même sensibilité aux conditions initiales. Dans certains cas la variation d’un paramètre initial n’influence que peu le résultat final : la prévision de ce fait devient relativement fiable. Dans d’autres, la sensibilité aux conditions initiales est importante et la fiabilité de la prévision s’en ressent de manière négative.

Pour saisir la  » sensibilité  » de chaque situation météo, l’innovation apportée par les prévisions d’ensemble consiste, en sus de la simulation ordinaire effectuée par le modèle numérique (appelé modèle opérationnel), à procéder chaque jour à 51 simulations supplémentaires, cette fois sur un modèle simplifié faisant une prévision à 15 jours. Dans chaque cas, les paramètres initiaux sont volontairement modifiés ou si vous préférez on  » titille  » les modèles pour voir comment ils réagissent.
Au final, les résultats des 51 simulations sont comparés : lorsque qu’ils convergent vers une même solution, cela signifie que la situation météo est peu sensible aux conditions initiales.

Les indices de fiabilités (qui sont en général notés de 1 à 10) seront élevés. En cas de divergence, la situation est cette fois hautement sensible aux conditions initiales : la prédictibilité – et donc l’indice de fiabilité – seront faibles