Aller au contenu principal

Soutenance de thèse de Bob Saint-Fleur

Le 16 décembre 2021, Bob Saint-Fleur soutiendra sa thèse intitulée Vers une meilleure prise en compte des comportements multi-échelles des aquifères complexes (crues rapides) par les modèles à réseaux de neurones. Cette thèse est dirigée par Anne Johannet et Séverin Pistre (UMR HSM), en partenariat avec l'école doctorale GAIA.

 

Publié le
Recherche et Doctorat
Toutes les actualités
Résumé de la thèse :

Les crues éclair font partie des risques naturels les plus dévastateurs dans le monde. Selon Jamali et al. (2020), elles sont responsables de près de 84 % des décès causés par les désastres naturels. Si l’inondation par une crue classique peut être anticipée avec un certain délai, une crue éclair est bien plus rapide et localisée, et donc bien plus difficile à prévoir. Tel est le cas des régions méditerranéennes en France. Face à cette problématique, les institutions chargées de la prévision des crues et des inondations ont besoin d’informations de qualité et de modèles performants afin d’optimiser leurs réponses. Du fait que les pluies génératrices de ces crues éclair sont très hétérogènes aussi bien dans le temps que dans l’espace, en sus du caractère fondamentalement non-linéaire de la relation pluie-débit, leur prévision reste un défi très sérieux. Depuis maintenant trois décennies, les réseaux de neurones ont prouvé leur efficacité pour résoudre des problèmes complexes et non linéaires, en particulier les relations pluie-débits dans diverses situations hydrologiques. Au sein de ces types de modèles, le Deep Learning en tant qu’une méthode d’apprentissage qui s’applique principalement aux réseaux de neurones profonds, s’est montré particulièrement performant dans de nombreuses disciplines. Cependant, du fait de leur caractère de boîtes noires, qui nous parait plutôt un avantage compte tenu du manque de connaissance sur certains processus hydrologiques, l’intérêt de leur application est parfois mis en doute.
Pour cette raison ce travail a appliqué des réseaux de neurones profonds à la prévision des crues éclair avec trois principaux objectifs : le premier objectif vise l’interprétation des paramètres des couches profondes des trois types de perceptrons généralement utilisés en hydrologie : statique, dirigé, récurrent. Pour ce faire ce travail a suivi deux étapes : (i) extraire les valeurs des paramètres des modèles optimisés en utilisant la méthode « Knowledge eXtraction (KnoX)» proposée par Kong A Siou et al. (2013) ; (ii) interpréter ces paramètres grâce à une analyse comparative de ces informations avec les données caractérisant certains processus hydrologiques du bassin versant ; cette partie a été publiée dans les actes de la conférence internationale ITISE 2018, pour le volet prévision, et dans un chapitre de livre de la série LNCS (Lecture Notes in Computer Sciences) pour l’interprétation des paramètres. Le second objectif est de prendre en compte la spatialisation des précipitations et les effets d’échelle associés grâce à une modélisation profonde par bassins emboités. Ceci a permis d’allonger l’échéance de prévision qui avait été réalisée par Artigue (2012) de 2 à 3 heures, grâce à l’introduction d’informations physiques dans le modèle ; ce travail a été soumis à la revue Water. Le troisième objectif, en suivant une approche duale du premier objectif, propose d’injecter de l’information dans les paramètres des couches profondes des modèles afin d’améliorer leur performance en prévision. Si ce dernier objectif n’a pas été complètement atteint on note cependant qu’il apporte des bénéfices pour les réseaux récurrents avec une amélioration des résultats de prévision significative. Ce travail a mis, une fois de plus, en évidence la qualité de la méthode de sélection de modèles, qui permet non seulement de réaliser des prévisions performantes sur les évènements les plus intenses de la base de données, mais aussi d’aboutir à une architecture profonde parcimonieuse permettant, grâce à la règle d’apprentissage de Levenberg-Marquardt d’apprendre les couches profondes sans observer d’atténuation du gradient.

Abstract :

Flash floods are among the most devastating natural hazards in the world. According to Jamali et al. (2020), they are responsible for nearly 84% of deaths from natural disasters. While flooding from a conventional flood can be anticipated with some lead time, a flash flood is much more rapid and localized, and therefore much more difficult to predict. This is the case in the Mediterranean regions of France. Faced with this problem, the institutions in charge of flood forecasting need quality information and efficient models in order to optimize their responses. Because the rainfall that generates these flash floods is very heterogeneous both in time and space, in addition to the fundamentally non-linear nature of the rainfall-flow relationship, forecasting them remains a very serious challenge. For three decades now, neural networks have proven their efficiency in solving complex and non-linear problems, in particular rainfall-flow relationships in various hydrological situations. Within these types of models, Deep Learning as a learning method that is mainly applied to deep neural networks has proven to be particularly successful in many disciplines. However, because of their black box character, which seems to us rather an advantage considering the lack of knowledge on some hydrological processes, the interest of their application is sometimes questioned.
For this reason, this work has applied deep neural networks to flash flood forecasting with three main objectives: the first objective aims at interpreting the parameters of the deep layers of the three types of perceptrons generally used in hydrology: static, directed, recurrent. To do so, this work followed two steps: (i) extracting the parameter values of the optimized models using the "Knowledge eXtraction (KnoX)" method proposed by Kong A Siou et al. (2013); (ii) interpreting these parameters through a comparative analysis of this information with data characterizing some hydrological processes of the watershed; this part has been published in the proceedings of the ITISE 2018 international conference, for the forecasting component, and in a book chapter of the LNCS (Lecture Notes in Computer Sciences) Springer series for the interpretation of the parameters. The second objective is to take into account the spatialization of precipitation and the associated scale effects through deep nested basin modelling. This allowed to extend the forecast lead time that had been achieved by Artigue (2012) from 2 to 3 hours, thanks to the introduction of physical information in the model; this work has been submitted to the journal Water. The third objective, following a dual approach of the first objective, proposes to inject information into the deep layer parameters of the models in order to improve their forecasting performance. If this last objective has not been completely achieved, we note however that it brings benefits for recurrent networks with a significant improvement of forecasting results.
This work has highlighted, once again, the quality of the model selection method, which allows not only to make efficient forecasts on the most intense events of the database, but also to achieve a parsimonious deep architecture allowing, thanks to the Levenberg-Marquardt training rule, to train the deep layers without observing any vanishing gradient.