Les méthodes de réduction de complexité s’appuient sur une grande diversité d’approches, dont je présenterai un large éventail. En fonction des objectifs – précision, rapidité, coût de calcul –, on privilégiera l’une ou l’autre de ces techniques, mais le but demeure le même : restituer fidèlement la réalité avec la précision maîtrisée tout en minimisant la complexité algorithmique et le temps de simulation.
Concrètement, après la « leçon inaugurale », ce cours comprendra :
- Quatre séances consacrées aux méthodes linéaires de réduction de complexité.
- Quatre séances dédiées aux approches non linéaires.
Chacune de ces huit leçons sera suivie d’un séminaire invité : un expert issu du monde industriel ou des entreprises viendra partager son retour d’expérience, illustrant l’impact de ces techniques, les gains obtenus et les défis encore ouverts dans des domaines métiers très variés. Cette interaction « recherche ↔ industrie » vise à nourrir la réflexion et à inspirer les développements de recherche futurs.
Dans la première leçon, on détaillera la méthode des bases réduites pour les modèles d’équations aux dérivées partielles paramétrées : estimation d’erreur a priori et a posteriori, algorithme greedy, étude de la complexité, et introduction aux méthodes EIM/GEIM pour réduire davantage le coût dans le cas non linéaire. La seconde leçon abordera les notions abstraites d’encodeur et décodeur, linéaires ou non, permettant d’évaluer la complexité via les épaisseurs de Kolmogorov (linéaires et non linéaires) et de Gelfand, et présentera des bornes dépendant de la dimension paramétrique, illustrées par des transformations simples sur des solutions types. Dans la troisième leçon, on présentera l’approche PBDW, qui combine la donnée d’un modèle imparfait et de mesures réelles (éventuellement entachées d’erreur) pour i) reconstruire l’état, ii) optimiser le placement des capteurs de mesures et iii) proposer des estimations d’erreur. La quatrième s’intéressera à la préservation de propriétés structurelles des solutions (positivité, invariants).
Lors de la cinquième leçon, on explorera les approximations non linéaires en distinguant les coefficients « degré de liberté » des « assujettis » représentables par des expressions dérivées par apprentissages polynomiaux ou avancés, tout en maîtrisant la complexité de calcul. Lors des deux leçons suivantes, on présentera les techniques d’analyse numérique de ces schémas : estimations a priori basées sur la régularité paramétrique et sur l’optimalité des techniques greedy, on présentera également les estimateurs a posteriori permettant de qualifier la précision de l’approximation. La dernière leçon proposera des approches heuristiques, notamment via réseaux de neurones donnant parfois des solutions sans recours au modèle, mais également fondées sur la réduction de complexité développée précédemment, en détaillant leur mise en œuvre, résolution et état de l’analyse numérique associée.