Métamodèles à gradients

Participants
Résumé

Dans de nombreux domaines de la conception (mécanique ou autres), la place prise par les processus d'optimisation numérique grandit de plus en plus. Ces outils d'aide à la conception permettent aux concepteurs de trouver plus facilement la configuration optimale correspondant à son besoin en termes de performance. Néanmoins, ces approches nécessitent habituellement un nombre important d'appels au solveur disciplinaire employé. Or, les temps de calcul importants en raison de la complexité des modèles employés rendent ces approches d'optimisation inadaptées. Une solution consiste à employer un métamodèle (aussi appelé modèle de substitution) construit à partir d'un nombre limité d'appels au solveur et fournissant des approximations de la fonction objectif (ou des fonctions contraintes) pour un coût très faible (inférieur à la seconde). Par ailleurs, de nombreux solveurs issus de la recherche ou du milieu industriels sont capables de fournir les gradients de la fonction objectif par rapport aux paramètres de conception pour un coût réduit. Les métamodèles classiquement utilisés peuvent alors être étendus à des métamodèles capables de prendre en compte les gradients.

C'est dans ce contexte que de nombreux nouveaux métamodèles ont été développés. Parmi ceux-ci on retrouve:

  • les métamodèles à gradients indirects (In*) : les gradients sont employés pour calculer de nouvelles réponses en utilisant une extrapolation basée sur un développement de Taylor. Cette approche permet l'emploi de métamodèles conventionnels sans gradient.
  • le cokrigeage (GKRG) : vue comme une extension du krigeage, le cokrigeage est hérité de la géostatistique multivariable où les gradients seront considérés comme des variables auxiliaires. Une structure de covariance est choisie par l'utilisateur (classiquement basée sur une fonction noyau gaussien ou Matérn). Les paramètres internes de cette structure sont ensuite déterminés par maximum de vraisemblance ou validation croisée. Le cokrigeage, comme le krigeage, fournit une fois construit une réponse approchée mais également une variance caractérisant la qualité de l'information disponible par l'approximation. Cette variance est employée par exemple pour l'enrichissement du métamodèle.
  • les fonctions de base radiale (GRBF) : de construction plus simple que le krigeage, le métamodèle à gradients basé sur les fonctions de base radiale est construit en s'appuyant sur des conditions d'interpolation simples (réponses et gradients). Les fonctions de base radiale choisies pour la prise en compte des gradients sont les mêmes que celle du cokrigeage. La stratégie habituellement considérée pour déterminer les paramètres internes est celle de la validation croisée.
  • la régression par vecteurs supports (GSVR) : développée plus récemment et issue de l'apprentissage statistique, la régression par vecteurs supports à gradients permet de construire des approximations pour des nombres faibles ou élevés d'échantillons. De par son processus de construction, elle permet de fournir un lissage des données par le biais d'un paramètre d'enveloppe. Basé sur l'emploi de fonctions noyaux et d'un problème d'optimisation quadratique convexe, ce métamodèle présente de nombreuses particularités marquant une grande plage d'utilisation et d'évolution possibles.

L'ensemble de ces métamodèles est disponible au sein de la toolbox MATLAB/Octave GRENAT et s'appuie sur un ensemble d'outils développés par Luc Laurent :

  • la toolbox MATLAB/Octave gradFD (doi) permettant le calcul de gradients par différences finies ;
  • la toolbox MATLAB/Octave MultiDOE (doi) permettant la mise en œuvre de nombreuses stratégies d'échantillonnage (par exemple Latin Hypercube Sampling) ;
  • la toolbox MATLAB/Octave optiGTest (doi) fournissant plus de 260 problèmes test pour l'optimisation avec et sans contrainte(s) et mono- et multi-objectif.

Dans la pratique, l'ensemble de ces métamodèles peuvent tous être intégrés au sein d'un processus d'optimisation avec enrichissement du type Efficient Global Optimization et ont fait et font l'objet de travaux complémentaires dans le cadre du calcul d'assemblage (partenariat avec le LMT de l'ENS Paris-Saclay) et celui de l'optimisation en vibroacoustique (avec Antoine Legay).

Approximations par krigeage (figure b), cokrigeage à gradients (figure c), RBF (figure d) et RBF à gradients (figure e) de la function SixHump Camelback avec 20 réponses et gradients
Qualité d'approximation par métamodèles avec et sans gradients
Stratégie classique d'optimisation par métamodèle

Partenariats académiques et industriels : Pierre-Alain Boucard (LMT, ENS Paris-Saclay), Bruno Soulier (LMT, ENS Paris-Saclay), Rodolphe Le Riche (UMR CNRS LIMOS, Ecole des Mines de Saint-Étienne)

Publications
Corps

L. Laurent, R. Le Riche, B. Soulier, P.-A. Boucard, An overview of gradient-enhanced metamodels with applications, Archives of Computational Methods in Engineering, 26 (1), 61-106, 2019. doi

Corps

L. Laurent, B. Soulier, R. Le Riche, P.-A. Boucard. On the use of gradient-enhanced metamodels for global approximation and global optimization. Proceedings of the VII European Congress on Computational Methods in Applied Sciences and Engineering, the ECCOMAS Congress 2016, Hersonissos, Crete, Greece, June 5-10, 2016.

Domaines d'application