300 likes | 513 Views
Optimisation statistique de stratifiés composites. Laurent Grosset (Grosset@emse.fr) R. Le Riche R. Haftka. Plan. Présentation générale de l’optimisation statistique Modèle simple : cas linéaire Application à un problème d’optimisation de stratifiés composites
E N D
Optimisation statistiquede stratifiés composites Laurent Grosset (Grosset@emse.fr)R. Le RicheR. Haftka
Plan • Présentation générale de l’optimisation statistique • Modèle simple : cas linéaire • Application à un problème d’optimisation de stratifiés composites • Introduction de variables intermédiaires pour améliorer le modèle • Résumé, prochains développements de la recherche Groupe de travail Optimisation
Introduction • Algorithmes génétiques : basés sur une simulation d’un phénomène naturel (sélection naturelle), mais pas de justification mathématique • Baluja, Mühlenbein : modèles statistiques des AGs. Proposent des algorithmes où les opérateurs standards (croisement, mutation…) sont remplacés par un modèle statistique Groupe de travail Optimisation
Références • Baluja, S., 1994, « Population-based Incremental Learning » • Mühlenbein, H., 1996, Univariate Marginal Distribution Algorithm, Factorized Distribution Algorithm • Pelikan, M., 1999, Bayesian Optimization Algorithm Groupe de travail Optimisation
Formulation classiquetrouver: Formulation statistiquetrouver: Passage d’une formulation classique à une formulation statistique Utiliser la fonction coût pour mettre à jour lesprobabilités revient à utiliser le gradient de laformulation statistique (cf. méthode de la plus forte pente) Groupe de travail Optimisation
Principe de l’optimisation statistique • Un modèle probabiliste associe à chaque point notre croyance qu’il est l’optimum (compte tenu de l’état de connaissance) • Le modèle est utilisé pour guider la recherche en générant des points qui ont une forte probabilité d’être bons • Le modèle est affiné à chaque itération en fonction des nouvelles observations Générateur depoints : modèleP(X optimum|données) Mise à jour Population depoints X Groupe de travail Optimisation
Au début de l’optimisation : pas d’information sur la localisation de l’optimum A chaque itération de nouveaux points sont visités A chaque itération un modèle probabiliste peut être construit/mis à jour Exemple : une variable Première génération de points Seconde génération de points Groupe de travail Optimisation
Algorithme général • Choix algorithmiques: • Comment représenter la distribution de probabilité? • Comment sélectionner les bons individus? • Comment mettre à jour le modèle Initialisationde la distributionde probabilité Créationde lapopulation Mise à jourdumodèle Sélection Groupe de travail Optimisation
Mise en œuvre dans le cas discret • N variables discrètes : X1, X2,…,XN qui peuvent prendre m valeurs discrètes : • mNcombinaisons possibles mN – 1 nombres pour décrire toute la distribution! • On réduit le nombre de paramètres en supposant des relations d’indépendance entre les variables Groupe de travail Optimisation
Exemple : 4 variables, 3 valeurs • Distribution complète • P(A,B,C): 81 combinaisons80 paramètres • Modèle chaîne • P(A,B,C)=P(A)P(B|A)P(C|B)P(D|C): 20 paramètres • Modèle indépendant • P(A,B,C)=P(A)P(B)P(C)P(D): • 8 paramètres A B C D A C D B A C D B Groupe de travail Optimisation
Modèle probabiliste à variables indépendantes • Pour réduire le nombre de paramètres à identifier, on suppose les variables indépendantes :la probabilité d’une variable est indépendante de la valeur des autres variables • La probabilité d’un point x = (x1x2…xN) est obtenue par : • Comme la probabilité d’une variable ne dépend pas de la valeur des autres variables, chaque probabilité peut se calculer séparément Groupe de travail Optimisation
Apprentissage des probabilités • Les probabilités sont obtenues en évaluant la fréquence de chaque valeur dans la population des bons individus • Sélection : • Troncature : garde les n meilleurs (ex. meilleur moitié) • Proportionnelle à la fonction coût : probabilité de sélection proportionnelle à f • Proportionnelle au rang dans la population : probabilité de sélection proportionnelle au rang • … Groupe de travail Optimisation
Exemple de calcul de probabilités Probabilité 1. Meilleure moitié Population 1 1 3 3 1 2 2 1 2 3 2 2 3 2 2 1 2 2 2. Rang 4 2 2 1 3 2 5 2 3 3 2 1 6 2 2 3 3 2 Groupe de travail Optimisation
Mise à jour du modèle • Pour calibrer le niveau de mémoire du modèle, on utilise la formule : • m élevé : grande inertie ; m faible : grande capacité d’adaptation mais sensibilité à de mauvaises générations • Dans notre cas meilleur résultat obtenu pour m = 0 Groupe de travail Optimisation
Optimisation de stratifiés composites: variables • Les propriétés mécaniques d’un stratifié dépendent : • Des propriétés des matériaux • De l’épaisseur des couches (plis) • De l’orientation des fibres • Ces variables sont souvent discrètes, à cause de contraintes de fabrication x q y z Groupe de travail Optimisation
Optimisation de stratifiés composites: fonction coût et contraintes • Critères d’optimisation : • Poids ou coût • Charge de flambement • Fréquences propres • Résistance • … • Les problèmes d’optimisation de stratifiés sont des problèmes combinatoires Groupe de travail Optimisation
Problème test non couplé • Problème : maximiser la rigidité longitudinale A11 • Solution : toutes les fibres alignées selon x : [0°/0°/ 0°/0°/ 0°/0°/ 0°/0°/ 0°/0°] • Particularité : ce problème est découplé car on augmente A11 en diminuant n’importe quel angle indépendamment de la valeur des autres angles Groupe de travail Optimisation
Résultats sur le problème test • Les algorithmes probabilistes sont plus efficaces que l’AG : • AG : 400 analyses pour 80% de fiabilité • « Half Rank » : 200 analyses pour 80% de fiabilité • La sélection basée sur le rang est plus efficace que la sélection basée sur la troncature Fiabilité de l’optimisation : probabilité d’atteindre l’optimum après un certain nombre d’analyses Groupe de travail Optimisation
Problème couplé • Problème :maximiser rigidité longitudinale A11contraintes rigidité transversale A22A22min rigidité en cisaillement A66A66min • Optimum : [02/153/30/45/908]ou une de ses permutations • Particularité : ce problème comporte des interactions entre les variables car si une variable a pour valeur 02, la probabilité de 0 pour les autres variables sera nulle Groupe de travail Optimisation
Avec couplage • Seule la méthode « Half Rank » reste plus performante que l’AG • À part « Bayesian updating », les méthodes statistiques restent compétitives par rapport à l’AG résultats encourageants qui montrent qu’il y a une marge de progression Groupe de travail Optimisation
Commentaires • Modèle très simple, facile à mettre en œuvre • Problème : modèle basé sur l’hypothèse d’indépendance des variables pas vérifié en général • Prendre en compte le couplage : modèle probabiliste plus complexe, type réseau bayesien difficile à mettre en œuvre • Autre alternative : introduire des variables intermédiaires qui synthétisent les couplages Groupe de travail Optimisation
Introduction de variables intermédiaires • V1 et V2 sont des fonctions de tous les Xi. • Chaque région dans l’espace des V prend en compte la contribution de chaque variable • Si on impose une distribution sur les V, on favorise des combinaisons de X … X1 X2 X3 XN V1 V2 F Groupe de travail Optimisation
Effet du changement de variable sur les distributions • Principe : • On construit un probabilité de distribution des variables intermédiaires • On utilise cette probabilité pour présélectionner des points qui satisfont les conditions de couplage • Deux effets : • Effet de couplage des variables • Effet dû au changement de variable • Cas des composites : paramètres de stratification : Groupe de travail Optimisation
Modification de l’algorithme • On crée plus de points que nécessaire • On sélectionne les points susceptible d’être bons à l’aide des variables intermédiaires Initialisationde la distributionde probabilité Créationde lapopulation Mise à jourdumodèle Sélection Présélection basée sur les variable intermédiaires Groupe de travail Optimisation
À chaque itération on calcule la moyenne et matrice de covariance des bons individus À l’itération suivante, on construit une gaussienne à partir des ces valeurs Les points candidats générés par le modèle linéaire sont filtrés par la gaussienne Utilisation des paramètres de stratification Groupe de travail Optimisation
Effet du changement de variable • Le changement de variable favorise des points situés près des extrémités –1 et 1 V1() p(V1) p() V1 Distribution dansl’espace des Changement de variable Distribution dansl’espace des V Groupe de travail Optimisation
Nombre de cas où la présélection a un effet positif l’emporte sur le nombre de cas ou l’effet est négatif La fiabilité est améliorée par l’utilisation des paramètres de stratification Résultats : amélioration de l’efficacité Présélection bénéfique Présélection néfaste Groupe de travail Optimisation
Problèmes rencontrés, questions • Algorithme trop conservateur : freine le progrès car les points qui s’éloignent trop du point courant sont exclus • Cela a-t-il du sens de fitter une gaussienne compte tenu de la taille des populations (<10)? • L’amélioration observée est-elle spécifique aux paramètres de stratification? Tout changement de variable donnerait-il le même résultat? Groupe de travail Optimisation
Résumé • Modèles linéaires : • Facile à mettre en œuvre • Peu de paramètres à régler • Ne prennent pas en compte les couplages entre variables • Modèle à variable intermédiaire • Prend en compte des interactions entre variables • Apportent une amélioration Groupe de travail Optimisation
Directions de recherche • Utiliser un modèle probabiliste plus complexe qui prend en compte le couplage entre les variables : • Modèle Chaîne • Réseau bayesien • Réfléchir à l’importance de la taille des populations, rôle de la mutation… • Au lieu de fournir UN point optimum, l’optimisation fournit une densité de probabilité. Comment les interpréter et les utiliser : • Fiabilité de l’optimum, sensibilité • Relation au problème physique Groupe de travail Optimisation