200 likes | 439 Views
Recherche et optimisation. Introduction - terminologie. Les éléments constitutifs d’une tâche à optimiser. Fonction objective (FO) (à minimiser) (Exemple: minimiser C = dtL * coût/unité de poids ) Contraintes (Exemple: t 0.005 m)
E N D
Recherche et optimisation Introduction - terminologie
Les éléments constitutifs d’une tâche à optimiser • Fonction objective (FO) (à minimiser) • (Exemple: minimiser C = dtL * coût/unité de poids ) • Contraintes (Exemple: t 0.005 m) • Formules d’accompagnement (Exemple: = Q/dt ) • Concepts de l’optimisation: • Faisabilité (Feasibility) (pas de domaine possible) • Frontière de domaine (Boundedness) (les contraintes délimitent les domaines possibles) • Activité des contraintes (Constraint activity) (si une contrainte influence la location de l’optimum, elle est considérée comme « active »
Méthodes analytiques Méthode du gradient Méthode « Branch and Bound » Programmation linéaire (méthode du simplex) Méthodes déterministes Méthodes numériques (informatiques) Programmation non-linéaire Etc. Les algorithmes génétiques (GA) Méthodes non-déterministes (stochastiques) La simulation recuite (SA) L’algorithme du PGSL Etc. Les différentes méthodes pour la recherche d’optima Rem: Les méthodes numériques sont à proscrire si des méthodes analytiques peuvent être utilisées dans la tâche à optimiser
La méthode du gradient pour l’optimisation F(x) F( x) xx0 0 O0 x x • Marche à suivre • Commencement à un point initial (x0) • Evaluation de la condition d’optimisation. C’est la fonction objective F(x) • Identification de la direction d’amélioration (dk = +1 or -1) en utilisant les gradients. (*) • Prendre un pas (xk+1= xk + kdk) dans la nouvelle direction qui minimise la fonction objective (F(x)). La valeur pour k est déterminée suffisament petite de façon à ce que la convergence soit assurée. (**) • Détermination d’une stratégie pour éviter les phénomènes perturbateurs (oscillations, divergence) (*): Ceci est une façon de déterminer dk . dk peut être aussi pris comme étant égal au gradient (Cf exercice) (**): Il existe différentes variations de la méthode du gradient: Exemple : k peut varier en fonction du gradient (Plus le gradient est élevé (en valeur absolu), plus k est petit. Ceci étant fait dans l’optique d’avoir une convergence assurée.
L’optimisation multi-critère • Approche par: • Facteurs de poids : F(x) = w1 f1(x) + w2 f2(x) • Fonctions de valeurs • Prise en compte du critère le plus important et traitement des autres critères comme contraintes • L’optimisation de Pareto • Pas de facteurs de poids • Méthode de filtration • Surface de Pareto
Les méthodes stochastiques méthodes utilisées lorsque: • La fonction objective possède une multitude de minima (ou maxima) • La topologie de l’espace de solution est compliquée exemples de méthodes stochastiques: • La simulation recuite (Simulated Annealing) • Les algorithmes génétiques (Genetic algorithms) • L’algorithme du PGSL (Probabilistic Global Search Lausanne) • - développé à l’EPFL par Dr. Benny Raphael (2000)
L’algorithme du PGSL caractéristiques de la méthode • technique de recherche basée sur les probabilités (courbes PDF). • L’algorithme est basé sur les 4 cycles suivants: • 1°. L’échantillonage (Sampling) • 2°. La mise à jour des probabilités (Probability updating) • 3°. La focalisation (focusing) • 4°. La focalisation en sous-domaine (sub-domain focusing)
L’algorithme du PGSL Input Output La meilleure solution parmi toutes les itérations
L’algorithme du PGSL:exemple fonction de Griewank Exemple: la fonction de Griewank à une dimension
L’algorithme du PGSL:exemple fonction de Griewank Les inputs (exemple) REM: les paramètres de l’algorithme sont à définir par l’utilisateur. Dans cet exemple, il y a au total 2*2*2*2 = 16 itérations ou évaluations
L’algorithme du PGSL:exemple fonction de Griewank • La densité de probabilité (PDF) pour le 1er sous-domaine • Probability density (prob./width) for Probability Updating Cycle 1, Focusing Cycle 1, Sub Domain Cycle 1 • cycle d’échantillonage (2 itérations) L’évaluation 1 (intervalle 11) offre le meilleur résultat (1.66). La probabilité de l’intervalle 11 est augmentée de 20% et la courbe est normalisée. (aire = 1)
L’algorithme du PGSL:exemple fonction de Griewank • La mise à jour des probabilités • Probability density (prob./width) for Probability Updating Cycle 2, Focusing Cycle 1, Sub Domain Cycle 1 • cycle d’échantillonage (2 itérations) L’évaluation 3 (intervalle 11) offre le meilleur résultat (0.26). Le cycle de focalisation se fait autour de l’intervalle 11.
L’algorithme du PGSL:exemple fonction de Griewank • La focalisation (focusing cycle) • Probability density (prob./width) for Probability Updating Cycle 1, Focusing Cycle 2, Sub Domain Cycle 1 • Principe: • le meilleur intervalle est subdivisé en 4 intervalles réguliers • 50 % de l’aire de la PDF est répartie dans le meilleur intervalle • le 50 % restant est répartie proportiellement (selon le nombre d’intervalles) de part et d’autre du meilleur intervalle (aire à droite et aire à gauche) • L’intervalle qui se situe juste à droite du meilleur intervalle reçoit la moitié de l’aire à droite, le deuxième intervalle reçoit le quart de l’aire et ainsi de suite. (idem pour les intervalles situés à gauche)
L’algorithme du PGSL:exemple fonction de Griewank • cycle d’échantillonage (2 itérations) L’évaluation 5 offre le meilleur résultat (1.99). C’est l’intervalle 10 qui va se voir augmenter l’aire de son intervalle de 20%.
L’algorithme du PGSL:exemple fonction de Griewank • La mise à jour des probabilités • Probability density (prob./width) for Probability Updating Cycle 2, Focusing Cycle 2, Sub Domain Cycle 1
L’algorithme du PGSL:exemple fonction de Griewank • cycle d’échantillonage (2 itérations) L’évaluation 8 offre certes le meilleur résultat (1.72) de ce cycle, mais c’est l’évaluation 3 qui reste la meilleure. Pour entrer dans le deuxième sous-domaine, on considère la meilleure évaluation (n°3). • La densité de probabilité pour le deuxième sous-domaine • Probability density (prob./width) for Probability Updating Cycle 1, Focusing Cycle 1, Sub Domain Cycle 2 La valeur x=7 a fourni le meilleur résultat. La PDF pour le deuxième sous-domaine est centrée autour de x=7 et les valeurs min. et max. correspondent à 0.7 fois la largeur de l’intervalle de départ (=100)
L’algorithme du PGSL:exemple fonction de Griewank • La procédure se répète pour le deuxième sous-domaine de la même manière que pour le premier sous-domaine. (de façon à avoir les 16 évaluations)
Remarques exercices série 5 • Les fichiers sources (fichier zip) pour l’utilisation de l’algorithme du PGSL se trouvent sous: http://imacpc21.epfl.ch:8080/IF • Enregistrez le fichier PGSLexample.zip dans un répertoire de votre disque (Exemple:c/Temp/Dupont) • Cliquez 2 fois sur ce fichier zip et appuyez ensuite sur « extract ». On vous demande l’endroit où vous voulez placer le contenu. (laissez le dans le même répertoire: Exemple c/Temp/Dupont )
Contenu du fichier PGSLexample.zip pour l’utilisation de l’algorithme du PGSL