280 likes | 433 Views
Université des Sciences et de la Technologie d’Oran -Mohamed Boudiaf- Faculté des Sciences Département d’Informatique. Optimisation Avance Thème: Recherche dispersée. Année Universitaire 2012 / 2013. Plan de travail. Introduction Historique Définition Principe de la méthode
E N D
Université des Sciences et de la Technologie d’Oran -Mohamed Boudiaf- Faculté des Sciences Département d’Informatique Optimisation Avance Thème: Recherche dispersée Année Universitaire 2012 / 2013 Optimisation avancée
Plan de travail • Introduction • Historique • Définition • Principe de la méthode • Algorithme • Domaines d’application • Exemple d’application • Les Avantages et les inconvénients • Conclusion Optimisation avancée
Introduction • Les métaheuristiques forment un ensemble de méthodes utilisées en recherche opérationnelle pour résoudre des problèmes d’optimisation réputés difficiles. On peut distinguer deux approches en méta heuristiques: • Les approches trajectoire (recherche locale): Ces algorithmes partent d’une solution initiale (obtenue de façon exacte, ou par tirage aléatoire) • les approches population( évolutionnaires): Elles consistent à travailler avec un ensemble de solutions simultanément, que l’on fait évoluer graduellement. L’utilisation de plusieurs solutions simultanément permet naturellement d’améliorer l’exploration de l’espace des configurations. Optimisation avancée
Historique • La recherche dispersée ou « Scatter Search » en anglais, est une méthode d’évolution qui a été proposée par Glover en 1977. • Le concept fondamental et le principe général de cette méthode ont été proposés en premier lieu dans les années 70 comme une heuristique basée sur une formulation donnée dans les années 60 pour les règles de décision de combinaison et les contraintes de problème. Optimisation avancée
Définition La recherche dispersée du point de vue classification des métaheuristiques est une méthode d’évolution qui est basée sur la population. Elle construit des solutions par la combinaison d’autres solutions en se basant sur des principes qui capturent l’information qui n’existe pas dans les solutions originales. Le rôle de cette méthodologie est de mettre en oeuvre des procédures permettant de dériver des nouvelles solutions à partir des éléments combinés, en vue d’obtenir une meilleure solution que des solutions basées seulement sur des ensembles originaux d’éléments. Optimisation avancée
P Méthode d’amélioration Méthode de Combinaison de solutions Méthode d’amélioration Méthode de Génération de Sous-ensembles s s s RefSet Modelé de la recherche dispersée Méthode de generation de diversification Méthode de M-a-j de refSet TEST d’ARRET Optimisation avancée
Principe de la méthode • Les caractéristiques avancées de la recherche dispersée sont liées à la manière de la mise en œuvre de ses éléments. Ces éléments sont dits "méthodes" pour la recherche dispersée, qui peuvent être présentés comme suit: • Méthode de génération de diversification : génère une collection de divers solutions de départ en utilisant une solution d’essai arbitraire • Méthode d’amélioration : transforme la solution d’essai générée par la méthode de diversification à un ou plusieurs solutions plus efficaces • Méthode de mise à jour de l’ensemble de référence: construit un ensemble de référence constitué des meilleures solutions trouvées pour donner l’accès par autres parts de la recherche • Méthode de génération des sous ensembles : génère des sous ensembles à partir de L’ensemble de référence. Chaque sous ensemble de solutions est utilisé pour créer des solutions combinées • Méthode de combinaison de solutions : génère un ou plusieurs solutions en combinant les solutions de chaque sous ensemble donné par la méthode précédente Optimisation avancée
Algorithme • L’algorithme général de la recherche dispersée [GLO97] [GLO98] est constitué de deux phases: phase d’initialisation et phase d’évolution. • Phase d’initialisation : • génération des solutions de départ aléatoirement. • transformer les solution de départ en une ou plusieurs solution amélioré • Répéter l’exécution de l’étape 1 et 2 jusqu’ à l’obtention d’un nombre voulu de solutions qui constitueront la population initiale de l’ensemble de référence. Optimisation avancée
Algorithme • Phase d'évolution: • 4. Générer des sous ensembles de la population de l’ensemble de référence à partir des quels seront construites les solutions • pour chaque sous ensemble X produit à l’étape 4 on applique une technique de combinaison des solutions pour produire l’ensemble C(X) qui consiste en une ou plusieurs solutions combinées • pour chaque solution produite à l’étape 5 appliquer la méthode d’amélioration pour avoir une (ou plusieurs) solution(s) de bonne qualitée • Si aucune solution n’est produite à l’étape 6, alors on réinitialise la population avec l'ensemble élit et on reprend à partir de l’étape 2. • 8. Répéter l’exécution des étapes de 5 à 7 jusqu’à la rencontre d’un critère d’arrêt qui est le plus souvent un nombre maximum d’itérations atteint Optimisation avancée
Domaines d’Application • Du fait de sa redécouverte récente, les applications de la recherche dispersée sont peunombreuses. Dont on cite: • ·Les travaux de Campos, Laguna et Marti pour le problème d'ordonnancement linéaire. • Les travaux de Hamiez et Hao pour le problème de coloration de graphe. • Les travaux de Ghalouche, Crainc et Gendreau pour le problème de conception des réseaux à faible capacité. • Les travaux de Cung et al pour l'affectation quadratique. Optimisation avancée
Exemple d'application Exemple du Sac à Dos(0-1) Maximiser 11x1+10x2+9x3+12x4+10x5+6x6+7x7+5x8+3x9+8x10 Objectif 33x1+27x2+16x3+14x4+29x5+30x6+31x7+33x8+14x9+18x10100 xi={0,1} pour i=1,…,10 x’i=1-xi La solution x est choisie comme solution initiale: x=(0,0,0,0,0,0,0,0,0,0) Optimisation avancée
1. Génération de diversification Optimisation avancée
1. Génération de diversification x1 = 0.333 x2 = 0.370 x3 = 0.563 x4 = 0.857 (0,1,1,0,1,1,0,1,1,0) x5 = 0.345 x6 = 0.200 Objective =43 x7 = 0.226 maximum= 149 x8 = 0.152 x9 = 0.214 x10 = 0.444 Optimisation avancée
2. Méthode d’amélioration Optimisation avancée
2. Solutions améliorées 1 (0,1,1,1,0,0,0,0,1,1) 2 (1,0,1,1,1,0,0,0,0,0) 8(0,1,1,1,1,0,0,0,1,0) Optimisation avancée
3. Mise à jour de L’ensemble de référence Distance: (Solution 1 et Solution 3) (0, 1, 1, 1, 0, 0, 0, 0, 1, 1) Solution 1 (1, 0, 0 ,1, 0, 0, 1, 0, 0, 1) Solution 3 (1+1+1+0+0+0+1+0+1+0) = 5 • Solution 1 : (0, 1, 1, 1, 0, 0, 0, 0, 1, 1) • Solution 2 : (1, 0, 1, 1, 1, 0, 0, 0, 0, 0) • Solution 8 : (0, 1, 1, 1, 1, 0, 0, 0, 1, 0) 3 (1,0,0,1,0,0,1,0,0,1) 7 (0,1,0,1,0,1,0,0,0,1) Optimisation avancée
4. Generation des sous-ensembles Type 3 Solutions (1,2,8,3) (1,7,8,2) (3,7,8,1) Type 4 Solutions (1,2,8,3,7) Type 1 Solutions (1,2) (1,8) (1,3) (1,7) (2,8) (2,3) (2,7) (8,3) (8,7) (3,7) Type 2 Solutions (1,2,8) (1,3,8) (1,7,8) (2,3,8) (2,7,8) (3,7,8) Optimisation avancée
5. Combinaison des Solutions if score (i) > 0.5 x’ = ( 0, 1, 0, 1, 0, 0, 0, 0, 0, 1 ) Optimisation avancée
Les Avantages et les inconvénients Avantages et inconvénients Un des avantages de la recherche dispersée et des algorithmes génétiques est aussi qu’ils génèrent plusieurs solutions de bonne qualité. Cela peut être intéressant dans différents contextes lorsqu’il est demandé de fournir plusieurs solutions élites. Prend aussi l’avantage de quelques méthodes heuristiques pour sélectionner les éléments quivont être combinés pour générer une nouvelle solution. Couteuse en temps de calcule Optimisation avancée
Conclusion Générale • La recherche dispersée est une métaheuristique qui est basée sur l’évolution de la population. Durant la recherche, elle capture l’information dans les sous ensembles pour construire de nouvelles solutions, et elle conserve les deux grandeurs (diversité, qualité) de l’ensemble de référence. La recherche dispersée est constituée essentiellement par des méthodes de base. Entre ces méthodes, les méthodes de combinaison et les méthodes d'amélioration, qui sont liées au problème à traiter. • La recherche dispersée est souvent comparée aux algorithmes génétiques, on trouve quelques différences : • Dans la recherche dispersée, toutes les solutions participent à la combinaison. • L’évolution de la population, est contrôlée par des règles déterministes, contrairement aux algorithmes génétiques, qui utilisent la randomisation. • La population n’est pas générée de manière aléatoire comme dans les algorithmes génétiques. Optimisation avancée
Références • [Glo, 94] F. Glover, Tabu search for nonlinear and parametric optimization (with links to genetic algorithms). Discrete Applied Mathematics, 49 , 231–255.1994. • [Glo, 63] F. Glover, Parametric combinations of local job shop scheduling rules. Chapter IV, NR Research Memorandum No. 117, GSIA, Carnegie Mellon University, Pittsburgh, PA.1963. • [Glo, 98] F. Glover , A template for scatter search and path relinking. In: J.-K. Hao, E. Lutton, E. Ronald, M. Schoenauer and D. Snyers (eds.), Artificial Evolution, Lecture Notes in Computer Science 1363. Springer, pp. 3–51. 1998 • [Glo, 97] F. Glover , Tabu search and adaptive memory programming—advances, Applications and challenges. In. R. Barr, Helgason and Kennington (Co-eds.), Advances in Meta-heuristics, Optimization and Stochastic Modeling Techniques. Kluwer Academic Publishers, Boston, USA, pp. 1–175. 1997. • [LAP, 96] G. LAPORTE, I.H. OSMAN, Metaheuristics in combinatorial optimization, Annals of Operations Research 63, J.C. Baltzer Science Publishers, Basel, Switzerland, 1996. • [REE 93, AAR 97] C.R. REEVES (Ed.) Modern heuristic techniques for combinatorial problems, Blackwell Scientific Publications, Oxford, 1993. Optimisation avancée
Merci pour votre attention Optimisation avancée