1 / 40

RECONNAISSANCE DE FORMES

RECONNAISSANCE DE FORMES. IAR-6002. Sélection et/ou extraction des caractéristiques. Introduction Critères d’évaluation de caractéristiques Sélection des caractéristiques Extraction des caractéristiques. Introduction.

michon
Download Presentation

RECONNAISSANCE DE FORMES

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. RECONNAISSANCE DE FORMES IAR-6002

  2. Sélection et/ou extraction des caractéristiques • Introduction • Critères d’évaluation de caractéristiques • Sélection des caractéristiques • Extraction des caractéristiques

  3. Introduction • Le but recherché par la sélection et l’extraction des caractéristiques est de diminuer le plus pos-sible le nombre de caractéristiques utilisées pour représenter les formes à classifier • De plus, nous pouvons alors estimer le pouvoir discriminant des caractérisques permettant la différenciation d’objets de classes distinctes

  4. Introduction • Nous pouvons réduire le nombre de caractéris-tiques requises de deux façons: • Une approche consiste à trouver les d caractéris-tiques parmi les D possibles qui discriminent le mieux les formes à classer

  5. Introduction • Une seconde approche consiste à projeter l’en-semble des caractéristiques originales dans un autre espace de caractéristiques de dimension inférieure (extraction de caractéristiques)

  6. Introduction • Pour résoudre le problème de sélection ou d’extraction de caractéristiques nous devons spécifier: • Les critères d’évaluation des caractéristiques • La dimension des espaces de caractéristiques • La procédure de recherche optimale • Le type de transformation (extraction)

  7. Introduction • Nous utilisons les notations suivantes: • Caractéristiques originales yk, k = 1,2,....,D y = [y1,y2,...,yD]T • Chaque observation (objets, formes) y appartient à une des m classes possibles Ci, i= 1,2,....,m • Nous savons que l’occurrence des vecteurs y est modélisée par un processus aléatoire représenté par la probabilité conditionnelle p(y|Ci) et la probabilité à priori P(Ci)

  8. Introduction • Nous utilisons les notations suivantes: • Un ensemble  contient les caractéristiques candidates j, j=1,2,...,d • Les caractéristiques optimales sont dénotées par X={xj|j=1,...,d} et découle du calcul d’un critère d’évaluation J() • Pour la sélection, nous cherchons: J(X) = maxJ() qui représente les caractéristiques  qui maximise le critère de sélection

  9. Introduction • Nous utilisons les notations suivantes: • Pour l’extraction, nous cherchons: J(A) = maxAJ(A) où A est un extracteur optimal • Avec A connu nous pouvons déduire x par: x = A(y)

  10. Critères d’évaluation de caractéristiques • Basé sur la probabilité d’erreur • Dans un espace de caractéristiques de dimension d définit par un ensemble de caractéristiques  = [1,...,d] la probabilité d’erreur est donnée par Pdf mixte de  Pdf à posteriori

  11. Critères d’évaluation de caractéristiques • Basé sur des mesures de distances probabilistes • Le concept de distance probabiliste fait référence à la distance entre 2 pdf et est aussi fonction du degré de chevauchement des 2 pdf • J = 0 quand p(|Ci) pour i = 1 et 2 se chevauchent • J est maximum quand il n’y a pas de chevauchement

  12. Critères d’évaluation de caractéristiques • Basé sur des mesures de distances probabilistes • Les principales distances probabilistes sont: • Bhattacharyya et Patrick-Fisher

  13. Critères d’évaluation de caractéristiques • Basé sur des mesures de distances probabilistes • Les principales distances probabilistes dans leurs formes moyenne sont: • Bhattacharyya et Patrick-Fisher

  14. Critères d’évaluation de caractéristiques • Basé sur des mesures de distances probabilistes • Si nous supposons que les pdf conditionnelles sont normales alors

  15. Critères d’évaluation de caractéristiques • Basé sur des mesures de distances probabilistes • La distance de Batthacharyya devient

  16. Critères d’évaluation de caractéristiques • Basé sur des mesures de distances probabilistes • La distance de Mahalanobis est donnée par

  17. Critères d’évaluation de caractéristiques • Basé sur des mesures de distances probabilistes • Un critère d’évaluation dans le cas multi-classe peut être déduit par une moyenne pondérée des distances entre 2 classes ij Jij() de la forme

  18. Critères d’évaluation de caractéristiques • Basé sur des mesures de dépendances probabi-listes • La dépendance des variables aléatoires  et Ci est incorporée dans la pdf conditionnelle p(|Ci), pour i=1,...,m • Si  et Ci sont indépendants alors p(|Ci) = p(), ce qui veut dire que la iieme pdf conditionnelle est identique à la pdf mixte • Dans ces circonstances, une observation  sera difficile à classer

  19. Critères d’évaluation de caractéristiques • Basé sur des mesures de dépendances probabi-listes • Le degré de dépendance entre les variables  et Ci peut alors être donné par une distance entre la pdf conditionnelle p(|Ci) et la pdf mixte p() • Mesure de dépendance probabiliste (Patrick-Fisher)

  20. Critères d’évaluation de caractéristiques • Basé sur des mesures d’entropie • Le degré de dépendance entre les variables  et Ci peut aussi être donné par des mesures d’entro-pie • L’entropie mesure le degré d’incertitude. Lors-que le gain d’information est faible l’incertitude est maximale. Si nous avons une observation  et que nous calculons P(Ci |) pour i=1,...,m, et que P(Ci |) est équiprobable, l’incertitude est dans ce cas maximale

  21. Critères d’évaluation de caractéristiques • Basé sur des mesures d’entropie • Mesure d’entropie (Distance Bayesienne)

  22. Critères d’évaluation de caractéristiques • Basé sur des mesures de distances inter-classe • Si nous avons un ensemble d’observations repré-sentatives de chacune de nos classes et que nous supposons que les observations associées à chaque classe occupe une région distincte dans l’espace des observations • La distance moyenne entre les paires d’observa-tions d’entraînement devient alors une mesure de discrimination des classes

  23. Critères d’évaluation de caractéristiques • Basé sur des mesures de distances inter-classe • Une métrique (ik,jl) permet de mesurer la distance entre l’observation k de la iième classe et l’observation l de la jième classe • La distance moyenne est donnée par

  24. Sélection des caractéristiques • Basé sur le mérite individuel • Si nous avons un ensemble de caractéristiques yj pour j=1,...,D, à partir d’un sous-ensemble de caractéristiques  de cardinalité d nous cher-chons le vecteur de caractéristiques optimal X • Pour trouver ce vecteur X il faut alors considérer D!/(D-d)!d! combinaisons de vecteurs de carac-térisques ce qui est excessif

  25. Sélection des caractéristiques • Basé sur le mérite individuel • Si nous avons m=2 (2 classes) avec des pdf conditionnelles p(|Ci) distribuées de façon normale avec 1=2 sur la diagonale (les mesures sont indépendantes) la distance de Mahalanobis s’exprime alors par

  26. Sélection des caractéristiques • Basé sur le mérite individuel • La contribution de chaque mesure pour la discri-mination des classes est indépendantes des autres mesures • Nous pouvons alors sélectionner les d meilleures caractéristiques en sélectionnant les d meilleures mesures individuelles

  27. Sélection des caractéristiques • Basé sur le mérite individuel • Procédure • Calculer JM(yj), pour j=1,2...,D et les classer selon un ordre décroissant JM(y1) > JM(y2) > .... > JM(yD) • Le meilleur vecteur de caractéristiques X = {yj|j=1,...,d}

  28. Sélection des caractéristiques • Basé sur une sélection séquentielle avant SFS et arrière SBS • La méthode SFS est buttom-up. Partant d’un ensemble vide nous sélectionnons comme pre-mière caractéristique celle qui discrimine le mieux nos classes • À chaque itération, nous choisissons une caractéristique qui jumelée à celle trouvées aux étapes précédentes permet une discrimination maximale des classes

  29. Sélection des caractéristiques • Basé sur une sélection séquentielle avant SFS et arrière SBS • L’algorithme SFS • Initialisation X0 =  • Si nous avons sélectionné k caractéristiques de l’ensem-ble des mesures Y = {yj|j=1,...,D} pour produire le vecteur de caractéristiques Xk. • La (k+1)ième caractéristique est alors choisie à partir de l’ensemble des mesures disponibles Y - Xk tel que J(Xk+1) = max J(Xk yj), yj  Y - Xk.

  30. Sélection des caractéristiques • Basé sur une sélection séquentielle avant SFS et arrière SBS • La méthode SBS est top-down. Partant de l’en-semble des mesures Y nous éliminons alors une mesure à la fois • À chaque itération, nous éliminons une caracté-ristique qui diminue peu le critère J(). Ce qui veut dire que cette caractéristique contribue fai-blement à la discrimination des classes

  31. Sélection des caractéristiques • Basé sur une sélection séquentielle avant SFS et arrière SBS • L’algorithme SBS • Initialisation XD = Y • Si nous avons éliminé k caractéristiques de l’ensemble des mesures Y = {yj|j=1,...,D} pour produire le vecteur de caractéristiques XD-k. • La (k+1)ième caractéristique à éliminer est alors choisie à partir de l’ensemble des mesures disponibles XD-k tel que J(XD-k-1) = max J(XD-k- yj), yj  XD-k.

  32. Sélection des caractéristiques • Basé sur une sélection séquentielle avant SFS et arrière SBS • L’algorithme SFS est sous optimal • Aucun mécanisme ne permet d’éliminer une caractéris-tique qui devient superflue après l’inclusion d’autres ca-ractéristiques • De même, l’algorithme SBS est aussi sous optimal • Aucun mécanisme ne permet de rajouter une caractéris-tique éliminer

  33. Sélection des caractéristiques • Basé sur l’algorithme Plus l-Take Away r • Nous pouvons réduire les problèmes de sous optimalité dénoté dans les méthodes SFS et SBS par un processus d’alternance d’ajout et de retrait de caractéristiques • Après avoir ajouté l caractéristiques à l’ensemble des caractéristiques courante, r caractéristiques sont alors retirée • La dimension de l’ensemble des caractéristiques change alors de l-r

  34. Sélection des caractéristiques • Basé sur l’algorithme Plus l-Take Away r • Ce processus continu jusqu’à ce que la dimen-sion requise soit atteinte • Si l > r la sélection progresse de façon BUTTOM-UP et TOP-DOWN si l < r

  35. Sélection des caractéristiques • Basé sur l’algorithme Plus l-Take Away r • L’algorithme Plus l-Take Away r (l > r) • Si nous avons Xk l’ensemble des caractéristiques actuelles • Appliquer SFS l fois pour générer un ensemble Xk+l • Appliquer SBS r fois pour générer un ensemble Xk+l-r • Continuer TANT QUE k + l - r != d

  36. Sélection des caractéristiques • Basé sur l’algorithme Plus l-Take Away r • L’algorithme Plus l-Take Away r (l < r) • Si nous avons Xk l’ensemble des caractéristiques actuelles • Appliquer SBS r fois pour générer un ensemble Xk-r • Appliquer SFS l fois pour générer un ensemble Xk-r+l • Continuer TANT QUE k - r + l != d • Cas particulier • (l,r)=(l,0) => algorithme SFS • (0,r) => algorithme SBS

  37. Sélection des caractéristiques • Basé sur l’algorithme MIN-MAX • La sélection est basée sur le mérite des caractéristi-ques prises individuellement ou par paire • Supposons que nous avons déjà sélectionné k carac-téristiques, nous pouvons alors évaluer le mérite de l’ensemble de caractéristiques restantes Y-Xk en déterminant la quantité d’information nouvelle quelles ajoutent si elles sont ajoutées à l’ensemble des caractéristiques

  38. Sélection des caractéristiques • Basé sur l’algorithme MIN-MAX • La quantité d’information nouvelle ajoutée de l’ajout d’une caractéristique yj Y - Xk à une autre xl  Xk est donnée par:

  39. Sélection des caractéristiques • Basé sur l’algorithme MIN-MAX • Nous cherchons alors une caractéristique yj dont l’ajout d’information est grand pour toutes les caractéristiques Xk • Nous cherchons yj qui maximise pour tout les j le minimum de J(yj,xl) pour tout les l

  40. Sélection des caractéristiques • Basé sur l’algorithme MIN-MAX • Algorithme MIN-MAX • Si xk est l’ensemble des caractéristiques courantes. Nous cherchons la caractéristique Xk+1 = yjY - Xkqui satisfait

More Related