340 likes | 490 Views
Champs de Markov en Vision par Ordinateur. 0 : Quelques Points avant Commencer : Moi. Ian Jermyn. Anglais comme vous l’entendez ! Excusez mon français s’il vous plait. Chercheur en traitement d’image et vision par ordinateur à l’INRIA dans projet Ariana.
E N D
0 : Quelques Points avant Commencer : Moi. • Ian Jermyn. • Anglais comme vous l’entendez ! • Excusez mon français s’il vous plait. • Chercheur en traitement d’image et vision par ordinateur à l’INRIA dans projet Ariana. • Formation en physique théorique et puis vision par ordinateur.
0 : Quelques Points avant Commencer : Contacts. • Ian.Jermyn@sophia.inria.fr. • www-sop.inria.fr/ariana/personnel/Ian.Jermyn. • Vous trouverez là l’original de ce document.
0 : Quelques Points avant Commencer : Vous. • N’ayez pas peur : • De questionner – la façon meilleure d’apprendre. • De demander que je répète ou explique quelque chose. • De me dire si le niveau est trop simple ou tropcompliqué. • Envoyez-moi un email si vous avez des questions après la conférence.
0 : Buts. • Définitions : qu’est-ce que sont les champs de Markov ? • Exemples : comment sont-ils utilisés pour la compréhension d’images ? • Algorithmes : comment peut-on extraire l’information désirée des modèles ?
I : Modèles Probabilistes d’Images. • Donné une image (connu), on veut savoir quelque chose de la ‘scène’ (inconnu). • Exemple : on veut savoir s’il y avait une personne dans la scène, et si oui, où. • La théorie de probabilité décrit le raisonnement dans les situations de connaissance incomplète. • La généralisation unique de la logique aristotélicienne qui satisfait des critères simples et évidents.
I : Théorème de Bayes A. • On veut savoir la probabilité de la scène sachant l’image. • Le théorème de Bayes/Laplace transforme la probabilité de l’image sachant la scène en la probabilité de la scène sachant l’image. • K représente toute la connaissance qu’on a avant de voir l’image : il y a toujours quelque chose.
I : Théorème de Bayes B. • La probabilité de l’image sachant la scène et K (la formation de l’image). Souvent un modèle physique. Appelée la vraisemblance. • La probabilité de la scène avant d’avoir vu l’image (mais avec la connaissance K). Appelée la probabilité a priori. • On doit construire des modèles pour tous les deux.
I : Les espaces d’images A. • Pour nous, une image est une fonction d’un domainevers un espace C. • Les signaux acoustiques : N = 1. • Les images standard : N = 2. • Les images MRI : N = 3. • Les séquences vidéo : N = 3 = « 2 + 1 ».
I : Les espace d’images B. • La dimension de C : • Images monochromatiques : 1. • Images en couleur : 3. • Images multi- ou hyper-spectrale : plus de 3. • D est envisagé comme plongé dans . Ça veut dire que les notions de géométrie peuvent être appliquées si N > 1. • C’est une des raisons pour lesquelles le traitement d’image est beaucoup plus difficile que le traitement des signaux 1D.
I : Les espaces de scène : Sémantique. • Information sur le monde 3D : • Distances et positions des objets dans une photo; • Types de végétation dans une image aérienne; • Position d’une tumeur dans une image médicale ; • Géométrie des bâtiments dans un plan. • Paramètres de la caméra. • Jugements plus subjectifs : • Émotion d’un visage ; • Style d’architecture.
I : Les espaces de scène : Mathématique A. • Une fonction de D vers un autre espace : • Restauration : CD; • Segmentation : LD où L est un ensemble (étiquettes d’interprétation) ; • Une région : {0,1}D.
I : Les espaces de scène : Mathématique B. • Une fonction d’un autre espace vers D : • Une région : ; • Positions et paramètres d’objets: (D x L)n.
I : Probabilités sur ces espaces. • L’espace d’images est énorme. • 10157826 images possibles de 256 x 256 pixels. • ~1080 atomes dans l’univers visible. • ~10157746 images pour chaque atome. • Une fractionminuscule contient des images de notre monde. La plupart des images sont du bruit. • Les probabilités sont fonction de 65536 variables dépendantes : les valeurs des pixels. Donc, il faut simplifier.
I : Simplification de la probabilité. • Les probabilités se simplifient quand quelques variables sont indépendantes les unes, les autres. • Les champs de Markov sontune voie (mais pas la seule) pour définir des probabilités simplifiées mais encore utiles.
I : Exemple : Indépendance. • Si la scène est décrite par une fonction sur D, la probabilité peut se factoriser sur les pixels : • Dans ce cas, on peut traiter chaque pixel séparément (problème àune dimension).
I : Champs de Markov (MRFs). • Un champ de Markov sur un ensemble D est une probabilité sur l’espace de fonctions CD de D vers une autre espace C satisfaisant les conditions suivantes. • Positivité: .
I : Champs de Markov (MRFs). • Voisinage : pour chaque point, il y a un sous-ensemblet.q. • On peut savoir tout ce qui est possible de la valeur de fp sachant seulement les valeurs des ‘voisins’ fN(p)-p.
I : Interprétation comme un graphe. • Un graphe non-orienté G est : • Un ensemble V (noeuds); • Un sous-ensemblet.q. • Etant donné un MRF, on définit un graphe de la façonsuivante :
I : Cliques. • Un sous-ensemble est une clique ssi : . • On définit comme l’ensemble de toutes les cliques dans le graphe G.
I : Distributions de Gibbs A • Pour une fonction , la probabilité suivante est appelée une distribution de Gibbs:
I : Théorème de Hammersley-Clifford. • 1971. Très important parce qu’il permit la construction facile de MRFs. • Pour chaque fonction , est un MRF. • Pour chaque MRF Pr, on peut trouver unefonction t.q. . • Conclusion: GIBBS = MRF
I : Estimées : En Général. • Utilité = fonction de coût: • Utilité moyenne : • Estimée :
I : Estimées : MAP. • Maximum APosteriori : ce maximise la probabilité. • N.B. Quand C est continu, l’estimée MAP n’est pas exactement le point plus probable.
I : Estimées : MPM. • Maximum Posterior Marginal : ce maximise le nombre de pixels corrects = minimiser le nombre de pixels erronés.
I : Estimées : Moyenne. • Moyenne : minimiser l’erreur quadratique moyenne. • N.B. C doit être un espace vectoriel.
I : Distribution de Gibbs B. • U est appelé l’énergie. Z est appelé le fonction de partition. • Pour une distribution de Gibbs, l’estimée MAP prend une forme simple: • Cette forme on appèle minimisation d’énergie.