610 likes | 684 Views
Segmentação II. Paulo Sérgio Rodrigues PEL205. Processamento Global usando Grafos. Para um seqüência de nós n 1 , ...., n k , sendo cada nó n i o sucessor de n i-1 é chamado caminho de n 1 a n k e o custo desse caminho pode ser dado por: . Processamento Global usando Grafos.
E N D
Segmentação II Paulo Sérgio Rodrigues PEL205
Processamento Global usando Grafos Para um seqüência de nós n1, ...., nk, sendo cada nó nio sucessor de ni-1 é chamado caminho de n1a nk e o custo desse caminho pode ser dado por:
Segmentação Baseada em Limiarização Algoritmo Iterativo para Determinação do Limiar Entrada: Imagem monocromática I; Saída: Limiar T de binarização; 1 - Inicialize o limiar T como a média das intensidades; 2 - Binarize a Imagem de Entrada I usando o limiar T; 3 - Calcule o novo limiar como: 4 = Se Tn = T fim, caso contrário faça T = Tn e volte ao passo 2;
Segmentação Split and Merge 1 - Divida a imagem em 4 quadrantes (regiões). 2 - Para cada região, se não for homogênea, subdivida recursivamente voltando ao passo 1; Se for homogênea vira uma folha da QuadTree.
K-means Clustering Segmentation • Given a set of n data points in d-dimensional space and an integer k • We want to find the set of k points in d-dimensional space that minimizes the mean squared distance from each data point to its nearest center • No exact polynomial-time algorithms are known for this problem “A Local Search Approximation Algorithm for k-Means Clustering” by Kanungo et. al
K-means Algorithm • Has been shown to converge to a locally optimal solution • But can converge to a solution arbitrarily bad compared to the optimal solution Data Points Optimal Centers Heuristic Centers K=3 • “K-means-type algorithms: A generalized convergence theorem and characterization of local optimality” by Selim and Ismail • “A Local Search Approximation Algorithm for k-Means Clustering” by Kanungo et al.
Euclidean Distance Now to find the distance between two points, say the origin, and the point A = (3,4): Simple and Fast! Remember this when we consider the complexity!
Finding a Centroid We use the following equation to find the n dimensional centroid point amid k n dimensional points: Let’s find the midpoint between 3 2D points, say: (2,4) (5,2) (8,9)
K-means Algorithm 1 - Choose k initial center points randomly 2 - Cluster data using Euclidean distance (or other distance metric) 3 - Calculate new center points for each cluster using only points within the cluster 4 - Re-Cluster all data using the new center points This step could cause data points to be placed in a different cluster 5 - Repeat steps 3 & 4 until the center points have moved such that in step 4 no data points are moved from one cluster to another or some other convergence criteria is met From “Data Analysis Tools for DNA Microarrays” by Sorin Draghici
An example with k=2 • We Pick k=2 centers at random • We cluster our data around these center points Figure Reproduced From “Data Analysis Tools for DNA Microarrays” by Sorin Draghici
K-means example with k=2 • We recalculate centers based on our current clusters Figure Reproduced From “Data Analysis Tools for DNA Microarrays” by Sorin Draghici
K-means example with k=2 • We re-cluster our data around our new center points Figure Reproduced From “Data Analysis Tools for DNA Microarrays” by Sorin Draghici
K-means example with k=2 We repeat the last two steps until no more data points are moved into a different cluster Figure Reproduced From “Data Analysis Tools for DNA Microarrays” by Sorin Draghici
Characteristics of k-means Clustering • The random selection of initial center points creates the following properties • Non-Determinism • May produce clusters without patterns • One solution is to choose the centers randomly from existing patterns From “Data Analysis Tools for DNA Microarrays” by Sorin Draghici
Algorithm Complexity • Linear in the number of data points, N • Can be shown to have time of cN • c does not depend on N, but rather the number of clusters, k • Low computational complexity • High speed From “Data Analysis Tools for DNA Microarrays” by Sorin Draghici
Segmentação Baseada em Entropia • Entropia Tradicional BGS • q-Entropia • Aplicações da q-entropia à PDI
Entropia Tradicional BGS - Histórico Clausius foi o primeiro a dar uma definição para Entropia Boltzmann idealizou o conceito moderno de entropia No início, a idéia de entropia estava ligada somente a medida da capacidade de realização de trabalho dos sistemas físicos. Rudolph Clausius (1822-1888) Ludwing Boltzmann (1844-1906)
Leis da Termodinâmica Trabalho Energia TOTAL Perdas • Primeira Lei: A energia não pode ser criada nem destruída • Segunda Lei: Só pode haver trabalho se houver entropia
Plank foi o verdadeiro idealizador da fórmula atribuída a Boltzmann Gibbs introduziu a conhecida fórmula Entropia Tradicional BGS - Histórico Com Plank e Gibbs a entropia transcendeu a Termodinâmica e passou a se associar à Mecânica Estatística. Max Plank (1854-1947) Willard Gibbs (1839-1903)
Entropia e a Teoria da Informação Shannon associou a entropia a uma quantidade de informação A teoria da informação surgiu na década de 40, com origem na telegrafia e telefonia. Posteriormente, foi utilizada pela Cibernética no estudo da troca de informação de um organismo vivo ou mecânico. Claude Shannon (1916-2001)
Entropia e a Teoria da Informação Shannon associou a entropia a uma quantidade de informação A teoria da informação encontrou campo fértil em diversas áreas, entre elas na Economia, Estatística, Linguística, Psicologia, Ecologia, Reconhecimento de Padrões, Medicina, Inteligência Artificial, ... Claude Shannon (1916-2001)
Generalização da Entropia Clássica • Sabe-se há mais de um século que entropia tradicional de • BG não é capaz de explicar determinados Sistemas Físicos • Tais sistemas possuem como características: • - interações espaciais de longo alcance • - interações temporais de longo alcance • - comportamento fractal nas fronteiras • E são chamados de Sistemas Não-Extensivos
Generalização da Entropia Clássica • Exemplos • turbulência • massa e energia das galáxias • Lei de Zipf-Mandelbrot da linguística • Teoria de risco financeiro
Generalização da Entropia Clássica • Lei de Zipf-Mandelbrot da linguística Don Quijote (Miguel di Cervantes) Extração de Palavras Relevantes Rank ordenado
Generalização da Entropia Clássica • Massa e Energia da Galáxias
Generalização da Entropia Clássica • Teoria do Risco Financeiro • Quando se tem expectativa de perda, algumas pessoas • preferem arriscar • Quando se tem expectativa de ganho, algumas pessoas • preferem não arriscar
Generalização da Entropia Clássica • Citação de Artigos Científicos
Entropia Não-Extensiva Constantino Tsallis
Additive property of Shannon Entropy Tsallis Entropy formula Pseudo-Additive property of Tsallis Entropy
Background and Foreground distribution Background and Foreground Tsallis Entropy
Pseudo-Additivity for Background and Foreground distribution Here, topt is ideal partition (that maximizes) the pseudo additivity of Tsallis Entropy
A new partition of Background and Foreground for new application of Tsallis entropy
Respectivelly news Tsallis entropy for the new background and foregrounds
Here, topt is ideal partition (that maximizes) the pseudo additivity of Tsallis Entropy for the new partition
Visual Segmentation Results Ultrasound original Benign Tumor Left Column: 1 recurssion; Right column: 3 recurssions row 1: q = 0.00001; row 2: q = 1.0 (Shannon) ; row 3: q = 4
Visual Segmentation Results Ultrasound original Malignant Tumor Left Column: 1 recurssion; Right column: 3 recurssions row 1: q = 0.00001; row 2: q = 1.0 (Shannon) ; row 3: q = 4
Visual Segmentation Results Benign Tumor Left upper: NESRA with 16 clusters (3 recurssions); right upper: fuzzy c-means with 16 clusters Left bellow: k-means with 8 clusters; right bellow: SOM with 16 neurons