190 likes | 402 Views
CLASSIFICAZIONE. CAPITOLO 15. La Classificazione supervisionata. A. Dermanis, L.Biagi. . . 1 n i. m i = x. 1 n i. x S i. x S i. C i = ( x – m i )( x – m i ) T. La Classificazione supervisionata.
E N D
CLASSIFICAZIONE CAPITOLO 15 La Classificazione supervisionata A. Dermanis, L.Biagi
1 ni mi = x 1 ni xSi xSi Ci = (x – mi)(x – mi)T La Classificazione supervisionata I pixel noti in ciascuna classe ω1, ω2, ..., ωK, formano gli “insieme campione”S1, S2, ..., SK con n1, n2, ..., nK pixel ciascuno. Stime per ciascun insieme campione Si, (i = 1, 2, …, K) : Vettori delle medie: Matrici di covarianza: Metodi di classificazione supervisionata: Parallelepipedi Distanza euclidea Distanza di Mahalanobis Massima verosimiglianza Bayesiano A. Dermanis, L.Biagi
dE(x,x) = || x – x || = (x1 – x1)2 + (x2 – x2)2 + … + (xB – xB)2 || x – mi || = min || x – mk || x i k La Classificazione con la distanza Euclidea (a) Semplice Assegna ciascun pixel alla classe con centro più vicino. Confini fra le classi: iperpiani perpendicolari nel punto medio al segmento congiungente i centri delle classi. A. Dermanis, L.Biagi
dE(x,x) = || x – x || = (x1 – x1)2 + (x2 – x2)2 + … + (xB – xB)2 x i || x – mi || T || x – mi || = min || x – mk || k La Classificazione con la distanza Euclidea (b) Con livello di soglia T Assegna ciascun pixel alla classe con centro più vicino se distanza < livello di soglia || x – mi || > T, ix 0 Lascia non classificati i pixel (class ω0) la cui distanza da ogni centro è maggiore della soglia. A. Dermanis, L.Biagi
dE(x,x) = || x – x || = (x1 – x1)2 + (x2 – x2)2 + … + (xB – xB)2 La Classificazione con distanza Euclidea Sbagliato Giusto Si introduce il ruolo della statistica nella classificazione! A. Dermanis, L.Biagi
Deviazione standard per ogni banda ij = (Ci)jjj=1,2,…,B ParallelepipediPi x = [x1 … xj … xB]TPj mij – kij xj mij + kij j=1,2,…,B Classificazione: xPjxi x Pix0 i La classificazione con il metodo dei parallelepipedi A. Dermanis, L.Biagi
dM(x,x) = (x – x)TC–1 (x – x) i xSi 1 N C = (x – mi)(x – mi)T = niCi i dM(x,mi) < dM(x,mk), ki dM(x,mi) T, 1 N xi La classificazione con la distanza di Mahalanobis Distanza di Mahalanobis: (Matrice di covarianza) dM(x,mi) < dM(x,mk), kixi Classificazione (semplice): Classificazione con soglia: dM(x,mi) > T, ix0 A. Dermanis, L.Biagi
1 1 2 li(x) = exp [ – (x – mi)TCi–1 (x – mi) ] (2)B/2 |Ci|1/2 La classificazione con il metodo di massima verosimiglianza Funzione di distribuzione di probabilità o funzione di verosimiglianza per la classe ωi: li(x) > lk(x) k i xi Classificazione: Equivalente all’uso della funzione di decisione: di(x) = 2 ln[li(x)] + B ln(2) = – ln |Ci| – (x–mi)TCi–1 (x–mi) di(x) > dk(x) k i xi A. Dermanis, L.Biagi
La classificazione mediante approccio Bayesiano N : numero totale di pixel (i.e. per ogni banda) B : numbero di bande, ω1, ω2, …, ωK : le K classi presenti nell’immagine Ni :numero di pixel nella classeωi (i = 1,2, …, K) nx :numero di pixel con valore x nxi :numero di pixel con valore x in classe ωi A. Dermanis, L.Biagi
La classificazione mediante approccio Bayesiano N : numero totale di pixel (i.e. per ogni banda) B : numbero di bande, ω1, ω2, …, ωK : le K classi presenti nell’immagine Ni :numero di pixel nella classeωi (i = 1,2, …, K) nx :numero di pixel con valore x nxi :numero di pixel con valore x in classe ωi A. Dermanis, L.Biagi
La classificazione mediante approccio Bayesiano N : numero totale di pixel (i.e. per ogni banda) B : numbero di bande, ω1, ω2, …, ωK : le K classi presenti nell’immagine Ni :numero di pixel nella classeωi (i = 1,2, …, K) nx :numero di pixel con valore x nxi :numero di pixel con valore x in classe ωi Identità di base: A. Dermanis, L.Biagi
La classificazione mediante approccio Bayesiano N : numero totale di pixel (i.e. per ogni banda) B : numbero di bande, ω1, ω2, …, ωK : le K classi presenti nell’immagine Ni :numero di pixel nella classeωi (i = 1,2, …, K) nx :numero di pixel con valore x nxi :numero di pixel con valore x in classe ωi Identità di base: A. Dermanis, L.Biagi
La classificazione mediante approccio Bayesiano N : numero totale di pixel (i.e. per ogni banda) B : numbero di bande, ω1, ω2, …, ωK : le K classi presenti nell’immagine Ni :numero di pixel nella classeωi (i = 1,2, …, K) nx :numero di pixel con valore x nxi :numero di pixel con valore x in classe ωi Identità di base: A. Dermanis, L.Biagi
p(i) = p(x) = nxi Ni nxi N nxi nx Ni N nx N p(x|i) = p(i|x) = p(x,i) = probabilità che un pixel appartenga alla classe ωi probabilità che un pixel abbia il valore x probabilità che un pixel della classe ωi abbia valore x (condizionata) probabilità che un pixel con valore x appartenga alla classe ωi (condizionata) probabilità che un pixel abbia il valore x e appartenga alla classe ωi (congiunta) A. Dermanis, L.Biagi
p(i) = p(x) = nxi Ni nxi N nxi nx Ni N nx N p(x|i) = p(i|x) = p(x,i) = probabilità che un pixel appartenga alla classe ωi probabilità che un pixel abbia il valore x probabilità che un pixel della classe ωi abbia valore x (condizionata) probabilità che un pixel con valore x appartenga alla classe ωi (condizionata) probabilità che un pixel abbia il valore x e appartenga alla classe ωi (congiunta) A. Dermanis, L.Biagi
p(i) = p(x) = nxi Ni nxi nx nxi N Ni N nx N p(x|i) = p(i|x) = p(x,i) = probabilità che un pixel appartenga alla classe ωi probabilità che un pixel abbia il valore x probabilità che un pixel della classe ωi abbia valore x (condizionata) probabilità che un pixel con valore x appartenga alla classe ωi (condizionata) probabilità che un pixel abbia il valore x e appartenga alla classe ωi (congiunta) formula di Bayes A. Dermanis, L.Biagi
Pr(AB) Pr(A|B) = Pr(B) Pr(A|B) Pr(B) Pr(B|A) = Pr(A) p(x|i)p(i) p(i|x) = p(x) Teorema di Bayes: Pr(A|B)Pr(B) = Pr(AB) = Pr(B|A)Pr(A) evento A = occorrenza del valore x evento B = occorrenza della classe ωi p(i|x) > p(k|x) kixi Classificazione: p(x) = non necessaria (fattore comune) p(x|i) p(i) > p(x|k) p(k) k ixi Classificazione: A. Dermanis, L.Biagi
p(x|i)p(i) = max [p(x|k)p(k) xi k 1 1 2 p(x|i) = li(x) = exp{– –(x–mi)TCi–1(x–mi) } (2)B/2|Ci|1/2 1 2 1 2 – –(x–mi)TCi–1(x–mi) – –ln[ |Ci| + ln[p(i)] = max (x–mi)TCi–1(x–mi) + ln[ |Ci| + ln[p(i)] = min Classificazione: per distribuzione Gaussiana: p(x|i) p(i) = max Anzichè: ln[p(x|i) p(i)] = ln[p(x|i) + ln[p(i) = max Equivalente o, finalmente: A. Dermanis, L.Biagi
(x–mi)TCi–1(x–mi) = min p(1) = p(2) = … = p(K) C1 = C2 = … = CK = C p(1) = p(2) = … = p(K) C1 = C2 = … = CK = I (x–mi)TCi–1(x–mi) + ln[ |Ci| = min (x–mi)TCi–1(x–mi) + ln[ |Ci| + ln[p(i)] = min (x–mi)T(x–mi) = min La Classificazione Bayesiana per una distribuzione Gaussiana: CASI SPECIALI: p(1) = p(2) = … = p(K) Massima Verosimiglianza! Distanza di Mahalanobis! Distanza Euclidea! A. Dermanis, L.Biagi