180 likes | 312 Views
Obrazová klasifikácia Mäkká klasifikácia – 1.časť. Delenie klasifikácie. Podľa spôsobu za raďovania príslušnosti pixlov/objektov do tried:. Tvrdá klasifikácia. Mäkká klasifikácia. hard classification. soft classification. Tvrdé a mäkké klasifikátory.
E N D
Delenie klasifikácie Podľa spôsobu zaraďovania príslušnosti pixlov/objektov do tried: Tvrdá klasifikácia Mäkká klasifikácia hard classification soft classification
Tvrdé a mäkké klasifikátory Delenie klasifikátorov podľa spôsobu priraďovania príslušnosti pixlov/segmentov do tried: • „tvrdé“klasifikátory(hard classifiers)– vyjadrujú príslušnosť pixlov/objektov do tried binárnym spôsobom (1 – úplná príslušnosť, resp. 0 – žiadna príslušnosť) • „mäkké“klasifikátory(soft classifiers) – môžu vyjadriť neurčitosť príslušnosti pixla/objektu v určitej triede - najznámejšia je fuzzy klasifikácia
Neurčitosť v údajoch DPZ Zdroje neurčitosti v údajoch DPZ: • Limitované geometrické rozlíšenie • Limitované spektrálne a rádiometrické rozlíšenie • Kompresia obrazu • Vágnosť (neurčitosť) v koncepcii klasifikácie tried krajinnej pokrývky (KP) • Mäkké prechody medzi areálmi KP v prírode
Problém zmiešaných pixlov • každý digitálny snímač DPZ sníma určitú časť zemského povrchu v rámci svojho okamžitého obrazového uhla (IFOV – Instantaneous Field Of View), ktorý je vlastnosťou optického systému a závisí aj od veľkosti snímača • snímač sníma energiu odrazenú z daného kruhového výseku zemského povrchu, pričom tento sa môže skladať z jedného alebo viacerých typov krajinnej pokrývky • priemer kruhu vypočítame akoD = H’.β, pričom H’ je výška letu a β je IFOV v radiánoch
Mäkké klasifikátory Dôvody (motivácie) pre použitie mäkkých klasifikátorov: 1. Sub-pixlová klasifikácia – napr. v zmiešanom lese môže byť pixel tvorený 57% ihličnatým a 43 % listnatým lesom 2. Meranie a vyjadrenie sily dôkazu pri klasifikácii – napr. 26%-ná pravdepodobnosť, že pixel patrí do triedy ihličnatých lesov 3. Využitie GIS vrstiev a modelov na podporu rozhodovania pri klasifikácii – napr. vzdialenosť od ciest pri klasifikácii zastavanej plochy
Sub-pixlová klasifikácia • klasifikácia vo vnútri pixla • rôzne spôsoby: • Analýzy spektrálneho miešania (Spectral mixture analysis) • Fuzzy klasifikátory • ANN klasifikátory (Artificial Neural Nets) • Bayesiánske klasifikátory (pravdepodobnostné) • ....
Bayesiánska klasifikácia • základom je Bayesiánska teória pravdepodobnosti • Bayesiánsky klasifikátor je rozšírením MLC • Bayesov teorém: p(e|h) . p(h) p(h|e)= Σp(e|hi) . p(hi) kde p(h|e) - pravdepodobnosť, že hypotéza je pravdivá, daná dôkazom (a posteriori pravdepodobnosť) p(e|h) - pravdepodobnosť nájdenia dôkazu, že daná hypotéza je pravdivá p(h) – pravdepodobnosť, že hypotéza je pravdivá bez ohľadu na dôkaz (a priori pravdepodobnosť)
Bayesiánska klasifikácia • viacrozmerná podmienková pravdepodobnosť p(e|h) sa počíta na základe variančno/kovariančnej matice(podľa trénovacích množín) • táto hodnota sa potom modifikuje na základe a priori pravdepodobnosti hypotézy, ktorú zadáva užívateľ • potom sa to normalizuje sumou pre všetky triedy • v Idrisi modul BAYCLASS • Bayesiánsky klasifikátor je podmienkový, t.z. predpokladá, že pixel patrí do jednej z tried, pre ktoré existujú trénovacie množiny (nepripúšťa neklasifikované pixle, čo môže byť nevýhodou) • preto by trénovacie množiny mali byť kompletné (mali by pokrývať všetky triedy na scéne) a nemali by sa prekrývať, čo je v praxi ťažké zabezpečiť
Dempster-Shaferova teória • varianta Bayesiánskej teórie pravdepodobnosti, ktorá pripúšťa aj možnosť neznalosti • napr. ak sa pixel podobá na triedu les a nepodobá sa na žiadnu z ostatných tried, BAYCLASS priradí triede les hodnotu 1.0 a ostatným triedam hodnotu 0.0, a to aj v prípade, že skutočná podobnosť pixla na les je nízka • na rozdiel od toho Demspter-Shafer nepredpokladá, že má kompletné informácie • dôvera (belief) - stupeň, s ktorým dôkaz podporuje konkrétnu hypotézu • prijateľnosť (plausibility) - stupeň, s ktorým dôkaz nevyvracia hypotézu • interval dôvery (belief interval) – rozdiel medzi nimi (meranie neurčitosti konkrétnej hypotézy)
Dempster-Shaferova teória • napr. ak je v danom pixli stupeň podpory pre triedu les 0.3 a pre ostatné triedy 0.0, Dempster-Shafer priradí triede les dôveru 0.3 a prijateľnosť 1.0, takže výsledný interval dôvery bude 0.7, a ostatným triedam priradí dôveru 0.0 a prijateľnosť 0.7 • ak by bola v danom pixli aj podpora pre triedu tráva so stupňom 0.6, zníži sa tým prijateľnosť pre triedu les na 0.4 a výsledný interval dôvery na 0.1, čo je veľmi nízka hodnota (neurčitosť) • okrem toho Dempster-Shaferova teória rozoznáva aj neznalosť (ignorance) - stupeň, s ktorým daný stav znalostí nedovoľuje rozlíšiť medzi hypotézami • v Idrisi modul BELCLASS, kde je implementovaná aj prídavná kategória [other] pre pixle, ktoré sa nepodobajú na žiadnu z trénovacích množín • normálne Dempster-Shaferova teória vyžaduje kompletné triedy (hypotézy)
Dempster-Shaferova teória • Dempster-Shaferova teória rozoznáva okrem hlavných tried (tzv. singletons) aj ich kombinácie: les les – voda les – voda – tráva voda les – tráva tráva voda – tráva • okrem dôvery sa potom pre zmiešané triedy hodnotí aj tzv. BPA (Basic Probability Assignment), čo je stupeň podpory k zmiešanej triede, teda k jednej alebo viacerým jej zložkám, bez toho, aby boli dôkazy o týchto zložkách aj samostatne • dôveru (belief) k zmiešanej triede potom vypočítame ako sumu BPA pre túto triedu a všetky jej zložky • zmiešané triedy sú zaujímavé z hľadiska sub-pixlovej klasifikácie
Dempster-Shaferova teória • zmiešané triedy sú zaujímavé z hľadiska sub-pixlovej klasifikácie • z hľadiska softvérovej implementácie je však nemožné pracovať so všetkými kombináciami, ktorých je (2n – 1), kde n je počet hlavných tried (napr. pri 16 hlavných triedach je to 65 535 tried)
Výsledky mäkkej klasifikácie • obyčajne vo forme skupiny rastrov - jeden pre každú triedu + raster neurčitosti klasifikácie
Neurčitosť klasifikácie • neurčitosť klasifikácie (classification uncertainty) – stupeň, s ktorým žiadna trieda nemá prevahu nad inými triedami vzhľadom na príslušnosť pixla • Idrisi počíta neurčitosť nasledovne: pričom max – maximálna hodnota príslušnosti pre pixel sum – suma hodnôt príslušnosti pre pixel n – počet hodnotených tried • v princípe rovnaké ako meranie entropie v informačnej teórii
Neurčitosť klasifikácie • príklady: • výnimkou je modul UNMIX, v ktorom sa neurčitosť počíta ako zvyšková chyba po výpočte zložiek jednotlivých členov
Mäkká klasifikácia • výhody mäkkých klasifikátorov – lepšie vystihujú podmienky reálneho sveta, v ktorom sa často vyskytuje neurčitosť spôsobená napr. príliš veľkými pixlami, mäkkými prechodmi medzi triedami v prírode, neurčitosťou klas. systémov krajinnej pokrývky, rôznymi spektrálnymi vlastnosťami objektov • nevýhody mäkkých klasifikátorov – väčšina aplikácií (napr. GIS softvérov) nevie ich výstupy spracovávať, preto sa často musia previesť na tvrdo klasifikované (napr. na základe najvyššieho stupňa príslušnosti) pričom však dochádza k strate informácií
Konverzia na tvrdú klasifikáciu • v Idrisi sa vykonáva pomocou modulu HARDEN • výsledky z modulov: BAYCLASS – vyberie sa trieda s najväčšou a posteriori pravdepodobnosťou BELCLASS – vyberie sa trieda s najvyššou dôverou FUZCLASS – vyberie sa trieda s najvyššou hodnotou príslušnosti (možnosti) UNMIX – vyberie sa trieda, ktorá má najvyšší podiel v danom pixli MAHALCLASS – vyberie sa trieda, ktorá má najvyššiu Mahalanobisovu typickosť • takto sa dajú spracovať prvé 4 úrovne klasifikácie