230 likes | 450 Views
MEDSEBOJNA INFORMACIJA SLIK. Seminarska naloga za Strojni vid Janez Bajželj Mentor: prof. Stanislav Kovačič. Osnovni namen je pokazati princip poravnave slik na osnovi medsebojne informacije slik. Definicija in obrazložitev nekaterih osnovnih pojmov.
E N D
MEDSEBOJNA INFORMACIJA SLIK Seminarska naloga za Strojni vid Janez Bajželj Mentor: prof. Stanislav Kovačič
Osnovni namen je pokazati princip poravnave slik na osnovi medsebojne informacije slik Definicija in obrazložitev nekaterih osnovnih pojmov Prikaz rezultatov poizkusov na testnih slikah Primeri poravnave slik
Pojem izhaja iz teorije informacij Meri informacijo med sprejemnikom in oddajnikom Medsebojna informacija pove kako verjetno je, da je ena naključna spremenljivka odvisna od druge. Koliko sta ti dve spremenljivki medsebojno odvisni pa določi Entropija
Ključni faktor za določitev natančnosti in zanesljivosti računanja • medsebojne informacije dveh slik je: • ocena verjetnosti intenzivnosti p(A) • ocena skupne verjetnosti intenzivnosti p(A,B) • Ocena verjetnosti (teže): • Normaliziran intenzivnostni histogram • Parzen windov method
0.03 0.02 p(i) 0.01 0 0 50 100 150 200 250 i = intensity (A) Normaliziran histogram verjetnosti intenzivnosti Določimo ga iz slike, tako da ugotovimo vejetnost posameznega itezitvnostnega nivoja.
Parzen windov method Neparametrična določitev teže Parametrične metode uporabljajo parametre kot model Pri tej metodi uporabimo vzorec za neposredno določitev modela Osnovna enačba je naslednja : a - vzorec R – utežnostna funkcija Funkcijo R imenujemo tudi okensko funkcija ali funkcija glajenja Najpogosteje pa se uporablja gaussova, ko se za vsak vzorec določi gauss
Na osnovi verjetnosti intenzivnosti določimo pripadajočo entropijo Definicija entropije: Entropijo ali tudi povprečno vrednost informacije na en simbol je po definiciji matematično upanje naključne spremenljivke (lastne informacije) I(X). Entropija je v teoriji informacijah pravzaprav srednja vrednost lastnih informacij sistema, to je povprečna vrednost na eno stanje sistema. Entropija je merilo za neurejenost določenega sistema.
Enačba entropije: Primer : • Ponazoritev na primeru črk slovenske abecede • pi je verjetnost i-te črke po razpredelnici • Srednja vrednost informacije oz. entropija na eno črko je • dana z enačbo • v našem primeru to znese: 4,19 bitov/črko
Pogojna entropija E- pričakovana vrednost - vzorčni prostor Skupana entropija Medsebojna informacija
Medsebojna informacija (MI) (angl. mutual information) Normirana medsebojna informacija (NMI) (angl. normalized mutual information)
Poizkusi na testnih slikah • Izbranih šest testnih slik različnih dimenzij • Izračun posameznih intenzivnostnih histogramov • Ugotavljanje medsebojne informacije slik • Pomikanje slik levo desno za 20 pixlov • Ugotavljanje medsebojne informacije slike • v odvisnosti od premikanja slike
BX1 525 X 220 BX6 525 X 187 BX9 986 X 380
M1 441 X 168 M2 405 X 143 M3 313 X 135
Sliko pomikamo za dvajset pixlov levo oz. desno in računamo MI BX1 525 X 220 BX6 525 X 187 BX9 986 X 380
Sliko pomikamo za dvajset pixlov levo oz. desno in računamo MI M1 441 X 168 M2 405 X 143 M3 313 X 135
LITERATURA Paul A. Viola . 1995 Aligment by Maximization of Mutual Information Ludvik Gyergyek . 1988 Teorija o informacijah http://www.ai.mit.edu/people/leventon/Research/9810-MICCAI-Reg/node7.html http://www.dai.ed.ac.uk/CVonline/LOCAL_COPIES/GILLES1/entropy.html http://www-rocq.inria.fr/~gilles/IMMMI/immmi.html http://www.oarg.ucsf.edu/publications/spie-1999/sld013.htm