740 likes | 1.09k Views
Večrazsežno lestvičenje. Aleks Jakulin Fakulteta za računalništvo in informatiko. Vsebina. MDS Kaj je MDS? Kako je lahko uporaben? Kako ga implementirati? Brez podrobnosti. Brez izpeljav. Če vas zanimajo, vprašajte. Primerjava z ostalimi metodami SOM (self-organizing map)
E N D
Večrazsežno lestvičenje Aleks Jakulin Fakulteta za računalništvo in informatiko
Vsebina • MDS • Kaj je MDS? • Kako je lahko uporaben? • Kako ga implementirati? • Brez podrobnosti. Brez izpeljav. Če vas zanimajo, vprašajte. • Primerjava z ostalimi metodami • SOM (self-organizing map) • PCA (principal component analysis, metoda glavnih osi)
obvezno Vhod: • konfiguracija: množica točk v n-D prostoru • matrika različnosti: za vsak par točk z indeksi i,j podamo različnost med njima, ki jo zapišemo kot oij ali ij • simetričnost: oij =oji • pozitivnost: oij 0 • refleksivnost: oii = 0 • razločljivost: oij = 0 i = j • trikotniška neenakost: oik +okj oij
Izhod: • Vsaki točki iz konfiguracije priredimo vektor v prostoru, tako da evklidske razdalje med preslikavami točk v prostoru čimbolj ustrezajo različnostim. • MDS lahko definiramo tudi za matrike podobnosti namesto za matrike različnosti, vendar se s tem tu ne bomo ukvarjali.
Neposredni grafični prikaz matrike različnosti svetlo = podobno temno = različno
Cenovna funkcija • Cenovna funkcijo (stress) v okviru MDS poskušamo minimizirati. Poznamo jih več vrst: • Kruskalova (vsota kvadrata napak) • Sammonova (relativne napake)
Odvisnost cenovne funkcije od števila dimenzij Ko cenovna funkcija neha hitro padati, se nam neha splačati dodajanje dodatnih dimenzij.
Obteženi MDS (WMDS) • Vsaki različnosti oijmed posameznim parom točk (i,j) pripišemo neko utež wij • To nam omogoča: • Neznane različnosti (če ne zapolnjujemo lukenj s trikotniško neenakostjo) • Različna pomembnost različnosti • Posebni primeri WMDS: • CCA: manjša kot je razdalja, večja je njena utež • LLE: k vsaki točki najmanjših različnosti ima uteži 1, ostale 0
Optimizacijski postopki • Minimizacija kvadratne napake (least squares) • Minimizacija zgornje meje (majorizing function) • Gradientno iskanje (gradient descent), npr. Newton-Raphson • Drugo: • Simulirano ohlajanje (Simulated annealing) • Evolucijsko računanje • Tabu
De Leuuwov SMACOF 1 • Scaling by MAjorizing a COmplicated Function • Enostaven iteracijski postopek, ki daje dobre rezultate, a ob počasni (linearni) konvergenci. Podpira skoraj vse razširitve MDS. • Da minimiziramo f(x), najdemo g(x,y), da je vedno g(x,y) f(x), in da je g(y,y) = f(y). • Minimiziraj g(x,x0), dobiš x1, minimiziraj g(x,x1), itd.
SMACOF 2 • Na začetku izračunamo (n x n) matriko V: • V vsaki iteraciji računamo (n x n) matriko Ry: • in z psevdoinverzom rešimo
Psevdoinverz • Če je A singularna matrika, lahko vseeno namesto definiramo inverzu podobno matriko. • A razstavimo na singularne vrednosti: • In takole izračunamo Moore-Penrosov inverz, pri čemer neskončne vrednosti diagonalne matrike -1 postavimo na 0:
Dodatne cenovne funkcije • SSTRESS: kvadratno odstopanje med kvadratom različnosti in kvadratom razdalje. Rešuje ga algoritem ALSCAL. • STRAIN: rešuje ga trivialen algoritem!
Torgersonov postopek 1 • Deluje za osnovni metrični MDS in je uporaben kot začetni približek za iteracijske postopke. • Uporabi kosinusni izrek za pretvorbo matrike različnosti v matriko skalarnih produktov • S SVD (singular value decomposition) najdi preslikavo v n-D • Izberi najbolj informativne singularne vrednosti, ki določijo izbrane dimenzije.
Torgersonov postopek 2 • Kvadrat matrike različnosti O dvojno centriraj (od vsakega elementa odštej povprečje stolpca in vrstice, prištej povprečje cele matrike ter deli z 2). Dobiš matriko B. • Reši problem SVD: B = ULUT • Če hočeš izhod MDS v k dimenzijah, v L pusti k največjih singularnih vrednosti, ostale pa postavi na 0. • X = UL1/2 • Minimizirana je razlika med B in XXT.
Metrični in ne-metrični MDS • Metrični (Torgerson 1952) • Ne-metrični (Shepard 1961) • Oceni nelinearno obliko monotone funkcije, ki preslika različnosti ali podobnosti v neskladnosti (disparities), ki izvirnike nadomestijo • Shepardov diagram je graf te funkcije.
Shepardov diagram Ne-metrični MDS • Urejenost razdalj mora biti čimbolj podobna urejenosti različnosti. • Postopek v fazah: • Optimizacija razdalj (navadni, metrični MDS) • Optimizacija monotone preslikave različnosti z izotonično regresijo (ali Least Squares Monotonic Transformation) • Ponavljaj 1-2 z novo matriko različnosti do konvergence ali dolgčasa. grafneskladnosti
Ostale variante MDS • Večkratni MDS (Replicated MDS, Three-Way MDS):Imamo m matrik podobnosti za isto množico točk. Uporabljamo isto konfiguracijo, a drugačne monotone preslikave različnosti. • Razgrnitev (Multidimensional unfolding):Razdalje med elementi iz različnih skupin nas zanimajo, tiste med elementi znotraj skupin pa ne. • Omejeni MDS:Točke konfiguracije morajo ležati na neki mnogoterosti: na krogu, pravokotniku, v mreži, ipd.
Pomen • Zmanjšamo razsežnost problema • Ustvarimo nove, informativne atribute • Človeku podamo razumljiv pregled matrike različnosti • Pohitrimo računanje • Odstranimo nepomembne odvisnosti • Zmanjšamo “redkost” (sparseness) matrik s podatki, povečamo signifikantnost statističnih izjav o podatkih
Primeri • “Običajni” različnostni podatki • Ne-metrični MDS • Slikovni in časovni podatki • Risanje obteženih grafov • Strukture molekul • Vizualizacija metrik • Vizualizacija razvrščanja • Sinergija razvrščanja in MDS
Bližina pomenov besed Razdalja: število sopojavitev v posameznem članku iz enciklopedije
MDS na slikovnih podatkih Proximity grid (s SWO) Navadni MDS
MDS in risanje grafov • Različnost para točk: najkrajša pot med točkama v grafu • Matrika uteži različnosti: 1/različnost
Telefonski klici točka = telefon povezava = obstoj klica
Sodelovanje med ljudmi Sodelovanje med ljudmi Povezava = Obstoj skupnega dela Utež povezave = Količina skupnega dela
Literatura v Sloveniji • Ksenija Kovačeč-Naglič, Zvonimir Bohte: • Večrazsežno lestvičenje, magistrsko delo (FRI-91) • Borg & Groenen: Modern multidimensional scaling : theory andapplications (VPŠ) • Cox & Cox: Multidimensional scaling (EF) • Kruskal & Wish: Multidimensional scaling (FF,FDV)
Dodatne teme • Uporaba MDS v strojnem učenju • Metode, podobne MDS • SOM • PCA/ICA • MCA • Razvrščanje (clustering) • Metrike • Na vektorjih • Na matrikah združljivosti
Analiza podobnosti med algoritmi strojnega učenja • Različnosti verjetnostnih porazdelitev klasifikatorja na primerih, Kullback-Leiblerjeva metrika.
Analiza združljivosti med atributi Vijolično privlači, modro odbija
k je parameter, Sk je množica točk, ki jim je Wk najbližja.Wk nastopajo v regularni ali heksagonalni d-dimenzionalni mreži, ki predstavlja preslikavo. f in g sta preslikavi, ki ju določata plasti nevronske mreže “Nevronski” pristopi • Self-Organizing Map: • Auto-Associative Feedforward Network:
Metoda glavnih osi (PCA) Znano tudi kot Karhunen-Loeve transform, Hotelling transform, Eigenanalysis, faktorska analiza, SVD (Singular Value Decomposition)
Primerjava PCA in MDS PCA LLE Pri LLE ima neničelne uteži k najbližjih sosedov
Države s SOM svetlo = lahko prehodna dolina temno = težko prehodno gorovje
Independent Component Analysis (ICA) • ICA maksimizira združeno (joint)entropijo in minimizira vzajemno (mutual)informacijo med izhodnimi kanali. Najde smeri največje neodvisnosti za ne-Gaussovske podatke (statistike višjih redov). • PCA najde smeri največje variance priGaussovskih podatkih (statistike drugega reda).