450 likes | 592 Views
Algoritmusok képi információ feldolgozására. Keresés, osztályozás Algoritmusok grafikus processzorokon Benczúr András MTA SZTAKI Adatbányászat és Webkeresés Kutatócsoport. Szerintem az adatbányászat …. Gépi tanuláson, statisztikán alapul Nagy számítási igényű
E N D
Algoritmusok képi információ feldolgozására Keresés, osztályozás Algoritmusok grafikus processzorokon Benczúr András MTA SZTAKI Adatbányászat és Webkeresés Kutatócsoport
Szerintem az adatbányászat … Gépi tanuláson, statisztikán alapul Nagy számítási igényű Olyan, amit MATLAB-ben nem tudunk megoldani Okos algoritmusokat igényel • Hasznosítja a számítási erőforrások növelését
Köszönet (slide források) • Petrás István, Daróczy Bálint • Li Fei-Fei (kézről kézre jár) • Csurka Gabriella, Xerox XRCE • Bodzsár Erik
Képi információ keresés, osztályozás Képi szavak modellje Szegmensek, fontos területek, képi leírók Gauss keverékek és Fisher vektorok Kép és szöveg kombinációja
Osztályozás, szegmentálás, keresés ‘q = castle park’ building grass tree Slide: G. Csurka
Egy jól működő modell: szózsák Object Bag of ‘words’ Slide: Li Fei-Fei
Dokumentumok ‘szózsák’ modellje Of all the sensory impressions proceeding to the brain, the visual experiences are the dominant ones. Our perception of the world around us is based essentially on the messages that reach the brain from our eyes. For a long time it was thought that the retinal image was transmitted point by point to visual centers in the brain; the cerebral cortex was a movie screen, so to speak, upon which the image in the eye was projected. Through the discoveries of Hubel and Wiesel we now know that behind the origin of the visual perception in the brain there is a considerably more complicated course of events. By following the visual impulses along their path to the various cell layers of the optical cortex, Hubel and Wiesel have been able to demonstrate that the message about the image falling on the retina undergoes a step-wise analysis in a system of nerve cells stored in columns. In this system each cell has its specific function and is responsible for a specific detail in the pattern of the retinal image. China is forecasting a trade surplus of $90bn (£51bn) to $100bn this year, a threefold increase on 2004's $32bn. The Commerce Ministry said the surplus would be created by a predicted 30% jump in exports to $750bn, compared with a 18% rise in imports to $660bn. The figures are likely to further annoy the US, which has long argued that China's exports are unfairly helped by a deliberately undervalued yuan. Beijing agrees the surplus is too high, but says the yuan is only one factor. Bank of China governor Zhou Xiaochuan said the country also needed to do more to boost domestic demand so more goods stayed within the country. China increased the value of the yuan against the dollar by 2.1% in July and permitted it to trade within a narrow band, but the US wants the yuan to be allowed to trade freely. However, Beijing has made it clear that it will take its time and tread carefully before allowing the yuan to rise further in value. sensory, brain, visual, perception, retinal, cerebral cortex, eye, cell, optical nerve, image Hubel, Wiesel China, trade, surplus, commerce, exports, imports, US, yuan, bank, domestic, foreign, increase, trade, value Slide: Li Fei-Fei
Képek „szó-elemekre” bontása • Gráf alapú szegmentálás • Súlyozott, irányítatlan gráf a pixeleken • Agglomeratív klaszterezés – majdnem feszítőfa, de az egyes régiók közötti élsúly (eltérés) folyamatosan változik • Sobel gradiens a fontos élek kiválasztására
Lokális módszerek • Fontos élek, sarkok • Rács felbontás • … Orientation histograms SIFT
Képi leírók Szegmensek, területek Átlag RGB HSV RGB, HSV Hisztogram Kontraszt Zig-Zag Fourier Lokális módszerek 128 SIFT leíró
„Képi szavak”: eljárás vázlata • Az alacsony szintű képi jellemzők modellje • A részeket leíró vektorok klaszterezése: k-means, GMM (Gaussian Mixture Model) • Egy képet jellemez a klaszterenkénti szám („szavak száma”) • → gradiensreprezentáció(Fisher vektor) • Osztályozás képenként • Kép-osztályozási versenyek: Pascal VOC, ImageCLEF • K-means 4000+ klaszterrel • GMM 100+ elemű keverékkel
Gaussian Mixture Model (GMM) Feltevés: a D-dimenziós adatpontok Knormál eloszlásból (N1, ...,Nk) származnak, a következőképpen: Véletlen k választása a eloszlás szerint Véletlen leíró vektor Nk eloszlás szerint Az (N1, ...,Nk) eloszlásokat klasztereknek tekinthetjük
Visual Vocabulary with a GMM Slide: G Csurka
A Fisher Vektor Adott kép leíró-halmaza Gradiens, amerre mozdítva legjobban leírná a modell a képet: Kovariancia-jellegű mennyiség: Fisher információs mátrix: Normálás: Fisher vektor: Magas dimenziós (2 x D x N) ritka vetítés, kernelként használható: egy lineáris klasszifikátor kvadratikus felületrészeknek felel meg az eredeti térben
Szöveg és kép Mennyire hasonló egy kép egy szöveghez? Amennyire a leghasonlóbb képek szöveges leírásához! → Pszeudo-relevancia visszacsatolás (feedback)
Pszeudo-relevancia feedback (PRF) • A w szó tw előfordulása Tw eloszlású w paraméterrel • Log-logisztikus vagy valamilyen Power Law eloszlás • A w a w-t tartalmazó dokumentumok száma • A q query és d dokumentum egyezése, ahol xw a query szó súlya: • meglepetés, tipikustól való eltérés • PRF során az R legjobb találatból újrasúlyozzuk xw-t ezzel arányosan:
Párhuzamos architektúrák Miért many-core? CUDA programozás Kép-osztályozás algoritmusai
Számítási kapacitás története • Moore törvénye (exponenciális növekedés) megtört, egymagos rendszerek fejlődése megállt • Párhuzamos programozás elkerülhetetlen • Korábban: szuperszámítógépek
Számítási kapacitás története • Moore törvénye (exponenciális növekedés) megtört, egymagos rendszerek fejlődése megállt • Párhuzamos programozás elkerülhetetlen • Korábban: szuperszámítógépek • Google map-reduce: korlátos lehetőségek, pl gráf algoritmusok nehezek
Számítási kapacitás története • Moore törvénye (exponenciális növekedés) megtört, egymagos rendszerek fejlődése megállt • Párhuzamos programozás elkerülhetetlen • Szuperszámítógépek, Map-reduce, … • Ma már mindenhol multi-core • A jövő: szuperszámítógép mindenkinek • Manycore: Cell, GPU • Könnyen elérhető, olcsó: PS3, NVIDIA, ATI, …
NVIDIA CUDA • GPGPU platform • Nyilvánvalóan párhuzamos feladatok: • Mátrixműveletek • legközelebbi szomszéd keresés • Fourier transzformáció • SIMDarchitektúra • ~100threadprocessors • ~10K active threads • Zero-overhead thread scheduling • Hatékony – ha beférünk a memóriájába
Kép-osztályozási feladat Minden lépést meg tudunk oldani GPGPU-n!
GPU memória típusai 1-2 Global • a GPU hagyományos értelemben vett memóriája • ide/innen tud adatot másolni a host • GB-os nagyságrend • viszonylag lassú adatátvitel, lassú elérés a GPU-ról, nincs cache Shared • egy block thread-jeinek a közös memóriája • itt kommunikálnak egymással a thread-ek, valamint itt érdemes tárolni a sokszor elért adatot • 16KB (/block) • nagyon gyors elérés
GPU memória típusai 3-4 Constant • kicsi, gyors, cache-elt elérésű memória • csak a host tudja módosítani Regiszterek • minden block rendelkezésére áll néhány regiszter, amelyeket a thread-ek között oszt szét • általában csak ciklus- és temp változókat tárol
Memória elérési trükkök, szabályok • a globális memória elérésének sok szabálya van, amelyek betartása felgyorsítja azt (ld. ábra) • globális memóriaterületeket texture-nek lehet kinevezni, cache-elt elérés, viszont nem írható • non-pageable host memória: gyorsabb másolás Két-két példa coalesced és non-coalesced elérésre:
A CUDA programok nyelve Lényegében C kód, néhány kiegészítéssel • szintaktikai kiegészítések • új függvény qualifierek • gpu-s függvények hívása Új host függvények • pl. gpu memória foglalás, másolás, stb. GPU-specifikus függvények, változók • threadIdx, blockIdx, stb. • thread-ek szinkronizálása • gyors matematikai függvények (exp, sin, stb.)
CUDA kód futtatása GPU memóriája közvetlenül nem elérhető, ezért egy CUDA programrészlet általában így néz ki: • GPU memória allokálás • Adat másolása a host-ról az allokált memóriába • GPU függvény hívása, amely feldolgozza az adatot • Eredmény másolása a host-ra • GPU memória felszabadítás
Legegyszerűbb CUDA program példa __global__ void vecmult(float *v, float m) { int i = threadIdx.x; v[i] = v[i] * m; } int main() { int N=100; float *v_h; ... //v_h allokálás, inicializálás float *v_d; cudaMalloc((void**)&v_d, N*sizeof(float)); cudaMemcpy(v_d, v_h, N*sizeof(float), cudaMemcpyHostToDevice); vecmult<<<1,N>>>(v_d, m); //kernel hívás: 1 block, N thread cudaMemcpy(v_h, v_d, N*sizeof(float), cudaMemcpyDeviceToHost); cudaFree(v_d); return 0; } A GPU-n futó ún. kernel függvény Csak hostról hívható (nincs pl. rekurzió) Nem elérhetők a host függvények, memória, …
CUDPP könyvtár: scan, sort Scan, sort, pointer ugrás: Pl. a legtöbb párhuzamos gráfalgoritmus fő lépései Pointer ugrás: P [x] = P [P [x]] Scan • prefix összeg: prfsum [i] = ∑ij=0 v [i] • a scan a prefix összeg általánosítása: ∑ helyett tetszőleges asszociatív művelet – pl. szegmentált scan
Alap: feszítőfák Harish et al. Fast Minimum Spanning Tree for Large Graphs on the GPU • iteratív minimális feszítőfa algoritmus • kezdetben minden pont egy fa, minden iterációban szomszédos fákat egyesít • alkalmazható (kezdetleges) kép szegmentálásra • scan és sort műveletekből épül fel
Képszegmentálás lépései Egy iteráció lépései: • segmented min scan az (élsúly; végpont) párokra → minden pont legközelebbi, legkisebb címkéjű szomszédja → S választási gráf • S-ben 2 hosszú körök lehetnek, ezeket eltávolítjuk • S-ben pointer ugrással mindenki a reprezántánsára mutat • reprezentáns szerint rendezünk, bejelöljük a határokat • segmentedscan→ új komponens címkék • (kezdőpont; végpont; élsúly) hármasok rendezésével megkapjuk az új gráf éleit De nem a min súlyt kell választanunk, számos feltétel Szegmentálás 3-4 sec képenként
GMM: CUDA trükkök • GPU memória korlátos (kbmax 4GB): • párhuzamos másolás és végrehajtás • pnk értékeket nem tároljuk • Aritmetika max 64 bit (tetszőleges pontosság nehezen párhuzamosítható): • exponenciális vödrözés trükk
Futási idő • CPU-val összehasonlítva (azonos C++ kód): • tanító adat: • véletlen minta, 699923 adatpont (324 dim) • futási idő: • GPU: 67 perc • CPU: 77 óra (Xeon 1.6Ghz) • CPU: 20 óra hierarchikus GMM (Xeon 1.6Ghz)
Összefoglalás és problémák • Objektumok „Bag of Visual Words” reprezentációja • Nem használja a képi elemek relatív helyzetét • Erősen függ a tanító korpusztól (profi fotó, festmény, grafika, …) • GMM nem igazi „szavakat” ad, pl. nem is függ a tanító címkéktől • Szöveges keresés esetén • Keresőszavak képi objektumra „fordítása” • Sokféle objektum nagyszámú tanító mintáját igényli • Algoritmikus hatékonysági problémák, nagy számítási igény • További feladatok a GPU-k számára?
Köszönöm a figyelmet! Benczúr András MTA SZTAKI Adatbányászat és Webkeresés Kutatócsoport http://datamining.sztaki.hu benczur@sztaki.hu