1.24k likes | 1.44k Views
Multimédia. M1: Információ és kommunikáció. M2: Jelek és kódolás. M3: Hangtechnika. M4: Képtechnika. M5: Mozgóképtechnika. M6: Multimédia az Interneten. Információ és kommunikáció. Multimédia rendszerek = információs rendszerek
E N D
Multimédia M1: Információ és kommunikáció M2: Jelek és kódolás M3: Hangtechnika M4: Képtechnika M5: Mozgóképtechnika M6: Multimédia az Interneten
Multimédia rendszerek = információs rendszerek Ezekben mindenféle auditív (hang) és vizuális (képi) információ elérhető. Feladata információk cseréje és feldolgozása Multimédia rendszerek
Az információ és a kommunikáció szerepe • Ha a multimédia segítségével áttérünk az információ feldolgozásának digitális világába, akkor teljesen új közeg tárul fel előttünk. • Társadalmunkban egyre meghatározóbb szerepe van az információnak és a kommunikációnak. • Az információ és a kommunikáció technikai lehetőségei hihetetlenül megnövekedtek a műholdas adatátviteli módszernek az üvegszálas megoldásoknak és a számítógépes hálózatoknak köszönhetően.
Alapfogalmak • Információ-feldolgozó rendszer • Jel • Adat • Információ • Tudás
Információ-feldolgozó rendszer(IPS) • IPS = ember • IPS alkotóelemei: • Bemeneti csatornák (receptorok és szenzorok) • Feldolgozó elemek (processzorok és tárolók) • Kimeneti csatornák (effektorok – végrehajtók – és válaszadók)
Az ember nem csupán információ feldolgozó rendszer, hisz képes az információt • értelmezni • elemezni • és a többértelmű dolgokat megfejteni
Mit ábrázol a képen látható árnykép? • Mit látunk először? • Két arcot profilból? • Serleget?
Rubin serleg • Dán pszichológus: Edgar Rubin • A képet egyszerre csak egyféleképpen tudjuk értelmezni • A két alakzatot egyszerre nem látjuk • Az információ értelmezése mindig az adott személytől függ, aki az információt befogadja és feldolgozza
Multimédia rendszerek • A multimédia rendszerek interaktív információs rendszerek, így az információ feldolgozás szabályai érvényesek rájuk.
Jel „A valóság egy olyan, érzékszerveinkkel felfogható (látható, tapintható, hallható) darabja, jelensége; amely az (emberi vagy állati, vagy egyéb) elme vagy értelem számára egy másik valóságdarabra, jelenségre utal.”
Jel fogalma • Az információelméletben egy jel a kommunikációs csatorna állapotainak egy sorozata, amelyet üzenetté lehet dekódolni. • Egy kommunikációs rendszerben, egy küldő kódol egy üzenetet jelekké, amelyet a kommunikációs csatorna segítségével a vevőnek el lehet juttatni.
Jel fogalma • A jelek az adatközvetítést szolgálják akusztikai, optikai vagy egyéb fizikai-technikai (jelző) eszközök révén.
Jelek fajtái • Analóg jel – folytonos függvényekkel írható le (időben változó) • Mutatós zseb, vagy karóra • Napóra • Homokóra • Digitális jel – diszkrét különálló jelekből áll • Bináris jel (0, 1)
Analóg jel • Egy mikrofon hangérzékelője a rajta áthaladó áram erősségét a hanghullám ingadozásaival analóg módon változtatgatja. Az áram erőssége ez esetben „jel”, mivel az érzékelőt érő fizikai hatásról, a hangról hordoz közvetlen információt. • A fémkereső érzékelőjében a mágneses tér jellemzői változnak, az ennek nyomán változó áramot átalakítva a kezelő egy hangot hall, amelynek a frekvenciája (magassága) árulkodik az érzékelő és a fémtárgy távolságáról.
Adat Az informatikában az adatok kódolt információk, amelyeket számítógép rendszerekben tárolnak. Eközben az információkat jelsorozat (digitális adatok) alapján vagy folytonos matematikai függvények (analóg adatok) alapján lehet megjeleníteni és gépi úton feldolgozni.
Adatok osztályozása • Mennyiségi adatok • Olyan információk, amelyekhez meghatározott számértéket rendelhetünk • (pl.: 1,2,3,…) • Minőségi adatok • Nem számjellegű tulajdonsággal rendelkező információk, amelyeket különböző osztályokba sorolhatunk • (nőnemű, hímnemű, vagy semleges nemű) • Átkódolhatók (nőnemű=1, hímnemű=2, vagy semleges nemű=0)
Információ • Információ – egy adott rendszer számára, annak működését befolyásoló, új ismereteket nyújtó jelek, jelsorozatok tartalmi jelentését értjük. • Információ az a hír, vagy adat, amely bizonytalanságot képes megszüntetni, tehát értékkel rendelkezik, értéket hordoz.
Információ • Az információ fizikai jelek térben és időben változó sorozata, ami anyagi hordozóból és információtartalomból áll. • „Az információ a tudás azon részhalmaza, amelyre egy adott helyzetben szükségünk van és az információfeldolgozás előtt még nem állt rendelkezésre.” (Kuhlen 1999)
Tudás • Az emberi információ-feldolgozás eredménye, illetve célja. • A gondolkodás és a tudás elválaszthatatlanul az emberi elméhez kötődik • A tudás az emberi elméletben rendszerezett, elérhető és alkalmazható információ
jel fizikai hordozó adat kódolt információ információ jelváltozás alkalmazott információ tudás
Információelmélet • Az informatika alapja • Az információs rendszerek matematikai leírására szolgál, és szorosan kapcsolódik a híradástechnikához • Segítségével lehetővé válik a különböző átviteli eljárások összehasonlítása, és az átvivő rendszerek egyes elemeinek optimalizálása
Shannon és Weaver kommunikációmodellje Az információ útját írja le az adó és a vevő között.
Információtartalom • Meghatározása matematikai alapon történik • Három feltételnek kell megfelelnie • Egy x információ Ix információtartalma annál nagyobb, minél kisebb a px valószínűsége az előfordulásának (minél nagyobb a meglepetésértéke) • Egy px=1 valószínűségi információ információtartalma szükségszerűen Ix=0 • Az egymástól független üzenetek információtartalma összeadódik
Információtartalom • Egyenlő gyakorisággal előforduló jelek információtartalma • Különböző gyakorisággal előforduló jelek információtartalma
Egyenlő gyakorisággal előforduló jelek információtartalma I=lb(s) • I – információtartalom bitben • Bit: az információtárolás alapegysége • Egy bináris szám 0, vagy 1 lehet. • s – különböző jelek száma (jelkészlet) • lb – kettes alapú logaritmus
Egyenlő gyakorisággal előforduló jelek információtartalma • A digitális multimédiában a bit a legkisebb bináris információmennyiség, és egy kétértékű rendszer logikai állapotát írja le. • Amiatt, hogy az információtartalom (híradástechnikai egységét megkülönböztessék a legkisebb bináris információmennyiségtől az információelméletben a Shannon (Sh) megnevezést használják.
Egyenlő gyakorisággal előforduló jelek információtartalma • Gyakran használatos egységek még a Hartley (Hart), és a Natural Unit (nat) • 1 Hart=log2 10=3,321928 Sh • loge 10=2,302585 nat • 1 Shannon (Sh)=1 bit
Egyenlő gyakorisággal előforduló jelek információtartalma Példa: • Mekkora egy hétjegyű (1234567) páncélszekrénykód információtartalma? • s=10 (a számok 0..9) • I=7 lb(10) bit= 7*3,32 bit=23,26 bit, vagy 23,26 Sh Magyarázat: lb (10) = lg2 10 2x = 10 => x log(2) = log(10) x= log(10) = 1 = 3,3219281 log(2) 0,30103
Különböző gyakorisággal előforduló jelek információtartalma Minden jel előfordulásának px valószínűsége: px =1 s Így az információtartalomra a következő igaz: Ix=lb(s)=lb 1 px
Különböző gyakorisággal előforduló jelek információtartalma Ha minden jelnek egy pxi egyedi valószínűsége van, akkor az azonosság: Ixi=lb 1 pxi
Különböző gyakorisággal előforduló jelek információtartalma Az információtartalom független a kódolás módjától és kizárólag a valószínűség azon mértékétől függ, amellyel a fogadó az információt várja. A nagy valószínűséggel várt üzeneteknek alacsony az információtartalmuk, ellenben a kis valószínűséggel vártaknak magas.
Különböző gyakorisággal előforduló jelek információtartalma grafikusan ábrázolva
„Arany középút” Alacsony információtartalom Magas információtartalom Melyik legónak legnagyobb az információtartalma?
Entrópia A rendszeren belüli rendezetlenség mértéke. Az entrópia fogalma a hőtanból (termodinamika) ered. Ott az entrópia a termodinamikai rendszerek statisztikus rendezetlenségének (bizonytalanságának) mértéke.
Entrópia H jelöli a híradástechnikai entrópiát, az üzenet átlagos információtartalmát. H=Ix=Σi=1pxilb 1 pxi s
Redundancia A lehetséges legnagyobb híradástechnikai entrópiát H0 döntéstartalomnak is nevezik. Ez akkor áll fenn, amikor az egyes információelemek egyenletes eloszlásúak, így statisztikailag függetlenek. Az egyenletes eloszlástól való eltérés az üzenet átlagos információtartalmának csökkenését eredményezi. Ezt a csökkenést nevezik R redundanciának.
Redundancia Redundancia esetén a következő azonosságok érvényesek: R=H0-H r=H0-H H0 R – redundancia r – relatív redundancia H0 – döntéstartalom (közepes entrópia)
Példa redundanciára Tegyük fel, hogy a német nyelv minden betűjének (s = 26) előfordulási valószínűsége ugyanannyi (px = 1/26), és ráadásul minden betű független egymástól. Ebben az esetben egy betű információtartalma (és átlagértéke is) H0= Ix = Ib(26) = 4,7 bit. A gyakorlatban azonban azt láthatjuk, hogy az "e" betű lényegesebben gyakrabban fordul elő, mint az "x". Ha ezt a betűgyakoriságot figyelembe vesszük, az entrópia H = 4,1 bit/jel.
Példa redundanciára Azt is figyelembe kell azonban venni, hogy egy "a" után nagyobb valószínűséggel jön egy "n", mint egy "o". Ha ezt a feltételes valószínűséget is figyelembe vesszük, akkor H = 3 bit/jel. Ha tekintetbe vesszük minden hosszabb betűsorozat feltételes valószínűségét is, és bizonyos betűk egymás után következését kizárjuk, ez az érték H = 1,3 bit/jel A német nyelvre a következő értékek igazak: H=1,3 bit/jel R=3,4 bit/jel r=0,73 Eredmény: A német nyelv 73 %-a redundáns ("felesleges"), csak 27 %-a hordoz információt.
Redundancia • A redundancia nélkül az információ teljesen értéktelen, mert megbízhatatlan. • A nyelv e redundanciája azonban szükséges. Általa a valóságos üzenet hosszabb lesz és az információfolyam lelassul, de lehetővé teszi a téves hírek hibatartalmának felismerését és a hibajavítást.
Információfolyam Az információ átviteli sebessége egyre fontosabbá válik. Ezt a sebességet nevezik információfolyamnak, és a következőképpen határozzák meg: F=H tm ahol: tm= Σ pxtx F - információfolyam bit/s-ban tm - átlagosan egy jel átviteléhez szükséges idő s/jel-ben
Az ipar 75%-a már nem anyaggal, hanem információval dolgozik. A termékköltségek akár 50%-át is az információs költségek teszik ki. A közvetett költségek több, mint 50 %-a szintén információs költség.
Csatornakapacitás Csatorna alatt bármely olyan utat értünk, amin keresztül egy üzenet az adótól a vevőhöz eljut. A csatornakapacitás (channel capacity) az a legnagyobb információfolyam, amely egy üzenetközvetítő csatornán (channel) hibátlanul át tud jutni.
Csatornakapacitás Az információfolyam az információforrástóI és az átviteli (közvetítő) csatornától függ. A csatornakapacitás független az információforrás tulajdonságaitól, és csak magától a közvetítő csatornától függ.
Csatornakapacitás Létezik a teljesítménynek egy abszolút felső határa, amit a következőképpen lehet kiszámolni: C=Fmax= H tm max C- csatornakapacitás bit/s-ban
Csatornakapacitás Egy zaj által zavart (a zaj is információ - noha ebben az esetben nem kívánatos), adott B sávszélességű átviteli csatornára igaz a következő: C=B*lb 1+PS PN B - sávszélesség Hz-ben (1/s) PS– jelteljesítmény W-ban (S=jel) PN - zajteljesítmény W-ban (N=zaj)
Csatornakapacitás A gyakorlatban a közvetítő csatornában az információfolyam messze a csatornakapacitás alatt marad. Ha figyelembe vesszük, hogy lb (x)=lg(x) lg(2) Áttérünk a 10-es alapú logaritmusra, lg(2)~ 0,3: C=B*10lg 1+PS 3 PN ,ahol 10lg 1+PS= ρ PN
Csatornakapacitás Ez a ρ ábrázolja a jel-zaj viszonyt (dB -ben), és a gyakorlatban zajaránynak (SNR,signal-to-noise ratio) nevezik. A legtöbb esetben a jel sokkal nagyobb, mint a zaj: PS >> PN ρ =10lg PS PN A különböző átviteli csatornák csatornakapacitása jelentősen különböző.
Néhány jellegzetes átviteli csatorna csatornakapacitása B – sávszélesség r – zajarány C - csatornakapacitás