130 likes | 235 Views
Kommunikationstechnik B Teil 4 – Informationstheorie. www.dhbw-stuttgart.de. Stephan Rupp Nachrichtentechnik. Inhalt. Informationstheorie Einführung Information und Wahrscheinlichkeit Entropie Entscheidungsgehalt Redundanz. Informationstheorie. Quellenkodierung und Kanalkodierung
E N D
Kommunikationstechnik B Teil 4 – Informationstheorie www.dhbw-stuttgart.de Stephan Rupp Nachrichtentechnik
Inhalt Informationstheorie • Einführung • Information und Wahrscheinlichkeit • Entropie • Entscheidungsgehalt • Redundanz
Informationstheorie Quellenkodierung und Kanalkodierung • Was bewirkt die Quellenkodierung? • Was bewirkt die Kanalkodierung? • Wozu der Aufwand? Quellen-kodierung Kodierte Nachricht Information Information Redundanz Redundanz Nachrichten-quelle Nachricht, z.B. Text, SMS, E-Mail, ... Kanalkodierung Information Redundanz Übertragung Kanal
Inhalt Informationstheorie • Einführung • Information und Wahrscheinlichkeit • Entropie • Entscheidungsgehalt • Redundanz
xi Information und Wahrscheinlichkeit Würfelexperiment Beispiel: • fairer Würfelpxi = 1/6, • 2 Würfe: pxi,xj= pi * pi = 1/36 • allgemein: pxi,xj= pxi* pxj Zeichenvorrat: X ={ x1, x2, x3, x4, x5, x6} Wahrscheinlichkeiten: px1, px2, px3, px4, px5, px6 Zeichenquelle Ideen: ZufallsexperimentlöstUngewissheit auf, liefert also Information, d.h. Ixi~ 1/pxi Information bei 2 Würfen: Ix1,x2 = Ix1 + Ix2
Information und Wahrscheinlichkeit Information einesZeichens • Definition: • Masseinheit: bit • Beispiele: • binäres Zeichen X={0, 1}: pxi = 2-1 => Information = 1 bit • hexadezimales Zeichen: ? • dezimales Zeichen? • Würfel? • Zeichen im BDC-Format? Ixi = ld(1/pxi) = - ld(pxi)
Inhalt Informationstheorie • Einführung • Information und Wahrscheinlichkeit • Entropie • Entscheidungsgehalt • Redundanz
Entropie InformationsgehalteinerZeichenquelle Beispiel: Zeichenvorrat: X ={ x1, x2, x3, x4, x5, x6} Wahrscheinlichkeiten: px1, px2, px3, px4, px5, px6 Zeichenquelle • Definition: Entropie • Informationsgehalt der Quelle = • Information aller Zeichen • gewichtet mit deren Wahrscheinlichkeit H(X) = ∑ piIi = - ∑ pild(pi) Ü4.6 -.12
Inhalt Informationstheorie • Einführung • Information und Wahrscheinlichkeit • Entropie • Entscheidungsgehalt • Redundanz
Entscheidungsgehalt Wannist die EntropieeinerQuelle maximal? Beispiele: • fairer Würfelpxi = 1/6: H0 = ? • Quellemit 10 Zeichen? Beispiel: Zeichenvorrat: X ={ x1, x2, x3, x4, x5, x6} Wahrscheinlichkeiten: px1, px2, px3, px4, px5, px6 Zeichenquelle Definition: Entscheidungsgehalt H0 = maximale Entropie
Inhalt Informationstheorie • Einführung • Information und Wahrscheinlichkeit • Entropie • Entscheidungsgehalt • Redundanz
Redundanz Die DifferenzzwischenEntscheidungsgehalt und Entropie max. Entropie Informationsgehalt Entropie Redundanz Redundanz Nachrichten-quelle Nachricht, z.B. Text, SMS, E-Mail, ... Definition: Redundanz = H0 – H(X) Ü4.15 -.18
Kommunikationstechnik B • ENDE Teil 4