420 likes | 513 Views
Ton II/ Animation I. Überblick: MPEG Audiokompression: mp3 Grundlagen Videokompression. Allgemeines zu MPEG MPEG (Moving Picture Experts Group) ist eine Arbeitsgruppe von ISO (International Standards Organization) und IEC (International Electro-Technical Commission) .
E N D
Ton II/ Animation I Überblick: MPEG Audiokompression: mp3 Grundlagen Videokompression
Allgemeines zu MPEG • MPEG (Moving Picture Experts Group) ist eine Arbeitsgruppe von ISO (International Standards Organization) und IEC (International Electro-Technical Commission) . • Die Arbeitsgruppe wurde 1988 in Ottawa, CA gegründet. • Ihre Aufgabe ist die Entwicklung von internationalen Standards zur Komprimierung, Dekomprimierung, Verarbeitung, Kodierung und Dekodierung von bewegten Bildern und assoziiertem Audio. Der offizielle Titel lautet: „Coding of moving pictures and audio“. • Die Expertengruppe trifft sich in turnusmäßigen Abständen, um Arbeitsergebnisse zu diskutieren und neue Arbeitsbereiche abzustecken. Das Ergebnis sind verschiedene Standards: bisher: MPEG-1, MPEG-2, MPEG-4, MPEG-7 und MPEG-21 (in Arbeit). 1.1 MPEG-1 • MPEG-1 ist seit 10/92 als Standard ISO/IEC 11172 definiert. • Praktisch bedeutete dies, einen Standard für die effiziente Speicherung und Wiedergabe von audio-visuellen Daten auf CDs zu erarbeiten, der eine max. Datenübertragungsrate von 1,5 Mbit/s unterstützt. „Coding of moving pictures and associated audio for digital storage media at up to about 1,5 Mbit/s“
1.1.2 MPEG-1 Definitionen • MPEG-1 besteht aus 5 Teilen: • Systems • Video • Audio • Conformance testing • Software simulation Normativ vs. Informativ • in den ISO/IEC-Dokumenten gibt es sowohl normative als auch informative Bestandteile. • Normativ bedeutet, dass die entsprechenden Abschnitte Teile der Standard-Spezifikation sind. Sie sind präzise definiert, für Implementierungen gedacht und sollten bei der Implementation strikt befolgt werden. • Informativ bedeutet, dass die entsprechenden Abschnitte einzelne Konzepte, die an anderer Stelle definiert worden sind, illustrieren, bestimmte Entscheidungen näher erläutern und Beispiele zur Implementierung liefern. • Die Teile 1-3 von MPEG-1 sind weitgehend normativ, die Teile 4/5 sind informativ.
Systems Der "Systems"-Teil beschreibt die zeitliche Synchronisation und das Multiplexen von Video- und Audio-Datenströmen. (Multiplexen = gleichzeitiges Übertragen von mehreren Informationen über einen Kanal); Zweck: Aufbereitung der Daten zur Speicherung und effizienteren Übertragung Video Der "Video"-Teil beschreibt die Kodierung von Videosignalen. Dabei werden verschiedene Bildtypen definiert, die verschiedene Funktionalität unterstützen.
Audio • Der "Audio"-Teil beschreibt die Kodierung von Audiodaten (Mono/Stereo). • In diesem Teil des Standards werden drei verschiedene Methoden (layer) der Datenkompression definiert. • Die drei Methoden werden mit I, II und III bezeichnet und zeichnen sich durch steigende Komplexität und Leistungsfähigkeit aus. Die Layer sind hierarchisch kompatibel, d.h. die Funktionen der "niedrigeren" Methoden sind den "höheren" bekannt, die höheren Layer verfügen allerdings über zusätzliche Eigenschaften, die in besserer Kompression resultieren. • Layer I: ermöglicht eine Datenreduktion von 1:4. Dies entspricht 384 kBit/s für ein Stereosignal. • Layer II: ermöglicht eine Datenreduktion von 1:6...1:8. Dies entspricht 256...192 kBit/s für ein Stereosignal. • Layer III: ermöglicht eine Datenreduktion von 1:10...1:12. Dies entspricht 128...112 kBit/s für ein Stereosignal.
Conformance testing • Der "Conformance testing"-Teil spezifiziert Testdesigns um zu verifizieren, ob die Bitströme und Dekoder den spezifizierten Anforderungen aus Teil I,II,III entsprechen. Software simulation • Der "Software simulation"-Teil liefert eine Beispiel-Implementation (in C-Code) für die ersten drei Teile (als technical report). 1.1.3 Anwendungen von MPEG-1 • VCD (Video CD) , Digital Compact Cassette (DCC) • MPEG-1, Teil 3, Layer III wird populär als mp3 bezeichnet. • Zum Erzeugen/Abspielen/Darstellen von MPEG-Dateien braucht man sogenannte Codecs. • Codec ist die Abkürzung für Coder/Decoder, also die Soft- oder Hardwarebestandteile, die die Video- und Audiodaten im entsprechenden Format kodieren oder dekodieren.
1.2 MPEG-2 • Die nächste Entwicklung der Arbeitsgruppe war MPEG-2. Der offizielle Titel lautet: „Generic Coding of Moving Pictures and Associated Audio“. • MPEG-2 ist als Standard ISO/IEC 13818 definiert. • Wurde überwiegend für die Speicherung und Übertragung von Videosignalen vorgesehen (digitales Fernsehen). Übertragungsraten: 1,5 -15 Mbit/s. 1.2.1 MPEG-2 Teilbereiche • MPEG-2 besteht aus (8)9 Teilen: • Systems • Video • Audio • Conformance testing • Software simulation • System extension - DSM-CC (Digital Storage Media Command and Control) • Audio extension - AAC (Advanced Audio Coding) • System extension - RTI (Real Time Interface) • Conformance extension - DSM-CC • [IPMP (Intellectual Property Management and Protection) on MPEG-2 Systems]
Systems • Der "Systems"-Teil ist in zwei Teile gegliedert: • Der "Program Stream" ist analog zu MPEG-1, Teil 1 ähnlich definiert und unterstützt die Speicherung auf digitalen Medien. • Darüber hinaus gibt es den "Transport Stream", der die Datenübertragung über fehleranfällige Systeme regelt. Video • Der "Video"-Teil beschreibt die Kodierung von Bilder, die zusätzlich zu MPEG-1 im Interlacing-Verfahren aufgebaut sein können. • MPEG-2 realisiert außerdem Verbesserungen in der Bildqualität. • Unterstützt drei Auflösungsstufen: low-main-high (letzteres für HDTV vorgesehen) Advanced Audio Coding • Der "AAC"-Teil definiert eine neue mehrkanalige Audio-Kodierung, die nicht rückwärtskompatibel ist zu MPEG-1 Audio. 1.2.2 Anwendungen von MPEG-2 • Video-Teil DVD • AAC ist von Japan für einen Standard für nationales digitales Fernsehen gewählt worden. • Digitale Fernsehübertragungen
1.3 MPEG-4, MPEG-7, MPEG-21 • Eine weitere Entwicklung der Arbeitsgruppe ist MPEG-4. Der offizielle Titel lautet: „Coding of audio-visual objects“. • MPEG-4 ist als Standard ISO/IEC 14496 definiert. Die Version 1 wurde 10/98 verabschiedet, Version 2 12/99. • Während MPEG-1 und -2 vor allem für Audio- und Video-Kompression benutzt werden, ist das Ziel von MPEG-4 einen Standard für Multimediaanwendungen zu schaffen mit Hilfe dessen Computer, Fernsehen und Telekommunikation zusammenwachsen können (Internet übers Handy, interaktives Fernsehen, Video on demand, Fernseh-Liveübertragungen über Internet etc.); • MPEG-7 fokussiert im Gegensatz zu MPEG-4 nicht auf die Kodierung und Darstellung von audio-visuellen Objekten, sondern auf die Beschreibung von Multimedia-Inhalten (Multimedia Content Description Interface) Ziel: schnelle Suche, Identifizierung und Verarbeitung von multimedialen Inhalten. • MPEG-21 ist die jüngste Entwichlung von MPEG und noch in Arbeit. Die jüngste Entwicklung der Arbeitsgruppe ist MPEG-21. Der offizielle Titel lautet: Multimedia Framework. • MPEG-21 zielt ab auf eine zukünftige Umgebung, in der Inhalte unterschiedlichster Art von Usern verschiedener Kategorien über multiple Anwendungen und Domänen bewegt werden können.
1.3.1 MPEG-4 Teilbereiche • MPEG-4 besteht aus 16 Teilen: • Systems • Visual • Audio • Conformance testing • Software simulation • Delivery Multimedia Integration Framework • Optimized Software for MPEG-4 tools • 4 on IP framework • Reference Hardware Description • Advanced Video Coding • Scene Description and Application Engine • ISO Base Media File Format • IPMP Extenions • MP4 File Format • AVC (Audio-Visual Content) File Format • AFX (Animation Framework eXtension)
Audiokompression: MPEG/ MP3 2.1 Charakteristik • MP3 ist eine andere (populäre) Bezeichnung für eine Realisierung der Spezifikation des MPEG-1, Audio Layer III, vom Fraunhofer Institut Anfang der 90er Jahre entwickelt. • Der Kodierer (encoder) ist extrem komplex, dafür aber extrem leistungsfähig in Bezug auf die Kompressionsraten. • Der Dekodierer dagegen ist viel einfacher aufgebaut und zudem abwärtskompatibel. 2.2 Grundsätzliche Funktionsweise von MPEG-1 Audio Layer III • Das Kompressionsverfahren orientiert sich generell an den Gegebenheiten des menschlichen Gehörs, d.h. dessen Wahrnehmungsmöglichkeiten von Tönen (perceptual audio coder). Ziel ist es also, Datenreduktion unter Beibehaltung der subjektiven Klangqualität zu erreichen. • Das psychoakustische Phänomen der Tonmaskierung wird dabei besonders ausgenutzt.
Teilschritte • Das Audiosignal wird in bestimmten Zeitfenstern abgetastet und vom Zeit- in den Frequenzbereich übertragen („frequency domain mapping“, „frequency transformation“); dabei wird das Signal auf Frequenzbänder abgebildet. • Parallel dazu wird das Signal einem psychoakustischen Modell unter dem Aspekt der Maskierung verarbeitet; dabei wird die Maskierungsschwelle für das Signal ermittelt („threshold of masking“); die minimale Maskierungsschwelle ist die Hörschwelle. • Quantisierung und Kodierung: Unter Berücksichtigung des ermittelten Maskierungsschwellenwerts wird für jedes Frequenzband eine Quantisierung durchgeführt. Liegt die Signalintensität eines Subbandes unter der Maskierungsschwelle wird das Signal nicht kodiert. Die Anzahl der verwendeten Bits wird durch die vorgegebene Bitrate beschränkt ( „bit allocation algorithm“).
2.3 MP3-Kodierer • MP3 verwendet für die Frequenztransformation eine sog. Filterbank. Das Signal wird dabei auf 32 gleich lange Subbänder gemappt. Da sich die Subbänder überlappen kann ein Ton einer best. Frequenz zwei Bänder beeinflußen. Deshalb wird zusätzlich eine modifizierte diskrete Kosinustransformation (MDCT) durchgeführt. • Im psychoakustischen Modell, das der MP3-Kodierer verwendet, werden einige Verfahren benutzt, die für die hohe Leistungsfähigkeit maßgeblich verantwortlich sind: z.B. zusätzliche Fouriertransformation, Erkennung von tonalen und nicht-tonalen Komponenten; Basis sind experimentelle Untersuchungen der Wahrnehmungsfähigkeiten des Gehörs. • Quantisierung • Die quantisierten Signale werden in sog. frames gepackt, wobei Huffman-Kodierung verwendet wird.
weitere Komprimierungsstrategien Bytes Reservoir • Einige Audiosignale lassen sich mit weniger als den erlaubten Bits kodieren; diese „Lücken“ im Bitstrom werden genutzt um Teilsignale, die einen höheren Bedarf an Kodierungsbits benötigen, besser zu kodieren; • Anstatt die Kodierung also an die vorgesehene Länge der Daten anzupassen und damit die Datenqualität zu verändern, werden solche "Lücken" bei mp3 verwendet, um dort Daten aus anderen Bereichen unterzubringen. • Dieser Mechanismus dient auch zur Vermeidung von preechoes (Verzerrungen auf Grund der MDCT). Joint Stereo coding • Joint Stereo coding bezeichnet verschiedene Tools, die die Datenmenge weiter reduzieren: • Intensity Stereo • Mid/Side (M/S) stereo
Intensity Stereo: • Hier wird die Schwäche des menschlichen Ohrs ausgenutzt, bei besonders hohen und tiefen Tönen keine genaue Lokalisierung mehr vornehmen zu können. • Die Daten werden in diesen Fällen nicht als zwei Signale (stereo) abgelegt, sondern als ein Signal (mono) mit ein paar Zusatzinformationen, um ein Minimum an "räumlicher" Information zu rekonstruieren. Middle/Side (M/S) stereo: • Wenn die Stereo-Informationen auf beiden Kanälen einander sehr ähnlich sind, werden die Informationen nicht als zwei getrennte Signale gespeichert, sondern als "Mitte" und "Seite". • Mitte bedeutet, dass die Kanalinformationen addiert werden (L+R), Seite nimmt die Differenz der Informationen (L-R) auf.
2.4 MP3-Dekodierer • Der Dekodierer ist weit einfacher konstruiert als der Kodierer: Psychoakustisches Modell und Bit-Allokation werden bei der Dekodierung nicht benötigt.
2.5 MP3-Files • Der vom Encoder erzeugte Datenstrom wird in eine MP3-Datei geschrieben. Dieser Datenstrom besteht in der Grundstruktur aus frames (jeder MPEG-Datenstrom, nicht nur MP3). 2.5.1 MP3 Format • Jedes Frame nimmt Daten von 1152 Samples auf. • Eine MPEG-Audiodatei hat keinen globalen Dateiheader, wodurch sich eine solche Datei im Prinzip beliebig nach frames teilen läßt. Allerdings funktioniert dies bei MP3 Dateien nicht immer ( bit reservoir). • Ein MP3-Audio-Frame wiederum ist aufgebaut aus • Header • Kontrollblock (optional) • Eigentliche Audiodaten • Hilfsdaten („ancillary data“, „side information“) Infos zur Huffman-Kodierung
Bitraten • '0000' zeigt in allen Layern an, dass ein "freies" Format benutzt wird, welches nicht in der Liste der Bitraten spezifiziert sein muss. • In Layer II sind nicht alle Kombinationen von Bitraten und Modi erlaubt. • Die Angaben sind jeweils in kBit/s.
2.5.2 ID3 Tag • Zur Angabe von Metadaten ist ein zusätzlicher Standard entwickelt worden, ID3 (aktuell ID3, version 2.4.0). • ID3 tag richtet sich in erster Linie an MPEG-1- und -2-Dateien, kann aber auch mit anderen Audioformaten oder eigenständig verwendet werden. • Funktionsprinzip: ID3 ist wie MPEG aus frames aufgebaut, die in die MPEG-Datei geschrieben werden können. • Mit ID3v2 lassen Informationen mit bis zu 256 Mb Kapazität aufnehmen, neben Text auch Bilder oder sogar Files.
Animation I • Grundlagen der Videokompression • Damit Bewegung in Bildern dargestellt werden kann, benötigt man ca. 15-25 Bilder pro Sekunde. • Für die Farbinformationen sind in der Regel 24 Bit pro Bildpunkt vonnöten.
1.1 Video-Kompressionstechniken • Die Kompression von Bildern basiert im Wesentlichen auf der Korrelation zwischen Pixeln. • Die Kompression von Video-Sequenzen beruht neben der Korrelation von Pixeln in einem einzelnen Bild auch auf der Korrelation zwischen aufeinander folgenden Bildern (Frames). • Grundsätzlich werden zwei Arten von Redundanz beseitigt: • räumliche Redundanz, die in jedem einzelnen Bild (Frame) existiert; • temporale Redundanz, die im Unterschied eines Bildes zu seinen unmittelbaren Nachbarn besteht.
1.1.1 Beseitigung temporaler Redundanz • Das erste Bild einer Sequenz wird mithilfe der Kompressionstechniken für unbewegte Bilder komprimiert. • Bei den folgenden Bildern werden nur die Unterschiede zum jeweiligen Vorgänger festgestellt und kodiert. • Ist ein Bild sehr unterschiedlich von seinem Vorgänger, wird es als erstes Bild einer neuen Sequenz aufgefasst und unabhängig komprimiert. • Ein Bild, welches unter Bezug auf den Vorgänger komprimiert wird, heisst inter frame , ein unabhängig kodiertes Bild wird intra frame genannt. • Da bei Bildern verlustbehaftete Kompressionsmethoden angewendet werden, kann sich der damit verbundene Fehler bei konsekutiven Bildern akkumulieren. Auch deshalb sollten von Zeit zu Zeit intra frames eingeschaltet werden.
1.2 Dekodierung von komprimierten Videos • Da ein Dekoder sehr schnell sein muss, um die korrekte Bildrate zu liefern, arbeitet er normalerweise parallel, d.h., mehrere Dekodierzyklen arbeiten gleichzeitig an mehreren Frames. • In einer solchen Situation kann es sinnvoll sein, nicht nur die Vorgänger von Bildern bei der Kodierung zu berücksichtigen, sondern auch Nachfolger. • Wenn z.B. durch die Bewegung eines Objektes ein Hintergrund sichtbar wird, kann es für ein Bild nützlich sein, zu wissen, welcher Hintergrund im nächsten Bild zu sehen sein wird.
1.3 Intra, Inter und bidirektionale Frames • Das Intra Frame wird mit I bezeichnet; es wird nur unter Berücksichtigung der eigenen Bildinformation kodiert . Das Kompressionsverfahren ist meist stark an JPEG angelehnt. • Das Inter Frame wird mit P (predictive) bezeichnet; es berücksichtigt auch Bildinformationen des am nähesten liegenden I -oder P-Vorgängers. Nachteil: Zunahme von Kodierfehlern: Vorteil: höhere Kompression (P-Frames benutzen dafür motion compensation). • Ein Frame, welches sowohl Vorgänger als auch Nachfolger zum Kodieren verwendet, wird mit B (bidirectional) bezeichnet. Erlaubt sind aber nur I- oder P-Frames als Referenz. Vorteil: noch höhere Kompression;
1.4 Kodier-/ Video Stream- Reihenfolge Time stamps: - Coding time - Display time
1.5 Kompressionsansätze • Subsampling: nur jedes zweite Frame wird ausgewählt und in den komprimierten Datenstrom geschrieben. Der Dekodierer dupliziert die Frames. • Differencing: nur Unterschiede werden in den Datenstrom geschrieben (Pixel-Koordinaten, Unterschiede zwischen den Pixeln); sind die Unterschiede zu groß, wird das Frame komplett geschrieben. • "Lossy" Differencing: liegt der Unterschied zwischen zwei Pixeln in zwei Frames unterhalb einer wahrnehmbaren Schwelle, werden die Pixel als gleich interpretiert. • Block Differencing: blockweiser Vergleich zwischen zwei Frames;
1.6 Motion Compensation / Estimation • bewegt sich nur ein Teil des Bildes, können vorherige Lokalisierung des bewegten Teilbildes, jetzige Lokalisierung und Informationen zur Abgrenzung des Teilbildes kodiert werden. Die Differenz zwischen den Bildern heisst Bewegungsvektor (engl. motion vector) .
1.6.1 Aspekte der Motion Compensation Frame Segmentation • Das Bild wird in einheitlich große, nicht-überlappende Blöcke eingeteilt. • Die Blöcke haben quadratische oder rechteckige Form. • Die Form der Blöcke entspricht der Annahme, dass Bewegung sich vor allem horizontal abspielt, so dass horizontale Blocks die Anzahl von Bewegungsvektoren verkleinern ohne die Kompressionsrate zu beeinträchtigen. • Die Blockgröße hat wesentlichen Einfluss auf die Wirksamkeit der Kompression. Search Threshold • Jeder Block des aktuellen Bildes wird mit dem entsprechenden Block des Vorgängers verglichen. • Vergleichbar zum Lossy Differencing werden die Blocks als identisch interpretiert, wenn der Unterschied unterhalb einer vorher festgelegten Schwelle liegt.
Block Search • Sei ein Block B der aktuelle Block im aktuellen Bild, so wird beim Block Search ein Block im vorherigen Bild gesucht, der identisch oder sehr ähnlich ist wie Block B. • Die Suche wird in der Regel auf einen eng begrenzten Bereich im vorherigen Frame begrenzt (search area) • Die Parameter, welche den Bereich (search area) begrenzen, werden maximum displacement parameter (maximale horizontale und vertikale Distanzen von Block i zu Block B in pixel) genannt (dx, dy). • Block search ist zeitintensiv. • B = Quadrat mit Seitenlänge b --> search area (b+2dx)(b+2dy) pixel --> (2dx+1)(2dy+1) Blocks
1.7 Kodierung von Bewegungsvektoren • Da ein großer Teil des jeweils aktuellen Bildes in Bewegungsvektoren konvertiert werden kann, ist die Kodierung der Ergebnisse von hoher Bedeutung. • Bewegungsvektoren sollten verlustfrei kodiert werden. • Allerdings helfen zwei Eigenschaften von Bewegungsvektoren dabei: • sie korrelieren miteinander: Wenn ein Bild Block für Block verglichen wird, sind die Bewegungsvektoren nebeneinander liegender Blöcke meist nicht sehr unterschiedlich, sie korrelieren miteinander. • ihre Verteilung ist ungleichmäßig: Die Bewegungsvektoren weisen außerdem nicht in alle möglichen Richtungen, sondern in eine oder zwei bevorzugte. Sie sind ungleichmäßig verteilt. • Bisher hat sich keine Kodierungsmethode als die ideale herausgestellt, aber einige als sehr wirksam. • Besonders gut haben diese Methoden funktioniert: • Vorhersage des Bewegungsvektors aufgrund der vorhergehenden Blöcke in derselben Zeile und Spalte eines Bildes. Berechnung der Differenz zwischen der Vorhersage und dem tatsächlichen Vektor. Huffman-Kodierung. • Gruppierung der Bewegungsvektoren zu Blocks. Sind alle Vektoren im Block identisch, wird der Vektor einmal für den gesamten Block kodiert. Andere Blocks werden nach Methode 1 kodiert.
1.8 Suboptimale Suche nach ähnlichen Blocks • Die Suche nach identischen Blocks (Block Search) ist sehr zeitaufwendig. • Es gibt eine Reihe "suboptimaler" Suchstrategien: • Signature Based Methods: Im ersten Schritt werden alle in Frage kommenden Blocks mit einfachen Methoden auf die Ähnlichkeit überprüft. In den nächsten Schritten werden genauere Methoden nur auf die Blöcke mit den besten Ergebnissen aus Schritt 1 angewendet. • Distance-Diluted Search: Sich schnell bewegende Objekte wirken verschwommen. Deshalb können sie mit einer geringeren Blockübereinstimmungsgenauigkeit kodiert werden. Um solche Objekte zu erfassen, werden alle nahe beim Ursprungsblock liegenden Blöcke verglichen, immer weniger aber mit zunehmender Distanz. • Locality-Based Search: Zunächst wird über räumlich relativ weit verteilte Blocks gesucht; der „beste Treffer“ ist Ausgangsbasis für eine intensivierte Suche um diesen Treffer herum: Hier besteht die hohe Wahrscheinlichkeit, einen besseren/ den besten Block zu finden.
1.9 "Abhängigkeits"-Algorithmen • Da sich bewegende Objekte innerhalb eines Frames in der Regel größer sind als einzelne Blocks, kann man annehmen, dass benachbarte Blocks korrelierende Bewegungsvektoren aufweisen. • Diese Annahme wird von dependent algorithms genutzt. • Räumliche Abhängigkeit • In einem Algorithmus, der räumliche Abhängigkeit zugrunde legt, werden benachbarte Blocks von B benutzt, um den Bewegungsvektor von B vorherzusagen. • Natürlich kann man für die Berechnung nur Nachbarblocks benutzen, deren Vektoren bereits errechnet wurden. • Die meisten Blocks haben acht Nachbarn, aber alle acht zu vergleichen ist ineffektiv. Die beste Variante ist vier symmetrische Nachbarblöcke zu nehmen.
Drei Schritte sind erforderlich für die Überprüfung von jeweils vier symmetrisch angeordneten Nachbarn: • Zuerst wird in der ersten und danach in jeder zweiten Reihe für jeden zweiten Block der Vektor berechnet. • Im zweiten Schritt wird in den bisher unberücksichtigten Zeilen versetzt für jeden zweiten Block der Vektor berechnet. Hier können bereits vier symmetrisch angeordnete Blöcke zum Vergleich herangezogen werden. • Im dritten Schritt werden alle restlichen Vekoren berechnet.
1.10 Der Video-Teil in MPEG-1/ MPEG-2 1.10.1 Video-Daten Hierarchie Datenstrukturen werden in einer Hierarchie defniert: • Sequence: Beginnen mit einem Sequenz-Heade und enden mit einem Sequenzendecode. • Group of Pictures (GOP): Jede Sequenz enthält eine Serie von Bilder; GOP beginnen ebenfalls mit einem Header • Picture: Primäre Kodierungseinheit; Farbmodell: Luminanz/Chrominanz (YCbCr) • Slice: Aufeinanderfolge von Makroblöcken; Fehlerkorrekturverbesserung • Macro Block: Aggregation mehrerer Blöcke (4x) • Block: 8x8 Pixel
Kompression in MPEG • Es werden eine Reihe von Kompressionstechniken kombiniert angewandt, um eine hohe Kompressionsrate zu erzielen, insbes. DCT, Motion Compensation, Huffman, RLE.
Aufgaben 1)Wiederholen Sie den Stoff dieser Sitzung bis zur nächsten Sitzung (siehe dazu den Link zur Sitzung auf der HKI-Homepage). Informieren Sie sich zusätzlich durch eigene Literaturrecherche! 2) Beantworten Sie die Fragen aus der Sammlung „beispielhafte Klausurfragen“ zum Bereich Ton/ Animation (soweit in dieser Sitzung behandelt).