Question | Answer |
1. Was verstehen Sie unter Speicherdichte? | Ausnutzung des Speicherplatzes durch Daten, die einem zuvor definierten Qualitätsanspruch gerecht werden. |
1. Wie sollte die Speicherdichte möglichst sein? | Sie sollte immer möglichst hoch sein. |
1. Erläutern Sie, inwiefern Kompression einen Beitrag zur Speicherdichte leisten kann | Die Kompression sorgt dafür dass der Anteil an relevanten Daten höher ist, Speicherdichte kann steigen |
2. Erläutern Sie die Unterschiede zwischen Redundanz, Relevanz & Irrelevanz bei digitalen Daten & deren Bedeutung für die Kompression. Wie versuchen Kompressionsverfahren mit diesen 3 Klassen von Information umzugehen? | Redundante Information: Alle Informationsanteile, die trotz bereits erfolgter Übermittlung ein 2. oder mehrfaches Mal wiederholt werden. Irrelevante Information: Unsere Sinne können bestimmte objektiv vorhandene Bild- & Toninformationen nicht erkennen. Diese Anteile bezeichnet man als Irrelevanz. Relevante Information - Entropie: Der verbleibende wesentliche Teil der Bild- / Toninformation, der weder redundant noch irrelevant ist. Kompressionsverfahren versuchen, die redundanten &/oder irrelevanten Informationen auf ein Minimum zu verringern. Die relevante Information soll dabei unangetastet bleiben |
2. Wann wird ein Qualitätsverlust bei Redundanz, Relevanz & Irrelevanz spürbar? | Wenn die relevante Information fehlt. |
3. Wovon ist der relative prozentuale Anteil von Redundanz, Irrelevanz & Relevanz in einem digitalen Videosignal abhängig? | Von der aktuellen Komplexität der Bildszene. |
3. Worauf bezieht sich der relative prozentuale Anteil von Redundanz, Irrelevanz & Relevanz in einem digitalen Videosignal? | Auf die Menge an Bilddetails, die in der Szene enthalten sind & auf die Art & Geschwindigkeit der Bewegung von Szeneninhalten. Gilt auch für andere digitale Signale. |
3. Wie verhält sich typischerweise der relative prozentuale Anteil von Redundanz, Irrelevanz & Relevanz in einem digitalen Videosignal im zeitlichen Verlauf? | Der relative Prozentsatz von Redundanz, Irrelevanz & Relevanz ist nicht zeitlich konstant, sondern variiert in weiten Grenzen. Die relative Größe der einzelnen Informationsanteile ist unabhängig voneinander. |
4. Erläutern Sie, weshalb sich konstante Datenrate & konstante Qualität bei komprimierten Signalen in der Regel gegenseitig ausschließen | Soll mit konstanter Qualität komprimiert werden, so ergibt sich durch die zeitliche Varianz der Informationsanteile innerhalb eines digitalen Signals zwangsläufig eine variable Datenrate. Soll eine konstante Datenrate eingehalten werden, so bleibt auf Grund der zeitlichen Varianz der Informationsanteile innerhalb eines digitalen Signals nur der Weg über eine zeitlich variable Qualität. |
5. Erklären Sie den prinzipiellen Unterschied zwischen verlustfreier & verlustbehafteter Kompression. | Bei verlustbehafteter Kompression geht ein beträchtlicher Teil der relevanten, irrelevanten & redundanten Daten unweigerlich verloren, dieser Verlust wird in kauf genommen, um höhere Kompressionsfaktoren zu erreichen. Während bei der verlustfreien Kompression nur die redundanten Daten aus dem Datenmaterial entfernt werden, die relevanten Daten dürfen nicht entfernt werden, da ansonsten keine 100%-Rekonstruktion möglich ist. |
5. Wie wird bei der verlustfreien & der verlustbehafteten Kompression jeweils konkret vorgegangen, um Kompression zu bewirken? | Bei der verlustbehafteten Kompression werden neben den redundanten Informationen auch gewisse relevante Informationen des Originals aus dem Datenmaterial entfernt. Bei der verlustfreien Kompression werden nur die redundanten Informationen aus dem Datenmaterial entfernt & das Datenvolumen auf die relevanten Informationen beschränkt. Eine Beseitigung der irrelevanten Daten ist nicht möglich. |
5. Welche typischen Kompressionsfaktoren lassen sich mit der verlustfreien & der verlustbehafteten Kompression jeweils erreichen? | verlustbehaftete Kompression: ca. 250:1 verlustfreie Kompression: ca. 3:1 |
5. Wann wird welche Variante der Kompression im Bereich digitaler Medien typischerweise eingesetzt? (aussagekräftige Beispiele für beide Bereiche) | Im Bereich der digitalen Medien wird die verlustbehaftete Kompression von Medieninhalten da eingesetzt, wo es auf noch brauchbare Qualität bei deutlich bis drastisch reduzierten Datenmengen ankommt, z.B. Web, DVD, Mobilfunk. Die Verlustfreie Kompression wird nur dort angewandt, wo es auf sehr hohe Qualität ankommt. Oft wird deshalb auch auf Kompression verzichtet, trotz entsprechend hoher Datenmengen, z.B. in professionellen Videoproduktionen. |
7. Erklären Sie den Unterschied zwischen symmetrischen & asymmetrischen Kompressionsverfahren. | Symmetrische Verfahren arbeiten bei Kompression & Dekompression spiegelbildlich. Typischerweise ist für beide Vorgänge derselbe Zeit- & Rechenaufwand nötig. Bei asymmetrischen Verfahren ist der Vorgang der Kompression - Encoding - meist sehr viel zeit- & rechenaufwendiger als die Dekompression - Decoding. |
8. Wie kann beim Encoding & beim Decoding von Daten ein so genanntes Echtzeitverhalten erreicht werden? | Für das Encoding werden oft Hochleistungsrechner & spezialisierte Hardwarebeschleuniger eingesetzt, wobei in gewissen Fällen für ein einzelnes Bild mehrere Sekunden oder Minuten gebraucht werden können. |
8. Wie ist beim Encoding & beim Decoding von Daten “Echtzeit” genau definiert? | Die Verfügbarkeit der Medien sollte bei zeitabhängigen Medien ohne Wartezeiten erfolgen. Schnelle Verfügbarkeit im statischen Bereich. |
9. Was verstehen Sie unter Entropie? Erläutern Sie den Begriff anhand der im Skript gegebenen Herleitung. | Das unkomprimierte Datenmaterial gilt als Quelle mit Quellenereignissen aus einem definierten Vorrat. Sämtliche Quellenereignisse treten mit einer bestimmten statistischen Wahrscheinlichkeit auf. Tritt ein gewisses Quellenereignis häufig auf, liegt sein Wert für die Wahrscheinlichkeit des Auftretens hoch. Tritt ein anderes Quellenereignis selten auf, ist sein Wert niedrig. Die Entropie beschreibt den Informationsgehalt einer Quelle. |
9. Wann wird die Entropie groß? Wann klein? | Je ungleichmäßiger die Wahrscheinlichkeiten des Auftretens der verschiedenen Quellenereignisse verteilt sind, desto kleiner ist die Entropie |
9. Was hat die Größe der Entropie für eine Bedeutung für die Kompression? | Eine kleine Entropie ermöglicht eine stark verringerte Datenmenge & hohen Kompressionsfaktor bei verlustfreier Kompression. |
10. Was beschreibt die mittlere Codewortlänge? | Den Mittelwert der Länge aller Codeworte, die eine Quelle beschreiben. |
10. Was wird durch die mittlere Codewortlänge bestimmt? | Die Bitrate des kodierten Datenmaterials, das zu übertragen oder zu speichern ist. |
10. Welcher Zusammenhang besteht zwischen der mittleren Codewortlänge & der Entropie? | Entropie ist ein Maß dafür, mit welcher mittleren Codewortlänge & welcher Datenmenge nach der Kompression zu rechnen ist. |
10. Welche Bedeutung hat die mittlere Codewortlänge für die Kompression? | Je geringer die mittlere Codewortlänge, desto kleiner die Entropie, umso stärker kann komprimiert werden. |
11. Wie funktioniert Kompression durch Kodierung prinzipiell. Erläutern Sie das Prinzip & geben Sie ein Beispiel. | Quellenereignissen mit hoher Wahrscheinlichkeit ordnet man ein möglichst kurzes Codewort zu, das sich mit möglichst wenigen Bit abspeichern lässt. Dadurch wird erreicht, dass die mittlere Codewortlänge & die Gesamtmenge der Bits so gering wie möglich wird. -> Kompression tritt ein |
11. Wie stark kann mit Kodierung maximal komprimiert werden & warum? | Es kann maximal bis zur Entropie komprimiert werden. Dabei werden alle redundanten Daten aus dem komprimierten Ergebnis entfernt. |
11. Treten bei der Kodierung mit maximaler Kompression Verluste ein? | Die durch Kodierung erreichte Kompression ist verlustfrei, da die Zuordnung von Quellenereignis zu Codewort eindeutig & unumkehrbar ist. |
12. Wie kann absichtlich eine kleine Entropie erreicht werden? | Durch eine künstliche & reversible Erzeugung von Ungleichverteilung. |
12. Wie heißt der Vorgang, der angewendet wird, um eine möglichst kleine Entropie zu erreichen? | Dekorrelation |
12. Was bewirkt der Vorgang, um eine möglichst kleine Entropie zu erreichen & wie funktioniert er prinzipiell? | Dekorrelation bewirkt eine stark ungleichmäßige Verteilung der Wahrscheinlichkeiten, mit denen Quellenereignisse auftreten. |
12. Welche zwei Verfahren werden in der Praxis häufig eingesetzt, um eine möglichst kleine Entropie zu erreichen? | Prädiktive Codierung Transformationscodierung |
12. Ist die Vorgehensweise, bei der eine möglichst kleine Entropie erreicht wird, prinzipiell verlustfrei oder verlustbehaftet? | Verlustfrei |
12. Wann treten bei der Vorgehensweise, in der eine möglichst kleine Entropie erreicht wird, Verluste auf, wann nicht? | Wird das Ergebnis der Dekorrelation anschließend quantisiert, treten Verluste auf. Dekorrelation ist irrereversibel. |
13. Erklären Sie den Unterschied zwischen linearer & nichtlinearer Quantisierung. Was kann hierbei adaptiv an die jeweilige Situation angepasst werden & was wird damit erreicht? | Lineare Quantisierung: Rundung des Signals in gleich große Stufen Nichtlineare Quantisierung: Dynamische Rundung des Signals in unterschiedlich große Stufen Die nichtlineare Kennlinie kann adaptiv der jeweiligen Situation angepasst werden, so dass je nach Größe des aktuellen Datenaufkommens gröber oder feiner quantisiert wird. |
14. Stellen Sie eine mögliche Schrittfolge bei der Kompression anhand einer Skizze dar. Erläutern Sie jeden dargestellten Schritt kurz. | 1. Erzeugung Analoge Daten 2. Digitalisierung mit verschiedenen Methoden 3. Ungleichmäßige Verteilung Informationen mit Dekorrelation 4. Codierung einzelner Informationen mit Optimalcode 5. Komprimiertes Ergebnis |
14. Welche Funktion hat die Dekorrelation im Zusammenhang mit der Kompression? | Dekorrelation ist eine Maßnahme zur Verringerung der Entropie. Sie bietet keinen Kompressionseffekt. |
14. An welcher Stelle tritt die eigentliche Kompression im Zusammenhang mit der Dekorrelation ein? | Ab der Codierung |
14. Wovon hängt die Originaltreue in der Kompression im Zusammenhang mit der Kompression ab? | Ob eine Quantisierung der Dekorrelationsergebnisse durchgeführt & wie viel Verlust dabei zu stärkeren Kompressionen bewusst in Kauf genommen wurde. |
15. Wozu dient ein Optimal-Code? | Sich mit Hilfe von Redundanzreduktion an die Entropie anzunähern. |
15. Welchen bekannten Vertreter des Optimal-Codes kennen Sie? | Shannon-Fano-Verfahren |
15. Was wird durch die Anwendung des Optimal-Codes eigentlich erreicht & was haben Entropie & Dekorrelation damit zu tun? | Dekorrelation wird verwendet um Quellenereignisse ungleichmäßig zu verteilen, damit ist die Entropie kleiner -> weniger Codewörter zu codieren -> weniger Daten zu speichern => Kompression |
16. Erläutern Sie die Arbeitsweise des RLE Kompressionsprinzips. | Mehrere aufeinander folgende Informationen haben denselben Inhalt. Stellt man fest, wie oft sich dieser Inhalt wiederholt, entsteht eine weitere Information. Speichert man 1x den Inhalt & 1x die Information, wie oft sich der Inhalt wiederholt, entsteht dadurch ab 3 Wiederholungen des Inhalts eine Kompression. |
16. Ab wann tritt bei der Arbeitsweise des RLE in der Praxis eine Einsparung an der Datenmenge auf? | Wenn mindestens 4 aufeinander folgende Inhalte identisch sind. |
16. Für welche Art von zu komprimierenden Vorlagen eignet sich das RLE Prinzip gut? Für welche weniger? Warum? | Computergrafiken oder Faxvorlagen besitzen in der Regel weniger unterschiedliche Farben, sodass viele Inhalte identisch zu Nachfolgenden sind. Bei natürlichen Bilder ist dies nicht der Fall, da durch verschiedene Einflüsse wie z.B. Licht oder Digitalisierung dazu führen, dass die aufeinanderfolgenden Farben sehr unterschiedlich sein können. |
17. Was verstehen Sie unter statistischer Codierung & was wird damit erreicht? Nennen sie einen typischen Vertreter für dieses Verfahren. | Ordnet man dem häufigsten Wert ein kurzes Codewort zu & den weniger häufigen zunehmend längere Codeworte, lässt sich damit eine Einsparung von Daten gegenüber dem Zustand erreichen, bei welchem allen Werten gleich lange Codeworte zugeordnet sind. Ist das Verfahren optimal durchgeführt worden, ist ein Optimal-Code entstanden & die Redundanz beseitigt. Nur die Entropie bleibt übrig Shannon-Fano-Verfahren |
18. Entwickeln Sie den Huffman-Code für ein Bild mit 6 Graustufen von unterschiedlicher Häufigkeit: C 0,09 / A 0,18 / B 0,08 / D 0,02 / F 0,62 / E 0,01 | |
19. Welche 3 unterschiedlichen Möglichkeiten kennen Sie, die Häufigkeitsverteilung bei einer statistischen Kodierung zu berücksichtigen? Nennen Sie alle 3 Möglichkeiten & erklären Sie jede Nennung kurz | Statisch: Aus zuvor ermittelten Tabellen werden die Werte der Häufigkeiten entnommen Dynamisch: Häufigkeiten werden ermittelt, indem die Daten zuerst gelesen & analysiert werden Adaptierend: Es wird von bestimmten, willkürlichen Häufigkeitsverteilungen ausgegangen. Diese Annahmen werden ständig den tatsächlichen Gegebenheiten angepasst. |
20. Erläutern Sie die prinzipielle Arbeitsweise des LZW Kompressionsverfahrens. | Das Verfahren basiert auf der Suche nach sich wiederholenden Zeichenketten & deren Ersetzung durch einen Verweis auf die jeweils identische Zeichenfolge. Dazu wird eine Zuordnungstabelle angelegt, in der die Verweise gespeichert werden. |
20. Zu welcher grundlegenden Klasse von Kompressionsverfahren gehört LZW? | verlustfrei |
20. Wofür wird LZW häufig eingesetzt? Nennen Sie gängige Anwendungsbeispiele. | Bilddatenkompression: GIF & PNG |
21. Erläutern Sie das Verfahren der Differenzbildung im Zusammenhang mit Kompression. Wie wird vorgegangen? | Bildung von Differenzwerten zwischen aufeinanderfolgenden Daten. Liest man ein natürliches Bild zeilenweise aus & bildet die Differenz zwischen benachbarten Pixeln, kann diese im Anschluss mit weniger Stufen quantisiert werden als Helligkeitswerte, ohne dass ein Fehler auftritt. Das liegt daran, dass bei natürlichen Bildern zwischen benachbarten Pixeln keine starken Sprünge auftreten. |
21. Ist das Verfahren der Differenzbildung prinzipiell verlustfrei oder verlustbehaftet? | verlustfrei |
21. Wozu kann die Differenzbildung neben der Kompression noch eingesetzt werden? | Zur Dekorrelation |
22. Wie sollte man verlustbehaftete Kompressionsverfahren eigentlich korrekter bezeichnen & warum? | Als Reduktionsverfahren, da der Datenbestand durch sie irreversibel reduziert wird. |
23. Was wird im Rahmen der verlustbehafteten Kompression bewusst unterschritten? | Die Entropie |
23. Was wird bei der verlustbehafteten Kompression entfernt? | Die relevanten Daten |
23. Wann stellt die verlustbehaftete Kompression eine Beeinträchtigung der subjektiv wahrgenommenen Qualität dar, wann nicht? | Wenn menschliche Wahrnehmungsschwellen überschritten werden. |
23. Warum stellt die verlustbehaftete Kompression eine Beeinträchtigung der subjektiv wahrgenommenen Qualität dar? | Weil die relevante Information fehlt |
24. Wie funktioniert die Technik der “eigenen Farbtabelle” zur Kompression von Grafiken in 24-Bit prinzipiell? | Die Anzahl der verwendeten Farben wird reduziert. |
24. Was wird dabei durch das “Dithering” erreicht & wie arbeitet dieses genau? | Bei Dithering simulieren mehrere benachbarte Pixel gemeinsam einen Farb- oder Grauton, der nicht in der Farbtabelle enthalten ist. Seltene Farben, die in der Farbtabelle nicht enthalten sind, werden durch Dithering angenähert. |
24. Was wird durch Dithering gezielt reduziert, was scheinbar erhöht? | Durch Dithering wird gezielt die Ortsauflösung zugunsten der Farbauflösung reduziert, für das Auge scheinbar erhöht. |
25. Erläutern Sie den Begriff “Colour Subsampling”. Was genau wird darunter verstanden? | Die Ortsauflösung der Farbe wird vom menschlichen Sehsinn weniger gut wahrgenommen, als die Ortsauflösung der Helligkeit. Dies hat direkt mit der Anzahl der Stäbchen & Zapfen auf der Netzhaut zu tun. Es bietet sich an, zur verlustbehafteten Kompression die Ortsauflösung der Farbe gezielt zu reduzieren, während man die volle Ortsauflösung der Helligkeit beibehält. Colour- Subsampling ist ein Beispiel dafür, wie unter unter Berücksichtigung anatomischer & psycho-visueller Erkenntnisse eine verlustbehaftete Datenreduktion so durchgeführt werden kann, dass trotz deutlicher Einsparung die Qualität nicht oder kaum leidet. |
25. Wie wird beim “Colour-Subsampling” vorgegangen? | Zusammenfassen der Farbinformation mehrerer Pixel |
25. Warum bemerkt unser Sehsinn den Effekt eines moderaten Colour-Subsampling kaum? | Unser Sehsinn kann farbinformationen örtlich weniger gut auflösen als Helligkeitseindrücke |
25. Was genau bedeutet 4:1:0? | Breite der Zusammengefasseten Pixel = 4 Farbinforamtion für Reihe 1 = 1 Farbinformation für Reihe 2 = 0 |
26. Wie funktioniert Subband-Coding prinzipiell? | In unempfindlichen Teilbändern können etliche Daten im Rahmen der verlustbehafteten Kompression eingespart werden, indem die Auflösung gezielt reduziert wird, während in empfindlichen Teilbändern die volle Auflösung beibehalten wird. |
26. Warum kann Subband-Coding eingesetzt werden & was hat dies mit der menschlichen Wahrnehmung zu tun? | Die menschlichen Sinne sind für Informationen in verschiedenen Frequenzbereichen des Wahrnehmungsspektrums teilweise sehr unterschiedlich empfindlich. Für hohchfrequente Anteile ist unser Sehsinn eher unempfindlich. |
26. Wo wird Subband-Coding eingesetzt? x | - |
26. Geben Sie für Subband-Coding je ein Beispiel für den visuellen & auditiven Bereich an. x | - |
27. Was bedeutet DCT? | Diskrete Cosinus Transformation |
27. Beschreiben Sie kurz die Anwendung einer DCT auf ein digitales Bild. Zählen Sie die einzelnen Schritte auf & erklären Sie jeden Schritt kurz. An welcher Stelle tritt die eigentliche Kompression ein? | Ein digitales Bild wird zunächst in quadratische Blöcke aufgeteilt, die je 64 px umfassen. Mit Hilfe einer feststehenden DCT-Matrix wird dann Block für Block in den Frequenzbereich transformiert. Dabei treten grobe Bilddetails als tiefere & feine Bilddetails als höhere Frequenzen in Erscheinung. Betrachtet man jeden Block des Bildes jeweils als Bildpunkt-Matrix, so kann man sagen, dass für alle Makro-Blöcke des Bildes die jeweilige Bildpunkt-Matrix mit Hilfe einer Transformations-Matrix jeweils in eine Ergebnis-Matrix transformiert wird. Die Ergebnis-Matrix ist so aufgebaut, dass links oben in der Ecke stets der DC-Wert liegt. In den übrigen Feldern von links oben nach rechts unten mit jeweils steigender Frequenz, liegen 63 AC-Werte in einer zickzack-artigen Reihenfolge. Im nächsten Schritt wird mit Hilfe der DCT jeweils blockweise eine gewichtete Quantisierung durchgeführt. Bei dieser gewichteten Quantisierung werden viele Koeffizienten zu null. Ab diesem Schritt arbeitet die Transformationscodierung nicht mehr verlustfrei. Im nächsten Schritt wird die quantisierte Ergebnis-Matrix |
27. In welchen bekannten Kompressionsstandards wird die DCT eingesetzt? | JPEG & MPEG |
28. Was bedeutet DPCM? | Differenz-Pulsecodemodulation |
28. Wann arbeitet die DPCM verlustfrei & wann verlustbehaftet? | Werden die Prädiktionsfehler völlig unqantisiert gespeichert oder übertragen, kann das Original perfekt rekonstruiert werden. Die DPCM arbeitet dann verlustfrei. Erst durch die gewichtete Quantisierung der Prädiktionsfehler wird die DPCM zu einem stark komprimierenden Verfahren. Allerdings arbeitet sie dann verlustbehaftet. |
28. In welchen bekannten Kompressionsstandards wird die DPCM eingesetzt? | MPEG |
28. Welche Funktion hat DPCM dabei neben der eigentlichen Kompression? | Dekorrelation |
29. Erklären Sie kurz das Prinzip der prädiktiven Codierung anhand ihres Einsatzes in der DPCM. Was wird dabei eigentlich nur vom Sender zum Empfänger übertragen (bzw. gespeichert)? | Es werden nur Unterschiede zwischen aufeinander folgenden Informationen anstelle der Informationen selbst erfasst. Dies geschieht, indem aus einem oder mehreren vorangegangenen Werten auf der Seite des Senders im Encoder ein Vorhersagewert gebildet wird - Prädiktionswert. Dieser wird vom aktuellen Signalwert abgezogen. Dabei entsteht eine Differenz - Prädiktionsfehler. Dieser wird anstelle der eigentlichen Informationen gespeichert oder übertragen. |
29. Wie wird aus DPCM auf Empfängerseite das Original rekonstruiert? | Man errechnet aus Referenz- & Differenzwerten die ursprünglichen Daten. |
30. Erklären Sie kurz den Unterschied zwischen einer Open-loop-DPCM & einer Closed-loop-DPCM. | Eine Open-Loop-DPCM ist verlustfrei, die Closed-Loop-DPCM ist verlustbehaftet |
30. Wieso ist in bestimmten Fällen eine Closed-loop-DPCM nötig? x | - |
30. Wann reicht auch eine Open-loop DPCM? | wenn verlustfreie Kompression ausreichend ist |
31. Erklären Sie die Unterschiede zwischen Intrafield-, Intraframe-, Interfield & Interframe-DPCM bei Anwendung auf digitale Videosequenzen. | Intrafield: Prädiktor gewinnt seine Werte aus dem aktuellen Halbbild. Intraframe: Prädiktor gewinnt seine Werte aus dem aktuellen Vollbild. Ein Halbbildspeicher ist nötig. Interfield: Prädiktor gewinnt seine Werte aus den Halbbildern mehrerer aufeinander folgender Vollbilder. Mehrere Halbbildspeicher sind nötig. Interframe: Prädiktor gewinnt seine Werte aus mehreren aufeinander folgenden Vollbildern. Mehrere Vollbildspeicher sind nötig. |
31. Welchen grundsätzlichen Vorteil bieten “Inter-“ Varianten gegenüber “Intra-“ Varianten im Hinblick auf den damit maximal erreichbaren Kompressionsfaktor? Woran liegt dies genau? | Inter-Varianten können mehrere Bilder zusammenfassend komprimieren, während sich intra-Varianten nur auf den Frame anwenden lassen, in dem sie komprimieren. Tauchen ähnliche Frames hintereinander auf, komprimieren inter-Varianten besser. |
32. Wozu dient Bewegungsschätzung & wie wird sie durchgeführt? | Dient dazu, die Bereiche im Video zu erkennen, die sich zwischen 2 aufeinander folgenden Bildern geändert oder sich nicht geändert / nur verschoben haben. |
32. Erklären Sie kurz das Prinzip des Blockmatching. Was wird auf diese Weise gewonnen? | Das Bild wird in quadratische Blöcke aufgeteilt, jeder Block kann sich nur um ein gewisses Maß in x- & y-Richtung verschieben. Es ergibt sich ein Suchbereich, in dem jeder Block mit dem Vorgängerbild verglichen wird. Differenzen werden summiert. Hat der Block den Suchbereich durchlaufen, werden die Summen verglichen. Die Position mit der geringsten Summe wird als gesuchte Position angesehen & ihre Verschiebungswerte als Vektoren gespeichert. ist der Block an der selben Stelle geblieben, wird der Vektor 0. Wird keine geringe Summe gefunden, hat sich der Inhalt des Bildes sehr verändert & muss neu übertragen werden. Mit allen Verschiebungs-Vektoren wird eine ungefähre Konstruktion des neuen Bildes erzeugt - bewegungskompensiertes Bild. Löcher, die an Stellen entstehen, wo Blöcke verschoben wurden, werden mit Material aus dem alten Bild gefüllt. |
32. Was wird beim Blockmatching übertragen (bzw. gespeichert)? | Block & Vektor, mit denen verschoben wird. |
33. Auf der Nutzung welchen Phänomens beruht das Prinzip der fraktalen Kompression? | Nutzung von Selbstähnlichkeiten im Bild zur Datenverringerung. |
33. Erklären Sie kurz das Prinzip der fraktalen Kompression | Kompression durch eine Folge von Strukturregeln - affine Transformation & abstrahiert weitgehend von Pixel-Repräsentationen der Bildinhalte. |
33. Welche Vorteile bietet die fraktale Kompression gegenüber herkömmlichen Verfahren, wie DCT oder DPCM? | Fraktal komprimierte Bilder sind auflösungsunabhängig & können bei Dekompression auf eine beliebige Größe gebracht werden, da sie durch eine eine Folge mathematischer Formeln beschrieben werden, ähnlich zu Vektoren. Es sind sehr hohe Kompressionsfaktoren erreichbar, da die Formeln weniger Bits zu ihrer Codierung benötigen als einzelne Pixelwerte. |
34. Worauf beruht die Wavelet-Kompression? | Auf der Rekursion |
34. Erläutern Sie kurz das generelle Prinzip der Wavelet-Kompression | Die Wavelet-Transformation verwendet kompakte Schwingungen - Wavelets. Deren Muster ist ein Mutter-Wavelet, bei dem das Wavelet-Signal aus gedehnten, gestauchten & verschobenen Versionen des Mutter-Wavelet zusammengesetzt ist. |
34. Welchen deutlich sichtbaren Vorteil bietet Wavelet-Kompression gegenüber DCT-basierten Verfahren bei der Bilddatenkompression (speziell bei hohen Kompressionsfaktoren)? | Keine Blockbildung auch bei niedrigen Datenmengen |
35. Was verstehen Sie unter einem Codec? | Konkrete praxistaugliche Lösungen, die die Kompression & Dekompression von Daten bewerkstelligen. |
35. Skizzieren Sie schematisch den allgemeinen Aufbau eines Codecs & bezeichnen Sie die einzelnen Bestandteile Ihrer Skizze aussagekräftig. |
-
Image:
Codec (binary/octet-stream)
|
35. Welchen Vorteil bietet die Nutzung von spezialisierter Hardware beim Einsatz von Codecs? | Codecs, die spezialisierte Hardware nutzen, arbeiten wesentlich schneller als solche, die rein auf Software basieren. |
35. Welche andere Lösung gibt es zum Einsatz von Codecs? | Software |
35. Nennen Sie jeweils Vorteile & Nachteile beim Einsatz von Codecs | Software ist langsam, aber einfach anzupassen. Hardware ist schnell, aber starr & umständlich anzupassen |
36. Erläutern Sie die Vorgehensweise bei der Kompression nach dem JPEG-Standard. Zählen Sie dazu die 5 typischen Schritte auf & erläutern Sie jeden kurz. | 1. Bilddaten werden einem Colour-Subsampling zwischen 4:4:4 & 4:1:1 unterzogen. 2. Blockbildung in 8x8 px pro Block 3. DCT 4. Quantisierung, meist 64 Stufen 5. Huffman-Codierung |
36. Welcher Schritt gehört eigentlich nicht zum JPEG-Standard? | Schritt 1 gehört nicht zum JPEG-Standard |
36. Was ist der progressive Modus von JPEG & was bewirkt er bei der Dekodierung? | Es werden zuerst die gröberen, niederfrequenten Anteile eines Bildes & danach immer feinere Details auf Basis der DCT kodiert. Beim Dekodieren erscheint das Bild zunächst grob. Die feineren Bilddetails kommen nach & nach dazu. |
37. Welches sind die 3 wesentlichen Vorteile des neuen JPEG 2000 Standards gegenüber dem alten JPEG Standard? | 1. Wesentlich bessere Qualität bei sehr hohen Kompressionsraten 2. Vereint verlustlose & verlustbehaftete Komprimierung in einem Format 3. JPEG-2000-Bilder können im Browser progressiv geladen werden, - auflösungsabhängig, qualitätsabhängig, positionsabhängig. |
37. Worauf sind diese Vor- & Nachteile im Wesentlichen zurückzuführen? | Der Datenstrom ist so angelegt, dass niedrige Qualitätsstufen des Gesamtbildes leicht zugänglich sind. Weniger wichtige Bilddaten stehen am Ende des Datenstroms & werden bei höherer Kompression abgeschnitten. Niedrige Auflösungen lassen sich aus dem selben Datenstrom gewinnen, sodass nicht 4 Bilder in 4 Auflösungen generiert werden müssen. Bilder müssen nur 1x in der höchsten Qualität & Auflösung gespeichert werden. |
38. Nennen Sie bitte die Schrittfolge bei der Kompression im Rahmen des PNG-Formats im Überblick. | 1. Interlacing 2. Dekorrelation durch einfache Prädiktion & Differenzbildung 3. Entropie-Codierung mit Deflate |
38. Gehen Sie auf die einzelnen Schritte bei der Kompression im Rahmen des PNG-Formats etwas genauer ein, was die jeweils verwendeten Verfahren & deren Zweck angeht. | Interlacing: Umsortierung Reihenfolge Pixel-Werte. Ist optional & kann zugunsten höherer Kompression abgeschaltet werden. Adam7-Algorithmus gibt die Reihenfolge in 8x8 px vor. Um für die Entropiecodierung möglichst viele gleiche Werte zu erhalten, wird auf einfache Prädiktionsfilter zurückgegriffen, die vorhersagen, welchen Wert das nächste Pixel haben wird. Differenz wird weiterverarbeitet. Bei jeder Bildzeile wird der Prädiktionsfilter neu bestimmt. Es kommt der Filter zum Einsatz, dessen Ausgabe-Datenstrom den kleinsten aufsummierten Wert hat. Deflate-Algorithmus: Zuerst werden nach Lempel-Ziv-Algorithmus doppelt vorkommende Zeichenketten durch Referenzen auf bereits übertragene Informationen ersetzt. Daten werden blockweise mit Huffman codiert. CRC-Summe wird über jeden Block gerechnet & Datenblöcke gemeinsam mit Metadaten-Blöcken in einer Datei abgelegt. |
42. Wofür ist M-JPEG besser geeignet & wofür MPEG? | M-JPEG: lokale Digitalisierung MPEG: Distribution |
43. Welche grundlegenden Kompressionstechniken sind im MPEG-Standard integriert? | DCT Colour-Subsampling Quantisierung Huffman |
43. Wie werden diese dabei kombiniert? x | - |
44. Was ist eine hybride DCT? | Eine Kombination aus DPCM & DCT |
44. Zeichnen Sie kurz das schematische Prinzip auf & bezeichnen Sie die einzelnen Elemente Ihrer Skizze aussagekräftig. | - |
45. Was verstehen Sie unter I-Frames, P-Frames & B-Frames im Zusammenhang mit MPEG? | I-Frames: Verhindern eine zeitliche Verschleppung von Übertragungsfehlern & erzeugen erkennbare Bilder für Vor- & Rücklauf. P-Frames: Beliebig viele Bilder zwischen I-Frames, die durch unidirektionale prädiktive Codierung gewonnen werden. B-Frames: Werden durch bidirektionale Prädiktion aus Vorgänger- & Nachfolger-Bildern gewonnen. Dabei kann es sich um I-Frames & P-Frames handeln. Es kommen vor- & rückwärtsgerichtete Bewegungsvektoren zum Einsatz. |
45. Wieso wird zur Übertragung (bzw. Speicherung) die Reihenfolge der Frames verändert? | P- & B-Frames werden aus I-Frames berechnet. I-Frames werden zuerst aufgeführt. |
45. Welches Problem ergibt sich dadurch bei der Nachbearbeitung (z. B. Schnitt) von MPEG-codiertem Videomaterial & warum? | Alle Frames müssen unabhängig voneinander aufgeführt, also zu I-Frames gewandelt werden. |
46. Welche spezielle Schwierigkeit ergibt sich beim “Schneiden” von MPEG-komprimiertem Videomaterial? | P- & B-Frames werden aus I-Frames berechnet. I-Frames werden zuerst aufgeführt. |
46. Wie kann dieses Problem gelöst werden? | Alle Frames müssen unabhängig voneinander aufgeführt, also zu I-Frames gewandelt werden. |
52. Welche verbesserte statistische Codierung nutzt H.264/AVC (MPEG 4, Part 10) im Vergleich zum Huffman-Verfahren von MPEG 2? | CABAC-Codierung |
52. Beschreiben Sie bitte kurz die unterschiedliche Vorgehensweise von CABAC & deren Vorteile. | CABAC nutzt verschiedene Wahrscheinlichkeitsmodelle für die Vorhersage von Bitcodes, um die Redundanz in der codierten Bitfolge zu verringern & kann sich an verschiede statistische Verteilungen von Bitcodes besser anpassen als das bei MPEG 2 verwendete Huffman-Verfahren. |
53. Für welchen Zweck wurde das DV-Kompressionsverfahren optimiert? | Aufzeichnung komprimierter digitaler Videodaten auf Magnetband. |
53. Welche Aspekte sind für diesen Zweck besonders wichtig & warum? | Der komprimierte Datenstrom muss eine konstante Datenrate haben, die nicht unter- oder überschritten wird, unabhängig von der Komplexität der dargestellten Szene. Jeder komprimierte Frame muss eine konstant fixe Datenmenge haben, unabhängig vom Bildinhalt. |
53. Wie löst das DV-Verfahren diese Aufgabe im Gegensatz zu allen anderen Verfahren? | Speziell der 2. Aspekt kann von keinem anderen Codec eingehalten werden, da alle mit einer Regelschleife nach dem Prinzip der Rückkopplung arbeiten. |
53. Was kann trotzdem nicht erreicht werden & warum? | Eine gleichbleibende Qualität |
54. Wie geht das DV-Verfahren mit der Tatsache um, dass Videobilder aus Halbbildern aufgebaut sind (Zeilensprungverfahren). Erläutern Sie. | Das Verfahren kann die Halbbilder eines Fernsehsignals entweder nur der DCT unterziehen oder zunächst zu Vollbildern zusammenfassen & dann der DCT unterziehen. Die Entscheidung, wann welches Verfahren zum Einsatz kommt, wird von einem Bewegungsdetektor dynamisch getroffen. |
55. Welche verschiedenen Web Videocodecs kennen Sie? (historische Reihenfolge) | 2005:WMV9, VC-1 2006: VP3, Flash Video, VP6, OGG Theora, VP7 2008: On2, h.264, VP8, Skype, x264 2012: VP9, Thor 2015: Daala 2016: h.265, x265 2017: AV1 2018: JEM |
55. Nennen Sie zum Schluss bitte die 2 aktuellsten Vertreter. | AV1, HEVC |
Want to create your own Flashcards for free with GoConqr? Learn more.