Die Wavelet-Transformation hat sich als sehr leistungsfähig bei der Kompression von Bilddaten herausgestellt.
Aufbauend auf einen bereits existierenden Codec für Graustufenbilder wird ein Algorithmus für Farbbilder entwickelt und anhand verschiedener Bilder untersucht.
Es werden die gebräuchlichsten Farbraum-Modelle erläutert und in Form von Khoros-Modulen für beliebige Konvertierungen untereinander implementiert. Das IHS-Modell wird modifiziert und in die Untersuchungen einbezogen.
Anschließend wird die Eignung der Farbräume YUV, IHS bzw. YCS für den erstellten Codec geprüft.
Von dem Umstand ausgehend, daß Farbinformationen stärker fehlerbehaftet sein dürfen als Helligkeitsinformationen, werden verschiedene Quantisierungen der 3 Bildkomponenten auf Codierungsgewinne hin untersucht. Hierzu werden zusätzlich im Vorfeld die standardisierten Unterabtastungsverfahren erläutert, implementiert und zu den Versuchen hinzugezogen. In Erweiterung der Überabtastung wird ein Mittelungs-Verfahren definiert, welches seine Tauglichkeit zu beweisen hat.
Die Untersuchungsergebnisse werden benutzt, um optimale Bedingungen für den Codec zu erzeugen. Dieser wird dann mit der JPEG-Kompression praktisch verglichen.
Inhaltsverzeichnis
1 Einführung
1.1 Allgemeines
1.1.1 Betrachtungen zum Begriff „ Farbe“
1.1.2 Das additive Farbmischverfahren
1.1.3 Das subtraktive Farbmischverfahren
1.2 Thematischer Hintergrund und Zielstellung
2 Grundlagen
2.1 Qualitätsberwertung in der Bildverarbeitung
2.1.1 Objektive Qualitätsparameter
2.1.2 Subjektive Qualitätsbestimmung
2.2 Color-Subsampling Formate
2.2.1 Modus 4:4:
2.2.2 Modus 4:2:
2.2.3 Modus 4:1:
2.2.4 Modus 4:2:0 nach MPEG-I
2.3 Farbraum-Transformationen
2.3.1 Der RGB-Farbraum
2.3.2 Der YUV-Farbraum
2.3.3 Der YIQ-Farbraum
2.3.4 Der YCbCr -Farbraum
2.3.5 Der IHS-Farbraum
2.3.5.1 Transformation von RGB-Daten in den IHS-Raum
2.3.5.2 Rücktransformation der IHS-Daten in den RGB-Farbraum
2.3.6 Entwicklung des YCS-Farbmodells
2.3.6.1 Transformation von RGB-Daten in den YCS-Farbraum
2.3.6.2 Rücktransformation der YCS-Daten
2.4 Skalierungen in den RGB-Wertebereich
2.4.1 YUV-Modell
2.4.2 YCS- und IHS-Modell
2.4.3 YCbCr -Modell
2.4.4 YIQ-Modell
2.5 Dyadische Wavelet-Transformation
3 Khoros-Module
3.1 Zum Umgang mit Khoros-Workspaces
3.2 Software-Voraussetzungen
3.3 Bemerkungen zu Zahlendarstellung und Genauigkeit
3.4 Konverter-Modul: convert2kdf
3.5 Subsample- und Upsample-Modul
3.5.1 Erläuterungen zum C-Code: sub(up)sample.c
3.5.2 Erläuterungen zur Bibliothek: lsub(up)sample.c
3.5.3 Erläuterungen zur Bibliothek: lsample modi.c
3.6 Module zu Farbraum-Transformationen
3.6.1 YIQ-Module zur Hin- und Rücktransformation
3.6.1.1 Erläuterungen zum C-Code: rgb2yiq.c und yiq2rgb.c
3.6.1.2 Erläuterungen zu den Bibliotheken: lrgb2yiq.c und lyiq2rgb.c
3.6.2 IHS-Module zur Hin- und Rücktransformation
3.6.3 YCS-Module zur Hin- und Rücktransformation
3.7 Das Statistik-Modul
3.8 Das Quantisierungs-Modul
3.8.1 Quantisierung im Wavelet-Bereich
3.9 Wavelet-Module
3.9.1 dwt_color
3.9.2 idwt_color
3.10 Codec-Module
3.10.1 e_saWave_color
3.10.1.1 Programmablauf
3.10.1.2 Einhaltung der Qualitätsparameter: Bitrate, PSNR
3.10.1.3 Realisierung unterschiedlicher Quantisierungen
3.10.2 d_saWave_color
4 Untersuchungen zur Bilddatenreduktion
4.1 Unter- und Überabtastung
4.1.1 Abtastung ohne MW-Modus
4.1.1.1 YUV-Farbraum
4.1.1.2 IHS-Farbraum
4.1.1.3 YCS-Farbraum
4.1.2 Überabtastung mit MW-Modus
4.1.2.1 YUV-Farbraum
4.1.2.2 IHS-Farbraum
4.1.2.3 YCS-Farbraum
4.1.3 Erzielte Ergebnisse
4.1.3.1 Empfehlung
5 Praktische Codierung
5.1 Durchgeführte Untersuchungen
5.1.1 YUV-Farbraum
5.1.2 YCS- und IHS-Farbraum
5.2 Vorzeitiger Abbruch des Bitstromes
6 Zusammenfassung
6.1 YUV-Farbraum
6.2 YCS- und IHS-Farbraum
6.3 Leistung des Wavelet-Farbcodec
6.4 Erzielte Ergebnisse
6.5 Ausblick
7 Vorschläge zu weiteren Optimierungen
7.1 Ähnlichkeit der Bildkomponenten
7.2 Programm-Effzienz
7.3 Codierungs-Algorithmus
7.4 Codierung im YCS-Raum
Thesen
Literaturverzeichnis
A Daten und Workspaces
A.1 Verwendete Symbolik zu Abschnitt
A.2 Unterabtastungs-Modi zu Abschnitt
A.3 Beispiel-Workspaces
A.3.1 YUV-Transformation mit Modulen der Color-Toolbox
A.3.2 Codierung im YUV-Raum
A.3.3 JPEG-Schleife
A.4 Entwickelte Prozeduren (Cantata)
A.4.1 Import Image
A.4.2 Diff_3_Band
A.4.3 Show_3_Bands
A.4.4 Info
A.5 Daten der Referenzbilder
Erklärung
Abbildungsverzeichnis
2.1 Datenreduktion der Subsampling Formate
2.2 Pixelrekonstruktion im Modus 4:2:2
2.3 Pixelrekonstruktion im Modus 4:11:
2.4 Pixelrekonstruktion im Modus 4:2:0
2.5 RGB-Einheitswürfel [4, S. 226]
2.6 IHS-Triangle [4, S. 230]
2.7 IHS-Solid [4, S. 230]
2.8 RGB-Würfel und IHS-Farbkreis
2.9 IHS-Triangle for calculations [4, S. 232]
2.10 Transformation eines 2D-Signals [14]
3.1 Modul: Sub- und Upsampling
3.2 Modul Sub- und Upsampling: Programmablauf
3.3 Modul YIQ:Programmablauf der a) Hintransformation b)Rücktransformation
3.4 Modul YIQ: Struktur der Bibliothek lrgb2yiq()
3.5 Modul: Statistik
3.6 explizite Quantisierung
3.7 Modul: Quantisierung
3.8 Ablauf der Quantisierung
3.9 Modul: dwt_color
3.10 Modul: e_saWave color
3.11 Abbruch der Codierung zur Einhaltung einer konstanten Bitrate
3.12 Zusammenhang zwischen Intervallbreite und Quantisierungsfehler
4.1 Auswertung der Untersuchungen zur Unterabtastung
4.2 Zusammenfassung der durch Unterabtastung ermittelten Daten aller untersuchten Bilder
4.3 Unterabtastung im YUV-Modell
4.4 Unterabtastung im IHS-Modell
4.5 Unterabtastung im YCS-Modell
4.6 Vergleich der Unterabtastung im a) IHS- bzw. b) YCS-Farbraum
4.7 Unterabtastung im YUV-Modell, MW-Mode
4.8 Unterabtastung im IHS-Modell, MW-Mode
4.9 Unterabtastung im YCS-Modell, MW-Mode
5.1 Auswirkung verschiedener Faktoren bei Codierung: Y-Ebene, Bild: calibration.kdf
5.2 Auswirkung verschiedener Faktoren bei Codierung: U-Ebene, Bild: calibration.kdf
5.3 Auswirkung verschiedener Faktoren bei Codierung: V-Ebene, Bild: calibration.kdf
5.4 Kompressionsraten bei Codierung: Y-Ebene, Bild: calibration.kdf
5.5 Kompressionsraten bei Codierung: U-Ebene, Bild: calibration.kdf
5.6 Kompressionsraten bei Codierung: V-Ebene, Bild: calibration.kdf
5.7 Beispiel zu Farbfehlern im YUV-Raum (Bitrate: 0.3 bpp) bei Faktor: a) 1 b)
5.8 Rotfehler im YCS- und IHS-Farbraum ohne Quantisierung: a) Original b) unterabgetastet und Wavelet-transformiert
5.9 Ausweitung der Fehler im YCS-Farbraum mit Quantisierung (4:1:1-Unterabtastung, Bitrate: 0.5 bpp, Faktoren: C: 1, S: 6)
6.1 Leistung des Wavelet-Farbcodec (Bild: calibration.kdf)
6.2 Leistung des Codec: Y-Ebene
6.3 Leistung des Codec: U-Ebene
6.4 Leistung des Codec: V-Ebene
6.5 Bitrate: 0.192 bpp bei a) Wavelet- und b) JPEG-Codierung
A.1 verwendete Symbolik zu Abschnitt
Tabellenverzeichnis
2.1 YUV-Skalierung
2.2 YCS- und IHS-Skalierung
2.3 YIQ-Skalierung
5.1 Praktische Codierung im YCS-Raum
5.2 vorzeitiger Abbruch des Bitstromes
Kapitel 1
1 Einführung
1.1 Allgemeines
1.1.1 Betrachtungen zum Begriff „ Farbe“
„ Farbe ist diejenige Gesichtsempfindung eines dem Auge strukturlos erscheinenden Teiles des Gesichtsfeldes, durch die sich dieser Teil bei einäugiger Beobachtung mit unbewegtem Auge von einem gleichzeitig gesehenen, ebenfalls strukturlosen angrenzenden Bezirk allein unterscheiden kann.“ [8, Bl. 1]
„ Für den Menschen ist elektromagnetische Strahlung mit einer Wellenlänge zwischen 380nm (Violett) und 780nm (Rot) sichtbar.“ [9, S. 175]
„ In der Netzhaut des Auges sind die sogenannten Stäbchenzellen und drei verschiedene Zäpfchenzellen eingebettet. Die Stäbchenzellen sind als Träger des Dämmerungssehens und die Zapfen als Repräsentanten des Tages- und Farbensehens aufzufassen. Es gibt ca. 120 Millionen Stäbchen und 6,5 Millionen Zapfen in der Netzhaut. Die drei verschiedenen Zäpfchenzellen unterscheiden sich in ihrer Fähigkeit, elektromagnetische Strahlung in Informationen umzuwandeln, die das menschliche Gehirn verarbeiten kann. Sie können unterschiedliche Wellenlängen der elektromagnetischen Strahlung umwandeln...
Die jeweilige maximale Empfindlichkeit liegt bei ca. 620 nm, 520 nm bzw. 450 nm. Der Sinneseindruck Rot ist dem Zäpfchentyp mit der maximalen Empfindlichkeit bei ca. 620 nm zugeordnet. Grün ist dem Zäpfchentyp mit der maximalen Empfindlichkeit bei ca. 520 nm und Blau dem Zäpfchentyp mit der maximalen Empfindlichkeit bei 450 nm zugeordnet. Hieraus wird ersichtlich, daß Farbe keine Eigenschaft eines Körpers ist, sondern der Sinneseindruck, der entsteht, wenn auf das Auge elektromagnetische Strahlung einer gewissen Wellenlänge trifft...
Auf der Grundlage, daß es drei verschiedene Zäpfchentypen in der Netzhaut des Menschen gibt, deren Empfindlichkeiten den drei Grundfarben Rot, Grün und Blau zugeordnet werden können, ist es möglich, Gesetzmäßigkeiten zu formulieren. Diese Gesetzmäßigkeiten ermöglichen es, aus diesen drei Grundfarben alle Farben herzuleiten. Zur Zeit sind über zehn verschiedene Farbmischgesetze bekannt...“ [6]
1.1.2 Das additive Farbmischverfahren
„ Beim additiven Farbmischverfahren wird durch Addition der drei Grundfarben Rot, Grün und Blau Weiß erzeugt. Das additive Farbmischverfahren muß immer dann angewendet werden, wenn Licht direkt - ohne Relexion durch einen Gegenstand - in das Auge gelangt.
Durch Mischen von Rot und Grün entsteht Gelb, aus Grün und Blau entsteht Cyan und aus Rot und Blau wird Magenta. Wenn alle drei Grundfarben zusammentreffen, entsteht Weiß. Dieses Mischverfahren ist z.B. bei Monitoren und Fernsehern zu finden.“ [6]
1.1.3 Das subtraktive Farbmischverfahren
Beim subtraktiven Farbmischverfahren werden ausgehend von den drei Grundfarben Cyan, Magenta und Gelb die Farben durch Subtraktion oder Filtern gemischt. Subtraktive Farbmischverfahren sind immer dann anzuwenden, wenn die Reflexion von Licht ins Auge gelangt, z.B. bei Farben, die auf Papier aufgebracht werden... Durch Mischen von Cyan mit Magenta entsteht Blau, aus Magenta und Gelb entsteht Rot und aus Gelb und Cyan entsteht Grün. Werden alle drei Grundfarben voneinander subtrahiert, entsteht Schwarz.“ [6]
1.2 Thematischer Hintergrund und Zielstellung
Augrund begrenzter Bandbreiten der Übertragungsmedien, stetig steigendem Wachstum auf dem Kommunikations-Sektor sowie technischer und finanzieller Gegebenheiten ist es notwenig, Bilddaten stark zu komprimieren. Dabei soll auf der Empfängerseite nach Möglichkeit kein Unterschied zwischen der Rekonstruktion und dem Originalbild feststellbar sein.
Die hier angestellten Software-Implementationen[1] und Untersuchungen basieren auf dem von T. Strutz (H. Schwarz, E. Müller) entwickelten Codec zur „Bildcodierung durch hierarchische Prädiktion im Wavelet-Bereich“. Aus den dort angestellten Untersuchungen geht die hervorragende Eignung der Wavelet-Transformation für die Bildcodierung hervor.
Es ist möglich, Farbbilder derart zu kodieren, daß die (3) Farbebenen separat behandelt werden. Hierbei sind keine weiteren Vorteile zu erwarten, da keine Relationen der Ebenen zueinander Beachtung finden.
Der vorhandene Codec bettet sämtliche Bildinformationen in einen Bitstrom ein, der dann übertragen werden kann. Ein Ziel dieser Arbeit ist es, die Informationen der Farbkomponenten[2] in den Bitstrom zu integrieren. Hierbei soll versucht werden, durch eine entsprechende Einbettungs-Strategie[3] eine Optimierung zu erreichen. Diese äußert sich unter anderem darin, daß bei Unterbrechung der Informationsübertragung ein der bis dahin empfangenen Datenmenge äquivalentes Bild zu decodieren ist. Anders ausgedrückt soll das rekonstruierte Bild genau jenem entsprechen, daß bei vollständiger Übertragung eines Bitstromes entstände, welcher über entsprechende Parameter (Bitrate, PSNR) auf die empfangene Datenmenge eingestellt worden wäre.
Im Zuge der Bildverarbeitung wurden einige Farbmodelle entwickelt, welche sich an verschiedenen Erfordernissen orientieren. Diese Modelle stellen eine reversible Transformation der Bildinformationen dar.
Es werden die Modelle YUV, YIQ, YCbCr und IHS in Form von Khoros-Modulen implementiert.
Weiterhin soll versucht werden, durch Änderung des IHS-Modells eine Verbesserung hinsichtlich der erreichbaren Kompression[4] zu erzielen.
Alle Modelle bilden die 3 Farbebenen (Grundfarben: Rot, Grün und Blau) in 3 andersartigen Ebenen ab. Ein bekanntes Beispiel stellt das YIQ-Modell dar, welches in der Fernsehübertragung große Verbreitung gefunden hat. Die Y-Ebene beinhaltet hier die Helligkeitsinformation, welche auf Schwarz-Weiß TV-Geräten dargestellt wird. Farb-TV‘s sind in der Lage, die beiden zusätzlichen Farbkomponenten U und V zusammen mit dem Y-Signal zu decodieren, woraus die Signale der Grundfarben rekonstruiert werden. Diese ergeben bei Addition wieder das ursprüngliche Bild.
Eine erste Möglichkeit zur Steigerung der Effizienz liegt in einer der Transformation vorgeschalteten Unterabtastung, wofür bereits einige Formate standardisiert wurden. Diesen liegt der Umstand zugrunde, daß das menschliche Sehsystem auf Fehler bei Farbinformationen weit weniger empfindlich reagiert, als auf Fehler der Luminanz. Diese Sampling-Modi stellen einen irreversiblen Informationsverlust dar. Innerhalb der wahrnehmbaren Farbwerte sind weitergehende Differenzierungen zu verzeichnen. Beispielsweise fallen Farbverfälschungen im grünen Bereich stärker auf, als Fehler bei roten bzw. blauen Farbanteilen.
Es wird untersucht, ob eine Variation von Quantisierungsparametern zwischen den Bildkomponenten zu weiteren Verbesserungen führt, bzw. welcher der behandelten Farbräume zur Codierung geeignet ist.
[...]
[1] bezüglich Wavelet-Transformation und Bitstrom-Codierung
[2] vorher nur Grauwert-Bilder
[3] keine bloße Aneinanderreihung der einzelnen „ fertigen“ Bitströme
[4] bei gleichbleibender Qualität
- Arbeit zitieren
- Bernd Wolf (Autor:in), 1998, Untersuchungen zur waveletbasierten Kompression von Farbbildern, München, GRIN Verlag, https://www.grin.com/document/76
-
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen.