Beurteilung der Codiereffizienz von neuen Codierverfahren


Diplomarbeit, 2005

299 Seiten, Note: 1,0


Leseprobe


Inhaltsverzeichnis

1. Einleitung

2. Grundprinzipien der Bildcodierung
2.1 Codierung von digitalen Bildern
2.2 Entropiecodierung
2.2.1 Lauflängencodierung
2.2.2 Huffmancodierung
2.2.3 Arithmetische Codierungen
2.3 Quellencodierung
2.3.1 Differentielle Pulsecodemodulation und Prädiktion
2.3.2 Transformationscodierung
2.3.2.1 Prinzip der Transformationscodierung
2.3.2.2 Fourier-Transformation (FT)
2.3.2.3 Wavelet-Transformation
2.3.2.3.1 Wavelets
2.3.2.3.2 Kontinuierliche Wavelet-Transformation
2.3.2.3.3 Diskrete Wavelet-Transformation (DWT)
2.3.2.3.4 Orthogonalität
2.3.2.3.5 Mehrfachauflösung
2.3.2.4 Diskrete Cosinus Transformation (DCT)
2.3.3 Layered Coding
2.3.3.1 Subsampling
2.3.3.2 Subbandcodierung
2.3.4 Quantisierung
2.3.4.1 Vektorquantisierung
2.3.4.2 Skalarquantisierung
2.3.5 Farbmodelle
2.4 Hybridcodierung

3. JPEG2000
3.1 Einleitung
3.2 Eigenschaften
3.3 Implementationen
3.3.1 Verlustfreie und verlustbehaftete Kompression
3.3.2 Wahlfreier Zugriff
3.3.3 Progressive Bilddarstellung - Progressionsarten
3.3.4 ROI-Codierung
3.3.5 Transparenz- und Alphakanäle
3.3.6 Metadaten
3.3.7 Bildschutz
3.3.8 Fehlerrobustheit
3.4 JPEG2000 vs. JPEG
3.5 Aufbau des Codierverfahrens
3.6 Encoder
3.6.1 Bildvorbereitung
3.6.1.1 Bildoffset („Tiling“)
3.6.1.2 DC-Level-Shifting
3.6.1.3 Farbtransformation
3.6.2 Bildverarbeitung
3.6.2.1 Diskrete Wavelet-Transformation
3.6.2.2 Quantisierung
3.6.3 Entropiecodierung
3.6.3.1 Ebene 1 (Tier1-Codierung)
3.6.3.2 Ebene 2 (Tier2-Codierung)
3.7 Decoder

4. H.264
4.1 Einleitung
4.2 Zukünftige Anwendungsmöglichkeiten
4.3 Eigenschaften
4.3.1 Profiles und Levels
4.4 NAL und VCL
4.5 Makroblöcke
4.6 Intra-Frame-Prädiktion
4.7 Langzeitprädiktion
4.8 Bewegungskompensation
4.9 Transformation, Skalierung, Quantisierung
4.10 Entropiecodierung
4.10.1 Variable Length Coding
4.10.2 Context-based Adaptive Binary Arithmetic Coding
4.11 Deblocking-Filter (Loop-Filter)
4.12 Aufbau von H.264/AVC

5. Bildformate
5.1 High- und Standard-Definition
5.2 BMP
5.3 PPM
5.4 RGB
5.5 YUV
5.3 DPX
5.4 RAW
5.5 VIX
5.6 Motion JPEG2000

6. Bewertungskriterien
6.1 Kompressionsfaktor
6.2 Bildsignalqualität
6.3 Subjektive Bewertungsmodelle
6.4 Objektive Bewertungsmodelle

7. Testumgebung
7.1 Testsequenzen
7.1.1 Testbild Barcelona
7.1.2 Testbild Orient
7.2 Werkzeuge
7.2.1 Hardware
7.2.2 Software
7.2.2.1 XnView
7.2.2.2 Nconvert
7.2.2.3 ImageMagick
7.2.2.4 YUVpsnr
7.2.2.5 Objective Image Assessment (O.I.A)
7.2.2.6 Kakadu
7.2.2.7 JasPer
7.2.2.8 BMP2Vix
7.2.2.9 Morgan M-JPEG2000 V3
7.2.2.10 OpenJPEG
7.2.2.11 Motion JPEG2000 Extractor
7.2.2.12 DPXJ2K JPEG2000 Referenz Software
7.2.2.13 H.264/AVC Referenz-Software
7.2.2.14 Hexviewer XVI32

8. SHD ImageTools V1.0
8.1 SHD ImageTools Part1
8.2 SHD ImageTools Part2
8.3 SHD ImageTools Part3

9. Quick HD V1.0
9.1 Quick HD Part1
9.2 Quick HD Part2

10.Testdurchführung und Bewertung
10.1 Analyse des Generationsverhaltens
10.1.1 JPEG2000 auf SD-Basis
10.1.1.1 Testablauf
10.1.1.2 Anwendungsebene mit Codierparameter
10.1.1.3 Messung
10.1.1.4 Testergebnisse
10.1.1.4.1 JPEG2000 Messreihe Barcelona 5/3-Filter
10.1.1.4.1.1 Diagrammanalyse
10.1.1.4.2 JPEG2000 Messreihe Barcelona 9/7-Filter
10.1.1.4.2.1 Diagrammanalyse
10.1.1.4.3 Generationsverhalten JPEG2000 (SD) Messreihe Barcelona 5/3-Filter vs. 9/7-Filter im direkten Vergleich
10.1.2 JPEG2000 auf HD-Basis
10.1.2.1 Testablauf
10.1.2.2. Anwendungsebene mit Codierparameter
10.1.2.3. Messung
10.1.2.4 Testergebnisse
10.1.2.4.1 JPEG2000 Messreihe Orient 5/3-Filter
10.1.2.4.1.1 Diagrammanalyse
10.1.2.4.2 JPEG2000 Messreihe Orient 9/7-Filter
10.1.2.4.2.1 Diagrammanalyse
10.1.2.4.3 Generationsverhalten JPEG2000 (HD) Messreihe Barcelona 5/3-Filter vs. 9/7-Filter im direkten Vergleich
10.1.3 H.264 auf HD-Basis
10.1.3.1 Testablauf
10.1.3.2 Anwendungsebene mit Codierparameter
10.1.3.3 Messung
10.1.3.4. Testergebnisse
10.1.3.4.1 H.264 Messreihe Orient Loop-Filter
10.1.3.4.1.1 Diagrammanalyse
10.1.3.4.2 H.264 Messreihe Orient NoLoop-Filter
10.1.3.4.2.1 Diagrammanalyse
10.1.3.4.3 Generationsverhalten H264 (HD) Messreihe Orient Loop-Filter vs. NoLoop-Filter im direkten Vergleich
10.2 Analyse der Kompressionsverfahren
10.2.1 JPEG2000 auf SD-Basis
10.2.1.1 Testablauf
10.2.1.2 Anwendungsebene mit Codierparametern
10.2.1.3 Messung
10.2.1.4 Testergebnisse
10.2.1.4.1 JPEG2000 Messreihe Barcelona 5/3-Filter
10.2.1.4.1.1 Diagrammanalyse
10.2.1.4.2 JPEG2000 Messreihe Barcelona 9/7-Filter
10.2.1.4.2.1 Diagrammanalyse
10.2.1.4.3 Direkter Vergleich über den Kompressionsfaktor von JPEG2000 (SD) Messreihe Barcelona 5/3-Filter vs. 9/7-Filter..
10.2.2. JPEG2000 auf HD-Basis
10.2.2.1 Testablauf
10.2.2.2 Anwendungsebene mit Codierparametern
10.2.2.3 Messung
10.2.2.4 Testergebnisse
10.2.2.4.1 JPEG2000 Messreihe Orient 5/3-Filter
10.2.2.4.1.1 Diagrammanalyse
10.2.2.4.2 JPEG2000 Messreihe Orient 9/7-Filter
10.2.2.4.2.1 Diagrammanalyse
10.2.2.4.3 Direkter Vergleich über den Kompressionsfaktor von JPEG2000 (HD) Messreihe Orient 5/3-Filter vs. 9/7-Filter
10.2.3 H.264 auf HD-Basis
10.2.3.1. Testablauf
10.2.3.2 Anwendungsebene mit Codierparametern
10.2.3.3 Messung
10.2.3.4. Testergebnisse
10.2.3.4.1 H264 Messreihe Orient Loop-Filter
10.2.3.4.1.1 Diagrammanalyse
10.2.3.4.2 H264 Messreihe Orient NoLoop-Filter
10.2.3.4.2.1 Diagrammanalyse
10.2.3.4.3 Direkter Vergleich über den Kompressionsfaktor von H.264(HD) Messreihe Orient Loop-Filter vs. NoLoop-Filter
10.3 Analyse der Qualitätverluste bei einer Bearbeitung
10.3.1 Testablauf
10.3.1.1 Horizontale Spiegelung auf HD-Basis
10.3.1.2 Farbtausch der RGB-Farbkomponenten auf HD-Basis
10.3.1.3 Adaptive Farben auf SD-Basis
10.3.1.4 Gerasterte Farben auf SD-Basis
10.4 Analyse der Qualitätsverluste bei einer wavelettransformierten und
einer normierten Skalierung
10.4.1 Testablauf bei Skalierung auf DWT-Basis
10.4.2 Testablauf bei normierten Skalierungsgrößen
10.4.3 Messung
10.4.4Testergebnisse und Diagrammanalyse

11. Fazit

Anhang

A1: Literatur- und Quellenverzeichnis

A2: Abkürzungsverzeichnis

A3: Quellcode

A4: Konfigurationsdateien

A5: Batch-Programme

A6: Diagramme

I. Abbildungsverzeichnis

II. Diagrammverzeichnis

III. Tabellenverzeichnis

IV. Gleichungsverzeichnis

1. Einleitung

Der Ausspruch „Ein Bild sagt mehr als tausend Worte“ ist die beste Umschreibung der Bedeutsamkeit des Mediums der Bildkommunikation. Dieses Medium besitzt wie kein anderes einen nachhaltigen Einfluß auf Meinungsbildung, geistige Entwicklung und Erziehung. Die heutigen revolutionären Errungenschaften auf dem Gebiet der Kino- und Fernsehunterhaltung zeichnen sich durch die Möglichkeiten der neuen Digitaltechnik ab. Durch das Zusammenführen der Fernseh- und Computertechnik entstehen völlig neue Kommunikationsformen.

Die bisherigen Kommunikationsformen in der digitalen Fernsehtechnik waren mit einem sehr großen Aufwand an Datentransfer verbunden. Die rasante Entwicklung von Speicher- und Übertragungsmedien stößt in der praktischen Anwendung oft an Leistungsgrenzen. Die Technologien zur effizienten Datenkompression werden immer wichtiger. Neben den technischen Aspekt spielt der enorme Datentransfer im Betrieb und in der Unterhaltung einen nicht gerade unerheblichen Kostenfaktor. Das ständige Bestreben der Kostenminimierung führt dazu, dass es sehr viele hoch entwickelte Bildverarbeitungstechniken gibt, die zu einer sehr effektiven Codierung der Bild- und Videodaten führen. Das grundlegende und gemeinsame Ziel der Bildverarbeitungstechniken ist neben der Skalierbarkeit und Fehlerkorrektur die Datenkompression. Durch die Reduktion der Datenmenge können weniger leistungsfähige Rechenumgebungen und Übertragungswege in die Netzwerke der Bildübertragung integriert werden. Die stetig wachsende Rechenleistung der modernen Computertechnik ermöglicht den Einsatz dieser Algorithmen auch in Echtzeitanwendungen. Bei vielen Anwendungen, in denen Bild- und Videobearbeitungsverfahren zum Einsatz kommen, ist eine strenge Standardisierung der verwendeten Methoden und Formate erforderlich. Diese einheitlichen Standards werden sowohl in der Fernsehtechnik, als auch zur Übertragung von Videoströmen in Computernetzwerken benötigt.

Leider gibt es in der digitalen Fernsehtechnik in Bezug auf die Produktion und Bearbeitung von Bild- und Videosequenzen keinen definierten Standard für die Codierung.

Es ist nur der Codierstandard zur senderseitigen Übertragung des Bild- und Videosignals definiert. Bei diesem Codierstandard zur Übertragung eines Bild- oder Videosignals wurde eine Komprimierung mit dem Codierverfahren MPEG2 vorgesehen. Die Übertragung dieses Signals erfolgt mit der Standardauflösung von 720 x 576. Diese Standardauflösung ist für SD-Formate (Standard Definition) ausreichend. Aber was ist mit HD-Formaten (High Definition)?

In naher Zukunft müssen bei der Übertragung sowohl auf der Senderseite als auch bei der Empfängerseite Änderungen vorgenommen werden. Diese Änderungen sind aufgrund der hochauflösenden HD-Formate, die an Bedeutung immer mehr gewinnen, notwendig. Dadurch wird dem Fernsehkonsument das Empfangen des qualitativ hochwertigen HDTV (High Definition Television) ermöglicht. Um diesen Ansprüchen gerecht zu werden, ist eine Investition in neue Hardware auf der Sender- und Empfängerseite erforderlich. Weitere Investitionen entstehen durch die enormen Datenmengen, die in der HDTV erzeugt werden. Neue Kompressionsverfahren und höhere Datenraten in der Übertragung müssen eingesetzt werden. Diese Anforderungen entlasten die knappen Kapazitäten der Satelliten. Die Qualität der übertragenen Fernsehprogramme steigt und durch die kleineren Bandbreiten werden weitere Kanäle geschaffen. Von diesen Vorteilen profitieren nicht nur die Fernsehsender sondern auch die Fernsehkonsumenten. Aufgrund der hohen Anzahl an Nachbarländern und vieler Regionalsender existiert beispielsweise in Deutschland eine enorme Auslastung der bestehenden Sendefrequenzen. Die Übertragung von HDTV- Inhalten belegt bei herkömmlichem MPEG-2-Codierverfahren gleich fünf normale Kanäle. Nicht nur die Bilddatenübertragung sondern auch die Bilddatenspeicherung im HDTV-Format hat ihren Nutzen am neuen Standard. Die Speicherung ist nicht mehr allein von der Neuentwicklung von DVDs mit hoher Speicherkapazität abhängig. Hierfür eignet sich das H.264/AVC als Kompressionsverfahren.

Wie bereits erwähnt ist die Datenreduktion das grundlegende und gemeinsame Ziel der Bildverarbeitungstechniken. Da die Hersteller von Technik für den Studiobereich nicht einen einheitlichen Standard zur Datenreduktion verwenden, läßt sich der gleichzeitige Einsatz unterschiedlicher Kompressionsverfahren innerhalb eines Studiobereichs nicht vermeiden. Eine solche Kaskadierung von Datenreduktionsverfahren ist nicht nur beim Wechsel auf ein anderes Kompressionsverfahren gegeben sondern auch bei mehreren Wiederholungen des Encodier- und Decodiervorgangs innerhalb eines Verfahrens. Diese Kaskadierungsart entsteht bei der Erzeugung von mehreren Generationen. Die Generationenzahl entspricht der Anzahl der kaskadierten Codecs. Diese Art der Bearbeitung ist stark an das Videoband gebunden und wird heutzutage für Magazin- und Nachrichtensendungen verwendet. Die Eingangssignale werden aufgezeichnnet und anschließend kopiert. Es werden Arbeitskopien, das Sendeband und Archivkopien für das Archiv erzeugt. Diese Kopiervorgänge verschlechtern die Bild- und Tonqualität des aufgezeichneten Beitrages.

Im Rahmen dieser Diplomarbeit soll die Kaskadierung von verschiedenen Kompressionsverfahren und das Generationsverhalten bei variierenden Kompressionsfaktoren hinsichtlich der Bildqualität und der Qualitätsverluste bei den Kompressionsverfahren analysiert werden. Die Analyse der Codiereffizienz von neuen Codierverfahren erfolgt mit verschiedenen Testsequenzen für SD- und HD-Formate. Bei allen Codierverfahren soll das codierte Ausgangsbild mit dem Eingangsbild verglichen. Der Vergleich wird mit der Messung des Signalrauschabstands durchgeführt. Anhand des Signalrauschabstands lassen sich die entstehenden Qualitätsverluste objektiv beurteilen. In dieser Arbeit werden die Qualitätsuntersuchungen der Codierverfahren JPEG2000 und H.264/AVC durchgeführt.1

2. Grundprinzipien der Bildcodierung

Dieses Kapitel gibt eine Einführung in die Repräsentation und die Grundprinzipien der Codierung von digitalen Bildern. Es werden alle die in dieser Diplomarbeit verwendeten Verfahren zur Datenreduktion und Datenkompression beschrieben. Eine umfassende Einführung in die digitale Bildverarbeitung und die Codierungstheorie ist im Rahmen dieser Diplomarbeit nicht möglich. Hierzu sei auf die Fachliteratur von Jens-Rainer Ohm, Digitale Bildcodierung verwiesen.2

2.1 Codierung von digitalen Bildern

Die Grundidee der Bildcodierung ist die maximale Reduktion der beschreibenden Datenmenge eines Bildes. Dabei sollte das Bildsignal kaum oder möglichst wenig verändert werden.

Ein Bild in der digitalen Bildverarbeitung ist ein zweidimensionaler abgetasteter Farbverlauf oder Graustufenverlauf. Alle räumlich quantisierten Werte werden zusätzlich wertquantisiert. Durch die Wertquantisierung ist eine Bildspeicherung möglich. Die benötigte Speicherkapazität wächst proportional zu der räumlichen Auflösung und der Genauigkeit der Farbdarstellung. Die benötigte Bandbreite erhöht sich bei einer Datenübertragung. Es ist erforderlich, eine Reduktion oder Kompression der Datenmenge durchzuführen, ohne die prinzipielle Information des Bildes zu verlieren oder zu stark zu verfälschen. Hierzu bieten sich zwei Möglichkeiten an:

- Verlustlose Bildcodierung
- Verlustbehaftete Bildcodierung

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.1: Redundanz und Irrelevanz

Bei der verlustlosen Bildcodierung bleibt das Bildsignal unverändert. Hier wird nur die Redundanz des Bildsignals entfernt. Ein Bildsignal wird als redundant (Abbildung 2.1) bezeichnet, wenn es sich mit einer geringeren Datenmenge beschreiben lässt.

Die Redundanzreduktion ist ein umkehrbarer und nicht verlustbehafteter Prozess. Es werden nicht die im Bildsignal enthaltenen Bildinformationen reduziert, sondern nur die zu übertragende Datenmenge. Das Bild, das bei einem Codierungszyklus nach der Dekompression entsteht, ist identisch mit dem Ausgangsbild. Dabei wird der Umstand ausgenutzt, daß bestimmte Werte bzw. Farben gehäuft vorkommen. Alle Informationen, die der Empfänger bereits kennt, werden nicht wiederholt übertragen. Verändert sich der Bildinhalt nicht, so genügt es ein einziges stehendes Bild zu übertragen.

Eine wiederholte Übertragung mit 25 Bildern pro Sekunde ist nicht notwendig. Erst eine Bildänderung muss dem Empfänger mitgeteilt werden. Ändert sich das Bild wiederum nur in Teilaspekten, brauchen nur die relevanten Bildteile als Änderung übertragen zu werden.

Bei der verlustbehafteten Bildcodierung werden die Eigenschaften der psychovisuellen Wahrnehmung berücksichtigt.

Hier werden die Differenzen zum Originalbild zugelassen und die Veränderungen des Originalbildes erscheinen irrelevant (Abbildung 2.1).

Die Irrelevanzreduktion entfernt aus dem Signal die Information, die vom Empfänger nicht wahrgenommen werden kann. Sie ist ein irreversibler und verlustbehafteter Prozess, da Information, die im Original vorhanden ist, durch die Reduktion verloren geht und sich damit das decodierte Bild vom Original unterscheidet. Das Kriterium dafür, in welchem Maße Irrelevanzreduktion angewendet werden darf, liegt beim Empfänger. Die Fernsehtechnik bezieht sich deshalb auf das menschliche Auge und Ohr. Informationen, die von ihnen nicht wahrgenommen werden, brauchen nicht übertragen zu werden. Mit der Irrelevanz lassen sich höhere Kompressionsraten erzielen. Zur Erzielung von sehr hohen Kompressionen muss die Möglichkeit der visuellen Veränderungen des Originalbildes gegeben werden. Die psychovisuelle Wahrnehmung der Codierungsveränderungen variiert sehr stark mit den individuellen Sehgewohnheiten des Betrachters.

Abbildung 2.2: Datenreduktion

Abbildung in dieser Leseprobe nicht enthalten

Abhängig von der Bildqualität werden hierdurch Kompressionsraten von Faktor 4 bis 100 möglich. Die im Rahmen dieser Diplomarbeit angewandten Bildcodierungsverfahren erzielen Kompressionsraten in diesem Bereich. Bei verlustbehafteten Codierungen gibt der Codiergewinn an, inwieweit das Signal-Rausch-Verhältnis / Signal to Noise Ratio = SNR) durch eine Codierung im Vergleich zur PCM-Codierung bei gleicher Bilddatenmenge verbessert wird. Der Codierungsgewinn wird durch den Entzug der örtlichen Redundanz durch eine Dekorrelation realisiert. Alle Codierungsverfahren nutzen die Redundanz und/oder die Irrelevanz des zu codierendes Bildsignals.3

Die einzelnen Algorithmen der Bildcodierung werden im späteren Kapiteln detailliert beschrieben und dargestellt. Zunächst wird hier in der Abbildung 2.3 auf das gemeinsame Grundprinzip aller Bildcodierverfahren eingegangen. Der Zyklus eines Bildcodierverfahrens (Bildkompression) besteht aus mehreren Bearbeitungsschritten. Die digitalisierten Bilddaten werden nach einer möglichen Speicherung der Transformation unterzogen. Die transformierten Koeffizienten werden quantisiert. Durch diese Quantisierung wird eine Datenkompression erreicht. Dieser Schritt ist verlustbehaftet. Bleibt die Quantisierung der Koeffizienten aus, handelt es sich um einen verlustlosen Prozess. Eine weitere verlustlose Reduktion der Datenmenge kann in der Kodierung (letzter Bearbeitungsschritt) erreicht werden.

Die so reduzierten Inhalte können übertragen oder lokal gespeichert werden.

Um diese Inhalte beim Empfänger wieder ausgeben zu können, ist eine Decodierung notwendig. Dies bedeutet dass alle Bearbeitungsschritte wieder umgekehrt werden müssen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.3: Grundprinzip der Bildkompression

In diesem und im nachfolgenden Kapitelabschnitten werden die wichtigsten grundlegenden und speziellen Codierverfahren beschrieben. Alle diese Verfahren sind verlustfrei oder verlustbehaftet und basieren, wie bereits im letzten Abschnitt beschrieben, auf der Theorie der Redundanz und Irrelevanz. In der folgenden Abbildung 2.4 ist eine Übersicht aller Codierverfahren dargestellt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.4: Übersicht aller Codierverfahren

2.2 Entropiecodierung

Die Entropiecodierung ist ein verlustfreies Codierverfahren. Der Datenstrom wird mit möglichst wenig auftretender Redundanz codiert. Unter der Voraussetzung redundanter Datenströme können Verfahren zur Entropiecodierung eine große Verminderung der Datenmenge bewirken. Die zu komprimierenden Daten werden nur als eine Sequenz digitaler Werte gesehen, deren Bedeutung nicht weiter betrachtet wird. Die Verlustfreiheit bezieht sich auf den Vergleich der zu kodierenden mit den decodierten Daten. Diese sind identisch, es gehen keine Informationen verloren.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.5: Verlustfreie Codierverfahren

Das Prinzip der Entriopiecodierung ist bekannt vom Morsealphabet. Ein Symbol mit sehr hoher Häufigkeit erhält das kürzeste Codewort. Alle Symbole erhalten je nach ihrer Auftrittsswahrscheinlichkeit Codewörter verschiedener Länge. Im Durchschnitt ergibt sich die geringste mögliche Coderate. In der Praxis können Verfahren zur Entropiecodierung viel komplexer sein.4

2.2.1 Lauflängencodierung

Die Lauflängencodierung (Run-Length-Encoding) ist eine verlustfreie Codierungstechnik. Hier werden mehrfach hintereinander auftretenden Symbole nur einmal gespeichert. Zusätzlich wird die Anzahl dieses Symbols festgehalten. Dazu folgendes Beispiel:

Abbildung 2.5: Verlustfreie Codierverfahren

Abbildung 2.6: Lauflängencodierung

Diese Codierungsart eignet sich gut bei Bildern mit wenigen hochkorrelierten Intensitätsstufen. Aufeinander folgende Pixel mit identischen Werten werden zu Läufen zusammengefasst. Für diese wird dann der Intensitätswert und die Anzahl der Pixel übertragen. Eine weitere Steigerung der Kompression wird durch die zusätzliche Entropiecodierung für die Symbole der Lauflängencodierung erreicht. Bei zu vielen unterschiedlichen Intensitätswerten oder bei zu kurzen Längen ist die Lauflängencodierung sinnlos.5

2.2.2 Huffmancodierung

Die Huffmancodierung ordnet jedem Zeichen eine Bitfolge je nach der Auftrittswahrscheinlichkeit. Die am häufigsten vorkommenden Zeichen besitzen den kürzesten Code und die Zeichen, die nur selten vorkommen besitzen den längeren Code. Dieses Verfahren ist dynamisch. Dynamisch bedeutet in diesem Fall dass die Daten einmal ganz gelesen werden, um die dort geltenden Häufigkeiten zu bestimmen. Die verwendeten Bitfolgen sind Komma frei.

Die Codetabelle wird meistens als binärer Baum dargestellt. Dieser Baum besitzt Äste mit Bitwertigkeiten von 0 und 1. Er wird rekursiv aufgebaut. Es werden immer zwei Symbole mit den kleinsten Wahrscheinlichkeiten zu einem Teilbaum zusammen gefasst. Die beiden Äste werden mit 0 und 1 markiert. Am Ende werden alle Symbole zu einem Baum zusammengeführt.6

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.7: Beispiel zur Huffmancodierung

2.2.3 Arithmetische Codierungen

Die arithmetische Codierung ist wie die Huffmanncodierung ebenfalls ein optimales Verfahren bezüglich der Redundanzreduktion, das Symbolsequenzen binär codiert. Im Gegensatz zum wesentlichen Huffman- Algorithmus wird nicht jedem Symbol eine feste Bitfolge zugeordnet, sondern aus der komplett zu codierenden Symbolfolge wird eine reelle Zahl im Intervall [0;1] konstruiert.

Diese Zahl in binärer Darstellung entspricht dem komprimierten Datenstrom. Jedes Symbol wird unter Berücksichtigung aller Vorgänger codiert und der Decodierer muß immer wieder am Anfang des Datenstromes beginnen. Damit ist ein wahlfreier Zugriff unmöglich. In der Praxis weist die arithmetische Codierung denselben mittleren Komprimierungsgrad wie der Huffman-Code auf.7

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.8: Beispiel zur arithmetischen Codierung

2.3 Quellencodierung

Bei der Quellencodierung handelt es sich um ein verlustbehaftetes Codierverafhren. Hier werden physiologische und wahrnehmungs- psychologische Eigenschaften des Auges ausgenutzt. Die Quellencodierung benutzt die Semantik der zu codierenden Informationen. Die zu codierenden Daten stehen in Beziehung mit den decodierten Daten, welche meist sehr ähnlich aber nicht identisch sind. Bei der Quellencodierung wird das analoge Bildeingangssignal in einen digitalen Bilddatenstrom umgewandelt. Die Quellencodierung muss die Charakteristik des Bildeingangssignals berücksichtigen und führt zu einer effizienten Codierung. Dabei dürfen die wesentlichen Informationen des Bildeingangssignals nicht verfälscht werden. Unwichtige Bildinformationen müssen nicht codiert werden. Hier kommt es zu einer Irrelevanzreduktion statt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.9: Verlustbehaftete Codierverfahren

2.3.1 Differentielle Pulsecodemodulation und Prädiktion

Die differentielle Pulscodemodulation (DPCM) beruht auf der Pulscode- Modulation (PCM). Bei diesem Verfahren wird ein analoges Signal äquidistant abgetastet, so dass es zeitdiskret wird. Jeder Abtastwert wird auf eine Amplitudenstufe quantisiert und gleichzeitig in ein Binärwort gewandelt. Dies wird als Wertdiskretisierung bezeichnet. Das entstandene zeitdiskrete und wertdiskrete Signal nennt man digitales Signal. Das Ziel der differentiellen Pulsecodemodulation ist die Verbesserung der Qualität bei den Bildsignalen.

Die differenzielle Pulsecodemodulation (DPCM) wird in der Bilddigitalisierung angewendet und hat den Vorteil, dass zur Codierung eines Abtastwertes wesentlich weniger Bits benötigt werden, was zu einer wesentlichen Datenreduzierung führt. Sie ist ein verlustbehaftetes Codierverfahren.

In der Abbildung 2.10 wird die DPCM dargestellt. Hier erfolgt die Codierung des Differenzbetrages von zwei aufeinander folgenden Abtastwerten. Dabei wird aus vergangenen Samplewerten ein Prädiktor berechnet, der vom aktuellen Samplewert abgezogen und dessen Prädiktionsfehler übertragen wird. Im Decoder wird aus vergangenen rekonstruierten Abtastungen ein Prädiktor errechnet und mit dem übertragenen Prädiktionsfehler korrigiert.

Bei diesem Verfahren können bei großen Differenzen zwischen benachbarten Abtastwerten Fehler auftreten. Diese können dadurch behoben werden, indem man nach einigen Abtastungen wieder den vollen Amplitudenwert anstelle des Differenzwertes abtastet.

Es gibt noch die adaptive differentielle Pulsecodemodulation. Im Gegensatz zu DPCM arbeitet ADPCM ebenfalls mit Prädiktion, passt aber das prädiktive Bildsignal an das Eingangssignal an, wodurch eine bessere Prädiktion möglich ist.8

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.10: DPCM-Verfahren

2.3.2 Transformationscodierung

Die Arten der Transformationscodierung der Quellencodierung sind frequenzbasierte Transformation. Alle anderen Codierungsarten der Quellencodierung sind bedeutungsorientierte Codierverfahren. Die Transformationen sind prinzipiell verlustlos, werden aber durch den späteren Codiervorgang verlustbehaftet.9

2.3.2.1 Prinzip der Transformationscodierung

Bei der Transformationscodierung werden verschiedene Ebenen der Datenredundanz erkannt und bei der Kompression berücksichtigt. Eine geeignete lineare Transformation dekorreliert die Daten. Die lineare Transformation überführt die Bilddaten in eine andere Darstellung. In der neuen Darstellung findet eine Reduktion der Pixel-Redundanz. Der Bildinformationsgehalt konzentriert sich auf wenige Koeffizienten mit hohem Betrag. Die restlichen Koeffizienten, die einen geringen Betrag aufweisen, repräsentieren hochfrequente Bildinformationen.

Nach der Dekorrelation des Bildes durch die geeignete Transformation wird das in verschiedenen Auflösungen zerlegte Bild nach bestimmten Regeln quantisiert und mit einer Entropiecodierung erfolgt die eigentliche Komprimierung.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.11: Transformationscodierung

Eine Transformation ist mathematisch gesehen ein Basiswechsel. Der gleiche Sachverhalt wird aus einem anderen Blickwinkel betrachtet und baut auf einer anderen Basis auf. Bei der Transformation gehen die Informationen nicht verloren, sie werden nur anders dargestellt. Im Allgemeinen sind alle Transformationen reversibel.

Der Ausgangspunkt einer Transformation sind die Funktionen. Die Funktionen beschreiben die Signalverläufe. So ist zum Beispiel im Bereich der Bildverarbeitung eine Änderung von jeweils benachbarten Pixelwerten als Signalverlauf zu bezeichnen. Die geänderten Pixelwerte können anschließend als Funktion definiert werden. Ein Beispiel dafür zeigt Abbildung 2.12. Ein Bild besteht aus einem schwarzen Kreis auf weißem Hintergrund. Der Verlauf der Änderung der Pixelwerte ist als Funktion im rechten Teil der Abbildung dargestellt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.12: Pixelwert als Funktion

2.3.2.2 Fourier-Transformation (FT)

Die von Jean Baptiste Joseph Fourier entwickelte Theorie der Fourier Transformation (FT) zerlegt gegebene zeit- oder auch ortsabhängige Funktion x, in die in ihr enthaltenen Frequenzanteile.

Diese Frequenzanteile von x werden in einer neuen, frequenzabhängigen Funktion F beschrieben. In beiden Funktionen x und X wird der gleiche Sachverhalt beschrieben. Die Funktion x stellt den Verlauf eines Signals abhängig von der Zeit dar. Man spricht dabei auch von einer Darstellung des Signals im Ortsraum. Der Ort einer Signaländerung ist direkt erkennbar. In der Funktion X werden die im Signal enthaltenen Frequenzen dargestellt. Eine Aussage über das örtliche bzw. zeitliche Auftreten der Frequenzen wird dabei nicht gemacht. Die Funktion x beschreibt das Signal im Frequenzraum.

Abbildung in dieser Leseprobe nicht enthalten

Gleichung 2.1: Fourier-Transformation

X heißt die Fourier-Transformierte von x. Durch die Fourier-Transformation wird der Funktion x eindeutig eine andere Funktion X zugeordnet. Die Funktion x wird ferner als Originalfunktion oder Zeitfunktion, die Funktion F als Bildfunktion bezeichnet.

Hier ist zu beachten, dass die transformierten Daten komplex sind. Der reelle und der imaginäre Anteil gehört jeweils zur Cosinus- bzw. Sinus-Funktion. Um die Koeffizienten der Fourier-Darstellung zu erhalten wird das gesamte Signal mit den oszillierenden Sinus und Cosinus verglichen, um das Gewicht der jeweiligen Frequenzen zu erhalten.

Jede periodische Funktion kann als Summe von geeigneten Cosinus- und Sinusschwingungen als Basisschwingung dargestellt werden. Die Beschreibung der Ausgangsfunktion erfolgt durch Überlagerung der Amplituden der einzelnen phasenverschobenen Cosinus- und Sinusschwingungen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.13: Koeffizienten der Fourier-Transformation

In der Abbildung 2.13 werden die ersten sechs Koeffizienten der FourierTransformation und ihr Einfluss auf die rekonstruierte Funktion dargestellt. Es werden immer zwei Basisfunktionen (cos und sin) dazu addiert. Die Koeffizienten werden immer kleiner. Dies ist an der Amplitude der Basisfunktionen zu sehen.

Mit Hilfe der Fourier-Transformation lassen sich auch nicht periodische Funktionen zerlegen. Dies ist nur unter der Voraussetzung möglich, dass sie schnell abfallen, so dass die Fläche unter ihnen endlich ist.

Die Fourier-Transformation ist für eine Datenreduktion ungeeignet weil die reellen Bildsignale im Frequenzraum komplexe Werte ergeben. Das nächste Problem ist die Unfähigkeit eine Information über das zeitliche Auftreten der einzelnen Frequenzen einer fouriertransformierten Funktion direkt zu erkennen. Diese zeitliche Information ist in den Phasen der zugrunde liegenden Sinus- und Cosinusschwingungen versteckt. Sie wird erst durch die Überlagerung der Schwingungen sichtbar.

Die Lösung des Problems liegt in der Realisierung der gefensterten FourierTransformation (WFT). Die im Signal enthaltenen Frequenzen werden abschnittsweise mittels der klassischen Fourier-Analyse berechnet. Somit ist es möglich innerhalb dieser Abschnitte Aussagen über die auftretenden Frequenzen zu machen.

Diese Frequenzen sind abschnittsweise zeitlich lokalisiert. Um das gesamte Signal zu analysieren wird das Fenster entlang des Signals verschoben. Die Größe des Fensters ist bei der gefensterten Fourier-Transformation nicht festgelegt. Daher ist die Wahl der geeigneten Fenstergröße entscheidend. Aber was ist die geeignete Fenstergröße? Anhand dieser Frage wird die Beschränkung der gefensterten Fourier-Transformation (WFT) deutlich. Ein schmales Fenster bietet eine sehr gute Zeitauflösung. Alle Signaländerungen können lokalisiert werden. Der Nachteil ist die schlechte Frequenzauflösung. Die schmale Größe des Fensters ist nicht in der Lage niederfrequente Schwingungen zu erfassen. Ein großes Fenster bietet eine sehr gute Frequenzauflösung, d.h. Die Möglichkeit die vorhandenen Frequenzen zu erfassen ist gegeben. Diese können jedoch nicht mehr entsprechend zeitlich lokalisiert werden. Die Unschärfe zwischen Zeit- und Frequenzauflösung ist als Unschärferelation definiert.

Bei der Analyse eines Signals (Bildsignal) mit einer bestimmten Fenstergröße ist in der gefensterten Fourier-Transformation die Unschärfe zwischen Zeit- und Frequenzauflösung konstant. Der Feinheitsgrad der Analyse ist vorher festgelegt.

2.3.2.3 Wavelet-Transformation

Die in diesem Abschnitt beschriebene Wavelet-Transformation ist ein alternatives Verfahren zur gefensterten Fourier-Transformation. Auch die Wavelet-Transformation kann die Unschärferelation nicht deaktivieren. Bei der Wavelet-Transformation besteht die Möglichkeit das Fenster, welches hier skalierbare Funktionen sind, variabel während einer Analyse an das Signal anzupassen. Damit können sowohl tiefe Frequenzen mit hoher Frequenzauflösung und niedriger Zeitauflösung als auch hohe Frequenzen mit hoher Zeitauflösung und niedriger Frequenzauflösung in einer Analyse erfasst werden. Kurz gesagt, es ist möglich ein Signal (Bild-) gleichzeitig in der Zeit und in der Frequenz zu analysieren. Und das ist genau, was die Fourier- Transformation nicht kann.

2.3.2.3.1 Wavelets

Die Realisierung der Wavelet-Transformation erfolgt mittels eines Wavelets. Die Wavelets oder „kleine Wellen“ sind mathematische Funktionen. Sie ähneln den Sinus- und Cosinus-Funktionen der Fourier-Transformation und untersuchen eine gegebene Funktion (Bildsignal) auf die in ihr enthaltenen Frequenzbestandteile.

Der Ausgangspunkt eines Wavelets ist ein Mutter-Wavelet und nicht wie bei der gefensterten Fourier-Transformation ein Sinus als Grundschwingung. Anstatt jetzt die Oszillationen bei gleichbleibender Fensterbreite zu variieren, wird das Wavelet skaliert oder an eine bestimmte Stelle des Signals verschoben. Unter Skalierung versteht man das Strecken oder das Stauchen eines Wavelets. Gedehnte Wavelets vermitteln dann ein ungefähres Abbild des Signals, während gestauchte mehr und mehr Details zeigen. Das Wavelet wird wie folgt beschrieben

Abbildung in dieser Leseprobe nicht enthalten

Gleichung 2.2: Beschreibung eines Wavelets

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.14a: Wavelet

wobei a der Skalierungsfaktor und b der Verschiebungsfaktor des Wavelets ist. In der Transformation selbst kommen dann die entsprechend skalierten und örtlich verschobenen Varianten des Mutter-Wavelets zum Einsatz. Diese Wavelets werden als Wavelet-Familie oder Wavelet-Kinder bezeichnet.

In der folgenden Abbildung 2.14b werden einige Mutter-Wavelets gezeigt:

- Haar-Wavelet
- Daubechies-Wavelet 4
- Daubechies-Wavelet 12
- Daubechies-Wavelet 20

Abbildung in dieser Leseprobe nicht enthalten

Daubechies-Wavelet 12

Abbildung in dieser Leseprobe nicht enthalten

Daubechies-Wavelet 20

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.14b: Die häufigsten Wavelets

Um die Koeffizienten der Wavelet-Analyse eines Signals zu erhalten, wird das Signal zuerst mit dem Mutter-Wavelet und anschließend mit seinen skalierten oder örtlich verschobenen ’Kindern’ gefaltet.

Daraus resultiert eine Reihe von Signalen, die immer noch Zeit- oder Ortsabhängig sind, und alle Informationen über die Frequenzen zeigen. In der folgenden Abbildung 2.15 ist ganz oben das Ausgangssignal. Danach folgt das Wavelet in verschiedenen Skalierungen und das mit ihm gefaltete Ausgangssignal.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.15: Skalierung eines Wavelets

2.3.2.3.2 Kontinuierliche Wavelet-Transformation

Die kontinuierliche Wavelet-Transformation überführt ein Signal f(t) in eine Funktion abhängig von dem Skalierungsfaktor a und Verschiebungsfaktor b.

Gleichung 2.3: Analysegleichung für Kontinuierliche Wavelet-Transformation

Durch das Strecken oder Stauchen eines Wavelets ändert sich seine Frequenz. Somit ist das Wavelet in der Lage sich den verschiedenen Signalkomponenten automatisch anpassen zu können.

Zunächst wird das Bildsignal mit einem stark gestreckten Wavelet untersucht. Dadurch werden die tiefen Frequenzen bestimmt. Anschließend wird das Wavelet schrittweise komprimiert um immer feinere Frequenzen zu erfassen. Das heißt, das Signal wird in verschiedenen Auflösungen dargestellt und die immer feiner werdende Frequenzen stellen verschiedene Details oder schnelle Änderungen dar.

Das Signal wird mit einem entsprechend skalierten Wavelet einer vollständigen Abtastung unterzogen. Die entstandene Funktion beschreibt die Übereinstimmung des Signals an allen Stellen mit dem entsprechend skalierten Wavelet. Diese Funktion bezeichnet man als Wavelet-Transformierte. Die Rekonstruktion des Ausgangssignals erfolgt durch die Addition der entsprechenden Wavelet-Transformierten.

In der folgenden Abbildung 2.16 wird der Ablauf einer Wavelet-Transformation anhand eines Beispiels gezeigt. Die Funktion in a beschreibt das Ausgangssignal. Die Funktionen in b stellen die jeweiligen Wavelet- Transformierten in unterschiedlichen Auflösungen dar. Die unterschiedlichen Auflösungen sind durch die Skalierung des Wavelets entstanden. Die unterste Funktion wurde mit einem stark gestreckten Wavelet analysiert. In dieser Funktion werden alle Grundfrequenzen, die im Ausgangssignal vorkommen, beschrieben.

Das verwendete Wavelet wurde entsprechend immer stärker gestaucht, um eventuelle Übereinstimmungen mit dem Signal zu finden. Alle weiter oben dargestellten Wavelet-Transformierten enthalten zunehmend mehr Details.

Die Übereinstimmung eines Teils des Signals mit dem entsprechend gestreckten Wavelet wird durch die Multiplikation der Wavelet-Funktion mit dem überdeckten Signalabschnitt erreicht. Die aus dieser Multiplikation resultierende Funktion wird das Integral berechnet und dessen Wert wird als Wavelet- Koeffizient bezeichnet.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.16: Beispiel einer Wavelet-Transformation

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.17: Sukzessiver Vergleich

In der Abbildung 2.17 wird der sukzessive Vergleich einer Ausgangsfunktion mit einem Wavelet dargestellt.

Die Ausgangsfunktion eines Bildsignals ist in a dargestellt und das analysierende Wavelet in b. Im nächsten Schritt c ist das Wavelet mit dem gerade überdeckten Abschnitt des Signals annähernd identisch. Die Multiplikation von Wavelet und dem Signal ergibt eine neue Funktion, die in d zu sehen ist. Die Berechnung des zugehörigen Wavelet-Koeffizienten liefert relativ großen Wert. Großer Wavelet-Koeffizient ist ein Maß für eine gute Übereinstimmung zwischen analysierendem Wavelet und dem betrachteten Signalabschnitt.

Wird das Wavelet entlang des Signals weiter nach rechts verschoben, so ergibt sich die in e dargestellte Situation. Die Funktion in f resultiert aus der Multiplikation beider Funktionen. Der Wavelet-Koeffizient dieser Funktion ist sehr klein und ist ein Maß für geringe oder gar keine Übereinstimmung zwischen analysierendem Wavelet und dem betrachteten Signalabschnitt. Es gibt unendlich viele skalierte und verschobene Wavelets, die mit dem Signal verglichen werden können. Daraus ergeben sich theoretisch auch unendlich viele Wavelet-Koeffizienten. Durch die theoretisch mögliche Bestimmung von unendlich vielen Wavelet-Koeffizienten ist die kontinuierliche Wavelet- Transformation (CWT) wegen Überlappung einzelner Wavelets unendlich redundant. Diese Art der Transformation hat für die Praxis keine Bedeutung.

2.3.2.3.3 Diskrete Wavelet-Transformation (DWT)

In der praktischen Anwendung werden die beiden Faktoren, Skalierungsfaktor a und Verschiebungsfaktor b, eingeschränkt. Mit der diskreten Wavelet- Transformation (DWT) ist der gewünschte Erfolg der Vereinfachung der Transformation realisierbar. Bei der Berechnung der DWT kommt es zur Diskretisierung der beiden Faktoren (Skalierungsfaktor a, Verschiebungsfaktorb).

Um eine geringe Redundanz bei den Wavelet-Koeffizienten und eine vollständige Beschreibung des Ursprungssignals zu erhalten, ist die geschickte Wahl der Faktoren a und b ist von großer Bedeutung.

Als Beispiel wird die dyadische diskrete Wavelet-Transformation genommen.

Hier werden die Wavelets um entsprechende Potenzen von 2 skaliert. Dies wird wie folgt beschrieben: a =2 m m Z Transformationsstufen

In der folgenden Abbildung 2.18 ist die Anwendung der diskreten WaveletTransformation dargestellt. Wie es in der oberen Bildhälfte zu sehen ist, erfolgt zuerst die Verschiebung des Wavelets entlang des Signals. In der unteren Bildhälfte wird das Wavelet anschließend entsprechend skaliert und die Verschiebung wiederholt sich.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.18: Anwendung der DWT

In der praktischen Anwendung brachte die Diskretisierung der Wavelet Parameter in der DWT nicht immer den gewünschten Erfolg der Vereinfachung der Transformation.

2.3.2.3.4 Orthogonalität

Orthogonale Wavelets sind Spezialfälle der diskreten Wavelets. Ist das MutterWavelet zu den skalierten Kinder-Wavelets paarweise orthogonal, ist die Transformation redundanzfrei. Jeder Koeffizient ergibt sich aus nur einem Skalarprodukt und dessen Berechnung ist unabhängig von den anderen in der Transformation eingehenden Koeffizienten. Eine originalgetreue Rekonstruktion des Ausgangssignals ist immer noch möglich. Mit diesen Wavelets gelingt die Realisierung der minimalen Wavelet-Transformationen. Hier enthält die Transformierte nicht mehr Punkte als das Signal selbst.

2.3.2.3.5 Mehrfachauflösung

Um entsprechende Informationen aus einem Signal zu extrahieren, werden verschiedene Filter verwendet. Der Zusammenhang zwischen den Filtern aus der Signalverarbeitung und der Wavelet-Theorie wird in der Mehrfachauflösung (Multiresolution Analysis, MRA) beschrieben. Mit Hilfe der Mehrfachauflösung lassen sich Wavelet-Koeffizienten wesentlich schneller berechnen. Die Grundlagen der Mehrfachauflösung basieren auf der psychooptischen Vorstellung, bei der das Gehirn die Bilder in mehrfachen Auflösung verarbeitet. Die Verwirklichung dieser Erkenntnis erfolgt mittels einer Skalierungsfunktion, die so definiert ist, dass mit ihr die Auflösung des Signals zunehmend reduziert wird. Zusätzlich wird ein passendes Wavelet für die Berechnung der Differenzinformationen benötigt.

Die Skalierungsfunktion wird durch einen Tiefpassfilter realisiert, welcher nur entsprechend tiefe Frequenzen eines Signals erfaßt.

Die Aufgabe der Skalierungsfunktion bzw. des zugehörigen Tiefpassfilters kann als Mittelwertbildung von benachbarten Pixeln betrachtet werden. Die bei einer bestimmten Auflösung durch Anwendung der Skalierungsfunktion wegfallenden Details - die hohen Frequenzen - werden durch geeignete Wavelets aus einer Waveletfamilie beschrieben. Die hohen Frequenzen werden hier durch die Verwendung eines entsprechenden Hochpassfilters erfaßt.

Die aus der Hochpaß-Filterung resultierenden Werte werden analog zur diskreten Wavelet-Transformation als Wavelet-Koeffizienten bezeichnet.

Nach erfolgter Filterung wird der Hoch- und Tiefpass gefilterter Anteil des Signals einem Subsampling unterzogen bei dem es um den Faktor 2 dezimiert wird. Anschließend wird der gefilterte Anteil in einer tieferen Auflösungsstufe bearbeitet. Als Eingangsgröße dient der dezimierte Tiefpassanteil des Signals. Das Ursprungsbild wird sukzessive in Approximations- und und Details- Koeffizienten zerlegt. Der Prozess der Hoch- und Tiefpassfilterung mit anschließendem Subsampling wird mit immer weiter abnehmender Auflösung fortgesetzt, bis der gefilterter Anteil des Signals kleiner als die Länge des Filters ist.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.19: Multi Resolution Analyse - MRA

2.3.2.4 Diskrete Cosinus Transformation (DCT)

Die diskrete Cosinus Transformation (DCT) ist eine lineare, orthogonale Transformation. Hier wird ein zeitdiskretes Signal vom Orts- in den Frequenzbereich umgewandelt.

Die Funktion der diskreten Cosinus Transformation ähnelt der diskreten Fourier-Transformation. Es besteht nur ein wesentlicher Unterschied: Die diskrete Cosinus Transformation wandelt einen zweidimensionalen Bildbereich in einen zweidimensionalen Frequenzbereich um. Für die Größe der Bildbereiche gibt es bei dieser Transformation eigentlich keine Beschränkung. Diese Transformationsart ist die weitest verbreitete Transformation zur Redundanreduktion der Bildsignale. Mit diesem Verfahren lassen sich effektiv Bilddaten in eine Form wandeln. Die Komprimierung dieser Form ist dann sehr leicht. Im Vergleich zu der Fourier-Transformation rechnet die diskrete Cosinus Transformation mit reellen Zahlenwerten, und nicht mit komplexen. Die Implementierung dieses Transformationsverfahrens ist soft-und hardwaretechnisch realisierbar. Viele Codierverfahren in der Hybridcodierung, unter anderem JPEG, MPEG, H.26L, verwenden zur Codierung die zweidimensionale diskrete Cosinustransformation (2D DCT).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.20: Diskrete Cosinus Transformation

Bevor die diskrete Cosinus Transformation ausführlich beschrieben wird, ist es notwendig die Begriffe Stützen- und Koeffizientendarstellung zu definieren.

Def.: Gegeben seien n Basisfunktionen [Abbildung in dieser Leseprobe nicht enthalten]. Sei ferner f (x)

eine Funktion, die sich als gewichtete Summe dieser Basisfunktionen ausdrücken lässt:

Abbildung in dieser Leseprobe nicht enthalten

Gleichung 2.4: Gewichtete Summe der Basisfunktionen

Dann wird der Vektor [Abbildung in dieser Leseprobe nicht enthalten] als Koeffizientendarstellung der Funktion f (x) bezeichnet.

Zunächst wird aus der Koeffizientendarstellung einer Funktion f (x) die Stützstellendarstellung von f (x) berechnet.

Die Funktion f (x) sei in Koeffizientendarstellung gegeben, d.h. als gewichtete Summe von n vorgegebenen Basisfunktionen c i (x):

Abbildung in dieser Leseprobe nicht enthalten

Gleichung 2.5: Koeffizientendarstellung

Der Funktionswert y j an einer einzelnen Stützstelle x j ergibt sich durch Einsetzen:

Abbildung in dieser Leseprobe nicht enthalten

Gleichung 2.6: Berechnung des Funktion an einer Stützstelle

In Vektorschreibweise ist dies

Abbildung in dieser Leseprobe nicht enthalten

Gleichung 2.7: Berechnung des Funktion an einer Stützstelle als Vektor

Entsprechend lässt sich der Vektor der Funktionswerte an den n Stützstellen [Abbildung in dieser Leseprobe nicht enthalten] durch ein Produkt mit einer Matrix der Transformationsmatrix T, darstellen.

Somit lässt sich also die Stützstellendarstellung der Funktion f (x) aus der Koeffizientendarstellung durch Multiplikation mit der Transformationsmatrix T gewinnen:

Abbildung in dieser Leseprobe nicht enthalten

Gleichung 2.8: Stützendarstellung mit der Transformationsmatrix T

[...]

Ende der Leseprobe aus 299 Seiten

Details

Titel
Beurteilung der Codiereffizienz von neuen Codierverfahren
Hochschule
Hochschule RheinMain
Note
1,0
Autor
Jahr
2005
Seiten
299
Katalognummer
V82404
ISBN (eBook)
9783638853149
ISBN (Buch)
9783638853736
Dateigröße
10312 KB
Sprache
Deutsch
Schlagworte
Beurteilung, Codiereffizienz, Codierverfahren
Arbeit zitieren
Dipl.-Ing. (FH) Milovan Kristo (Autor:in), 2005, Beurteilung der Codiereffizienz von neuen Codierverfahren, München, GRIN Verlag, https://www.grin.com/document/82404

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Beurteilung der Codiereffizienz von neuen Codierverfahren



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden