Die Nutzung von WiMAX1 als Medium ist noch relatives Neuland, daher ist es wichtig erste
Daten zu sammeln im Bezug auf QoS2, Streaming und anderen Applikationen über WiMAX.
Solche Applikationen önnen simuliert, die Datenraten rechnerisch ermittelt werden. Ob diese
allerdings mit den tatsächlichen Werten Übereinstimmen und unter realen Bedingungen
verwendbar sind, muss noch untersucht werden.
Die Menge an Parametern, die den Kanal beeinflussen, ist vielfältig. Einige dieser Parameter
unterliegen stochastischem Verhalten und können daher weder in einer Messung noch einer
Berechnung berücksichtigt werden.
Wie schon erwähnt, gibt es viele Simulationen und Tools um Bandbreiten und Verhalten eines
WiMAX Kanals zu berechnen. Tests unter realistischen Bedingungen sind jedoch unabdingbar,
um eine sichere Aussage zu treffen.
In dieser Arbeit wurden unterschiedliche Messungen durchgeführt, indem ein Video-Stream
über WiMAX subjektiv betrachtet und analysiert wird. Mit den Daten dieser Studie soll eine
Abschätzung des Verhaltens von WiMAX im Bezug auf Streaming und hochbreitbandinge,
zeitkritische Anwendungen getroffen werden.
[...]
Inhaltsverzeichnis
Abstrakt
Tabellenverzeichnis
Abbildungsverzeichnis
1 Einleitung
2 WiMAX
2.1 Was ist WiMAX?
2.1.1 Technische Grundlagen
2.1.2 Vorteile von WiMAX
2.1.3 Das WiMAX-Forum
2.1.4 IEEE 802.16-2004 Standard für Frequenzen zwischen 2 und 11 GHz7
2.1.5 IEEE 802.16-2005 Standard für Frequenzen zwischen 2 und 11 GHz7
2.1.6 Unterschiede zwichen WiMAX und Wireless Lan
2.1.7 Praxis
2.2 Technische Daten
2.2.1 Technische Daten MacroMax
2.2.2 Technische Daten EasyST
2.2.3 Technische Daten WayMax
2.2.4 Technische Daten WayMax CPE
2.2.5 Technische Daten der Antennen
2.3 Sektorenaufteilung
3. Video Kompression
3.1 MPEG-1/2 Standard
3.1.1 Systemschicht
3.1.2 Kompressionsverfahren
3.1.2.1 Struktur der Video-Elementarströme
3.1.2.2 Codierung von I-Frames
3.1.2.3 Codierung von P- und B-Frames
3.1.2.4 Bewegungskompensation
3.1.2.5 Bitratensteuerung
3.1.2.6 Profile
3.1.3 Decodieren
4 H.264
4.1 Einführung
4.2 Grundlagen
4.3 Dekorrelation
4.3.1 Örtliche Prädiktion
4.3.2 Bewegungskompensation
4.3.3 Prädiktion von Bewegungsvektoren
4.3.4 Transformation
4.4 Quantisierung
4.5 Codierung
4.6 Unterdrückung von Block Artefakten
4.7 Level
5 MPEG-4
5.1 Einführung
5.2 Codierung
5.3 Video Objekte
5.4 Anwendung
5.5 MPEG-4 Derivate
5.5.1 DivX
5.5.2 XviD
6 QuickTime
6.1 Einführung
6.2 Daten
6.3 Struktur
6.3.1 Movie-Atom
6.3.2 Media-Atom
6.3.3 Movie-Data-Atom
6.3.4 Sample-Table-Atom
7 Windows Media
7.1 Einführung
7.2 AVI-Format
7.3 AVI-Struktur
8 Audiokompression
8.1 Einleitung
8.2 Psychoakustik
8.3 MP3
8.3.1 Datenkompression
8.3.2 Anwendung
8.4 MPEG-Audio
8.4.1 Einführung
8.4.2 Audio-Codierung
8.4.3 Audio-Datenstrom
8.4.4 MPEG-2-AAC
8.4.5 MPEG-4-Audio
8.5 Dolby Digital (AC3)
8.5.1 Einführung
8.5.2 AC-3-Codierung
8.5.3 AC-3-Datenstrom
9 Kanalkodierung
9.1 Einleitung
9.2 Fehlerkorrekturverfahren
9.3 Kodierungsverfahren
9.3.1 Blockcode
9.3.1.1 Lineare Blockcodes
9.3.1.2 Blockcodes in Matrixbeschreibung
9.3.1.3 Zyklische Blockcodes
9.3.1.4 Reed-Solomon, Bose-Chaudhuri-Hocquenghem Codes .
9.3.2 Faltungscodes
9.3.2.1 Trellis-Diagramm
9.3.2.2 Zustandsdiagramm
9.3.2.3 Terminierte Faltungscodes
9.3.2.4 Punktierte Faltungscodes
9.3.2.5 Viterbi-Algorithmus
10 Streaming
10.1 Einleitung
10.2 Übertragungsstandards
10.3 Routing
11 Bit Error Rate
12 Streaming-Software
13 VLC-Streaming
14 Streaming Vorbereitung
15 Auswertung Kabelnetzwerk
15.1 Limitierung von Seiten des Clients
15.2 Limitierung von Seiten des Servers
16 Wimax Basisstation
16.1 Airspan-Management-System
16.2 Siemens-WayMAX-Management-System
17 Bandbreiten Messung
17.1 WiMAX
17.2 WayMAX
18 Auswertung Streaming über WiMAX
19 Auswertung Streaming über WayMAX
20 Auswertung
20.1 Bandbreitenmessung
20.2 Streaming
20.3 Basisstation
20.4 Codecs
21 Schlussbemerkung
21.1 Messungen
21.2 Für die Zukunft
Glossary
Literaturverzeichnis
Anhang
A MacroMax Datenblatt
B EasyST Datenblatt
C Siemens Gigaset SE461 Datenblatt
D Siemens WayMAX@vantage Datenblatt
Abstrakt
Die Nutzung von WiMAX1als Medium ist noch relatives Neuland, daher ist es wichtig erste Daten zu sammeln im Bezug auf QoS2, Streaming und anderen Applikationen über WiMAX. Solche Applikationen önnen simuliert, die Datenraten rechnerisch ermittelt werden. Ob die- se allerdings mit den tatsächlichen Werten Übereinstimmen und unter realen Bedingungen verwendbar sind, muss noch untersucht werden.
Die Menge an Parametern, die den Kanal beeinflussen, ist vielfältig. Einige dieser Parameter unterliegen stochastischem Verhalten und können daher weder in einer Messung noch einer Berechnung berücksichtigt werden.
Wie schon erwähnt, gibt es viele Simulationen und Tools um Bandbreiten und Verhalten eines WiMAX Kanals zu berechnen. Tests unter realistischen Bedingungen sind jedoch unabding- bar, um eine sichere Aussage zu treffen.
In dieser Arbeit wurden unterschiedliche Messungen durchgeführt, indem ein Video-Stream über WiMAX subjektiv betrachtet und analysiert wird. Mit den Daten dieser Studie soll eine Abschätzung des Verhaltens von WiMAX im Bezug auf Streaming und hochbreitbandinge, zeitkritische Anwendungen getroffen werden.
Tabellenverzeichnis
2.1 Softwarestände MacroMax
2.2 Softwarestände WayMAX
3.1 MPEG-2-Profile
3.2 Level-Definitionen
14.1 Video-Arten
14.2 Standard-Bandbreiten
15.1 Streaming 1024 kb/s Kabel-Client
15.2 Streaming 512 kb/s Kabel-Client
15.3 Streaming 256 kb/s Kabel-Client
15.4 Streaming 1024 kb/s Kabel-Server
15.5 Streaming 512 kb/s Kabel-Server
15.6 Streaming 256 kb/s Kabel-Server
18.1 Streaming 1024 kb/s WiMAX-Client
18.2 Streaming 512 kb/s WiMAX-Client
18.3 Streaming 256 kb/s WiMAX-Client
19.1 Streaming 1024 kb/s WayMAX-Client
19.2 Streaming 512 kb/s WayMAX-Client
19.3 Streaming 256 kb/s WayMAX-Client
Abbildungsverzeichnis
2.1 MacroMax Airspan (mac)
2.2 Airspan CPE EasyST
2.3 WayMAX-Aufbau (waya)
2.4 WayMAX @vantage Station (waya)
2.5 Siemens WayMAX CPE
2.6 Antenne der Basisstation
2.7 Sektor Einteilung
3.1 MPEG-Struktur
3.2 MPEG-GOP
3.3 MPEG-Layer
3.4 MPEG-Makroblock
4.1 Zick-Zack-Scan
5.1 MPEG-4 ASP Dekoder Blockschaltbild
5.2 Videoszene aus drei Video-Objekten
5.3 Videoszene zusammengeführt aus unterschiedlichen Video-Objekten
6.1 QT Container-Atomstruktur
6.2 QT Movie-Atom-Aufbau
6.3 QT Track-Atom-Aufbau
6.4 QT Media-Atom-Aufbau
6.5 QT Sample-Table-Atom-Aufbau
7.1 AVI-Struktur
8.1 Die Hörfläche der Psychoakustik
8.2 MP3 Codiertes Rechtecksignal
8.3 MPEG-3-Audio-Codierung
8.4 Maskierungsschwelle und die Maximalpegel in vier Subbändern
8.5 Audiocodierung nach MPEG-2-AAC
8.6 AC-3 Datenstruktur
9.1 Übertragungsstrecke mit Fehlerkorrektur
9.2 Verschiedene Kanalkodierungsalgorithmen
9.3 Matlab Simulation eines BCH-Codes
9.4 R=1/2 Faltungs-Encoder mit m=2
9.5 Trellis Diagramm Beispiel
9.6 Viterbi-Decoder Beispiel
10.1 Flow des Streaming Media
10.2 Anycast
10.3 Unicast
10.4 Multicast
10.5 Broadcast
13.1 VLC-Diagramm
13.2 VLC-Streaming-Assistent
13.3 VLC-Stream-Input
13.4 VLC-Stream-Methode
13.5 VLC-Stream-Verkapselung
13.6 VLC-Stream-Zusatz-Optionen
13.7 VLC-Stream-transkodieren
14.1 Kabel-Streaming
14.2 NetLimiter
15.1 Fehler bei DivX3 1024
15.2 Snapshot DivX3 512 + DivX3 256
15.3 Fehler bei 128 kbit/s und MPEG1+2
15.4 Streaming 512 kb/s Kabel-Client
15.5 Fehler bei 512 kbit/s und MPEG1
16.1 WiMAX-Darstellung
16.2 Airspan Service Class
16.3 Airspan Service Product
16.4 Airspan Service Product Edit
16.5 Airspan Service Product Management
16.6 WayMAX Management
16.7 WayMAX Ext. Interface
16.8 WayMAX Profile List
16.9 WayMAX Profile Create
16.10 WayMAX Connection List
17.1 IPERF-Messung 16000 kbit/s Airspan
17.2 IPERF-Messung 6016 kbit/s Airspan
17.3 IPERF-Messung 3072 kbit/s Airspan
17.4 IPERF-Messung ISDN Airspan
17.5 IPERF-Messung 16000 kbit/s WayMAX
17.6 IPERF-Messung 6016 kbit/S WayMAX
17.7 IPERF-Messung 3072 kbit/s WayMAX
18.1 Fehler bei 16000 kbit/s Kanal
18.2 Fehler bei 3072 kbit/s Kanal
19.1 Fehler bei 1536 kbit/s Kanal
19.2 Fehler bei 1536 kbit/s Kanal und DivX
1 Einleitung
Ein bisher noch unbekanntes oder wenig beachtetes Einsatzgebiet von WiMAX ist Video- Streaming. Es ist weder bekannt, wie die Bandbreitenvergabe einen angeforderten Stream behandelt, noch welche Streaming-Qualitäten erreicht werden können. Könnte ein Stream be- züglich seiner benötigten Bandbreite rechnerisch Übertragen werden, kann sich dennoch ein Bild ergeben, dass den subjektiven Anforderungen eines Betrachters nicht entspricht. Gründe hierfür sind meist Blockfehler oder Ruckler, die sich durch Schwankungen im Übertraguns- verhalten des Mediums ergeben. Dies ergibt sich aus dem verwendetem Codec des Streams und der Bandbreite des CPE1.
Es soll in verschiedenen, klar definierten Tests jeweils ein Stream über das WiMAX-Medium ausgeführt werden, dieser dann begutachtet und subjektiv beurteilt werden.
Hierzu müssen ein paar Rahmenbedingungen eingehalten werden:
- feste Kodierung der Videodaten
- feste Klassen für die Bandbreiten
- Überschaubares Netzwerk
Es werden die gängigsten Bandbreitenkonfigurationen genutzt, welche von DSL2 her schon bekannt sind und dort auch genutzt werden. Sowohl Up- als auch Downstream orientieren sich an Vorgaben.
Des Weiteren wird zum Streamen eine „Open-Source“ Software verwendet, um Lizenspro- bleme zu vermeiden. Der Stream wird über diese Server-Software ausgegeben und von der passenden Client-Software empfangen und dargestellt. Als Codec werden die gängigsten im Internet für Video-Streaming verwendete Codec3genutzt, um hier „State of the Art“ zu sein.
Die Video-Daten werden in 3 Klassen aufgeteilt:
- hochauflösende
- mittelauflösende
- niedrigauflösende
Dies bezieht sich sowohl auf die Bildqualität als auch auf die Datenrate der einzelnen Stre- ams.
Es soll auch die „Zweckmässigkeit“ der verwendeten Codecs unter dem Aspekt WiMAX- Streaming getestet werden, da sich nicht jeder Codec gleich verhält und Datenverlust bei sehr stark komprimierten Codecs sich anders äussern als bei weniger komprimierten.
Ebenfalls mit dem Streaming-Test ist ein Bandbreitentest verbunden, durch welchen gemessen wird, inwieweit die eingestellten Kanalparameter der Basisstation eingehalten werden.
2 WiMAX
2.1 Was ist WiMAX?
2.1.1 Technische Grundlagen
WiMAX (Worldwide Interoperability for Microwave Access) ist ein Synonym für den Stan- dard IEEE1 802.16(Vgl.(Soc04)). Beim IEEE (Institute of Electrical and Electronics Engi- neers) handelt es sich um einen weltweit agierenden Berufsverband von Elektro- und Informa- tikingenieuren, die unter anderem für die Standardisierung von Technologien, Hardware und Software zuständig sind. Mit der WiMAX-Technik sollen Internetdienste über regionale Fun- knetze angeboten werden. Da diese Technologie die so genannte „letzte Meile“Überbrücken kann, entsteht damit direkte Konkurrenz zu bestehenden Telefon- und Internetdiensten wie zum Beispiel DSL.
WiMAX kann in erster Linie zur Datenübertragung eingesetzt werden. Allerdings wird Wi- MAX im Moment noch nicht auf breiter Basis eingesetzt und hat daher noch keine kommer- zielle Bedeutung. Der Standard befindet sich noch in der Testphase und es wird versucht die Vor- und Nachteile von WiMAX für Anbieter und Kunden auszuloten. Diese Vor- und Nach- teile werden in Pilotprojekten in Deutschland und anderen Ländern evaluiert und vor allem von Expertenkreisen diskutiert.
Der Standard IEEE 802.16 gehört zur Familie der 802-Standards, wie auch 802.3 Ethernet, 802.5 Token Ring, oder 802.11 Wireless LAN2. Es existieren daher einige Gemeinsamkei- ten zu diesen Standards, wie zum Beispiel das zugrunde liegende Schichtenmodell (OSI3- Modell).
WiMAX spezifiziert in diesem Modell lediglich die beiden untersten Schichten.
Im Unterschied zu Wireless LAN ist bei WiMAX die so genannte Basisstation eine zentrale Instanz, die entscheidet, wer senden darf und wer nicht. Lediglich bei der erstmaligen Anmel- dung konkurrieren verschiedene Endgeräte um die Kommunikation mit der Basisstation.
Viel Wert wurde auf große Übertragungsraten mit sehr kurzen Latenzzeiten (Reaktionszei- ten) gelegt. Auch wurde ein Betriebsmodus mit zugesicherten Bandbreiten integriert. Diese QoS Option ist wichtig z. B. für Telefon und Video-Anwendungen, damit diese nicht plötzlich wegen mangelnder Bandbreite unterbrochen werden. Es kann also, im Gegensatz zu anderen Funktechniken, durch bevorzugte Behandlung der Sprachdatenpakete für eine bessere Sprach- qualität gesorgt werden.
Die Möglichkeiten für unterschiedliche Einsätze in diesem Bereich sind aber noch nicht ganz klar, so dass die nächsten Jahre und die Weiterentwicklung von WiMAX die Entscheidung über dessen Einsatz bringen werden. Grundsätzlich hat die WiMAX - Technologie aber das Potential nach Wireless Lan die nächste viel genutzte kabellose Technologie zu werden und die alten Technologien sogar zu ersetzen. (Vgl.(wik)(MF06))
2.1.2 Vorteile von WiMAX
WiMAX unterscheidet sich in einigen Punkten von den bisher bekannten Standards, woraus sich einige Vorteile ergeben. Bis zu dieser neuen Technologie gab es keinen einheitlichen Standard. WiMAX sendet im Gegensatz zu den bisher bekannten Richtfunkverbindungen im Mikrowellen Bereich zwischen 2 und 66 GHz. Dadurch ergeben sich enorme Reichweiten, im Idealfall von bis zu 50 km. Zudem ist die Datenrate wesentlich höher als bei WLAN4 oder UMTS5 und es ist keine „LoS6“ erforderlich.
Mit WiMAX können Daten sehr viel schneller und kostenünstiger Übertragen werden. Zu- dem können Regionen mit breitbandigem Internet versorgt werden, die bisher mit DSL noch nicht erreicht wurden. Somit könnten mit Hilfe von WiMAX mehr Kunden erreicht werden, als das bisher der Fall ist. Typische Reichweiten von WiMAX werden im Moment mit etwa 600 m angegeben, wobei dann eine Bitrate von um die 20 Mbit/s möglich ist. Damit ist Wi- MAX immer noch deutlich besser als WLAN, obwohl diese Technologie eigentlich noch in den Kinderschuhen steckt. WiMAX bietet den großen Vorteil, nicht mehr auf die sogenannte letzte Meile, die meist in Telekom Besitz ist, angewiesen zu sein. Und darüber hinaus sind bei WiMAX, Quality of Service Funktionalitäten implementiert. (Vgl.(vor))
2.1.3 Das WiMAX-Forum
In Diskussionen um die neue WiMAX-Technologie taucht immer wieder das WiMAX-Forum auf. Dieses Forum hat entscheidenden Einfluss auf die Entwicklung und den kommenden Erfolg der WiMAX-Technologie.
Drahtlose Internetzugänge, wie die WiMAX-Technologie, werden schon seit Beginn der 1990er Jahre diskutiert. Vor WiMAX scheiterten die meisten Anläufe aber letztlich daran, dass es keinen einheitlichen Standard gab. Dadurch war die Verfolgung engagierter Umsetzungs- pläne immer zu kostspielig und daher nicht rentabel.
Mit dem WiMAX-Forum haben die Hersteller drahtloser Vernetzungstechnologien versucht, auf diesen Umstand zu reagieren. Nach der Gründung des WiMAX-Forums im April 2001 haben es sich die Mitglieder dieser Vereinigung zur Aufgabe gemacht, die Kompatibilität und Interoperabilität der Produkte, die nach dem WiMAX-Standard 802.16 produziert wer- den, zu zertifizieren. Dies sollte durch verschiedene Kontrolleinheiten geschehen und gewähr- leistet werden. Außerdem plant das WiMAX-Forum Veranstaltungen zur Interoperbilität der WiMAX-Technologie durchzuführen.
Wenn ein Produkt die Kompatibilitätstests erfolgreich absolviert, darf das Etikett „WiMAX Certified“ angebracht werden, was dem Verbraucher zeigt, dass er ein kompatibles und sehr gut einsetzbares Produkt erworben hat. Dies ist äußerst wichtig für den Erfolg der WiMAX- Technologie. Zwar entwickeln weiterhin unterschiedlichste Firmen Produkte in diesem Be- reich, jedoch kann man durch das WiMAX-Forum und sein Zertifikat sicher gehen, dass die verschiedenen Produkte untereinander kompatibel sind. Die Konkurrenz zwischen den ver- schiedenen Anbietern drahtloser Vernetzungstechnologien bleibt natürlich trotzdem bestehen, aber sie halten sich an gemeinsame Standards. Dies ist für den Verbraucher ein großer Vorteil, denn dadurch werden von Anfang an die Kosten im WiMAX-Bereich gesenkt und gleichzeitig wird die Entwicklung schneller vorangetrieben.
Die genauen Ziele und Aufgaben, die sich das WiMAX-Forum gesetzt hat, können auf deren Homepage unter „www.WiMaxforum.org“ eingesehen werden. Auf dieser Homepage findet man auch Intel, Siemens oder Nokia unter den Mitgliedern. Vor allem Intel fördert mit seiner Chipherstellung die WiMAX-Technik. So konnten für 2007 vom WiMAX-Forum die ersten Chips für Notebooks und Handys angekündigt werden. Weil Intel parallel mit anderen Firmen und Unternehmen des WiMAX-Forums zusammenarbeitet, kann davon ausgegangen werden, dass auch die dazugehörigen Mobilfunk-Basisstationen bereit stehen werden, wenn die Intel- Chips ausgereift sind. (Vgl.(wimb)(MF06))
2.1.4 IEEE 802.16-2004 Standard für Frequenzen zwischen 2 und 11 GHz
Bei diesen Frequenzen benötigt man oft noch keine Sichtverbindung. Die Antennenmontage ist somit einfacher bzw. kann bei mobilen Geräten ganz entfallen. Als Modulationsart wird die für mobile Zwecke gut geeignete OFDM7 zugrunde gelegt. Diese aufwendige Modulationsart geht einerseits sehr sparsam mit den benötigten Frequenzspektren um, andererseits verträgt die OFDM einen Mehrfachempfang durch Reflexionen.
Als Nachteile müssen bei diesen Frequenzen geringere Antennengewinne, eine größere Stö- rung durch Teilnehmer untereinander sowie geringere Datenübertragungsraten aufgrund feh- lender breitbandiger Frequenzspektren in Kauf genommen werden. (Vgl.(neta))
2.1.5 IEEE 802.16-2005 Standard für Frequenzen zwischen 2 und 11 GHz
Der neue Standard IEEE 802.16e-2005 spezifiziert ein weiteres funktechnisches Übertra- gungsverfahren für Frequenzen bis 6 GHz. Es handelt sich um die so genannte SOFDMA8, bei der Qualität des Übertragungsweges und der Rechenleistung mobiler Endge- räte Rechnung getragen werden kann. Dies geschieht durch ein zusätzliches Aufsplitten des Frequenzspektrums auf verschiedene Empfänger und durch Wechsel der Modulationsart der Teilträger. Darüber hinaus bietet IEEE 802.16e-2005 die Möglichkeit, die Funkzelle während des laufenden Betriebes zu wechseln (Handover). IEEE 802.16e-2005 ist keine Erweiterung des IEEE 802.16-2004-Standards, sondern inkompatibel dazu. (Vgl.(neta))
2.1.6 Unterschiede zwichen WiMAX und Wireless Lan
WiMAX und WLAN haben viele Gemeinsamkeiten. Grundsätzlich können beide Techniken auch für ähnliche genutzt werden, z. B. zur einfachen Datenübertragung.
Wireless Lan (Wireless Local Area Network) bezeichnet ein drahtloses lokales Funknetz, wäh- rend WiMAX (Worldwide Interoperability for Microwave Access) für regionale Funknetze eingesetzt werden kann.
Die Unterschiede dieser beiden Systeme sind hauptsächlich auf die unterschiedlichen Reich- weiten zurückzuführen. Wireless Lan ist im Moment der gängigste Standard für lokale Netz- werke, die drahtlos sein sollen. Mit ihm können Reichweiten von 30 bis 300 Metern pro- blemlos Überbrückt werden. Im Idealfall können auch größere Weiten von 3 bis 6 Kilometern erreicht werden, dies ist jedoch in der Praxis selten der Fall.
WiMAX dagegen ermöglicht Datenübertragungen über eine Entfernung von bis zu 50km und ist damit im Bereich der Reichweite der Wireless Lan-Technik weit überlegen.
Das gleiche gilt auch für die Datenübertragung, denn die möglichen Raten liegen bei der WiMAX-Technologie weitaus höher als bei Wireless Lan.
Beide Techniken bieten zudem die Möglichkeit der Sprachübertragung, das heisst im Bereich der Internet-Telefonie sind beide Techniken nutzbar. Allerdings ist für den Einsatz von Wi- MAX eine bessere Qualitätssicherung dieser Sprachübertragungen geplant, so dass WiMAX auch hier Wireless Lan übertreffen wird.
Grundsätzlich muss man aber eingestehen, dass diese Hächstleistungen der WiMAX Techno- logie noch nicht in der Praxis erreicht wurden. Auch WiMAX wird nicht über eine Entfernung von 30 oder mehr Kilometern von einem Endgerät aus eine 75 MBit/s Verbindung aufbauen können. Dies ist technisch derzeit noch nicht möglich.
Man darf also gespannt sein, in welchem Maße die WiMAX-Technologie Wireless Lan in den nächsten Jahren noch übertreffen wird, gesetzt den Fall, dass eine flächendeckende Einführung dieser Technologie stattfinden wird. (Vgl.(wima)(MF06))
2.1.7 Praxis
Mit in Labortests erreichten 50 km Reichweite und einer Datentransferrate von bis zu 108 Mbit/s (bei 28 MHz Bandbreite) übertrifft WiMAX die derzeit aktuelle WLAN-Technik (die- se kommt im Außenbereich unter Verwendung des 802.11a/h-Standards auf bis zu 20 km Reichweite, bei Datenraten bis zu 108 Mbit/s).
In der Praxis wird bei portablem Betrieb ein Radius von ca. 2 Kilometer erwartet. Außer- dem müssen sich alle beteiligten Nutzer die zur Verfügung stehende Bandbreite teilen. Wegen der möglichen Übertragungsraten wird die WiMAX-Technik unter anderem auch als Alter- native zu DSL-Leitungen und UMTS-Verbindungen diskutiert. Die Technik wird maßgeblich vom Chiphersteller Intel unterstützt, welcher Chips für Notebooks und Telefone angekündigt hat. Strategische Partnerschaften, wie z. B. mit Alcatel, sichern die parallele Entwicklung dazugehöriger Mobilfunk-Basisstationen. Bisher haben sich 350 Technologieunternehmen im WiMAX-Forum zusammengeschlossen, um durch Standardisierung von WiMAX die Kompa- tibilität der einzelnen Produkten untereinander zu gewährleisten. Dazu gehören auch führende Netzwerkausrüster wie Siemens sowie große Netzbetreiber wie AT&T und British Telecom. Der weltgrößte Konzern für mobile Endgeräte Nokia hatte sich aus dem WiMAX-Forum zu- rückgezogen, ist jedoch inzwischen wieder beigetreten. Auch der weltgrößte Hersteller von Mobilfunknetzen, Ericsson aus Schweden, gehört mittlerweile dem Forum an. (Vgl.(neta))
2.2 Technische Daten
2.2.1 Technische Daten MacroMax
Abbildung in dieser Leseprobe nicht enthalten
Tabelle 2.1: Softwarestände MacroMax
- unterstützt 802.16-2004 (256 OFDM PHY)
- aufrüstbar auf 802.16e
- FDD9oder TDD10; 3,5MHz / 7MHz / 10MHz
- adaptive Modulation
– QPSK11, QAM1612, QAM6413
– FEC14 Raten von 1/2 bis 3/4
– Guard Intervall von 1/32, 1/16, 1/8 und 1/4
- RX/TX Antennen Diversity
- Inter-Zellen Interferenz kann umgangen werden mit unterschiedlichen Sub-Carriers in Sub-Channels
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2.1: MacroMax Airspan (mac)
2.2.2 Technische Daten EasyST
- Selbst-Installierende CPE
- Optional IEE 802.11b/g Wi-Fi Acces Point
- VoIP15 Station für 1 oder 2 POTS16
- 8.5dBi, 4 x 90 ◦ selbst wählende Antennen
- 13dBi externe Fenster-Antenne
- Mobil inerhalb der Zelle (Vgl.(cpe))
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2.2: Airspan CPE EasyST (cpe)
2.2.3 Technische Daten WayMax
Abbildung in dieser Leseprobe nicht enthalten
Tabelle 2.2: Softwarestände WayMAX
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2.3: WayMAX-Aufbau (waya)
- unterstützt 802.16-2004 (256 OFDM PHY)
- Duplex Mode FDD
- Adaptive Modulation
– BPSK17, QPSK, QAM16, QAM64
– Kanalbandbreite 3.5 MHz
– Ausgangsleistung an der Antenne bis zu +35dBm
– Empfänger Empfindlichkeit -100 dBm bis -82 dBm
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2.4: WayMAX @vantage Station (waya)
2.2.4 Technische Daten WayMax CPE
- Selbst-Installierende CPE
- Optional IEE 802.11b/g Wi-Fi Acces Point
- Frequenzbereiche
– 2,3 GHz - 2,5 GHz
– 3,4 GHz - 3,6 GHz
– 3,6 GHz - 3,8 GHz
- 9.5dBi Gain (Vgl.(wayb))
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2.5: Siemens WayMAX CPE (wayb)
2.2.5 Technische Daten der Antennen
Die am Mast montierten Antennen sind 5,5 kg schwer und horizontal polarisiert. Sie haben einen Gewinn von 13,5 dBi und der Öffnungswinkel beträgt 120°. Die Elevation beträgt 10°.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2.6: Antenne der Basisstation
2.3 Sektorenaufteilung
Die WiMAX-Basisstation befindet sich auf dem Dach der HTW (Goebenstraße). Sie versorgt 3 Sektoren wovon jedoch derzeit nur 2 Sektoren verwendet werden.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2.7: Sektor Einteilung
3 Video Kompression
3.1 MPEG-1/2 Standard
3.1.1 Systemschicht
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 3.1: MPEG-Struktur
Es befinden sich Audio- und Video-Elementarströme in einem Bitstrom. Des Weiteren ist es möglich, mehrere Systemströme zu Transportströmen zu verbinden. Hierzu werden die Da- ten paketiert und mit Zusatzinformationen und Fehlerschutzmechanismen versehen, so dass eine parallele Übertragung per ATM1-Netze durchführbar ist. Jedes Paket besitzt einen 4- Byte-Marker (die sog. Startcodes). Anhand diesem werden die Audio- und Videomodule ge- trennt.
3.1.2 Kompressionsverfahren
3.1.2.1 Struktur der Video-Elementarströme
Die MPEG2-Video-Spezifikation beschreibt die Decodierung von Bildsequenzen. Jede Bild- gruppe setzt sich aus einer Abfolge von Bildern verschiedener Typen zusammen. Das erste ist immer ein Intra-Codiertes Bild (I-Frame). P-Frames sind Prädiktiv-Codierte-Bilder. Zur Ver- arbeitung wird ein vorheriges I-Frame oder ein P-Frame verwendet. B-Frames sind ebenfalls Intra-Codiert und dienen zur bidirektionalen Prädiktion.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 3.2: MPEG-GOP (Ric05)
Diese zusammengenommen ergeben die GOP3
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 3.3: MPEG-Layer (Ric05)
Die Anzahl der Bilder pro GOP sowie der Abstand von I- zu P-Frame kann frei gewählt werden, wobei nur zu beachten ist, dass die B-Frames zwischengespeichert werden müssen, bis das nachfolgende P-Frame Übertragen wurde.
Das Bild setzt sich aus „Scheiben“ zusammen, welche wiederum aus Makroblöcken bestehen. Diese wiederum aus vier 8x8-Luminanzblöcken und aus zwei 8x8-Chrominanzblöcken. MPEG-1 unterstützt nur das 4:2:0-Format, wohingegen MPEG-2 auch 4:2:2 und 4:4:4 zulässt.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 3.4: MPEG-Makroblock (Ric05)
Die Codierung der MPEG-Ströme erfolgt asymmetrisch. Zur Decodierung muss der Decoder einfach nur den Anweisungen folgen, schwieriger hingegen ergibt sich die Encodierung. Der Encoder muss die Bewegung detektieren, den optimalen Bewegungsvektor bestimmen und den besten Codierungsmodus auswählen. Des Weiteren müssen die Daten gepuffert werden, um eine Ausgabe mit einer konstanten Bitrate zu ermöglichen.
3.1.2.2 Codierung von I-Frames
Die Codierung der Intra-Frames basiert auf dem Prinzip der JPEG4-Codierung. Jeder 8x8-Block wird DCT5-transformiert und anschließend quantisiert. Auf die AC-Koeffizienten werden mit einer Kombination aus Lauflängen-/Huffman-Codierung ver- arbeitet, wohingegen die DC-Koeffizienten differentiell verarbeitet werden. Beim MPEG-1- Standard sind die Quantisierungswerte für die DC-Koeffizienten auf 8 festgelegt, anders beim MPEG-2-Standard, welcher auch Werte von 4, 2 und 1 erlaubt und somit höhere Bildqualität ermöglicht.
Gleichung zur Erstellung der Koeffizienten:
Abbildung in dieser Leseprobe nicht enthalten
Die Quantisierungswerte Q[ k,l ]sind frei wählbar. Der Parameter qscale (1...31) beeinflusst die Quantisierungsstärke und dient zur Variation der Kompressionsrate.
Abbildung in dieser Leseprobe nicht enthalten
3.1.2.3 Codierung von P- und B-Frames
Bei der Codierung von P- und B-Frames muss der Encoder auf Makroblock-Ebene entschei- den, ob Inter-Codiert (Bewegungskompensation) oder Intra-Codiert (nicht voraussagbarer Bildinhalt) wird. Bei B-Frames wird noch entschieden, ob eine ausschließliche vorwärts-, rückwärts- oder kombinierte Prädiktion zum Einsatz kommt. Die Intra-Codierung von P- oder B-Frames erfolgt gleich der Codierung von I-Frames. Nur bei der Inter-Codierung wird die Quantisierung der 8x8-Blöcke modifiziert.
Abbildung in dieser Leseprobe nicht enthalten
3.1.2.4 Bewegungskompensation
Die Bewegungskompensation erfolgt durch ein Block-Matching Verfahren. Die Art der Be- wegungsschätzung ist nicht vereinheitlicht. Pro Makro wird ein Bewegungsvektor erstellt. Bei Blöcken der B-Frames können es auch zwei sein, wegen der bidirektionalen Voraussagung.
3.1.2.5 Bitratensteuerung
Ein FIFO6-Puffer nimmt Daten auf und gibt sie mit konstanter Bitrate weiter. Neigt sich der Puffer seiner Kapazitätsgrenze, wird die Quantisierung erhöht, was in einer höheren Kompres- sionsrate resultiert. Dazu dient q scale. Im Gegensatz zur Leerung des Puffers wird die Quanti- sierung verringert. Ist dies nicht mehr möglich, werden Stopfbits eingefügt.
3.1.2.6 Profile
Bei MPEG-2 gibt es 5 unterschiedliche Profile, das wichtigste ist das Main-Profil. Die Profile unterscheiden sich durch ihre Bitraten und Bildformate.
Abbildung in dieser Leseprobe nicht enthalten
Tabelle 3.1: MPEG-2-Profile
Abbildung in dieser Leseprobe nicht enthalten
Tabelle 3.2: Level-Definitionen
Main-Profile@Main-Level (MP@ML) bezieht sich auf das normale digitale Fernsehen.
3.1.3 Decodieren
Es gibt vier Arten der Datenrückgewinnung:
1. Wie bei der JPEG-Codierung werden die Daten in verschiedenen Schichten gehand- habt, je nach Qualität des Decoders. Die erste Schicht wird mit einer hohen Datendichte versehen. Jede weitere Schicht enthält Verfeinerungsdaten, die je nach Leistung des De- coders verwendet werden.
2. Es erfolgt ein zeitliches Skalieren der Daten mit reduzierter Bildfolgefrequenz. Fehlen- de Frames müssen interpoliert werden. Decoder mit geringer Leistung können ledig- lich den primären Datenstrom in Echtzeit auslesen, leistungsstärkere können dabei auch noch die Zusatzinformationen decodieren.
3. Es wird ein mehrfach unterabgetastetes Videosignal gesendet, welches zur Rekonstruk- tion der Frames durch Interpolation der Prädiktionsframes dient. Dies entspricht der hierarchischen Codierung bei JPEG.
4. Als letztes gibt es die Datenportionierung. Hier werden die Daten in wichtigere Klassen aufgeteilt (Header, Bewegungsvektoren, DCT-Koeffizienten) und den weniger wichti- gen Klassen.
4 H.264
4.1 Einführung
H.264 wurde als Kompressionsverfahren mit sehr niedriger Bitrate vorgesehen. Der Einfluss auf MPEG-4 war sehr groß, die Codierungsprozedur wurde in Part 2 von MPEG-4 übernom- men.
4.2 Grundlagen
H.264 ist ein Schicht-Konzept, die Videocodierungsschicht VCL1. Sie besteht aus einem kon- ventionellen Block-basierendem System zur Videokompression, welche änderungen aufweist und deutlich leistungsfähiger ist. Es werden nicht nur I- , P- und B-Frames gesendet, sondern zusätzlich auch noch SI- und SP-Frames, welche ein Umschalten zwischen den Bitströmen ohne fehlende Referenzbilder ermöglicht.
Die erhöhte Kompressionsrate resultiert aus der Summe der Änderungen und Verbesserun- gen:
- keine feste Reihenfolge während der Referenzierung von Frames
- logarithmische Abstufung der globalen Quantisierung
- verbesserte Entropie-Codierung
- multiple Referenzbildung
- Blöcke können in bis zu 4x4-Blöcken unterteilt werden
- Deblocking-Filter in der zeitlichen Prädiktionsschleife
4.3 Dekorrelation
4.3.1 Örtliche Prädiktion
Die Örtliche Prädiktion ist ein neues Element im H.264-Standard. Für zeitlich nicht vorhersag- bare Blöcke (I-Frames) wird eine Prädiktion mit Hilfe der bereits verarbeiteten, benachbarten Blöcke durchgeführt.
Intra-4x4-Modus basiert auf der Prädiktion von Luminazblöcken mit 4 mal 4 Bildpunkten. Dieser eignet sich hervorragend fär detailreiche Bildausschnitte.
Neben dem Intra-4x4-Modus gibt es noch eine Intra-16x16-Prädiktion, welche einen ganzen Makroblock voraussagt.
Die Chrominazblockprädiktion ähnelt der Intra-16x16-Prädiktion, da die Farbkomponenten in den meisten Fällen glatt und ohne abrupte Wertänderung stattfinden.
4.3.2 Bewegungskompensation
Wird ein Makroblock nicht im Intra-Modus vorausgesagt, erfolgt dies durch eine zeitliche Prädiktion mit Hilfe eines übertragenen Referenzbildes. Für Luminanzkomponenten werden Blockgrößen von 16x16, 16x8, 8x16 oder 8x8 verwendet. Pro Makroblock müssen bei voll- ständiger Zerlegung in 4x4-Blöcke 16 Bewegungsvektoren Übertragen werden.
Die Chrominazkomponenten werden z.B. bei einer 8x4-Zerlegung mit 4 mal 2 Bildpunkten übertragen. Die Bewegungsvektoren werden halbiert.
In Bereichen mit konstanter Bewegung kann auch das Überspringen des gesamten Blockes möglich sein. Die Bewegung wird aus den benachbarten Blöcken abgeleitet.
Neu ist ebenfalls, dass jedes beliebige Bild als Referenz dienen kann. Ein Referenzbild- Management verwaltet Referenzbilder in zwei Listen, eine mit direkten Vorgängen und eine als Langzeitspeicher.
Die zeitliche Prädiktion wurde verallgemeinert. B-Frames können als Referenz verwendet werden und auch aus zwei zeitlich vorausgegangenen Referenzbilder vorhergesagt werden.
H.264 unterstützt sowohl progressive Bilder als auch mit Zeilensprungverfahren erzeugte. Im PAFF2-Modus wird die Verarbeitung gewählt. Diese findet im Vollbild- oder Halbbild-Modus statt.
4.3.3 Prädiktion von Bewegungsvektoren
Ein großer Teil der Gesamtinformation beanspruchen die Bewegungsvektoren. Diese Vektoren werden mit Hilfe von drei Nachbarblöcken vorhergesagt. Falls es keine Nachbarn gibt (Bild- rand) wird die Prädiktion angepasst. Der Vektor wird codiert, übertragen und vom Decoder durch Summation von Differenz und Prädiktionsvektor rekonstruiert. Nur bei übersprungenen Makroblöcken gibt es kein Differenzsignal.
4.3.4 Transformation
Bei der Entwicklung von H.264 wurde sich von der 8x8-DCT distanziert. Stattdessen wurde eine Integertransformation für 4x4-Blöcke gewählt. Dadurch wurden die sichtbaren Blockar- tefakte verringert.
Intra-Blöcke dienen bei der Transformation ausschließlich der Dekorrelation von Prädiktions- fehlern. Es gibt drei verschiedene Transformationsmatritzen:
1. Wird für Prädiktionsfehlerblöcke bei Luminaz- als auch bei Chrominanzkomponenten verwendet.
Abbildung in dieser Leseprobe nicht enthalten
2. Die Multiplikation mit 1/2 kann als Vorzeichen erhaltende Bitverschiebung implemen- tiert werden. Die von der 1-Bit-Rechtsverschiebung verursachten kleinen Fehler werden durch eine 2-Bit-Verstärkung im Wertebereich des Inputsignals für die inverse Transfor- mation kompensiert.(Vgl.(MHKK03))
Abbildung in dieser Leseprobe nicht enthalten
Die Chrominanzkomponenten enthalten aufgrund der Unterabtastung nur 4-DC-Koeffizienten. Es wird deswegen eine 2x2-Matrix verwendet
Abbildung in dieser Leseprobe nicht enthalten
Es werden keine 32Bit mehr zur Transformation verwendet, sondern lediglich noch eine 16- Bit-Arithmetik für Bilder mit einer Bittiefe von 8 Bit. Hierdurch wird der Rechenaufwand reduziert, da nur noch Addition und Bit-Shift verwendet werden.
4.4 Quantisierung
Die Quantisierung ist stark mit der Integer-Transformation verknüpft. Der globale Quantisie- rungsparameter zur Bitratensteuerung darf Werte zwischen 0 und 51 annehmen. Die Quan- tisierungstabellen sind so entworfen, dass die Quantisierungsintervalle sich um etwa 12 % verbreitern. Zur Reduzierung von sichtbaren Verzerrungen in den Farbkomponenten sind die Quantisierungswerte für Chrominanzen auf 39 begrenzt.
4.5 Codierung
Zur Codierung der Syntaxelemente wird eine einheitliche Code-Tabelle auf Basis des Golomb- Codes3 eingesetzt. Zur übertragung der quantisierten Koeffizienten wird eine Kontext-basierte Methode verwendet CAVLC4. Diese Koeffizienten werden dann durch eine Zick-Zack-Abtastung in eine Sequenz von Symbolen gewandelt.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 4.1: Zick-Zack-Scan (Str05)
Die Leistungsfähigkeit der Entropiekodierung lässt sich mit Hilfe einer Kontext-basierten bi- nären arithmetischen Codierung der CABAC5noch weiter steigern. Die Statistik von bereits verarbeiteten Symbolen wird für die Schätzung von bedingten Wahrscheinlichkeiten verwen- det. CABAC hält sich mit der Komplexität in Grenzen, da keine Multiplikation verwendet wird und die meisten Operationen mit Look-Up-Tabellen erfolgen.
CABAC besteht aus einer Binarisierung des Symbols, dieses kann durch einen FLC6 oder VLC7 erfolgen. Des Weiteren wird eine Kontext-adaptive Modellierung der Wahrscheinlich- keitsverteilung verwendet und zuletzt erfolgt die arithmetische Codierung.
4.6 Unterdrückung von Block Artefakten
Das Fortpflanzen von Block-Artefakten ist ein Problem von anderen Videokompressionsver- fahren. Dieses entsteht durch eine zu hohe Quantisierung der Transformationskoeffizienten und durch die blockbasierte Bewegungskompensation. Die Fortpflanzung erfolgt durch die Verwendung von fehlerhaften Frames, welche nicht vollständig ausgeglichene Blöcke enthal- ten, zur Prädiktion des nächsten Frames.
Hier wird bei H.264 ein Deblocking-Filter verwendet. Bevor ein Bild als Referenz benutzt wird, erfolgt eine Glättung der Blockkanten. Die Grundidee besteht aus der Annahme, dass jede Blockkante vorhanden ist, wenn eine Differenz der Bildpunkte besteht. Ist der Änderungs- faktor zu groß, handelt es sich nicht um einen Quantisierungsfehler, sondern um ein Merkmal des Bildsignales. Die Filterung erfolgt auf Makroblock-Basis. Es werden erst die vertikalen, dann die horizontalen Kanten betrachtet.
Ein Nachteil des Deblocking-Filters besteht im hohen Rechenaufwand. Durch seinen Einsatz wird jedoch, bei gleicher objektiver Qualität, eine Reduktion der Datenrate um 5 - 10 % er- reicht.
4.7 Level
Die Profile ähneln der des MPEG-Standards. Profile allein sind nicht immer ausreichend. Um allem gerecht zu werden, wurde eine weitere Ebene eingeführt, der Level. Ein Level spezifi- ziert Randbedingungen wie Bildgröße, Bitrate oder Größe des Bildspeichers.
5 MPEG-4
5.1 Einführung
MPEG-4 wurde ursprünglich darauf ausgelegt, mit geringen Ressourcen oder schmalen Band- breiten bei relativ geringen Qualitätseinbußen auszukommen. H.263 von der ITU1bietet diese Vorraussetzungen und wurde daraufhin ebenfalls in den MPEG-4-Standard integriert.
Zur Videokodierung kommt noch die Audiokompression hinzu, welche wie bei MPEG-2 mit AAC2erfolgt und überdies noch DRM3 unterstätzt.
Offiziell wird MPEG-4 im MP4-Containerformat verwendet, aber es haben sich mit der Zeit sehr viele andere Formate verbreitet, Schlagwörter hier sind XVID4/ DIVX5.
5.2 Codierung
Das Blockschaltbild zeigt die MPEG-4 Codierung für einen ASP 6 Decoder.
[...]
1Worldwide Interoperability for Microwave Access
2Quality of Service
1Customer Premises Equipment
2Digital Subscriber Line
3Kunstwort aus engl. coder und decoder
1Institute of Electrical and Electronics Engineers
2Local Area Network
3Open Systems Interconnection Reference Model
4Wireless Local Area Network
5Universal Mobile Telecommunications System
6Line of Sight
7Orthogonal Frequency Division Multiplex
8Scalable Orthogonal Frequency Division Multiplex Access
9Frequency Division Duplex
10Time Division Duplex
11Quadratur-Phasenumtastung
12Quadraturamplitudenmodulation
13Quadraturamplitudenmodulation
14Forward Error Correction
15Voice over IP
16Plain old telephone service
17Binarie Phase-Shift Keying
1Asynchronous Transfer Mode
2Moving Picture Experts Group
3Group of Pictures
4Joint Photographic Experts Group
5Joint Photographic Experts Group
6First In, First Out
1Video Code Layer
2Picture-Adaptive Frame/Field
3Darstellungsform für alle positiven ganzen Zahlen
4Context Adaptive Variable Length Coding
5Context Adaptive Binary Arithmetic Coding
6Fix Length Code
7Variable Length Coding
1International Telecommunication Union
2Advanced Audio Coding
3Digital Rights Management
4Digitaler Video Codec
5Digitaler Video Codec
6Advanced Simple Profile
- Quote paper
- Dipl.-Ing.(FH) Frank Hamm (Author), 2007, Video-Streaming über WiMAX, Munich, GRIN Verlag, https://www.grin.com/document/117039
-
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X.