In der heutigen Firmenlandschaft ist Hochverfügbarkeit längst keine optionale Entscheidung mehr. Datenverfügbarkeit ist wichtiger denn je, vor allem weil das anfallende Datenvolumen in Firmen ständig steigt. Unternehmen und Applikationen werden größer, wodurch sich auch das Anpassen der zugehörigen Rechenzentrumsinfrastruktur zu einem kritischen Prozess entwickelt. Das Internet und das Aufkommen des E-Commerce beschleunigte die Globalisierung der Unternehmen, so dass das alte 8 Stunden x 5 Tage-Modell seine Gültigkeit verloren hat. Heutzutage findet das operative Geschäft an 24 Stunden einer 7-Tage-Woche statt. Datenverfügbarkeit ohne Unterbrechung 365 Tage im Jahr um das Geschäft aufrecht zu erhalten. Ein Internetnutzer kümmert sich nicht um Öffnungszeiten. Er erwartet rundum die Uhr interessante Angebote und die Möglichkeit, darauf zu reagieren. Zeit ist Geld und nach dem Motto handeln auch die Kunden: ist eine Website nicht verfügbar, geht er zur nächsten.
Deshalb kommt es darauf an, dass sowohl die Angebote gepflegt werden, als auch die relevante Hardware permanent verfügbar ist. Die steigende Abhängigkeit vom Computer im Alltag wirkt sich zwar schleichend, aber deshalb nicht minder dramatisch aus.
Nicht nur dass Datenverlust, dem höchsten Gut eines Unternehmens, katastrophale Auswirkungen hat, auch schon die Tatsache auf Daten nicht zugreifen zu können ist im Regelfall sehr kostspielig. Das Paradebeispiel hierfür ist der Börsenhandel. Ein Internet-Broker garantiert seinen Kunden die Abwicklung aller Aufträge innerhalb von zwei Stunden. Damit ist ein hohes Risiko verbunden, denn falls es zu einem Totalausfall des IT-Systems über mehrere Stunden kommt, so kann dies Regressforderungen in Millionenhöhe wegen Spekulationsverlusten oder entgangenen Gewinnen nach sich ziehen.
[...]
Inhaltsverzeichnis
Abbildungsverzeichnis
Tabellenverzeichnis
1. Einleitung
2. Definition Hochverfügbarkeit
2.1 Komponenten moderner, hochverfügbarer Speichersysteme
2.2 SAN Grundlagen
3. Einführung in die Fibre Channel-Technologie
3.1 Fibre Channel-Ebenen
3.2 Fibre Channel-Ports
3.3 Fibre Channel-Serviceklassen
3.4 Fibre Channel-Topologien
3.4.1 Point-to-Point
3.4.2 Arbitrated Loop
3.4.3 Fibre Channel Switched Fabric
3.4.3.1 Switched Fabric ohne Cascading
3.4.3.2 Switched Fabric mit Cascading
4. Das Potential von iSCSI (Small Computer Systems Interface over IP)
4.1 Einordnung von iSCSI unter anderen Protokollen
4.2 Aufbau und Funktionsweise von iSCSI
4.3 iSCSI-Netzwerkarchitektur
4.4 iSCSI-Protokollmodell
5. Fazit
Anhang
Literaturverzeichnis
Abbildungsverzeichnis
Abbildung 1: Kosten pro Stunde Ausfallzeit in Millionen Dollar
Abbildung 2: Network Attached Storage (NAS), Storage Area Networks (SANs) sowie Direct Attached Storage (DAS)
Abbildung 3: Fibre Channel-Protokollebenen
Abbildung 4: Fibre Channel-Ports im SAN
Abbildung 5: Gigabit Interface Converter
Abbildung 6: Fibre Channel-Point-to-Point-Topologie
Abbildung 7: Fibre Channel-Loop-Topologie
Abbildung 8: Fibre Channel-Switched-Topologie
Abbildung 9: Fibre Channel Switched-Topologie (ohne Cascading)
Abbildung 10: Fibre Channel Switched-Topologie (mit Cascading)
Abbildung 11: iSCSI-Paket
Abbildung 12: iSCSI-Session mit einer oder mehreren Verbindungen
Abbildung 13: iSCSI-Protokollstack
Tabellenverzeichnis
Tabelle 1: Stufen der Verfügbarkeit
Tabelle 2: Fibre Channel-Ports im SAN
1. Einleitung
In der heutigen Firmenlandschaft ist Hochverfügbarkeit längst keine optionale Entscheidung mehr. Datenverfügbarkeit ist wichtiger denn je, vor allem weil das anfallende Datenvolumen in Firmen ständig steigt. Unternehmen und Applikationen werden größer, wodurch sich auch das Anpassen der zugehörigen Rechenzentrumsinfrastruktur zu einem kritischen Prozess entwickelt. Das Internet und das Aufkommen des E-Commerce beschleunigte die Globalisierung der Unternehmen, so dass das alte 8 Stunden x 5 Tage-Modell seine Gültigkeit verloren hat. Heutzutage findet das operative Geschäft an 24 Stunden einer 7-Tage-Woche statt. Datenverfügbarkeit ohne Unterbrechung 365 Tage im Jahr um das Geschäft aufrecht zu erhalten. Ein Internetnutzer kümmert sich nicht um Öffnungszeiten. Er erwartet rundum die Uhr interessante Angebote und die Möglichkeit, darauf zu reagieren. Zeit ist Geld und nach dem Motto handeln auch die Kunden: ist eine Website nicht verfügbar, geht er zur nächsten.
Deshalb kommt es darauf an, dass sowohl die Angebote gepflegt werden, als auch die relevante Hardware permanent verfügbar ist. Die steigende Abhängigkeit vom Computer im Alltag wirkt sich zwar schleichend, aber deshalb nicht minder dramatisch aus.
Nicht nur dass Datenverlust, dem höchsten Gut eines Unternehmens, katastrophale Auswirkungen hat, auch schon die Tatsache auf Daten nicht zugreifen zu können ist im Regelfall sehr kostspielig. Das Paradebeispiel hierfür ist der Börsenhandel. Ein Internet-Broker garantiert seinen Kunden die Abwicklung aller Aufträge innerhalb von zwei Stunden. Damit ist ein hohes Risiko verbunden, denn falls es zu einem Totalausfall des IT-Systems über mehrere Stunden kommt, so kann dies Regressforderungen in Millionenhöhe wegen Spekulationsverlusten oder entgangenen Gewinnen nach sich ziehen.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 1: Kosten pro Stunde Ausfallzeit in Millionen Dollar[1]/[2]
2. Definition Hochverfügbarkeit
Hohe Verfügbarkeitsraten der Systeme sind allzu oft Werbemittel vieler Hersteller. Mit Stolz nennt man 99,999 % als Beschreibung der maximalen Verfügbarkeit pro Jahr. Selbst Systeme auf NT-Basis weisen erstaunlich hohe Zahlen jenseits von 99,5 % Verfügbarkeit auf. Ratsam ist es aber im Kleingedruckten nachzulesen, wie sich die „Downtime“ errechnet. Einige Klarstellungen und Abgrenzungen sind deshalb angebracht.
Hochverfügbarkeit (im Folgenden auch High Availability oder kurz HA genannt) nimmt minimale Ausfallzeiten billigend in Kauf. Der Anwender nimmt diese Ausfallzeit maximal als kurze Unterbrechung wahr. Fehlertoleranz erlaubt keine auch noch so geringe Ausfallzeit. Hier muss das System ohne jeden Aussetzer mit allen auftretenden Widrigkeiten fertig werden.[3] Das macht sich natürlich in der technischen Komplexität und damit auch im Preis bemerkbar.
Abbildung in dieser Leseprobe nicht enthalten
Tabelle 1: Stufen der Verfügbarkeit[4]/[5]
Obwohl uns 99% Verfügbarkeit hoch erscheinen, würde dieses „hochverfügbare“ System länger als 83 Stunden im Jahr lahm liegen. Höhere Verfügbarkeitsgrade sind nur mit einer hochverfügbaren Speicherinfrastruktur zu erreichen. Das Hauptaugenmerk muss dabei auf die Vermeidung unvorhersehbarer Ausfälle gelegt werden, wie es Stromausfälle, Netzwerkprobleme sowie Hard- oder Softwarefehler sind. Planbare Ausfallzeiten durch Wartung, Hardwareaufrüstung oder das Einspielen von Software-Updates soll ebenso vermieden werden.[6]
Führt das Versagen einer einzigen Komponente zum Komplettausfall wird dies als ein SPoF (Single Point of Failure) bezeichnet. Im Rahmen der Anforderungen von Hochverfügbarkeit muss solchen Fehlern entgegnet werden. Eine ausführlichere Aufstellung von geplanten und ungeplanten Fehlerquellen finden Sie im Anhang unter Punkt A.
2.1 Komponenten moderner, hochverfügbarer Speichersysteme
Komponenten, die den Anforderungen moderner Speicherinfrastruktur genügen, beginnen bei redundanten Komponenten einzelner Server, umfassen ferner die RAID-Technologie (Redundant Array of Independent Disks), Failover-Cluster, skalierbare Cluster, Storage Area Networks (im Folgenden kurz SANs genannt) sowie Network Attached Storage (NAS), Virtual Storage Area Networks (VSANs) sowie moderne Backup-Technologien. Vergessen werden dürfen aber auch nicht die bautechnischen Vorsorgemaßnahmen für den Katastrophenfall. Feuer, Löschwasser, Feuchtigkeit, Brandgase oder Vandalismus seien nur einige der möglichen Bedrohungen für ein Rechenzentrum, denen es zu begegnen gilt. Bei 85% Luftfeuchtigkeit oder einer Temperatur von 70° Grad Celsius kommen Hardwarekomponenten schon an ihre Belastungsgrenze. Magnetische Datenträger werden sogar noch eher vernichtet.[7] Eine Investition in feuerfeste, klimatisierte IT-Sicherheitsräume mit Zugangskontrolle, Brandmelde- sowie Löschsystem und einer unterbrechungsfreien Stromversorgung (USV) ist deshalb unabdingbar.
Der Storage Networking Markt explodiert derzeit und geht schnell von einem serverzentrierten Modell mit Speicherkapazitäten an den Servern über zu einem netzwerkzentrierten Modell, das Storage Area Networks (SAN), Network Attached Storage (NAS) ebenso umfasst wie das altbewährte Fibre Channel (FC), aufkommende offene IP-Protokolle wie iSCSI oder FCIP und die DWDM-Technologie (Dense Wavelength Division Multiplexing)[8].
SAN und NAS weichen grundlegend voneinander ab, am deutlichsten in ihrer Art Daten zu transportieren. NAS wählt hier den Weg über die Transportprotokolle NFS für Unix und CIFS für Windows. SANs hingegen benutzen Transportprotokolle wie es die bereits genannten Fibre Channel und iSCSI sind. Ein weiterer Unterschied ergibt sich aus dem Speicherzugriff. Bei SANs erfolgt er blockorientiert, dateiorientiert bei NAS. Eine naheliegende Tatsache, wenn man bedenkt, dass sich ein NAS aus vernetzten File-Servern zusammensetzt. Zur Speichererweiterung schließt man diese an eine bestehendes TCP/IP-Netzwerk (Ethernet) an.[9]
Zu NAS finden Sie in dieser Arbeit keine Vertiefung, eine Einführung in SAN folgt jedoch im kommenden Abschnitt. Bevor dies geschieht sollen zunächst aber die folgenden Graphiken die Unterschiede zwischen SAN, NAS und DAS veranschaulichen.
Abbildung in dieser Leseprobe nicht enthaltenAbbildung in dieser Leseprobe nicht enthaltenAbbildung in dieser Leseprobe nicht enthalten
Abbildung 2: Network Attached Storage (NAS), Storage Area Networks (SANs)[10] sowie Direct Attached Storage (DAS)[11]
2.2 SAN Grundlagen
Storage Area Networks haben in den letzten Jahren einen gewaltigen Boom erlebt, sind aber dennoch keine neue Erfindung: IBM stellte bereits 1991 ihre proprietäre Version namens ESCON vor. Es handelte sich dabei um eine Switched- oder Punkt-zu-Punkt-Topologie mit einer durchschnittlichen Datentransferrate von 117MByte/s.[12]
Eine Weiterentwicklung an der Technologie hat sich als lohnend erwiesen. Hochgeschätzt sind SANs auch heute, insbesondere weil sie hochverfügbare und skalierbare Speicherdienste ermöglichen, die Kosten reduzieren und die Komplexität bei der Verwaltung der Speicherressourcen verringern. In vielen Bereichen hat sich das SAN als Standardplattform etabliert. SAN bezeichnet eine Struktur, in der einzelne Speichermedien in einem eigenen Subnetz in Verbindung stehen. Dies bedeutet, dass ein SAN vollständig vom Unternehmens-LAN oder WAN getrennt ist.
Mehrere Hostsysteme besitzen über ihre Host-Bus-Adapter Zugriff auf ein und dasselbe Storage Array. Spiegelung der Daten über größere Entfernungen und Zugriffe von mehreren Hosts auf die Massenspeicher sind innerhalb eines SAN auch kein Problem mehr. Anstatt über TCP/IP, wie bei NAS, kommuniziert das klassische SAN über SCSI-Befehle mit den Servern und Clients.
Verwendung finden diese leistungsfähigen Storage Area Networks hauptsächlich in großen, zentralen Rechenzentren, wo sie Hochleistungsserver mit großen Storage-Pools verbinden. Eine typische heterogene SAN-Architektur besteht aus mehreren Servern mit verschiedenen Betriebssystemen (Windows NT, Solaris oder UNIX). Betriebssysteme von Microsoft nehmen im Gegensatz zu Unix-Derivaten sofort den kompletten Speicherplatz in Beschlag. Deshalb können über SAN-Software oder Hardwarelösungen sogenannte „Zoning Level“ eingerichtet werden, die eine gewollte Verteilung des Speichers an ausgewählte Server ermöglichen. Diese „Zoning Level“ spezifizieren Zugriffsrechte zu angeschlossenen Ports oder Geräten.
Dazu kommen eine Vielzahl verschiedener Speicher- sowie Backup-Systeme. Egal ob RAID Storage Arrays, Magnetbandbibliotheken, CD-ROM-Bibliotheken, JBOD-Systeme[13] (Just a Bunch of Disks) oder Kombinationen dieser Speichersysteme – ein SAN ist flexibel im Aufbau.
Für die Kommunikation zwischen den Applikationsservern und den verschiedenen Speichersystemen wird meist das Fibre Channel-Protokoll (FCP) eingesetzt. Das FCP basiert auf seriellem SCSI, das aber speziell für die Anforderungen in einem SAN angepasst worden ist. Die Fibre Channel-Technologie hat sich als bedeutener Industriestandard etabliert und verdankt dies insbesondere seiner hohen Zuverlässigkeit, Performance sowie geringen Latenzzeit. Aufgrund der nun angedeuteten herausragenden Stellung von Fibre Channel, wird genau diese Technologie im Verlauf der folgenden Abschnitte näher erläutert.
3. Einführung in die Fibre Channel-Technologie
Fibre Channel wurde entwickelt um die Leistungsgrenzen existierender LANs und Kanäle zu durchbrechen. Im Gegensatz zur LAN-Technologie implementiert nämlich Fibre Channel zusätzlich eine Flusskontrolle (Flow Control), eine einfache Verwaltung als auch eine einmalige Zuverlässigkeit.
Grundsätzlich kann der Anschluss der Hosts an ihre I/O-Subsysteme über Hostadapter unterschiedlicher Technologien erfolgen. Dabei können parallele Schnittstellen ebenso zum Einsatz kommen wie SCSI (Small Computer Systems Interface) oder Fibre Channel-Adapter. Von den erwähnten Technologien hat die serielle Datentransfer-Schnittstelle Fibre Channel den entscheidenden Vorteil, dass es in der räumlichen Distanz zwischen dem Host und seinen „Platten“ in den verwendeten Storage Arrays nicht auf maximal wenige hundert Meter beschränkt ist. Sehr hohe Bandbreiten sind möglich und - zumindest theoretisch - bis zu 16 Millionen adressierbare Knoten.[14] Die Fibre Channel-Standards verwenden den Begriff „Node“ - zu Deutsch „Knoten“ – und beschreiben damit jedes Gerät, das über Fibre Channel an einen Port mindestens eines anderen Gerätes angeschlossen ist. Die Verwaltung der einzelnen Knoten übernehmen die Switches.
In einem Fibre Channel-Netzwerk können auch herkömmliche Speichersysteme mit Hilfe einer Fibre-Channel-to-SCSI-Bridge eingebunden werden. Das Internet Protokoll (IP) wird für die Server-to-Server- als auch für die Client-to-Server-Kommunikation verwendet. Mehrere Hostsysteme besitzen über ihre Host-Bus-Adapter Zugriff auf ein und dasselbe Storage Array.
Fibre Channel operiert auf Glasfaser oder Kupferkabeln. Aktuelle Ausführungen erreichen Datenübertragungsleistungen von 100 bis 200 MB pro Sekunde und Port. Sogar 400 MB/Sekunde Datenübertragungsraten wurden bereits getestet und Produkte für 1GB/Sekunde sind in Planung.[15]
Zielsetzung des Protokoll-Stacks war es einheitliche Kabel für Kanäle und Netzwerke verwenden zu können. Führende Hersteller unterstützten den Standard und die ANSI Fibre Channel Group standardisierte den Protokoll-Stack.[16]
Die Hauptvorteile von Storage Area Networking im Allgemeinen und Fibre Channel-SAN-Umgebungen im Speziellen sind vielfältig und aus der Sicht verschiedener Analysten und Hersteller dargestellt:[17] /[18]
- Zwischen den Servern geteilte Speicherkapazität
- Schneller Datenzugriff
- Höhere Verfügbarkeit der Speichersysteme und verbesserter Datenschutz
- Verbesserte Hardwarenutzung und Recovery-Möglichkeiten im Katastrophenfall
- Transparente Strukturierung von Speichern und damit eine höhere Effektivität
- Zentralisierung und Vereinfachung des Datenmanagements
- Serverunabhängige Skalierung der Speicherressourcen
- Schneller Backup ohne Belastung des LANs
- Konsolidierung der Daten verschiedener Server- und Speicherressourcen
- Robuste Datenintegrität und -zuverlässigkeit
- Verringerte TCO (Total Cost of Ownership)
3.1 Fibre Channel-Ebenen
Wie andere Netzwerkprotokolle auch, ist Fibre Channel ebenso in unabhängige Schichten gegliedert. Genau fünf an der Zahl sind es, wobei die Ebene 0 die niedrigste ist. Die physikalischen Schichten reichen von 0 bis 2. Diese Schichten tragen die physikalischen Eigenschaften des Netzes und transportieren die Daten, die von den Protokollen höherer Ebenen geschaffen werden, wie zum Beispiel SCSI, TCP/IP oder FICON.
- FC-0: Die unterste Ebene definiert die physikalischen Charakteristika der Schnittstellen und Medien, wie Glasfaserkabelspezifikationen, Konnektoren, Treiber sowie optische und elektrische Parameter für die jeweiligen Datenraten.
- FC-1: Schicht 1 des Fibre Channels legt das Übertragungsprotokoll fest. Hier werden die Regeln zur Kodierung der Signale festgelegt und die Mechanismen zur Fehlerkontrolle aktiviert. Beim Datentransport kommt das 8Bit/10Bit-Kodierungsschema zum Einsatz. Dabei werden jeweils acht Bits in ein 10-Bit-langes Zeichen umgewandelt. Die somit zusätzlich zur Verfügung stehenden 768 Zeichen sorgen für die Entkopplung der bei der Übertragung verwendeten Codes von Gleichstromanteilen. Außerdem ermöglichen diese Übertragungszeichen, daß die weitergeleiteten Informationen immer eine bestimmte Länge aufweisen. Dies dient zur Realisierung einer Clock-Synchronisation über einen seriellen Bitstrom.
- FC-2: Diese Ebene definiert Regeln für das Framing-Protokoll, das Signaling-Protokoll sowie die Flow Control und beschreibt die Übertragung von Daten-Frames, Frame-Folgen und Datenaustausch. Außerdem sorgt die FC-2-Ebene für die Aufteilung der Daten in die korrekte Paketgrößen und stellt mittels des sogenannten Reassemblierungsmechanismus kontinuierliche Datenströme her. So beginnt und endet ein jedes Paket mit einem "Frame Delimiter". In dem maximal 2112 Byte langem Payload-Feld befinden sich die Daten, die vom Sende- zum Ziel-Port übermittelt werden.
[...]
[1] o.V.: Business Continuity When Disaster Strikes, Fibre Channel Industry Association; in http://www.fibrechannel.com/technology/index.master.html , 1.12.02
[2] Brooks, Charlotte u.a.: Disaster Recovery Strategies with Tivoli Storage Management, IBM Redbook, 2. Auflage November 2002, S.8
[3] Török, Elmar: Hochverfügbarkeit, in Informationweek, Ausgabe 16, 1999; auf http://www.informationweek.de/index.php3?/channels/channel24/991620.htm, 30.11.2002
[4] Ronneburger, Ralf: Integrationsarchitekturen im eBusiness – Hochverfügbarkeit, auf:
http://ais.informatik.uni-leipzig.de/download/2002s_s_ieb/RalfRonneburger_Hochverfuegbarkeit.pdf, 2.12.2002, S.4
[5] Török, E.: Hochverfügbarkeit, in Informationweek, Ausgabe 16, 1999; auf http://www.informationweek.de/index.php3?/channels/channel24/991620.htm, 30.11.2002
[6] Ronneburger, R.: [Hochverfügbarkeit], 2.12.2002, S.8
[7] o.V.: in http://www.lampertz.de/DuS.htm, 12.1.03
[8] Technologie, die Daten verschiedener Quellen auf einem Lichtwellenleiter vereint. Jedes Signal wird dabei zeitgleich mit den anderen Signalen auf seiner eigenen Lichtwellenlänge transportiert. Bis zu 80 separate Wellenlängen können auf einem einzigen Glasfaserleiter gebündelt werden. Es handelt sich um Zeitmultiplexsignale. Eingesetzt wird das Verfahren im Weitverkehrsbereich.
[9] Axt, Daniel: Studienarbeit NAS – LINUX , in:http://www.ba-horb.de/~axda/ProblemNFS-CIFS.htm, 8.1.2003
[10] o.V.: http://www.nas-san.com/differ.html, 9.1.03
[11] McLaughlin, Eric: iSCSI’s Place in the Storage Area Network, White Paper, 2001, Agilent Technologies, S.2
[12] Ciancialo, Dr. Sabine: Neuer Anlauf - Fibre Channel auf dem Vormarsch, in c't 21/98, S. 70
[13] JBOD steht für "Just a Bunch of Disks" oder manchmal auch "Just a Bunch of Drives" und ist ein abfälliger Ausdruck zur Umschreibung von Computer Festplatten, die nicht gemäß einem RAID System konfiguriert worden sind. RAID Systeme (Redundant Array of Independent Disks) erhöhen die Fehlertoleranz und verbessern den Datenzugriff. RAID Systeme speichern Daten redundant auf mehreren Platten, die dennoch dem Betriebssystem als eine einzige Platte erscheinen.
[14] Sollbach, Wolfgang: Storage Area Networks – Hohe Datenverfügbarkeit durch Speichernetzwerke, München, 2002, S.23
[15] Tretau, Roland u.a.: The IBM TotalStorage Solutions Handbook, IBM Redbook, Oktober 2002, S.85
[16] Sollbach, W.: [Storage Area Networks], S.77
[17] o.V.: SANity Check - Preparing For a Storage Area Network, White Paper, Tivoli Systems Inc., 2000, S.2
[18] o.V.: The Strategic and Financial Justification of Storage Area Networks, Cisco White Paper 2002, S.4-5
-
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen. -
Laden Sie Ihre eigenen Arbeiten hoch! Geld verdienen und iPhone X gewinnen.