Elektronischer Handel (Electronic Commerce) umfaßt als aktuelles und hoch praxisrelevantes Anwendungsfeld eine Vielfalt an unterschiedlichen Konzepten und Technologien. Dabei kreuzen sich verschiedene Disziplinen der Informatik, Wirtschaftsinformatik und der Wirtschaftswissenschaften. Das größte Hindernis für einen künftigen Online-Händler ist es, entsprechende Sicherheitsstandards für sein Unternehmen zu wählen und zu implementieren. Die Zielsetzung dieser Arbeit ist es darum, dem Händler den Weg zu zeigen und auf mehrere Aspekte der Intranet- und Internetsicherheit aufmerksam zu machen, die zu einem sicheren Online-Handel führen.
Man ist nicht imstande ein einziges Sicherheitskonzept, daß allen Erwartungen der Firmen entspricht, zu entwickeln. Aus diesem Grund wurde die Arbeit wie folgt strukturiert: im ersten Teil werden die wichtigsten Elemente der Sicherheit in Systemen der Informationstechnik (IT-Systemen) und in Electronic Commerce besprochen. Im weiteren Teil konzentrieren wir uns auf die relevanten Aspekte der Business-to-Consumer-Commerce, um im dritten Teil eine sichere E-Commerce-Plattform, den Erfordernissen des Unternehmers entsprechend, zu wählen. So kann jeder Firmeninhaber anfangs die einzelnen Elemente der Sicherheit kennenlernen und später komplexe Lösungen für Electronic Commerce, die auf Shopsystemen aufbauen, analysieren.
Inhaltsverzeichnis
Abbildungs- und Tabellenverzeichnis
Abkürzungsverzeichnis
Einführung
Teil 1. Die wichtigsten Elemente der IT- und EC-Sicherheit
1 Identifikation und Autorisierung
1.1 Zugangsberechtigung durch Wissen oder Besitz
1.1.1 Paßwort
1.1.2 Chipkarte
1.2 Zugangsberechtigung durch biometrische Daten
1.2.1 Einzelne Komponenten
1.2.2 Kompakte Lösungen
2 Sicherer Transfer der Information
2.1 Verschlüsselungsverfahren
2.1.1 Symmetrische Verschlüsselung
2.1.2 Asymmetrische Verschlüsselung
2.2 Digitale Signatur
2.2.1 Einsatzmöglichkeiten
2.2.2 Trust Center
2.2.3 Signaturgesetz
2.3 Übertragungsprotokolle
2.3.1 Transportschicht
2.3.2 Anwendungsschicht
3 Die Netzsicherheit - Firewalls in dem ISO/OSI-Referenzmodell
3.1 Philosophie von Firewalls
3.2 Bestandteile einer Brandschutzmauer
3.2.1 Packet Filter
3.2.2 Application Gateway
3.3 Konzepte für fortgeschrittene Firewall-Systeme
3.3.1 Dual-Homed-Firewall
3.3.2 Packet Filter mit optionalem Dual-Homed-Host
Teil 2. B2C-Commerce relevante Aspekte
4 Electronic Commerce
4.1 Entwicklung von E-Commerce
4.2 Klassifikation
4.3 Wandel im B2B-Commerce
4.4 B2B- versus B2C-Commerce
5 Zahlungsmöglichkeiten im Internet
5.1 Kreditkarten-basierte Zahlungssysteme
5.1.1 SET
5.1.2 CyberCash
5.2 Münz-basierte Zahlungssysteme
5.2.1 eCash
5.2.2 CyberCoin
5.2.3 Millicent
5.3 Chipkarten-basierte Zahlungssysteme
5.3.1 SmartCards
5.3.2 Paybox und M-Commerce
6 Rechtliche Aspekte
6.1 Rahmenbedingungen für EC
6.2 Vertragsrecht
6.3 Vertragsschluß
6.4 Gewährleistung
Teil 3. Vorbereitung und Wahl einer E-Commerce-Plattform
7 Technologische Grundlagen
7.1 IT-System des Händlers
7.1.1 Sicherheit eines IT-Systems
7.1.2 Hardware und Betriebssysteme
7.1.3 Web- und Merchant-Server
7.1.4 Internet-Anbindung
7.2 Zahlungsschnittstelle: Kunde
7.2.1 Wallet
7.2.2 Chipkartenleser
7.3 Zahlungsschnittstelle: Händler
7.3.1 Soft- und Hardware
7.3.2 Anbieter
8 Shopsysteme
8.1 Vierklassen Gesellschaft
8.1.1 Einsteiger-Shop
8.1.2 Variante mit Administrations-Client
8.1.3 Speziell entwickeltes Warenwirtschaftssystem
8.1.4 Voll integrierte Lösung
8.2 Standardsoftware vs. Eigenentwicklung
9 Marktführer unter Shopsystemen
9.1 Variante: Miete
9.1.1 MicroShop
9.1.2 Mietshop
9.2 Variante: Kauf
9.2.1 INTERSHOP
9.2.2 OpenShop
10 Komplexe Sicherheitslösungen
10.1 BROKAT Twister
10.2 Telekom TeleSec Crypt
Zusammenfassung
Anhang
Literaturverzeichnis
Abkürzungsverzeichnis
Abbildung in dieser Leseprobe nicht enthalten
Abbildungs- und Tabellenverzeichnis
Abbildungen:
Abb.1 Prinzip der symmetrischen Verschlüsselung [Quelle: Kauffels (1999), S.197]
Abb.2 Prinzip der asymmetrischen Verschlüsselung [Kauffels (1999), S.194]
Abb.3 Digitaler Umschlag
Abb.4 Secure Electronic Transaction
Abb.5 CyberCash
Abb.6 eCash
Abb.7 CyberCoin
Abb.8 Millicent
Abb.9 GeldKarte
Abb.10 Paybox
Abb.11 Web-& Merchant-Server in einem Shopsystem [Quelle: Kauffels (1999), S.274]
Abb.12 Aufbau eines Einsteiger-Shops
Tabellen:
Tab.1 Absicherung der Internetprotokolle [Quelle: Nusser (1998), S.118]
Tab.2 ISO/OSI-Refferenzmodell [Quelle: Nusser (1998), S.14]
Einleitung
Elektronischer Handel (Electronic Commerce) umfaßt als aktuelles und hoch praxisrelevantes Anwendungsfeld eine Vielfalt an unterschiedlichen Konzepten und Technologien. Dabei kreuzen sich verschiedene Disziplinen der Informatik, Wirtschaftsinformatik und der Wirtschaftswissenschaften. Das größte Hindernis für einen künftigen Online-Händler ist es, entsprechende Sicherheitsstandards für sein Unternehmen zu wählen und zu implementieren. Die Zielsetzung dieser Arbeit ist es darum, dem Händler den Weg zu zeigen und auf mehrere Aspekte der Intranet- und Internetsicherheit aufmerksam zu machen, die zu einem sicheren Online-Handel führen.
Man ist nicht imstande ein einziges Sicherheitskonzept, daß allen Erwartungen der Firmen entspricht, zu entwickeln. Aus diesem Grund wurde die Arbeit wie folgt strukturiert: im ersten Teil werden die wichtigsten Elemente der Sicherheit in Systemen der Informationstechnik (IT-Systemen) und in Electronic Commerce besprochen. Im weiteren Teil konzentrieren wir uns auf die relevanten Aspekte der Business-to-Consumer-Commerce, um im dritten Teil eine sichere E-Commerce-Plattform, den Erfordernissen des Unternehmers entsprechend, zu wählen. So kann jeder Firmeninhaber anfangs die einzelnen Elemente der Sicherheit kennenlernen und später komplexe Lösungen für Electronic Commerce, die auf Shopsystemen aufbauen, analysieren.
In Teil I werden zuerst verschiedene Methoden der Identifikation und Autorisierung in Rechnern und Computersystemen präsentiert. Darunter werden Zugangsberechtigung durch Wissen, Besitz und biometrische Daten verstanden. Im weiteren Unterpunkt beschäftigen wir uns mit sicherem Transfer der Daten. Es werden uns insbesondere die symmetrischen und asymmetrischen Verschlüsselungsverfahren als auch der damit streng verbundener Einsatz von digitalen Signaturen interessieren. Wenn man das Thema digitale Unterschrift anspricht, darf man Trust Centers und das Signaturgesetz nicht vergessen. Der letzte Unterkapitel des ersten Teils wird der Netzsicherheit gewidmet. In diesem Zusammenhang müssen solche Elemente wie Firewalls, Packet Filter und Application Gateways und Konzepte für Firewall-Systeme besprochen werden.
In Teil II wird auf einige relevante Probleme des Handels zwischen dem Händler und dem Konsumenten eingegangen. Das erste Unterkapitel ist auf Electronic Commerce fokussiert. In diesem Rahmen werden die Entwicklung des elektronischen Handels, die Klassifikation im der Electronic Commerce und der Wandel im Business-to-Business-Bereich näher betrachtet. Außerdem werden die zwei bekanntesten Formen des Handel gegenübergestellt. Die drei Kategorien von elektronischen Zahlungssystemen unterscheid-en wir im weiteren Unterkapitel. Hierzu gehören kreditkarten-basierte, münz-basierte und chipkarten-basierte Zahlungsvorgänge. Im letzten Unterabschnitt befassen wir uns mit einigen rechtlichen Aspekten des elektronischen Kaufs.
In Teil III erhält der Händler die Möglichkeit, sich für eine passende E-CommercePlattform zu entscheiden. Zuerst werden die nötigen Bestandteile eines IT-Systems wie Soft- und Hardware detailliert dargestellt. Danach werden Zahlungsschnittstellen Kunde und Händler geschildert. Vier unterschiedliche Klassen von Shopsystemen, die Repräsentanten vom Business-to-Consumer-Commerce, werden im zweiten Unterkapitel besprochen. Auch dort werden wir uns überlegen, ob ein Kauf oder Eigenentwicklung von einem Shopsystem vom Vorteil für den Händler ist. Weiter kommt es zur Präsentation von Marktführern unter Shopsystemen in Deutschland. Im letzten Unterabschnitt werden zwei Sicherheitslösungen von BROKAT und der Telekom diskutiert.
Während des Lesens lernt der Unternehmer wo die Sicherheitsschwachstellen in seinem System liegen können und wie er diese beseitigen kann. Er lernt auch, was er für den Einstieg in den sicheren elektronischen Handel benötigt. Schließlich ist er fähig, eine passende sichere Plattform für E-Commerce zu wählen.
Die Arbeit ist außerdem so strukturiert, daß jeder Teil separat eine Einheit bildet und vom Leser einzeln gelesen werden kann. Dadurch können fortgeschrittene Händler einige Punkte auslassen und sich nur auf die für sie interessanten Gebiete konzentrieren.
1 Identifikation und Autorisierung
Um die Sicherheit eines IT-Systems zu gewährleisten, muß man von der Sicherheit des einzelnen Arbeitsplatzes ausgehen. Das ist nämlich der Punkt, an dem der Zugang zum Netzwerk des Unternehmens und dort enthaltenen Daten möglich ist.
1.1 Zugangsberechtigung durch Wissen und Besitz
Die beiden Formen der Identifikation des Teilnehmers gehören zu den ältesten und werden durch solche Lösungen wie Paßwort und Chipkarte repräsentiert.
1.1.1 Paßwort
Ein Paßwort gehört zum gebräuchlichsten Ausweis bei der Anmeldung in Computernetzen und stellt eine geheime Zeichenkette dar. Bei der Anmeldung im System müssen zuerst ein früher vom Systemadministrator vergebenen Benutzername und danach das Paßwort eingegeben werden. Diese bestimmte Zeichenkette wird in einer verschlüsselten Form auf dem Computer des Administrators gespeichert. Bei der Angabe des Paßwortes durch den Teilnehmer kommt es zum Vergleich der beiden Muster und bei einer Übereinstimmung wird der Zugang erlaubt.[1]
Das Verfahren scheint unproblematisch und sicher zu sein, das schwache Glied stellt jedoch der Mensch dar. Die Paßwörter können relativ leicht bei der Angabe oder durch Kopieren ausgespäht werden. Hierzu zählen unter anderem auch solche Gefahren wie:
- Raten der Zeichenketten, da die Benutzer die Vor- oder Nachnamen, Geburtsdatum des Partners, o.ä. als Paßwort benutzen,
- Ausspähen durch andere Mitarbeiter („über die Schulter schauen“),
- Kopieren der geheimen Paßwort-Dateien vom Rechner,
- Benutzen von großen, mehrsprachigen Wörterbüchern mit vielen Einträgen, um die richtige Kette zu entziffern,
- Kopieren der Dialog-Box beim Einloggen.[2]
Die Systemadministratoren sollten daher den Benutzern genaue Anweisungen geben und sie auf die Gefahren aufmerksam machen. Das Paßwort ist erst dann verhältnismäßig sicher, wenn bei der Festlegung der Zeichenkette einige wichtige Regeln beachtet werden:
- Zuerst darf man die oben genannten Schwachstellen nicht vergessen,
- Das Paßwort darf niemandem verraten werden,
- Es sollte mindestens 8 Zeichen lang sein und Klein-/Großbuchstaben, Ziffern und Sonderzeichen beinhalten,
- Paßwörter sollten nicht in Shellscripten gespeichert werden,
- Und nicht zuletzt sollten sie regelmäßig (ca. alle 30 Tage) gewechselt werden.[3] Wenn diese Maßnahmen ergriffen werden, kann die Netzwerksicherheit und auch die Identität im elektronischen Markt in höherem Maße garantiert werden. Mit der Zeit hat ansonsten eine andere Form der Autorisierung immer mehr an Bedeutung gewonnen - der Einsatz von Karten mit einem eingebauten, elektronischen Chip.
1.1.2 Chipkarte
Eine Kombination von einer Chipkarte und einer dazugehörigen Identifikationsnummer (PIN) ist viel sicherer als ein einfaches Paßwort. Aus diesem Grund wird diese Methode immer häufiger bei der Identifikation in ein IT-System eingesetzt. Die auf der Karte gespeicherten Zugangsdaten, die der Authentifizierung dienen, sind verschlüsselt abgelegt und zugleich vor dem Ausspähen und unberechtigter Manipulation geschützt. Dieses erlaubt die Chipkarte als extrem sicheres Medium einzustufen. Die persönliche PIN ist leider nicht mehr so sicher und stellt das schwächste Glied in dieser Sicherheitskette dar. Die PIN ist eigentlich ein Paßwort aus vier oder fünf Zahlen und ist prinzipiell übertragbar. Die persönliche Identifikationsnummer dient in diesem Verfahren lediglich dem Nachweis, daß der Besitzer der Karte auch deren Eigentümer ist.[4]
Der Einsatz der Chipkarte (engl. SmartCard) dient sowohl der Identifikation am Arbeitsplatz als auch im elektronischen Markt. Ein Challenge-Response-Verfahren ermöglicht die Prüfung der Echtheit einer Chipkarte. Dem Nutzer wird zuerst ein geheimer Schlüssel, ein Algorithmus, zugeteilt. Der gleiche Schlüssel ist auch im System gespeichert. Bei einem Login sendet das System eine Zufallszahl an die Chipkarte (Challenge). Die SmartCard des Benutzers errechnet in diesem Moment eine spezielle
Antwort (Response), die danach an das Chipkarten-Terminal zurückgesendet wird. Inzwischen hat das System die gleiche Rechnung durchgeführt und kann jetzt diese, mit der zurückkehrenden Nachricht vergleichen. Im Falle der Übereinstimmung beider Zahlen kann der Einwahlvorgang durchgeführt werden. Die geheimen Schlüssel müssen hier über das unsichere Netz nicht übertragen werden und das ist der Vorteil dieses Verfahrens.[5] Alle Schritte in diesem Beispiel erfolgen ohne Teilnahme des Benutzers. Es kann jedoch sein, wie schon oben beschrieben, daß sich der Benutzer mit der PIN noch zusätzlich identifizieren muß und dadurch „beweisen“, daß er der Eigentümer der Chipkarte ist.[6] Der Einsatz von zahlreichen SmartCards kann zu unerwünschten Effekten führen. Der Inhaber muß sich unterschiedliche PINs merken, was dazu führt, daß die Benutzer die Nummern einfach auf der Chipkarte notieren oder ein Zettelchen mit dem „Geheimcode“ direkt auf dem Bildschirm kleben.[7]
1.2 Zugangsberechtigung durch biometrische Daten
Alles was auf Paßwörtern und PINs basiert, wird heute unter Fachleuten als unsicher bezeichnet. Die biometrische Personenidentifikation stellt den neuesten Trend dar.[8] Es können unterschiedliche Komponenten wie die Iris oder der Fingerabdruck geprüft oder eine Kombination aus diesen Komponenten untersucht werden.
1.2.1 Einzelne Komponenten
„Die Biometrie steht für die Technik der Erkennung einer Person anhand persönlicher Charakteristika. ... Danach ist die Biometrie die Wissenschaft der Körpermessung an Lebewesen. Hier ist ausschließlich der Mensch gemeint, mit seinen meßbaren körperlichen Merkmalen, welche die Grundlage der biometrischen Identifikation sind.“[9] Die biometrischen Merkmale, über die Menschen verfügen, lassen die Person einfach, sehr genau erkennen und autorisieren. Diese Eigenschaften können normalerweise nicht vergessen, weitergegeben, erspäht oder gestohlen werden.[10]
Es gibt eine ganze Reihe von Verfahren die zur Prüfung der Identität von Personen beim Zutritt zu Räumlichkeiten oder zur Informationstechnologie in all ihren Ausprägungen, wie Computer und Netzwerke, eingesetzt werden können.
Die Handerkennung stellt wohl die älteste von allen biometrischen Methoden dar und ist schon seit mehr als zehn Jahren im Einsatz. Die Geräte, die bei dieser Technologie eingesetzt werden, erfassen die Abmessungen der Finger der Person, die Dicke der Hand und manchmal auch ein Venenbild. Obwohl der Messungsvorgang sehr genau sein kann, sind leider die geometrischen Abmessungen der menschlichen Hände nicht genügend verschieden voneinander.[11] Anstatt die ganze Fläche der Hand abzumessen, kann man sich nur auf die Finger und die dort enthaltene Papillarlinien konzentrieren.
Bei dem Fingerabdruck werden die Daten am häufigsten in einer entsprechenden Datenbank aufbewahrt. Die Daten sind aber nicht in der Form von Bildern, sondern in sogenannten Minuzien aufbewahrt. Zu den Minuzien gehören Liniendaten, Verzweigungen, Krümmungen oder Wirbel. Ungefähr zwölf solchen Merkmale genügen schon, um den Fingerabdruck eindeutig zu identifizieren. Einige Systeme prüfen noch zusätzlich, ob es sich bei der Identifikation nicht um ein Wachsabdruck oder einen amputierten Finger handelt.[12] Eine sehr interessante, aber noch nicht völlig ausgereifte Lösung, stellt eine Maus mit einem eingebauten Fingerabdrucklaser dar. Eine solche ID Mouse, die von der Firma Siemens stammt, darf bei Systemen die auf MS Windows 98/NT basieren, eingesetzt werden (Siehe Anhang). Die Software, die mitgeliefert wird, scheint noch einige Lücken zu verbergen (Probleme bei der Anmeldung) und ist zur Zeit nur zum Einsatz bei persönlichen Arbeitsplatzrechnern geeignet. Wenn das Access-Problem gelöst wird, steht auch der Weg für den professionellen Einsatz offen.[13]
Die Iris des Menschen kann ebenfalls zu der Autorisierung bei IT-Systemen verwendet werden. Ähnlich wie bei den früher beschriebenen Verfahren liest hier ein ungefährlicher Laserstrahl die Struktur der Augennetzhaut. Obwohl den Benutzern erklärt wird, daß diese Methode völlig gefahrlos ist, erweckt der direkte Kontakt mit dem Laser verständliche Hemmnisse. Dieses Problem stellt den bedeutendsten Nachteil des Verfahrens dar, obwohl die Methode sehr fälschungssicher ist und sehr niedrige Falscherkennungsraten von bis zu 1 zu 1.000.000 aufweist.[14]
Die Gesichtserkennung ist ein völlig berührungsfreies Verfahren. Bei der Nutzung dieses Systems ist eine Kamera notwendig, die die persönlichen Gesichtsmerkmale erfassen kann. Die Aufnahme des Bildes, der zu identifizierenden Person, dauert ca. eine Sekunde. Der Rechner verwendet dabei spezielle Algorithmen und speichert nur die wesentlichen Erkennungsmerkmale. Außerdem muß die Person ein Wort in die Kamera sprechen. Das System kann in diesem Moment die Lippenbewegungen aufnehmen und zugleich analysieren. Der Prozeß ist kompliziert, da die Teilbilder der Mundpartie auf kleine Bilder zerlegt werden. Jetzt kann der Vergleich der gesammelten Daten erfolgen.[15] Leider erfordert die Gesichtserkennung schnelle und teure Rechner-Systeme und es stellt das wichtigste Problem beim Einsatz dieser Methode dar.[16]
Die Stimmerkennung braucht ebenfalls große Rechnerkapazitäten. Die existierenden Produkte brauchen sehr schnelle Computer, die sehr große Datenmengen in sehr kurzer Zeit bewältigen können.[17] Das Verfahren beruht auf einer Spektralanalyse eines, meistens früher festgelegten, Wortes.[18] Die Variabilität der Stimme ist übergroß. Der Information müssen solche Merkmale wie Stimmlage, Sprachgeschwindigkeit, Akzentuierung und nicht zuletzt dialektische Einfärbungen entzogen werden. Erst dann ist die korrekte Analyse der gesammelten Daten möglich.[19]
Die Benutzer der Erkennungssysteme sind sehr oft nicht darüber überzeugt, ob ein System tatsächlich sicher ist. Dieser Aspekt wurde schon bei der Iriserkennung angesprochen. Eine Abneigung, die Hand in einen „unbekannten Kasten“ bei der Handerkennung zu stecken, kann als ein weiteres Beispiel dienen. Eine Hygienefrage stellt sich bei der Abgabe von Fingerabdrucken.[20] Die Angst vor der Berührung des Sensors ist allerdings medizinisch unbegründet, da der Mensch täglich mehrere Dinge anfaßt, die nicht immer als einwandfrei einzustufen sind.[21]
1.2.2 Kompakte Lösungen
Die beste Sicherheit und die besten Ergebnisse bei biometrischen Technologien erreichen diese Systeme, die multimodal sind. Sie sind im Stande unterschiedliche Eigenschaften gleichzeitig zu erfassen und zu überprüfen.
BioID von Dialog Communication Systems ist ein gutes Beispiel für ein System, das einen multimodalen Charakter besitzt. Bei dieser Lösung werden sowohl dynamische (Lippenbewegung, Stimme) als auch statische Merkmale (Gesicht) ausgewertet. Das System ist sehr sensibel auf solche Änderungen wie ein unrasiertes Gesicht oder eine neue Frisur, wobei die Erkennungsgenauigkeit darunter überhaupt nicht leidet.[22] BioID basiert auf einer Client/Server-Architektur und kann in einem Windows NT-Netzwerk oder unter Windows 95/98 installiert werden. Die Client-Software dient ausschließlich der Erfassung und Vorverarbeitung der biometrischen Daten anhand einer Kamera und eines Mikrofons. Es werden keine weiteren kostenintensiven Sensorkomponenten benötigt. Die eingehenden Daten werden, aus Sicherheitsgründen, sofort an den BioID Server unter kryptografischer Verschlüsselung weitergeleitet. Auf dem Server kommt es zum Vergleich mit den dort gespeicherten Daten. Im Fall einer Übereinstimmung erhält die Person die früher festgelegten Zugriffsrechte zu einer Datenbank oder Zutritt zu Räumlichkeiten (Siehe Anhang).[23]
Protector Suite der Firma Skytale stellt eine weitere umfassende Sicherheitslösung dar. Es handelt sich hier um ein System, das auf dem Einsatz von SmartCards (SmartCard-Leser) und biometrischen Daten (Biometriegerät) basiert. Ursprünglich war diese Lösung nur für den Einsatz mit einer SmartCard vorgesehen. Um die Sicherheit zu erhöhen, wurde das System um weitere Elemente erweitert, darunter um die Biometrie. Die Net- und Enterprise-Edition sind für den Einsatz in lokalen Netzwerken und in großen Unternehmensstrukturen, die sogar weltweit verteilt sind, vorgesehen. Die Verifikationsdateien liegen immer auf einem separaten Server, auf den man von einem Client in einem Windows NT/2000-Netzwerk zugreifen kann. Die Protector Suite Software erlaubt eine Verschlüsselung von 128 bis zu 2048 Bits (absolute Top-Level Sicherheit). Bei der Übertragung der Daten wird ein 256 Bit Schlüssel verwendet[24] Die Daten- und Übertragungssicherheit, darunter die Verschlüsselung in unsicheren Netzwerken wird im weiteren Kapitel näher erläutert.
2 Sicherer Transfer der Information
Dieses Kapitels beschreibt wie die Daten in öffentlichen, unsicheren Netzen übertragen werden können und welche Maßnahmen man ergreifen soll, um die Sicherheit der Informationen zu gewährleisten.
2.1 Verschlüsselungsverfahren
Um die Daten zu schützen, sollten sie verschlüsselt in den Netzwerken übertragen werden. Verschiedene Verfahren werden im folgenden erläutert.
2.1.1 Symmetrische Verschlüsselung
Verschlüsselung der elektronischen Information bedeutet, daß die Nachricht die jemand verschicken will, auf sehr komplexe Art und Weise durchgemischt wird. Diese Botschaft darf danach nur diese Person entziffern, die ein entsprechendes Schlüssel zur „Entmischung“ besitzt.[25]
Die symmetrische Verschlüsselung wird am meisten zum Schutz der Kommunikation in geschlossenen Benutzergruppen oder zwischen zwei Parteien benutzt. Das besondere an diesem Verfahren ist, daß zum Verschlüsseln und zum Entschlüsseln der Nachricht derselbe Key verwendet wird.[26] Damit heißt diese Methode auch Private-Key-Verfahren. Die beiden Parteien, die die Informationen über einen unsicheren Kanal austauschen wollen, müssen zuerst diese Schlüssel auf einem gesicherten Weg austauschen. Erst dann können die Nachrichten geheim verschickt werden.
Abbildung in dieser Leseprobe nicht enthalten
Das Prinzip ist sehr einfach. Der Absender verschlüsselt die Nachricht im Klartext mit dem Schlüssel und verschickt sie an den Empfänger. Der wiederum entschlüsselt die Information mit demselben Schlüssel, um sie zu lesen (Abb.1).
Das bekannteste symmetrische Verschlüsselungsverfahren heißt DES (Data Encryption Standard) und wurde im Jahre 1977 entwickelt. Es basiert auf DEA (Data Encryption Algorithm).[27] Ein weiterer Standard wurde als Alternative zu DES im Jahre 1990 vorgestellt. Das Verfahren heißt IDEA (International Data Encryption Algorithm) und wurde von Lai und Massey entwickelt.
Das Private-Key-Verfahren ist sehr schnell, besitzt aber auch Nachteile. Zuerst müssen die Kommunikationspartner denselben Key besitzen und wenn sie mit weiteren Personen Informationen austauschen, müssen sie die Schlüssel der anderen Partei sicher zustellen.[28]
2.1.2 Asymmetrische Verschlüsselung
„Um das klassische Problem der Kryptographie, die Schlüsselverteilung, zu vereinfachen, wurden Verfahren entwickelt, die mit sogenannten „öffentlichen Schlüsseln“ (public keys) arbeiten.“[29] Bei einem Public-Key-Verfahren benutzt man zwei einander zugeordnete komplementäre Schlüssel. Um die Nachrichten sicher auszutauschen, muß der künftige Empfänger dem Absender seine öffentlichen Schlüssel auch durch ein unsicheres Netzwerk verschicken. Sein privater Schlüssel, mit dem er die Nachricht später entschlüsselt, bleibt geheim und ist auf seinem Rechner gespeichert.
Abbildung in dieser Leseprobe nicht enthalten
Abb.2: Prinzip der asymmetrischen Verschlüsselung
Der Sender kann jetzt die Information im Klartext erstellen und nachher diese mit dem öffentlichen Key des Empfängers verschlüsseln. Die Nachricht wird anschließend abgeschickt (Abb.2). Ein interessantes Charakteristikum dieses Vorgehens ist die Tatsache, daß die Schlüssel gleichartige Eigenschaften aufweisen und nur der Empfänger die Nachricht mit seinem privaten, geheimen Key entschlüsseln kann.[30] In gewisser Weise kann man das asymmetrische Verfahren mit dem Beispiel des Bankverkehrs (mit Kontonummer und PIN) vergleichen. Die Kontonummer ist ein öffentlicher Schlüssel zum Konto. Die Nummer kann jeder kennen, um Operationen wie Einzahlung und Überweisung zu tätigen. Mehr darf diese Person nicht tun. Um die volle Zugangsberechtigung zu bekommen, muß der private Schlüssel, PIN, bekannt sein. Und dieser Private Key ist nur dem Kontoinhaber bekannt.[31] Das wohl bekannteste asymmetrische Verfahren stammt von drei Mathematikern des MIT (Massachusetts Institute of Technology) Rivest, Shamir, Adleman und heißt RSA. Jedes Verschlüsselungsverfahren ist eine komplizierte mathematische Operation. Die Kompliziertheit des Verfahren hängt von der Länge der verwendeten Bitfolge bei der Verschlüsselung ab. Das berühmte PGP Programm mit RSA-Modul verwendet 512 bis zu 2048 Bits lange Schlüssel, wobei der längste Key sehr zeitintensiv ist. Das ist der größte Nachteil des Private-Key-Verfahrens. Es eignet sich nicht für große Datenmengen, da es einfach zu lange dauert, die Informationen zu verschlüsseln. Andererseits sind solche komplizierten Schlüssel sehr sicher. Ein weiterer Vorteil ist das einfache Key-Management (Schlüsselverteilung), wo die Keys in unsicheren Netzwerken verschickt werden dürfen.[32] Die asymmetrische Verschlüsselung findet ebenfalls bei der digitalen Unterschrift, oder anders gesagt, bei der digitalen Signatur, Anwendung. Die Einzelheiten werden im weiteren Kapitel erörtert.
2.2 Digitale Signatur
2.2.1 Einsatzmöglichkeiten
„Mit Hilfe von digitalen Signaturen kann die Authentizität - also die Urheberschaft einer Nachricht - zweifelsfrei nachgewiesen werden. Digitale Signaturen verwenden dazu ..
Public-Key-Verfahren.“33 Man darf also sagen, daß es sich hier um eine „eigenhändige Unterschrift“ handelt, die in einer elektronischen Form auftritt. Wie wird jedoch eine solche digitale Unterschrift erzeugt und wie kann der Empfänger die Echtheit der Informationen prüfen? Der Absender muß zuerst eine Mitteilung verfassen, die er durch ein unsicheres Netzwerk verschicken will. Sein privater Schlüssel erzeugt eine digitale Signatur und fügt diese der bestehenden Nachricht hinzu. Diese ist jetzt unterschrieben und darf an den Empfänger gesendet werden. Es muß hierbei gesagt werden, daß eigentlich jeder, der über den öffentlichen Schlüssel des Absenders verfügt, die Signatur verifizieren kann. Durch eine erfolgreiche Überprüfung der digitalen Unterschrift kann der Empfänger sicher sein, daß die Nachricht tatsächlich von dem jeweiligen Sender stammt und während der Übertragung im Netz nicht verändert wurde. Die Echtheit repräsentiert der sog. Hashwert, der die Dateigröße, den Inhalt, die Datum- und Zeitangaben beinhaltet.34 Der Inhalt der Nachricht ist vor der Änderung eigentlich geschützt aber jeder kann ihn lesen. Um dieses Problem zu eliminieren, ist es sinnvoll die Mitteilung in einem „digitalen Umschlag“ zu übertragen. Der Sender signiert zuerst seine Nachricht mit seinem privaten Schlüssel. Danach muß er den öffentlichen Key des Empfängers wählen und die Daten mit diesem Schlüssel verschlüsseln. Auf diese Art und Weise wird sicher gestellt, daß die Information von dem Absender stammt (digitale Signatur) und niemand, außer dem Empfänger, diese Daten entschlüsseln (Private-Key-Verfahren) und anschließend lesen kann. Wenn der Empfänger die Nachricht bekommt, „öffnet“ er den Umschlag mit seinem Private-Key. Danach kann er die digitale Signatur und zugleich die Echtheit prüfen. Folgend können die Daten, d.h. der Inhalt der Information bearbeitet werden (Abb.3)35.
Abbildung in dieser Leseprobe nicht enthalten
2.2.2 Trust Center
Bei der symmetrischen Verschlüsselung werden die Schlüssel zur sicheren Datenübertragung zwischen den interessierten Parteien selbst ausgetauscht. Keine weitere Instanz nimmt daran Teil. Im Falle des asymmetrischen Verfahrens, wo ein Schlüsselpaar ausgestellt wird, muß eine dritte Partei helfen. Sie heißt sehr unterschiedlich von Trusted Third Parties (TTP), über Trust Center (TC)[33] bis zu Certification Agency und Certification Authority (CA). Unabhängig davon, wie wir die Zertifizierungsstelle auf englisch nennen, hat sie die Aufgabe der zentralen und einmaligen Identifikation eines Benutzers oder Dienstes.[34]
Wenn der Sender eine Nachricht dem Kommunikationspartner übermitteln will, kann er sich selbstverständlich an ihn wenden, um seinen öffentlichen Schlüssel zu bekommen, um sicher kommunizieren zu können. Der Absender kann allerdings nicht sicher sein, ob der gewünschte Partner antwortet und ob die Daten während der Übertragung nicht gefälscht wurden. Deshalb ist eine vertrauenswürdige „elektronische Behörde“ notwendig, die die Authentizität der Personendaten bestätigen kann. Man wendet sich an diese Instanz, um einen öffentlichen Schlüssel der gewünschten Person zu bekommen. Trust Center schickt dem Anfordernden eine Nachricht mit diesem öffentlichen Key und fügt der Information eine digitale Signatur der TC hinzu. Der Sender ist jetzt imstande den erhaltenen öffentlichen Key, den er für die Kommunikation mit den anderen Partei braucht, zu verifizieren. Er benutzt dazu den öffentlichen Schlüssel von TC.[35]
In der Zeit der Kommerzialisierung des Internets spielen die Zertifikate der Reihe X.509 die bedeutendste Rolle. Sie sind nach dem international genormten Vorschlag der International Telecommunication Union (ITU) aufgebaut und sorgen für eine einheitliche Form von Zertifikaten in der ganzen Welt. X.509-Zertifikate existieren in drei Versionen von denen die X.509v3 die neuste ist. Die Version 3 besteht aus solchen Komponenten wie X.509 Version, Seriennummer, Unterschrift-Algorithmus, Gültigkeit, Name des Ausstellers und Benutzers, öffentlicher Schlüssel, Aussteller- und Benutzer-ID und den ausstellerspezifischen Erweiterungen.[36]
Die Zertifikate sind im Internet frei erhältlich. WEB .DE AG bietet Zertifikate für die Privatkunden unentgeltlich an. Sie können zur Sicherung der elektronischen Post verwendet werden. Die Anmeldung erfolgt auf der Internetseite von WEB.DE-TrustCenter unter der Adresse trust.web.de. Nach der Anmeldung werden die Daten der Person von der Gesellschaft geprüft und nach der erfolgreichen Verifikation erhält man ein Zertifikat X.509v3 in Form einer Datei (zur Installation auf einem Rechner) mit einer Gültigkeit von einem Jahr. Nach dieser Zeit läßt sich der Gültigkeitszeitraum um weitere 12 Monate verlängern.[37] T-TeleSec Crypt der Deutschen Telekom AG stellt ebenfalls Zertifikate aus. Die Telekom besitzt ein eigenes unabhängiges Trust Center, das die Schlüssel der Benutzer zertifiziert. Das Interessante daran ist, daß das Zertifikat auf einer Chipkarte ausgestellt wird. Der Kartenchip ist dabei zuverlässig gegen Ausforschung und Manipulation abgesichert. Um diese Sicherheitsmaßnahme einzusetzen, sind entsprechende Hard- und Software erforderlich.[38] Näheres dazu im Kapitel 10.
Das im Jahre 1997 in Kraft getretene Gesetz über digitale Signaturen regelt die Funktionen der digitalen Unterschrift in der Bundesrepublik sowie die Sicherheitsanforderungen an Certification Authorities.[39]
2.2.3 Signaturgesetz
Bei der Nutzung moderner Informations- und Kommunikationstechnik (IuK) werden elektronische Daten übertragen oder gespeichert. Sie können unbemerkt verändert oder gefälscht werden. Um dies zu verhindern, setzt man unterschiedliche Methoden ein, die in früheren Kapiteln beschrieben wurden. Der Einsatz der Techniken in der digitalen Welt wird durch das Signaturgesetz (SigG) geregelt.[40] „Die gesetzliche Regelung, soll eine hohe Gesamtsicherheit, von der Erzeugung der Signaturschlüssel über deren Zuordnung durch zuverlässige Zertifizierungsstellen bis zur Darstellung der zu signierenden Daten, gewährleisten“.[41] Das SigG stellt Rahmenregelungen dar, bei deren Einhaltung ein Dokument, in digitaler Form und mit digitaler Signatur versehen, vergleichbare Beweissicherheit bietet wie ein gewöhnliches Schriftdokument. Die Sicherheit wird durch die Anwendung der digitalen Unterschrift erreicht.[42] Man weiß aber, daß das Gesetz Schwachstellen aufweist. Auf dem Markt existieren zahlreiche Sicherungsinfrastrukturen, so daß es zu Kompatibilitätsproblemen kommt. Anwendung finden unterschiedliche
Schlüssel, Zertifikate, Verzeichnisdienste und Sperrkonzepte. Der Markt für Zertifizierungsstellen kann sich daher nur langsam entwickelt. Die staatliche Rahmensetzung beschränkt die freie Wahl der Bürger, wenn es sich um das Signaturverfahren handelt. Die digitale Signatur, die von dem oft eingesetzten Programm Pretty Good Privacy (PGP) erstellt wird vom SigG nicht als sicher gewertet. Es verlangt keine Zertifizierungsstelle. Damit ist die fehlende Verschlüsselungsfreiheit verbunden. Nach dem SigG sollten die selbsterzeugten Schlüsselpaare zusätzlich von der CA zertifiziert werden. Weiter dürfen Pseudonyme zur Identifikation des Benutzers im Rahmen des Rechtsverkehrs nicht benutzt werden (nicht vertrags- oder gesetzeskonformes Handeln). Somit wird die informationelle Selbstbestimmung nicht gewährt. Wenn es um TC geht, dann fehlt es an ausreichender Kontrolle dieser Institution, da die Kontrolleure nur Einsicht in die Papierunterlagen haben, nicht jedoch in die Datensammlungen. Die CA besitzt auch zu geringe Entwicklungsfreiheit. Sie muß z.B. immer eine eigene Lizenz und ein sog. Wurzel-Zertifikat anfordern.[43]
2.3 Übertragungsprotokolle
Ein Standard zur Datenübertragung im Internet stellt heutzutage die Protokollfamilie mit Transmision Control Protocol/Internet Protocol (TCP/IP) dar. Auf diesen Protokollen bauen weitere Dienste des Dateitransfers auf. Wir finden hier unter anderem Simple Mail Transfer Protocol (SMTP), File Transfer Protocol (FTP) und seit 1990 Hypertext Transfer Protocol (HTTP). SMTP dient dem Übersenden von elektronischer Post in Form von Email, FTP ermöglicht Transfer von Dateien. Um die Informationen in Form von Text, Tabellen und Grafik auf dem Bildschirm darzustellen, brauchen wir HTTP.[45] Die Absicherung der Internetprotokolle darf auf unterschiedlichen Schichten im Schichtenmodell (näheres zum Modell im Kapitel 3) erfolgen. Die genaue Aufteilung wurde in der Tabelle 1 zusammengefaßt.
Abbildung in dieser Leseprobe nicht enthalten
Tab.1: Absicherung der Internetprotokolle
Die zwei bekanntesten Standards befinden sich in der Transportschicht (TCP und SSL) und in der Anwendungsschicht (HTTP und S-HTTP). Die weiteren Protokolle wie IP in der Vermittlungsschicht werden nicht weiter erläutert.
2.3.1 Transportschicht
Die Transportschicht „.. hat die Aufgabe, den Transport der Daten zwischen Quelle und Ziel zuverlässig sicherzustellen, insbesondere also die Qualität der Datenübertragung unabhängig von der Vermittlungsschicht zu gewährleisten“.[46] Wenn Dienste online angeboten werden, kann es durchaus sinnvoll sein, diese in einer abgesicherten und in einer nichtabgesicherten Variante anzubieten. Die weniger sensitiven Informationen können jedermann zugänglich sein, während bei einer Online-Transaktion die Absicherung notwendig erscheint. In einen solchen Situation kann der Kunde an einen entsprechenden Server verwiesen werden.[47] Einen Schutz bietet die schon erwähnte SSL-Technologie.
SSL steht für Secure Socet Layer und wurde von dem nordamerikanischen WWW- Software-Hersteller Netscape Communications eingeführt. Die Spezifikation ermöglicht eine verschlüsselte Kommunikation zwischen Parteien im Internet. SSL-Verbindungen sind nur dann möglich wenn beide Seiten über entsprechende Schnittstellen verfügen. Das heißt, daß sowohl der Server als auch der Client (z.B. ein WWW-Browser) SSL unterstützen müssen. Durch Anwendung der symmetrischen Verschlüsselung sorgt SSL für eine authentische Übertragung der Daten. Niemand kann sich die Nachrichten auf dem
Weg ansehen oder verändern.[48] Die SSL-Protokolldateneinheiten heißen Records.[49] Die Technologie eignet sich hervorragend zur Abwicklung von Kreditkartenzahlungen im Internet. Damit wird auch SSL als eine der wichtigsten Sicherheitstechnologien im Internet bezeichnet. Der Ablauf einer Transaktion in einem C/S-Modell (Client/Server-Modell) wird folgendermaßen durchgeführt:
1. Der Client muß zuerst eine Verbindung zum Server aufbauen und schlägt eine Reihe von kryptographischen Verfahren vor.
2. Bei Antwort überträgt der Server sein X.509-Zertifikat an den Client. Die Nachricht ist mit einem privaten Schlüssel des Servers unterschrieben.
3. Der Client ist jetzt imstande, die Informationen vom Server zu verifizieren. Falls vom Server aufgefordert, verschickt der Client sein Zertifikat ebenso mit eigener digitaler Signatur unterschrieben (zur Sicherung der eigenen Identität).
4. Der Server überprüft gegebenenfalls das Zertifikat des Benutzers und bestätigt den Abschluß der Initialisierungsphase. Dem Anwendungsprotokoll steht eine sichere Verbindung zur Verfügung.[50]
Es soll an dieser Stelle noch festgehalten werden, daß der Mechanismus des gesicherten Verbindungsaufbaus dem Benutzer selbst völlig verborgen bleibt. Der Client wird höchstens darauf hingewiesen, das er im Begriff ist, ein gesichertes Dokument aufzurufen. Außerdem kann die abgesicherte WWW-Seite anhand der Adresse „https://“ (anstelle von „http://“) erkannt werden. Zusätzlich wird im WWW-Browser ein kleiner Schlüssel eingeblendet.[51] Ein Nachteil stellt die Notwendigkeit einer Anwendung von TCP/IP dar. Ferner werden nicht die Anwendungsdokumente selbst, sondern Kommunikationsfragmente gesichert. Und zuletzt, nach dem Kommunikationsakt, sind die digitalen Signaturen nicht mehr sichtbar und zu rekonstruieren, was bei einer nachträglichen Verifikation einer Transaktion von Nutzen wäre.[52]
2.3.2 Anwendungsschicht
In der Anwendungsschicht „..liegen alle Informationen in einer von dem entsprechenden Anwendungsprozeß lesbaren Form vor und können verarbeitet oder dem Benutzer angezeigt werden. Zu den Protokollen der Anwendungsschicht gehört z.B. ... das im
WWW gebräuchliche Hypertext Transfer Protocol.“[53] Dieses Protokoll wurde durch die Firma Terisa Systems erweitert. Es entstand ein neuer Standard zur sicheren Datenübertragung im WWW.
S-HTTP (Secure HTTP) ermöglicht wie SSL eine vertraute Übertragung von verschlüsselten Daten und sorgt dafür, daß diese während des Sendevorgangs nicht verändert werden. Es ist auch möglich, Signaturen an Nachrichten anzuhängen. Durch dieses Vorgehen können z.B. Verträge online kontrolliert abgeschlossen werden. Im Gegensatz zu SSL ist S-HTTP eine Erweiterung von HTTP und mit diesem Internetprotokoll vollständig kompatibel.[54] Die Anwendung von Secure HTTP wird durch solche Dateiendungen wie „shttp:/“ oder „*.shtml“ sichtbar gemacht.[55] Bei S-HTTP handeln sich Server und Client für jede Verbindung eine neue Form der Übertragungsabsicherung aus. Dieses macht die gezielte Anpassung der Absicherung an die jeweilige Anwendung möglich:
- Unverbindliche Daten werden im Klartext, also unverschlüsselt übertragen,
- Bei wichtigen Informationen kann der Client eine Signatur oder auch Verschlüsselung vom Server verlangen,
- Der Server kann umgekehrt vom Client eine digitale Unterschrift beim Ausfüllen eines Formulars anfordern.
Wie es gezeigt wurde, ist eigentlich jede Kombination von Verschlüsselung und Unterschrift bei diesem Protokoll vorstellbar. Ein Nachteil im Vergleich zur Absicherung auf der Transportebene liegt darin, daß bei der Anwendungsebene das abzusichernde Anwendungsprotokoll selbst modifiziert werden muß, um für unterschiedliche Anwendungen angepaßt zu werden.[56]
3 Netzsicherheit - FirewaHs in dem ISO/OSI-Referenzmodell
Dieses Kapitel befaßt sich mit dem Problem, wie die Sicherheit der internen Netzwerke der Unternehmen, die an externe Netze, wie z.B. das Internet, angeschlossen sind, gewährleistet werden kann.
3.1 Philosophie von Firewalls
Eine Firewall (Brandschutzmauer) in einem Computersystem, einem Netzwerk, ist eine Komponente, über die ein internes, privates Unternehmensnetzwerk an ein externes, öffentliches Netzwerk angeschlossen ist. Sie koppelt also ein sicheres Datennetz an ein ungesichertes Netz. Seine Hauptaufgabe ist es, den Benutzern im Unternehmen einen ungestörten Zugriff auf die Informationen des öffentlichen Netzwerkes zu ermöglichen. Gleichzeitig muß das eigene Datennetz vor externen Zugriffen und Angriffen geschützt werden. Damit das ganze Firmennetzwerk sicher ist, darf die Firewall den einzigen Baustein darstellen, der für den Zugang zum externen, ungesicherten Netzwerk verantwortlich ist. Ein Brandschutzmauer besteht aus zahlreichen Hard- und SoftwareKomponenten, die je nach Anforderungen der Benutzer kombiniert werden können. Die Firewall-Systeme benutzen unterschiedliche Übertragungsschnittstellen wie: ISDN-, Modem-, X.25- und Datenmietleitungen.[57]
Um den Überblick bei der Besprechung von Firewalls nicht zu verlieren, ist es wichtig, die Einordnung von Brandschutzmauer in einem ISO/OSI-Referenzmodell zu skizzieren (dem Modell sind wir schon im Kapitel 2.3 begegnet). „Um die vielen verschiedenen Protokolle und Techniken der Vernetzung von Computer-Systemen zu vereinheitlichen, wurde Ende der siebziger Jahre durch die ISO (International Standardization Organization) ein Referenzmodell geschaffen, das sogenannte OSI-Referenzmodell (Open Systems Interconnection).“[58] Nach dem Modell kann die Übertragung von Daten zwischen zwei unterschiedlich aufgebauten Rechnern über sieben Schichten abgewickelt werden.
Die beiden Computer müssen die Struktur implementiert haben. Der schematische Aufbau des ISO/OSI-Modell und Erklärungen zu den einzelnen Schichten befinden sich in der Tabelle 2.[59]
Dienste wie Dateitransfer oder eMail Datenformat: ASCII, Verschlüsselung Management virtueller Verbindungen
Korrektur von Übertragungsfehlern Adressierung und Übertragung Zugang und Fehlerkorrektur Übertragungsmedium, -geschwindigkeit
3.2 Bestandteile einer Brandschutzmauer
Die zwei wichtigsten Elemente einer Firewall sind Packet Filter und Application Gateway (Siehe Anhang). Die Packet Filters, die auch Screening Router genannt werden, können in der zweiten und dritten Schicht des ISO/OSI-Referenzmodells gefunden werden. Die Application Gateways werden in den Schichten sechs und sieben angewendet.[60]
3.2.1 Packet Filter
Paketfilterung zwischen dem Internet und internem Netzwerk präsentiert die einfachste Form einer Firewall. Diese Form einer Brandschutzmauer überwacht (filtert) unterschiedliche Elemente der Pakete die in den sicheren und unsicheren Netzen transportiert werden.[61] Da jedes Paket in sog. Headern eine gewisse Anzahl von Informationen abgespeichert hat, ist es möglich diese zu verifizieren. Es werden unter anderem IP-Quelladresse, IP-Zieladresse, das angewandte Protokoll (TCP, UDP oder ICMP), TCP-Quellport, TCP-Zielport geprüft. Zusätzlich kann das System auch andere Informationen überprüfen, die nicht im Header enthalten sind. Das sind die Schnittstelle, an der das Paket hinausgeht und an der es ankommt. Aus diesem Grund wird diese Art von Firewall oft als Überwachungsrouter genannt.[62] Die Arbeitsweise eines solchen FirewallSystems ist relativ einfach. Wenn festgestellt wird, daß das ankommende Paket nicht von der akzeptierten Domäne kommt, wird es von der Firewall blockiert und nicht ins interne Netzwerk hereingelassen. Bei der Überprüfung werden lediglich, die in Headern gefundenen Adressen, nicht aber der Inhalt der Pakete verifiziert. Das führt dazu, daß diese Art von Firewall sehr schnell arbeitet. Die preisgünstigen Firewall-Lösungen sind jedoch gegenüber gefälschten Adressen anfällig. Damit empfiehlt es sich der Einsatz von teureren Systemen die auch solche Indizes wie die verwendeten Porte unter die Lupe nehmen.[63] Ein solches Firewall-Konzept scheint nicht sinnvoll in der Internet-Intranet-Kommunikation zu sein. Man kann allerdings eine solche Lösung für ein Intranet, ein Unternehmensnetzwerk, das hauptsächlich die Internetprotokolle benutzt[64], empfehlen. In der Kombination mit einer Verschlüsselung ist sie eine kostengünstige und flexible Möglichkeit, eine sichere Kommunikation im internen Netzwerk zu gewährleisen.[65]
Wie schon früher angesprochen, befaßt sich die Netzwerkschicht des OSI-Referenzmodells hauptsächlich mit der Adressierung und der Übertragung der Pakete im Netz von einem Teilnehmer zum anderen Teilnehmer. Die Wirkungsweise des Packet Filters beschränkt sich darüber hinaus auf die Filterung der Daten in dieser Schicht.[66]
3.2.2 Application Gateway
Das ist eine Art von Brandschutzmauer, auf dem sog. Proxy-Dienste ablaufen. Unter diesen Diensten versteht man spezielle Anwendungs- oder Serverprogramme, die den Zugang zum externen Netz überwachen. Die Programme greifen die Benutzeranfragen nach Internet-Diensten wie FTP oder HTTP und prüfen, ob ein sicherer Zugriff realisiert werden kann. Die Anwendungen, die Proxy genannt werden, stellen Ersatzverbindungen her und dienen als Gateways (Torwege) zu den Diensten. Die Proxy-Dienste von Application Gateway befinden sich zwischen dem Benutzer, der sich im internen Netz aufhält und dem, der außerhalb des Netzes fungiert, z.B. im Internet. Anstatt direkt zu kommunizieren, benutzen die beiden Parteien ein Proxy. Dieses System regelt sicher die gesamte Kommunikation zwischen den Benutzern.[67] Für jeden Dienst ist ein separater, spezialisierter Proxy erforderlich.
Gegenüber einem Packet Filter besitzt ein Application Gateway den Vorteil, daß man die transportierten Informationen besser überwachen kann. Dazu sind Application Gateways einfacher und flexibler zu konfigurieren, so daß sie für die Abwehr von unbefugten Zugriffen schneller abgestimmt werden können. Durch den Einsatz von einzelnen Proxies für die einzelnen Dienste ist diese Art von Firewall in der Handhabung und Verwaltung sehr komplex. Ein Proxy kann dadurch die Pakete detaillierter auswerten. Aus diesem Grund arbeitet solche Brandschutzmauer in der Anwendungsebene langsamer als die auf der Netzwerkebene.[68]
3.3 Konzepte für fortgeschrittene Firewall-Systeme
Um ein Höchstmaß an Sicherheit beim Aufbau eines Firewall-Systems zu erreichen, ist es empfehlenswert, unterschiedliche Techniken miteinander zu verbinden. Ein solches System ist meist eine geschickte Kombination zur Lösung mehrerer Probleme. Welche Aufgaben eine Firewall zu lösen hat, hängt davon ab, welche Dienste den Benutzern des Intranets zur Verfügung gestellt werden.[69]
3.3.1 Dual-Homed-Firewall
Ein solches System ist schon komplizierter als die zuvor vorgestellten Architekturen. Bei einer Dual-Homed-Firewall spielt der Dual-Homed-Host, oder anders Dual Home Bastion Host[70], die wichtigste Rolle und bildet zugleich den bedeutendsten Baustein des ganzen Systems. Es ist ein Computer, der über mindestens zwei Netzschnittstellen verfügt, an die Internet und Intranet angeschlossen sind. Die IP-Pakete werden in dieser Architektur nicht direkt zwischen den beiden Netzwerken, dem sicheren Intranet und unsicheren Internet, geroutet. Die ankommenden Pakete vom Inneren der Firewall und von Außen stoßen zuerst immer an den Dual-Homed-Host und können nicht unmittelbar ausgetauscht werden.[71] Der Dual-Homed-Host sitzt also in der Mitte zwischen zwei Netzwerken. Dieses Firewall-Konzept besteht aus zwei aktiven Komponenten wie Packet Filter und Application Gateway, die hintereinander im System eingeschaltet sind. Da diese Elemente aufeinander folgend geschaltet sind, ist es unmöglich Application Gateway umzugehen (Siehe Anhang). Das Maß an Sicherheit, das von diesem System angeboten wird, hängt von der Sicherheit der einzelnen Bestandteile ab. Die beiden aktiven FirewallKomponenten arbeiten mit unterschiedlichen Anbindungs- und Analysekonzepten. Dies gewährleistet Kontrolle auf sehr hoher Ebene.[72]
Eine Dual-Homed-Firewall kann nur dann Dienste anbieten, wenn er Proxies einsetzt oder wenn sich die Benutzer direkt beim Dual-Homed-Host einloggen. Hier entsteht ein Sicherheitsproblem, da unerwartet zu unsichere Dienste aktiviert werden können. Außerdem ist es ziemlich unbequem, sich bei einem Host einzuloggen.[73]
3.3.2 Packet Filter mit optionalem Dual-Homed-Host
Bei dieser Kombination werden sowohl Packet Filter als auch Application Gateway eingesetzt. Der Unterschied im Vergleich zum Dual-Homed-Host besteht darin, daß in diesem Modell das zweite Element optional auftritt und sich innerhalb des internen Netzes befindet. Die Sicherheit wird somit durch die aktive Filterung gewährleistet. In diesem Rahmen gibt es zwei Sicherheitskonzepte:
- Das gesamte Firewall-System kann so konfiguriert werden, daß der Verkehr von Außen immer durch die Application Gateway geführt wird.
- Oder es werden nur bestimmte Dienste im Internet zugelassen. Die Verifikation und Zulassung zu Diensten übernimmt in diesem Fall der Packet Filter.[74]
Sehr interessant, aber auch gefährlich ist die erste Variante. In solcher Situation ist der Proxy das einzige System, daß in dem internen Netzwerk anzusprechen ist. Erst von daher wird der Zugriff auf weitere Bestandteile des Netzes ermöglicht. Wenn jetzt ein Angreifer den Zugang zum Application Gateway erlangen würde, ist der Weg zum gesamten internen Netz offen. Er kann auf alle Rechner zugreifen, da kein weiterer Schutz vorhanden ist.
Die Kombination von beiden Firewall-Elementen bietet hohe Flexibilität und breite Einsatzmöglichkeiten. Ob das darauf basierende System allerdings sicher sein wird, hängt von der Leistung und der Sicherheit des Packet Filters ab. Der separate Einsatz der Paketfilterung ist bei einem Konzept mit Internetanbindung nicht ausreichend. Damit empfiehlt sich ein Firewall-System mit einem zusätzlich angeschlossenen Proxy.[75] Firewalls sind allgemein in der Lage, Netzaktivitäten zwischen den Schichten zwei und sieben zu überwachen. Daten, die innerhalb von Applikationen transportiert werden und z.B. Viren beinhalten, können aber nicht blockiert werden. Genauso problematisch ist der externe, physikalische Zugriff auf das interne Datennetz.
[...]
[1] Vgl. Fuhrberg (2000), S.44.
[2] Vgl. Sietmann (1997), S.88.
[3] Vgl. Fuhrberg (2000), S.44 ff.
[4] Vgl. Artmann, http://www.e-commerce-magazin.de
[5] Vgl. Sietmann (1997), S.88.
[6] Vgl. Stockmann (1998), S.67.
[7] Vgl. Artmann, http://www.e-commerce-magazin.de
[8] Vgl. Zillich (1999), S.54.
[9] Pelka, http://www.sicherheit-im-internet.de/themen.phtml#14
[10] Vgl. Pelka, http://www.sicherheit-im-internet.de/themen.phtml#14
[11] Vgl. o.V., http://www.firstsurf.de/biometrie_t.htm
[12] Vgl. Dudde, http://www.sicherheit-im-internet.de/themen.phtml#6
[13] Vgl. Luckhardt (1999), S.116.
[14] Vgl. o.V., http://www.firstsurf.de/biometrie_t.htm
[15] Vgl. Dudde, http://www.sicherheit-im-internet.de/themen.phtml#6
[16] Vgl. o.V., http://www.firstsurf.de/biometrie_t.htm
[17] Vgl. Sienkiewicz (1994), S.256.
[18] Vgl. o.V., http://www.firstsurf.de/biometrie_t.htm
[19] Vgl. Sienkiewicz (1994), S.256.
[20] Vgl. Pelka, http://www.sicherheit-im-internet.de/themen.phtml#14
[21] Vgl. o.V., http://www.firstsurf.de/biometrie_t.htm
[22] Vgl. Zillich (1999), S. 54 ff.
[23] Vgl. o.V., http://www.bioid.de/german_sites/home_frame.html
[24] Vgl. o.V., http://www.skytale.de
[25] Vgl. Pohlmann (2000), Teil 3/2.2, S.1.
[26] Vgl. Sietmann (1997), S.92.
[27] Vgl. Stockmann (1998), S.70.
[28] Vgl. Pohlmann (2000), Teil 3/2.2, S.ff.
[29] ebenda, Teil 3/2.3, S.1.
[30] Vgl. Nusser (1998), S.57.
[31] Vgl. Sietmann (1997), S.94.
[32] Vgl. Pohlmann (2000), Teil 3/2.2, S.4 ff.
[33] Kyas (1996), S.178.
[34] Vgl. Pohlmann (2000), Teil 3/2.3, S.2 ff.
[35] Vgl. Stockmann (1998), S.74.
[36] Vgl. Cerny, Pohl (1997), S.616.
[37] Vgl. Nusser (1998), S.71.
[38] Vgl. Cerny, Pohl (1997), S.617.
[39] Vgl. Nusser (1998), S.73 ff.
[40] Vgl. o.V., http://trust.web.de
[41] Vgl. o.V., http://www.telekom.de/angebot/telesec/vertrau/chip/right.htm
[42] Vgl. Cerny, Pohl (1997), S.621.
[43] Vgl. Bieser (1997), S.399.
[44] Müller, Pfitzmann (1997), S.413.
[45] Vgl. Bieser (1997), S.400.
[46] Vgl. Roßnagel (1997), S.455 ff.
[47] Vgl. Schuster, Färber, Eberl (1997), S.36.
[48] Vgl. Stockmann (1998), S.36 ff.
[49] Fuhrberg (2000), S.8.
[50] Vgl. Nusser (1998), S.123.
[51] Vgl. Schuster, Färber, Eberl (1997), S.37.
[52] Vgl. Grimm (1997), S.116.
[53] Vgl. Nusser (1998), S.126.
[54] Vgl. Kyas (1996), S.106.
[55] Vgl. Grimm (1997), S.117.
[56] Fuhrberg (2000), S.8.
[57] Vgl. Schuster, Färber, Eberl (1997), S.38.
[58] Vgl. Kristoferitsch (1998), S.115.
[59] Vgl. Nusser (1998), S.128.
[60] Vgl. Kyas (1996), S. 133 ff.
[61] Fuhrberg (2000), S.7.
[62] Vgl. Nusser (1998), S.10.
[63] Vgl. Stockmann (1998), S.77.
[64] Vgl. Grieser (1999), S. 85.
[65] Vgl. Chapman, Zwicky (1996), S.67 ff.
[66] Vgl. Grieser (1999), S. 85.
[67] Vgl. Kauffels (1998), S.112.
[68] Vgl. Pohlmann (2000), Teil 5/6.1, S.3.
[69] Vgl. Kyas (1996), S.135.
[70] Vgl. Chapman, Zwicky (1996), S.69.
[71] Vgl. Grieser (1999), S. 85.
[72] Vgl. Chapman, Zwicky (1996), S.71.
[73] Vgl. Kyas (1996), S.139.
[74] Vgl. Chapman, Zwicky (1996), S.72.
[75] Vgl. Pohlmann (2000), Teil 5/6.3, S.5 ff.
-
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X. -
Téléchargez vos propres textes! Gagnez de l'argent et un iPhone X.