Im Rahmen einer Seminararbeit über die Türkische Verfassung im internationalen Vergleich bin ich auf folgende Pressemitteilung gestoßen:
„Türkische Regierung will das Internet kontrollieren. Mit der Presse- und Meinungsfreiheit ist es in der Türkei nicht zum Besten gestellt: Durch ein neues, sehr umstrittenes Mediengesetz, das vom Parlament bereits vor zwei Wochen angenommen wurde, sollte die Kontrolle verstärkt und zudem auch auf das Internet ausgeweitet werden.“1
Nicht nur die Türkei, auch andere Länder versuchen mit technischen oder administrativen Mitteln das Internet in seinem Funktionsumfang einzuschränken. Dies führte mich zu der Frage, wie stark der Einfluss des Internets auf diese Nationen ist, wenn sie zum Teil mit
drastischen Mitteln gegen diese Technik vorgehen.
Ausgehend von der Annahme, dass die mit dem Internet assoziierte, grenzenlose Informations- und Kommunikationsfreiheit diese Nationen in ihren Handlungsspielräumen einschränkt, untersuche ich in welchem Ausmaß das Internet dazu beiträgt, die Handlungsspielräume der Nationalstaaten zu verändern und in welchem Umfang es zur Denationalisierung politischer Souveränität führt.
Das dezentrales Medium Internet mit seinem Grenzen überschreitenden Informationsfluss steht der Nation mit seiner auf Territorium und Kontrolle basierenden Konzeption diametral gegenüber.
1 „Türkische Regierung will das in Internet kontrollieren“, in: heise online news vom 22.06.2001
http://www.heise.de/newsticker/data/fr-22.06.01-000/ (abgerufen am 08.07.2003)
Inhalt
Einleitung
1 Das Internet – Geschichte, Struktur und Regulierung
1.1 ICANN – Die gescheiterte Demokratie im Netz
1.2 Das Ende der Netzutopie
2 Möglichkeiten und Grenzen des Internets
2.1 Internet Kommunikation
2.2 »Digital Devide« – Wie global ist das Netz ?
2.3 Das kontrollierte Netz
3 Schnittstellen - Internet und Nation
3.1 Deterritorialisierung der digitalisierte Wirtschaft
3.2 Lingua Franca – Wird Englisch zur Weltsprache ?
3.3 Kultureller Austausch – Die Relativierung der eigenen Kultur
3.4 »Virtuelle Ethnizität«
3.5 Der Verlust der Informationshoheit
3.6 Kryptographie
3.7 Proteste im Internet – Neue virtuelle und alte soziale Bewegungen
3.8 Fazit: Die »digitale Denationalisierung«
4 »Digitale Denationalisierung« der Türkei
4.1 Die türkische Nation
4.1.1 Auf dem Weg zur EU
4.1.2 Wirtschaftskrisen
4.2 Sprach- und Meinungsfreiheit
4.3 NGO's und die Türkei
4.4 Die Türkei und das Internet
4.5 Kurden im Internet
4.6 Fazit: Die Türkei im digitalen Zeitalter
5 Schlussbetrachtung
6 Literaturnachweis
7 Internetadressen
8 Bildnachweis
Einleitung
Im Rahmen einer Seminararbeit über die Türkische Verfassung im internationalen Vergleich bin ich auf folgende Pressemitteilung gestoßen:
„Türkische Regierung will das Internet kontrollieren
Mit der Presse- und Meinungsfreiheit ist es in der Türkei nicht zum Besten gestellt: Durch ein neues, sehr umstrittenes Mediengesetz, das vom Parlament bereits vor zwei Wochen angenommen wurde, sollte die Kontrolle verstärkt und zudem auch auf das Internet ausgeweitet werden.“[1]
Nicht nur die Türkei, auch andere Länder versuchen mit technischen oder administrativen Mitteln das Internet in seinem Funktionsumfang einzuschränken. Dies führte mich zu der Frage, wie stark der Einfluss des Internets auf diese Nationen ist, wenn sie zum Teil mit drastischen Mitteln gegen diese Technik vorgehen.
Ausgehend von der Annahme, dass die mit dem Internet assoziierte, grenzenlose Informations- und Kommunikationsfreiheit diese Nationen in ihren Handlungsspielräumen einschränkt, untersuche ich in welchem Ausmaß das Internet dazu beiträgt, die Handlungsspielräume der Nationalstaaten zu verändern und in welchem Umfang es zur Denationalisierung politischer Souveränität führt. Das dezentrales Medium Internet mit seinem Grenzen überschreitenden Informationsfluss steht der Nation mit seiner auf Territorium und Kontrolle basierenden Konzeption diametral gegenüber.
In den Konzepten von Nation stellt sich immer wieder die Frage: Handelt es sich bei Nationalsprache, Geschichte, Kultur und ethnischer Zugehörigkeit um ein Konstrukt, das zur Konstituierung der Nation notwendig ist oder waren sie schon immer vorhanden? In einer breiten Debatte, ausgelöst durch die neuen Nationenbildungen mit einer primär ethnischen Legitimation, wird dieser Diskurs zwischen Konstruktivisten und Primordalisten ausgetragen; dies soll aber nicht Inhalt dieser Arbeit sein. Es ist meiner Ansicht nach nicht relevant, ob die von mir behandelten Elemente einer Nation konstruiert oder in einem älteren Prozess gewachsen sind; sie sind für Nationen mit unterschiedlicher Relevanz existent. Auch lässt sich nicht eindeutig klären, ob sie notwendig sind, um die nationale Kontinuität zu gewährleisten. Allerdings gehe ich davon aus, dass es Einfluss auf die nationale Souveränität hat, wenn sich diese konstituiven Eigenschaften verändern, bzw. schwinden.
Im letzten Jahrzehnt hat sich das Internet zum Sinnbild der globalen Vernetzung entwickelt. Immer mehr Menschen nehmen an den neuen Möglichkeiten des elektronischen Mediums teil. Eine breite Diskussion über die sich daraus ergebenen Veränderungen in der Gesellschaft, Politik und Wirtschaft findet derzeit innerhalb, wie ausserhalb des Cyberspace[2] statt. Durch die Prozesse der Globalisierung findet eine politische, wirtschaftliche und gesellschaftliche Denationalisierung statt. Die Gesamtheit der Einflüsse innerhalb dieser Denationalisierung, die durch die neue Informations- und Kommunikationstechnik (IuK) unterstützt und vorangetrieben werden, werde ich im Folgenden »digitale Denationalisierung« nennen. Ich nenne sie nicht virtuell, denn das würde implizieren, dass sie nur im virtuellen Raum, dem Cyberspace, stattfindet. Die Rückwirkungen auf die Wirtschaft, Politik und Gesellschaft sind aber real. Bei dem Begriff der Denationalsierung stütze ich mich auf die Definition von Michael Zürn[3], der sie
„als die relative Zunahme der Intensität und der Reichweite grenzüberschreitender Austausch- oder Produktionsprozesse in den Sachbereichen Wirtschaft, Umwelt, Gewalt, Mobiltät sowie Kommunikations und Kultur.“[4] versteht.
Das erste Kapitel beschäftigt sich mit der Entstehung und den technischen Möglichkeiten des Internets, um ein Verständnis für die global erscheinenden Auswirkungen und Konsequenzen für Gesellschaft, Politik und Wirtschaft zu vermitteln. Dazu ist es notwendig, zu verstehen, was das Internet überhaupt ist. Dies wird anhand seiner Geschichte und den technischen Grundlagen, die die rasante Expansion erst möglich gemacht haben, verdeutlicht. Um die sich kontinuierlich erweiternde Infrastruktur des Netzes zu regeln sind verschiedene Organisationen angetreten. Mit ihrem Anspruch, das Netz unabhängig von staatlicher Kontrolle organisieren zu wollen, stellt sich unter anderem die Internet Corporation for Assigned Name and Numbers (ICANN) an die Spitze dieser Organisationen. Diese Unabhängigkeit von Staat und Wirtschaft ist ebenso Inhalt der vielen Utopien, die seit Anbeginn des Internets mit der Vision einer digitalen Gesellschaft verbunden wurden. An der digitalen Front des Internets strebten die Pioniere einer technischen Elite in den elektronischen Raum. Wohin gelangten sie?
Das Internet selbst ist vor allem Informations- und Kommunikationstechnik (IuK). Im zweiten Kapitel geht es um die neuen Varianten der Kommunikation, die mit dem Internet geschaffen worden sind. Viele Menschen haben keinen oder nur sehr begrenzten Zugang zum Netz und nicht die Partizipationsmöglichkeiten, die den meisten Bürgern der OECD-Staaten zur Verfügung stehen. Zwei Ursachen sollen hier näher betrachtet werden: Zum einen der »digital Devide« und zum anderen die technischen Kontrollmöglichkeiten, die die Internettechnik bietet.
Der Begriff der Schnittstelle für das dritte Kapitel ist bewußt gewählt. In der Computertechnologie sind Schnittstellen Hard- und Softwareverbindungen[5], über die die verschiedenen Module eines Computers miteinander kommunizieren, Daten austauschen und Prozesse auslösen. Im einfachsten Fall schickt ein Computer einem Printer einen Druckbefehl; bei komplizierteren Vorgängen kann es auch bedeuten, das eine Software, ein so genannter Compiler, den Quelltext eines anderen Programms komplett umschreibt. Die Schnittstellen zwischen Nation und Internet, in denen die »digitale Denationalisierung« wirkt, sind Inhalt dieses Kapitels.
Um die manchmal etwas abstrakten Theorien über den Einfluss des Virtuellen auf die Nation zu konkretisieren, wird die Verbindung Nation und Internet, am Beispiel der Türkei im vierten Kapitel eingehender untersucht. Die Türkei ist durch ihre Reformen in Richtung einer politischen und wirtschaftlichen Liberalisierung bestrebt, einen Anschluss an die Europäische Union (EU) zu erreichen. Gleichzeitig werden neue Gesetze erlassen, die zu einer massiven Einschränkung der Meinungsfreiheit führen. Davon ist auch das Internet betroffen. Ich untersuche die »digitale Denationalisierung« exemplarisch anhand der Türkei im vierten Kapitel. In welchem Ausmaß sind die in Kapitel drei untersuchten »Schnittstellen« relevant für die Türkei? In welchem Umfang ist das Internet an der Denationalisierung politischer Souveränität in der Türkei beteiligt?
In meiner Schlussbetrachtung (Kap.5) fasse ich die Ergebnisse meiner Arbeit zusammen, leite daraus Thesen (für eine mögl. Weiterbearbeitung des Themas) ab und formuliere einen mir schlüssig erscheinenden Ausblick auf die »digitale Denationalisierung«.
Noch ein Hinweis bezüglich der Fußnoten. Auf Grund der Materie finden sich in dieser Arbeit relativ viele Verweise auf Internetseiten. Eine einheitliche Regelung für Internetadressen gibt es bisher nicht. Daher bin ich folgendermaßen vorgegangen: Handelt es sich dabei um ein eigenständiges Dokument mit Autorenangabe, so ist es im Anhang unter Internetadressen gelistet und in der Fußnote mit der Bezeichnung „Internet“ kenntlich gemacht. Anderenfalls steht der Verweis direkt in der Fußnote mit Titel, Internetadresse und Abrufdatum. Unter http://www.ok.artport.de ist eine komplette Linkliste und ein Mirror der wichtigsten Dokumente vorhanden.
1 Das Internet – Geschichte, Struktur und Regulierung
Die technische Grundlage des Internets ist offiziell entwickelt worden, um nationalstaatliche Souveränität zu sichern. Nachdem der sowjetische Sputnik-Satellit im Jahr 1958 die ersten Signale zur Erde funkte, sah sich die US-amerikanische Regierung unter Präsident L.B. Johnson technologisch gegenüber der damaligen UDSSR ins Hintertreffen geraten. Daraufhin wurde im selben Jahr vom Verteidigungsministerium die Forschungsbehörde Advanced Research Project Agency (ARPA) gegründet. Im Rahmen des ARPA-Programms wurden von der Regierung an Universitäten und private Institute Gelder für die Entwicklung innovativer Techniken, die militärisch von Nutzen sein könnten, vergeben. Um eine effektivere Kommunikation zwischen den forschenden Universitäten herzustellen, entwickelte J.C.R Licklider in der Folgezeit am Massachusetts Institute of Technology (MIT) die Vernetzung der Computer. Offiziell bestand dessen Aufgabe darin, ein Netzwerk zu entwickeln, welches ermöglicht, nach einem nuklearen Angriff Kommunikation und Forschung weiterhin aufrecht zu halten.[6] Laut Larry Roberts, einem Mitarbeiter bei ARPA, ist die Idee mit dem Atomangriff erst später dazu gekommen, um die militärische Forschungsgelder zu garantieren.[7] Sie entwickelten am MIT ein dezentrales elektronisches Netz, das die Daten in Packete aufteilte (packet switching), die adressiert, selbstständig ihren Weg finden. Am Zielpunkt werden sie, unabhängig von der Reihenfolge ihres Eintreffens, wieder zusammengesetzt. Durch die Dezentralität, die damit erreicht wurde und die Autonomie der einzelnen Packete ist bei einem Ausfall eines oder mehrere Knotenpunkte immer noch ein Transfer dieser Daten über andere vernetzte Rechner möglich.
Das erste weltweite Netz, das die packet switching Technolgie anwendete, wurde 1965 gestartet. „Neun Knotenpunkte - Amsterdam, Brüssel, Frankfurt, Hong Kong, London, Madrid, New York, Paris und Rom - wurden mit fest gemieteten Telefonleitungen untereinander verbunden.“[8] Hier basierte das Netz noch auf einer homogenen Technik. Die Weiterentwicklung der Netzwerktechnologie sollte im Softwarebereich so gestaltet sein, dass es möglich ist, Rechner unterschiedlicher Bauart miteinander in Verbindung zu setzen.
„Almost every conceivable item of computer hardware and software will be in the network ... This is the greatest challenge of the system, as well as its greatest ultimate value.“[9]
Abbildung in dieser Leseprobe nicht enthalten
Abb 1: Skizze des ARPAnet von 1969
1969 verband das erste heterogene Netzwerk, das ARPAnet, vier Universitäten in den USA, zwei jeweils an der West- und Ostküste. Die Hardware der vier Rechner unterschied sich, die Software auf den Rechnern, die für die Vernetzung notwendig war, ebenso. Die erste Nutzung dieses Netzes galt zwei Programmen: zum einen das Telecommunication Network (Telnet), einem Programm zur Fernsteuerung von Rechnern, und zum anderen das File Transfer Protocol (FTP), welches es ermöglicht Daten zwischen Rechnern auszutauschen. Die rasante Entwicklung des Netzes beruht einem dritten Programm, das kurze Zeit später in das ARPAnet integriert wurde: der elektronischen Post, die email, einem einfachen Programm, das es ermöglicht, an einen oder mehrere Nutzer des Netzes gleichzeitig Textnachrichten zu versenden. Sein Transfervolumen überstieg schon nach kurzer Zeit das der anderen beiden Dienste.[10]
1972 hatte das ARPAnet bereits 37 Universitäten miteinander verbunden und wurde zum ersten Mal der Öffentlichkeit vorgestellt.[11] Kurz nach der Veröffentlichung stieg die Wachstumsrate des ARPAnet von wenigen Prozent auf ca. 67%.[12] Erst
„Fünf Jahre später beginnt der Einsatz des einheitlichen TCP/IP-Protokolls (Transmission Control Protocol/Internet Protocol) im ARPAnet, das die Kommunikation von Rechnern und Netzwerken, unabhängig von deren Architektur und verwendeter Plattform (heute z.B. Windows 2000, Macintosh oder IBM S/390), ermöglicht.“[13]
1978 entstand parallel zum ARPAnet das USENET. Auf der Basis der zu diesem Zeitpunkt neuen Fassung der Programmiersprache UNIX entstanden Kommunikationplattformen im Netz, die Messageboards.[14] Sie erinnern an virtuelle Pinwände, an denen jeder seine Nachricht, oder auch p ostings, hinterlässt, die von allen gelesen werden können und auf die dann geantwortet werden kann; entweder persönlich durch eine email oder durch ein weiteres p osting auf dem Board. Dadurch entstehen nachvollziehbare virtuelle Diskussionen (threads), in denen sich Internetnutzer zu verschiedenen, zu Anfang vorwiegend auf Computer bezogene, später zu allen Themenbereichen, austauschen.
Nachdem das ARPAnet immer weiter wuchs und sich auf den außeruniversitären Bereich ausdehnte, entstand 1980 so das Internet, das Netz der Netze. Mehrere Computer miteinander zu verbinden macht noch kein Internet im heutigen Sinne aus. Erst die Verbindung mehrerer Computernetze macht das Netz zum Internet. Das ARPAnet stellte weiterhin die Backbone, d.h. das die primäre Hauptlast an Datentransfers von den technischen Leitungen des ARPAnet getragen wurde. Zu diesem Zeitpunkt hat sich der militärische Teil des ARPAnet von dem universitären getrennt und wurde zum unabhängigen Milnet. Diese Trennung stellt den ersten Schritt zum staatlich unabhängigen Internet dar. Der nächste große Schritt für die weltweite Verbreitung des Internets war der über den Atlantik. 1973 stellte das University College London über Norwegen eine TCI/IP Verbindung zum ARPAnet her.
1987 wurde das ARPAnet als Rückgrat des Internet von dem NFSnet abgelöst, eine Entwicklung der Nationals Science Foundation, das „seit Mitte der sechziger Jahre Computerzentren finanziert, von deren Nutzung man sich eine ökonomischere Ressourcennutzung versprach.“[15] Die NSF schuf mit dem NSFnet die technologischen Ressourcen, die es dem Internet ermöglichten weiter zu wachsen.
Das, was heute als das World Wide Web (WWW) bezeichnet wird, verdankt seine Verbreitung Tim Berners-Lee, dem Erfinder der Hypertext Markup Language (Html). Als er sie 1991 am europäischen Kernforschungszentrum CERN in Genf entwickelte, war noch nicht absehbar, welches Potential diese Programmiersprache, die der Veröffentlichung von wissenschaftlichen Texten im Internet dienen sollte, hatte. Es stellte sich heraus, dass sie wesentlich vielseitiger genutzt werden konnte. Im Besonderen die Möglichkeit, Links (elektronische Verweise) zu erstellen, die nicht nur auf Informationen innerhalb des Dokumentes, sondern auf andere Internetseiten verweisen, hat das Internet zu dem WWW gemacht, wie wir es heute kennen. Die sehr schnell zu erlernende Programmiersprache und die leichte Bedienbarkeit der Internetbrowser[16], wie Microsofts Internet Explorer und dem Navigator von Netscape, taten ihr übriges. Heutzutage bittet das Internet nicht nur Text, sondern Bilder, Filme, Ton und Animationen. Die Basis ist immer noch Html, auch wenn Erweiterungen wie JavaScript, XML, Cascasing Style Sheets (CCS), Java, Perl und PHP, um nur einige Progammiersprachen zu nennen, und etliche Plugins[17] von verschiedenen Herstellern dazu gekommen sind.
Das Interesse der großen Computer- und Telekommunikationsfirmen wie AT&T, MCI und IBM erwachte erst 1993, nach dem Mosaic, der erste Internetbrowser mit graphischer Oberfläche, welcher das Internet für den unerfahrenden Computernutzer interessant machte.[18] Sie schlossen Verträge in Millionenhöhe mit NSF ab. Dadurch wurde das Internet zunehmend auch für Privatanwender nutzbar gemacht. Ebenso hat die Kommerzialisierung des Internets hier ihren Ausgangspunkt. Immer mehr Firmen interessierten sich für das Internet und seine neuen Distributionsmöglichkeiten. Es begann die Ära der DotcomFirmen, der virtuellen Dienstleistern.[19]
Um die Funktionsfähigkeit des expandierenden Internets weiterhin zu garantieren, sind inzwischen mehrere Organisationen entstanden, die für das Internet die „technische Spezifikation entwickeln und festlegen.“[20] 1994 wurde am Kernforschungszentrum CERN das World Wide Web Consortium, kurz W3C, unter der Leitung von Tim Berners-Lee gegründet. Aufgabe des W3C ist unter anderem die Html-Standards zu garantieren, sodass eine vollständige Browserkompatibilität und Entwicklungsfähigkeit der Internetprogrammiersprachen, wie Html, Cascading Style Sheets (CSS) und JavaScript gewährleisten und die Dezentralität des WWW überwachen.[21]
1.1 ICANN – Die gescheiterte Demokratie im Netz
Um die Namensvergabe im Internet zu regeln, wurde 1998 die Internet Corporation for Assigned Name and Numbers (ICANN) gegründet. Sie wurde mit Unterstützung des US-amerikanischen Handelsministeriums als eine unabhängige private Organisation unter kalifornischem Recht geschaffen.[22] ICANN besteht aus vielen kleineren Organisationen, die sich um die Verregelung des WWW gekümmert hatten. Ihr Zuständigkeitbereich ist die Vergabe und Struktur von Domainnamen, den registrierten Hauptnamen einer Internetseite, und die Verwaltung der Top-level-domain (TLD), den Endungen der Domainnamen. Zurzeit gibt es zwei System von TLD's. Bei dem einen handelt es sich um die den Nationalstaaten zugewiesenen TLD's. So steht „.de“ für Deutschland und „.it“ nicht für Internet Technologie, sondern für Italien. Das zweite System beruht auf der Entwicklungsgeschichte des Internets, denn es gibt keine TLD „.us“ für USA, sondern es haben sich in den USA andere TLD's gebildet, wie „.gov“ für government, „.mil“ für military, „.edu“ für education oder „.com“ für commercial.[23] Durch die enstandene Flut von Domainregistrierungen während des Internetbooms in den 90'er Jahren kam es zu Engpässen bei der Namensvergabe. Deshalb wurden weitere TLD's durch den ICANN genehmigt, wie „.info“ und „.name“. Mit der Vergabe der Internetadressen ist ICANN in der Lage, den Netzzugang weltweit zu kontrollieren. Die Vergabe der TLD's ist von ihrem Machtpotenzial her nicht zu unterschätzen. So hat die Vergabe der Länder TLD .tv dem Inselstaat Tuvalu zu ungewöhnlichen Reichtum verholfen. 1999 hat der ICANN Tuvalu die TLD .tv zugewiesen. Der Inselstaat im Südwestpazifik hat diese TLD an die Firma „dotTV“ für 40Mio US-Dollar, zahlbar über einen Zeitraum von zehn Jahren, verkauft. Ein lukratives Geschäft für „dotTV“, die die Domainnamen nun Gewinn bringend an Fernsehsender und andere Firmen in der Medienbranche verkauft. Die Preise liegen zwischen 50US$ und 100.000U$, je nach Attraktivität der Domain. „Free.tv“ ist z.B. einer der teureren Domainnamen.[24]
Auf Grund dieser Machtbefugnisse, die es der ICANN theoretisch auch ermöglicht, Länderdomains zu streichen, sollte garantiert werden, dass die ICANN nicht von Regierungen, sondern von den Netzbürgern[25] selbst gewählt wird. Die Netzbürger sollten in demokratischen Wahlen neun der achtzehn Vorstandsmitglieder von ICANN wählen. Dazu gab es die Möglichkeit, sich bei ICANN als wahlberechtigte At-Large-Member registrieren zu lassen. An den ersten Wahlen beteiligten sich gerade mal 34.035 der zu diesem Zeitpunkt registrierten 143.806 At-Large-Members[26] und es wurden auch nur fünf der neun zu wählenden Mitglieder gewählt. Die Wahl der ausstehenden Mitglieder hat nicht mehr stattgefunden. Bei der zweiten Wahl sollten nur die Besitzer einer selbständigen Internetdomain wählen; allerdings kam es nie zu dieser Wahl. Derzeitige Diskussionen gehen in die Richtung, dass die nationalen Regierungen den Vorstand des ICANN wählen sollen, denn immerhin handelt es sich dabei um die vom Volk gewählten Vertreter und somit würde ihre Entscheidung die Stimme des Volkes darstellen. Damit ist vorerst eine direkte Partizipation der Netizen an einer der entscheidenen Institutionen in der Machtstruktur des Internets gescheitert.
Nach den Anschlägen auf das World Trade Center am 11. September 2001 ist allgemein der Aspekt der Sicherheit wieder in den Mittepunkt gerückt worden. Dadurch hat sich auch die Betrachtungsweise auf das Internet und somit auf den ICANN verändert. Die US-Regierung war nun wieder mehr bemüht, die Kontrolle über das Netz zurückzugewinnen. Sie zog sich nicht aus dem ICANN zurück, wie eigentlich geplant; denn „als die ICANN 1998 gegründet wurde, hatte das zuständige US-Handelsministerium zugesichert, nach einer Übergangsphase von zwei Jahren ICANN in die Selbständigkeit zu entlassen“[27]. Sie behielt ihre Sonderrolle bei. Robert Shaw, Senior Strategy und Policy Advisor bei der International Telecommunication Union und einer der größten Gegner des ICANN, meint zu der dominierenden Rolle der US-Regierung beim ICANN[28]:
„Leider betrachten einige US-Politiker das Internet als US-Eigentum. Ohne US-Regierung würde ICANN zusammenbrechen. Gleichzeitig schwächt der US-Einfluss letztlich ICANN's Autorität. Nach dem 11. September sehen viele Regierungen die Dinge sehr verändert. Aus dem Cybertechie-Spielplatz Internet ist in der Wahrnehmung eine kritische Infrastruktur geworden.“[29]
Außerdem soll der Vorstand des ICANN um einen Vertreter der Regierungen erweitert werden, der quasi als Verbindungsoffizier dienen soll. Dies entspricht vor allem der Vorstellung der US-amerikanischen Regierung. Die Etablierung eines gesonderten Komites, das sich explizit mit der Sicherheit der Netzstrukturen auseinander setzt, ist ebenfalls eingesetzt worden[30]. Dieses Security and Stability Advisory Committee (SAC) arbeitet zusammen mit dem Root Server System Advisory Committee" (RSSAC), einer Notfalleinsatztruppe im Netz.
„Beide Komitees haben je einen nicht-stimmberechtigten Direktor im ICANN-Direktorium und man kann wohl davon ausgehen, dass der Board keine Entscheidung trifft, wenn SAC oder RSSAC irgendwelche Sicherheitsbedenken äußern. Das ist wohl auch als eine Beruhigungspille für die in Sicherheitsfragen immer sensibler werdende US-Regierung gedacht.“[31]
Die vormals als technische Kontrollfunktion angelegte ICANN hat damit zusehends mehr politische Funktionen. Die Wahl von Direktoriumsmitgliedern durch die At-large-members hat sich zum At Large Advisory Committee gewandelt, das einzig beratende Funktion hat.
1.2 Das Ende der Netzutopie
Als das Internet sich in den Universitäten, Ende der siebziger Jahre, populärer wurde, begannen sich gleichzeitig die ersten Utopien einer neuen virtuellen Gesellschaft zu verbreiten. Die Idee von der digitalen Revolution machte die Runde. Die Vorstellungen gingen dabei von direkter Partizipation und erweiterter Kommunikation aus, die eine Egalität schafft, die über Ländergrenzen hinausgeht bis hin zur ontologischen Auflösung des Individiums im virtuellen Raum. Bis Mitte der 90'er Jahre, bevor das Internet Allgemeingut wurde, war es ein Tummelplatz für eine technische Elite, deren Klientel zwischen professionellen Technikern, Hackern[32] und Utopisten aufgeteilt war - manchmal alles zusammen in einer Person. In den 90'er Jahren begann die Industrie sich zunehmend für die neuen Distributionschancen im Internet zu interessieren. „1990 [wurde] in Amerika die Electronic Frontier Foundation (EFF) gegründet.“[33] Angetreten sind sie mit der Forderung, dass das Netz jedem zur Verfügung stehen müsste. Der Frontiergedanke basiert auf der nordamerikanischen Gründerzeit, als die Überschreitung der westlichen Grenze, der Frontier, die Unabhängigkeit und Freiheit in einem unentdeckten Land versprach. Dieselbe Assoziation wie Anfang der 90'er Jahre, als das Internet das virtuelle Land simulierte, in das sich nun die ersten Pioniere aufmachten, um es zu urbanisieren. Die EFF sah sich selbst als Frontspitze dieses virtuellen Tracks. Damaliger Finanzier der EFF war der Gründer der Softwarefirma Lotus, Bob Metcalfe, und auf den Konferenzen wurde immer wieder die Kommerzialisierung des Internets gefordert.[34] Gleichzeitig gab es in der EFF eine Gruppierung, die sich für die absolute Unabhängigkeit des Cyberspace von Kapital und Regierungen einsetzte. Diese Spaltung der EFF verdeutlicht die Unabhängigkeitserklärung für das Internet, die 1996 von dem EFF Mitbegründer und ehemaligen Grateful Dead Songschreiber John Perry Barlow als Reaktion auf den Telecommunication Reform Act der Clinton Administration veröffentlicht wurde und die Debatte darum. Im Telecommunication Reform Act erließ damalige US-Regierung Zensurvorgaben für das Internet. Barlow proklamierte in seiner „Cyberspace Independence Declaration“[35] die, von wirtschaftlichen und politischen Sachzwängen losgelöste Cyberwelt und forderte die „weary giants of flesh and steel“[36] auf, sich aus dem Internet zurückzuziehen; denn „You have no sovereignty where we gather.[37] “, so Barlow. Man kann diese Unabhängigkeitserklärung als den Abschluss einer Ära der Hackerkultur im Werdegang der Netzideologie betrachten. Auch wenn Barlow davon spricht, dass er der eine ist, der für die vielen Netizen spricht, so „fällt es nicht schwer, über diese Erklärung als eine High-Tech-Version der alten Hippie-Phantasie zu lachen, aus der bürgerlichen Gesellschaft in eine psychedelische Traumwelt auszusteigen.“[38] In der kalifornischen Ideologie herrschte der Glaube, dass die Informationstechnologie in der Lage sei, die individuelle Macht und Freiheit so weit zu vergrößern, dass der Nationalstaat vollends die Macht über diese technische Elite verlieren würde. Andere Autoren, die die Sachlage realistischer betrachteten, sahen sehr wohl, dass mit „jeder neuen Technolgie auch neue Methoden einher[gehen]“[39]. So stellt das Internet der Überwachung und der Zensur neue Techniken zur Verfügung.[40] Barlow behauptet unter anderem, das das Netz von den Nutzern geschaffen worden ist[41], ein Mythos der kalifonischen Cyberkultur, denn:
„Das Netz ist das Ergebnis der globalen Ökonomie [...] , in der alle nationalen Wirtschaftssysteme den von multinationalen Unternehmen diktierten Marktbedingungen unterworfen sind, die man heutzutage den 'internationalen Handel' nennt.“[42]
Es überrascht allerdings nicht, dass die ökonomischen Libertären der EFF einer ähnlichen Ideologie vertreten wie die Cybernauten um Barlow, die in der Internettechnologie die völlige Befreiung vom Nationalstaat sehen. Ihr Anliegen ist die Befreiung des Marktes von den Zwängen des Nationalstaates. Mittel und Zweck ist für sie das Internet. Der freie Kapitalverkehr im Internet, den sich die Global Players zu nutze machen, ist ein verwirklichtes Beispiel für ihre Ideen.[43] Gleichzeitig vergessen sie in ihrem Glauben an den Markt dass es staatliche Programme wie ARPA waren, die ihnen erst die Entwicklung des Internets ermöglicht haben. Die IT-Unternehmen war trotzdem schnell bereit, staatliche Unterstützung in Anspruch zu nehmen:
„Als japanische Unternehmen sich anschickten, den amerikanischen Mikrochipmarkt zu übernehmen, hatten die liberalistischen Computerkapitalisten keine Probleme damit, sich einem vom Staat unterstützten Kartell anzuschließen, das die Eindringlinge aus dem Osten vertreiben sollte.“[44]
Ein Jahr nach der Unabhängigkeitserklärung von Barlow begann die Kommerzialisierung des Internets ungeahnte Ausmaße anzunehmen. Hunderte von Firmenneugründungen hatten das Internet für sich entdeckt. Jede Ware sollte von nun an auch über das Internet erhältlich sein, und Dienstleistungen der obskursten Art entstanden. Allein die Börse in Deutschland verzeichnete im 1997 neu geschaffenen Börsensegment »Neuer Markt«, das neben den Internetaktien auch die Biotech-, Telekommunikations- und die Medienaktien listete, innerhalb von nur drei Jahren allein 339 Neuimmisionen. Ende 2002 betrug der gesamte Börsenwert dieser Firmen 120,992Mrd Euro. Ein Jahr später ist die Marktkapitalsierung der 327 Firmen am »Neuen Markt« um fast zwei Drittel auf 49,93Mrd Euro gefallen, 2003 sind es nur noch 264 Firmen mit 29,36Mrd Euro. Der »Neue Markt« wurde im Sommer 2003 geschlossen, und die übrig gebliebenen Firmen sammelten sich sich im Tech-Dax und wurden teilweise auf die anderen Börsensegmente aufgeteilt.[45] Sprichwörtlich galt für den »Neuen Markt«: „Als Tiger gestartet und als Bettvorleger gelandet.“ Was hat zum Zusammenbruch der Internetfirmen beigetragen?
Viele der neu geschaffenen Dienstleistungsportale boten ihren Service kostenlos an und versuchten, eine Finanzierung ihrer Dienste über sekundäre Einnahmequelle zu realisieren. Die meisten Dotcom-Firmen finanzierten sich aus Werbung, die als graphische Links, so genannte Werbebanner, in die Internetseiten eingebaut waren. Die Firmen, die die Werbung geschaltet hatten, finanzierten sich ebenfalls über Werbung. Als die Werbeeinnahmen Anfang 2000 sanken, verloren die Investoren das Interesse an den Dotcom-Firmen und die Kurse stürzten in den Keller. Immer mehr Firmen mussten ihre Gewinnerwartungen korrigieren. Skandale, wie Insiderspekulationen und Bilanzfälschungen, verschärften die Lage. Genauso schnell, wie der Aufstieg der Internetfirmen kam, so schnell war ihr Fall.
Schlussendlich hat dieser Prozess zu einer starken Kommerzialisierung des Internets geführt. Kostenlose email-Anbieter wie Lycos oder GMX gibt es noch immer, ihr gesamter Content[46] ist im Wesentlichen auf kostenpflichtige Dienste reduziert worden. Selbst der Eintrag in die Suchmaschine[47] von Lycos ist heute kostenpflichtig, sodass private Internetseiten immer seltener gelistet werden. Einzig der kostenlose email Dienst ist geblieben. Amazon, als einer der wenigen virtuellen Buchhändler, der den Crash überlebt hat, hat seine Angebotspalette erweitert und den vorher kostenlosen Bücher- und Medienversand an einen Mindestbestellwert gekoppelt. Diese Praxis, alles umsonst zu versenden hatte die gesamten Margen des Internetshops aufgefressen. Im letzten Quartal 2000 verzeichnete Amazon einen Verlust von 545,1MioUS$. Inzwischen erwirtschaftet der Internetshop im dritten Quartal 2003 einen Gewinn von 15,6MioUS$, allerdings bei einem Umsatz von 1.130MioUS$.[48] Die hohe Diskrepanz zwischen Umsatz und Gewinn entsteht aus dem Verlustvorträgen, die abgegolten werden müssen.
Dementsprechend erscheint Literatur, die vor dem Zusammenbruch der New Economie erschienen ist und sich explizit mit den Zukunftschancen des Internets auseinander setzt, heutzutage illusorisch. So wurde für den Multimediamarkt in Europa, z.B. dem Vertrieb von Video-on-Demand[49], im Jahr 2000 ein Jahresumsatz von 37Mrd erwartet.[50] Heute, im Jahr 2003, liegt dieser Markt brach. Die deutsche Telekom hat im Oktober angekündigt, Filmrechte vom größten Filmrechteinhaber MGM zu kaufen.[51] Dem gesamten Internetmarkt wurde ein Wachstum prognostiziert, das heutzutage weit von der Realität entfernt. Al Gore, ehemaliger Vizepräsident der USA, sprach 1994 noch davon, dass die „Datenautobahn“, „das größte Geschäft auf dem wichtigsten und lukrativsten Markt des 21. Jahrhunderts ist.“[52] Es bleibt abzuwarten, ob das Internet diese Hoffnung noch erfüllen kann.
Gleichzeitig mit dem Zusammenbruch der Dotcom Firmen sind auch die Utopien einer neuen virtuellen Weltgesellschaft an den Rand gedrängt worden. Die Verbreitung des Internets aus dem universitären Umfeld zu einem Massenmedium für alle Bevölkerungscshichten, haben nicht die Erwartung der kalifornischen »Electro-Hippie-Elite« erfüllt, die „den baldigen Sturz des letzten Imperiums [...], der Zentralmacht des Staates und der Wirtschaft“[53], voraussagten, sondern es hat sich die kalifornische Ideologie verbreitet, in der sich
„individualistisches, liberalistisches und manchmal anarchistisches Gedankengut umstandslos mit einer Verherrlichung des Kapitalismus und seiner darwinistischen Prinzipien zu einem Amalgam verbindet“.[54]
2 Möglichkeiten und Grenzen des Internets
Neue Technik, innovative Softwareentwicklungen und die niedrigen Preise haben dazu geführt, dass selbst Menschen, die der Internettechnik zuvor ablehnend gegenüberstanden, sich am virtuellen Leben beteiligen. Allein in Deutschland nutzen, nach Untersuchungen des Instituts für Demoskopie Allensbach, derzeit 68,5% der Bevölkerung das Internet.[55] Einige Teilbereiche des realen sozialen Lebens haben ihr Pendant im Internet gefunden. Auktionen haben durch das Internet Züge eines „Wettbewerbs für jedermann“ angenommen. Nach dem Zusammenbruch der »New Economy«, am Ende des letzten Jahrhunderts, gehört das virtuelle Auktionshaus ebay zu den wenigen Internetfirmen[56], die eine positive Bilanz vorzuweisen haben. Die Dienstleistung von ebay ist durch moderne Datenbanksoftware möglich geworden. Sie sind die technische Voraussetzung für die Verwaltung umfangreicher Datensätze im Internet und werden mittels Softwareschnittstellen auf den Servern der Internet Service Provider (ISP)[57] erstellt und koordiniert. Der Internetnutzer hat per Suchmaske die Möglichkeit diese Datensätze nach diversen Kriterien zu durchsuchen. Dadurch sind Softwarearchive im Netz, Internetshops und virtuelle Singlebörsen praktikabel geworden.
Über virtuelle Kontaktanzeigen finden Internetnutzer Gleichgesinnte, z.B. in den Bereichen Hobby, Beruf und Partnersuche. Eine schnelle Kontaktaufnahme ermöglichen dabei die email, Foren und Chatrooms. Die Erledigung von Bankgeschäften, wie Überweisungen, sind für viele Menschen vom Heimcomputer aus selbstverständlich geworden.
Alle Kommunikationsmöglichkeiten des Internets detailliert zu beschreiben würde zu weit führen. Es geht in diesem Kapital zum einen um die Kommunikationsformen, die insbesondere Privatpersonen zur Verfügung stehen. Die Egalität der Kommunikation im Internet und ihre diversen Plattformen ermöglicht direkten Kontakt zwischen Personen weltweit herzustellen, die sich vorher noch nie begegnet sind. Sie nutzen die neue Technik zum Diskutieren, Austausch von Daten und Informationen bis hin zur Kontaktaufnahme für reale zwischenmenschliche Beziehungen. Zum anderen gilt es auch, die Grenzen des neuen Mediums aufzeigen. Zum einen ist da der Mythos der viel beschworenen Anonymität im Cyberspace und der Unkontrollierbarkeit der digitalen Netze. Es gilt auch der Frage nachzugehen, wer ist durch den »Digital Devide« von ihr ausgeschlossen bzw. hat nur begrenzten Zugriff?
[...]
[1] „Türkische Regierung will das in Internet kontrollieren“, in: heise online news vom 22.06.2001 http://www.heise.de/newsticker/data/fr-22.06.01-000/ (abgerufen am 08.07.2003)
[2] Der Begriff des Cyberspace geht auf die Erzählung „Neuromancer“ von William Gibson zurück, einem Roman aus dem Jahr 1984, in dem er die Zukunft einer digitalisierten Gesellschaft beschreibt. Gibson gilt als der Begründer des Science-Fiction Genre des „Cyberpunk“. Es ist eine andere Bezeichnung für Vorstellung vom virtuellen Raum, der durch das Internet geschaffen worden ist.
[3] Zürn (1998)
[4] Zürn (1998:76))
[5] In der Computertechnolgie bezeichnet Hardware die elektronischen Komponenten eines Computers, wie Festplatte, Grafikkarte, Hauptplatine (Motherboard). Software sind die Programme, die diese Hardware dann nutzen, Z.B. Textverarbeitung, Multimediaanwendungen, oder Spiele.
[6] vgl. Internet: Musch (1997)
[7] vgl Borchers u.a. (1999)
[8] Internet: Musch (1997)
[9] Dickson (1968). ARPA network will represent integration on a large scale. Electronics, 30, 131-134. zitiert nach Internet: Musch, J. (1997)
[10] vgl. Internet: Musch (1997)
[11] Becker u.a.(2002:24-25)
[12] Internet: Deuerlin (o.J.)
[13] Becker u.a. (2002:25)
[14] vgl. Internet: Musch (1997)
[15] Internet: Musch (1997).
[16] Internetbrowser sind Computerprogamme, die primär der Darstellung von Internetseiten dienen.
[17] Unter Plugins versteht man im Computerbereich kleine Programme, die in Anwendungen eingefügt werden, um den Funktionumfang des Programms zu erweitern. So gibt es z.B. für Grafikprogramme Filter- Plugins, die es ermöglichen ,Fotos oder Grafiken zu manipulieren.
[18] vgl. Rivière (2000)
[19] siehe auch 1.2
[20] Becker u.a. (2002:30)
[21] vgl. W3C – http://www.w3c.org
[22] vgl. Internet: Kleinwächter
[23] vgl. Engel (1999:356)
[24] vgl. „Atlantis ist online“, in: taz Nr. 6226 vom 23.8.2000, S.16, „Fernsehsender lieben Tuvalu“ in Spiegel Online vom 4.10.2000, http://www.spiegel.de/netzwelt/technologie/0,1518,96483,00.html (abgerufen am 00.09.2003)
Anmerkung zu Tuvalu: Genauso wie die 9000 Bewohner der Inselgruppe überraschend Proviteure der Globalisierung geworden sind, indem sie mit dem Gewinn aus dem Verkauf der TLD „.tv“ ihre Infrastruktur verbessern konnten und sich in die UNO-Vollversammlung mit 30.000 US$ eingekauft haben, genau so sind sie zum Opfer der Globalisierung geworden. Durch die Klimaveränderung versinken die Insel zusehends im Meer und die Inselbewohner müssen evakuiert werden. Ob die weiteren Zahlungen von „dotTV“ erfolgen müssen, wenn die Inseln nicht mehr existieren, ist noch nicht geklärt. Das liegt derzeit nicht im Zuständigkeitbereich von ICANN.
[25] Als Netzbürger werden Internetnutzer bezeichnet, die sich aktiv an den Inhalten des Netzes beteiligen.
[26] vgl. The Icannatlarge.community – http://www.icannatlarge.com/history.html (abrufen am 1.11.2003)
[27] Internet: Kleinwächter (2003)
[28] vgl. Ermert (2002:84)
[29] Ermert (2002:85)
[30] vgl. Internet: Kleinwächter (2002)
[31] vgl. Internet: Klienwächter (2003)
[32] Umgangssprachlich für einen Computeranwender, der den größten Teil seiner Freizeit am Rechner verbringt. Der Begriff "Hacker" lässt sich auf das Eindringen in fremde Rechnernetze durch Eingabe (hacken, einhacken) immer anderer Passwörter (Zugangsberechtigungen) auf der Tastatur zurückführen. Einige sicherheitsrelevante Datennetze (z. B. militärische) wurden weltweit durch Hacker "geknackt“. Große EDV-Unternehmen haben die positiven Seiten des Hackertums erkannt. Sie bedienen sich gegen entsprechendes Honorar der Findigkeit von Hackern, indem sie von diesen neu entwickelte Zugangssysteme auf ihre Sicherheit testen lassen.
[33] Borchers (1999:132)
[34] vgl. Borchers (1999:132)
[35] Internet: Barlow (1996)
[36] Internet: Barlow (1996)
[37] Internet: Barlow (1996)
[38] Internet: Horvath (o.J.)
[39] Internet: Horvath (o.J.)
[40] siehe auch 3.5
[41] vgl.: Internet: Barlow (1996) - „We are creating a world that all may enter without privilege or prejudice accorded by race, economic power, military force, or station of birth. We are creating a world where anyone, anywhere may express his or her beliefs, no matter how singular, without fear of being coerced into silence or conformity.“
[42] Internet: Horvath (o.J.)
[43] siehe auch 3.1
[44] Internet: Barbrock / Cameron (1997)
[45] vgl. „Die Chronik einer Kapitalvernichtung“, in: manager-magazin.de vom 04.06.2003
http://www.manager-magazin.de/geld/artikel/0,2828,186368,00.html (abgerufen am 08.09.2003)
[46] engl. für Inhalte.Content steht für die dargestellten Inhalte eines Mediums im Gegensatz zu der technischen Infrastruktur.
[47] Damit Internetseiten im Netz gefunden werden können, werden sie mit Titel, Kurzbeschreibung und Suchwörtern (keywords) in den Datenbanken von Suchmaschinen eingetragen. Zu den derzeit bekanntesten Suchmaschinen zählen Google (http://www,google.de), Lycos (http://www.lycos.de) und yahoo (http://www.yahoo.de).
[48] vgl. „Amazon schreibt schwarze Zahlen“, in: heise online news vom 22.10.2003
http://www.heise.de/newsticker/data/anw-21.10.03-009/ (abgerufen am 24.10.2003)
[49] Per Software wird die Film auf den heimischen PC als Streaming übertragen, d.h. er ist nur während des Download zu sehen. Die herkömmlichen Downloadraten schränken diesen Internetservice noch stark ein, da die Bildqualität sehr unter der notwendigen Kompremierung leidet.
[50] vgl. Bühl (1997:212)
[51] vgl. „T-online kauft Filme für Video-on-Demand“, in: heise Online News vom 13.10.2003
http://www.heise.de/newsticker/data/anw-13.10.03-001/ (abgerufen am 17.10.2003)
[52] Al Gore, zitiert nach Bühl (1997:212)
[53] Rivière (2000:3)
[54] Rötzner (1996:374)
[55] vgl.: „Anteil der Online-Nutzer wächst wieder stärker“, in: heise online news vom 13.10.2003
http://www.heise.de/newsticker/data/anw-13.10.03-000/ (abgerufen am 13.10.2003)
[56] Seit dem dem dritten Quartal 2000 verzeichnet das Online-Auktionshaus ebay postive Zahlen. Im dritten Quartal 2003 war es einen Gewinn von 103,3 Mio US$ („ebay wächst“, in: heise online news vom 17.10.2003
http://www.heise.de/newsticker/data/anw-16.10.03-008/(abgerufen am 30.10.2003))
[57] Ein Internet Service Provider (ISP) stellt Kunden Platz für ihre Internet-Angebote auf einem Rechner zur Verfügung (Server), der ständig ans Internet angeschlossen ist, so dass auf diese Angebote permanent zugegriffen werden kann. Ein Access-Provider ermöglicht im Gegensatz dazu nur den Internet-Nutzern den Zugang zum Netz über die Telefoneinwahl (z.B. t-online, AOL), oder über eine Datenleitung (z.B. T-DSL)..
- Quote paper
- MA pol. Oliver Kluck (Author), 2003, Internet und Denationalisierung der politischen Souveränität, Munich, GRIN Verlag, https://www.grin.com/document/117848
-
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X.