Das Internet wächst und wächst und wächst..............
Die Internet Domain Survey im Januar 1995 ergab, dass weltweit knapp 5 Millionen Rechner dauerhaft (d.h. keine Teilnehmer über das Telefonverfahren) an das Internet angeschlossen waren (vgl. Internet Software Consortium, Host Count History ). Im January 2000, fünf Jahre später, waren über 72 Millionen Rechner dauerhaft an das Internet angeschlossen (vgl. ebd., Latest Survery Results). 1,7 Millionen Rechner davon mit der Länderkennung .de (Deutschland) registriert (ebd., Distribution by Top-Level Domain Name by Host Count).
Im allgemeinen Sprachverständnis werden mit dem Internet eher unseriöse, inkriminierte Inhalte, Hacker, Viren- und Sicherheitsprobleme assoziiert. Wissenschaftliches Handeln mit seinen moralischen und technischen Ansprüchen steht im krassen Widerspruch dazu.
„Vierzehn Studentinnen und Studenten.....brauchen....ein Buch, das 48,90 DM kostet. Aus Erfahrung wissen sie, daß – wenn überhaupt – nur ein Exemplar in der Bibliothek steht“(Rückriem, Stary, Franck, Vorwort zur 5.Auflage). Warum, stellt sich für mich die Frage, nicht einen „Blick“ ins Internet werfen? Sicherlich befindet sich das gesuchte Buch nicht als Online-Version im Internet, möglicherweise aber eine Rezension. Vielleicht wird es aber auch über einen Second-Hand-Büchermarkt im WWW angeboten? Es gibt aber auch die Möglichkeit die Online-Bibliothek der Universität zu befragen und das Buch vorzumerken. Per E-Mail kommt dann die Information, wann es abgeholt werden kann.
Ziel meines Referates ist es, ungeübten Internetnutzern eine kleine Einführung zu geben und Vorschläge zu machen, wie Internet-Informationen für das wissenschaftliche Arbeiten genutzt werden können und was sich im einzelnen daraus ergeben kann. Meine Ausführungen hierzu fallen in Anbetracht der Fülle des Themas kurzgehalten aus. Wer sich darüber hinaus weiter, oder tiefer informieren möchte den verweise ich auf das Literaturverzeichnis.
Inhaltsverzeichnis
1 Einleitung
2 Geschichte des Internet
3 Das Internet – häufig verwendete Begriffe
4 Was ist das Internet?
4.1 Die Funktion des Internets
4.2 Die Dienste des Internet
4.3 Die Organisation des Internet
5 Wissenschaftliche Arbeiten im Internet
5.1 Bedeutung des wissenschaftlichen Arbeitens / wissenschaftlicher Arbeiten
5.2 Anforderungen des wissenschaftlichen Arbeitens
5.3 Qualität der Internet-Informationen im Hinblick auf das wissenschaftliche Arbeiten
5.4 Bewertungskriterien von Internet-Informationen
6 Nutzung von Internet-Quellen für das wissenschaftliche Arbeiten
6.1 Vorteile des Internets gegenüber gedruckten Medien
6.2 Gefahren bei der Nutzung von Quellen aus dem Internet
7 Ziteren von Internet-Quellen
7.1 Darstellung von Internet-Quellen im Literaturverzeichnis
8 Sicherung der Quellen aus dem Internet
8.1 Gefahren bei der Speicherung von Internet-Informationen auf elektronischen Datenträgern
9 Ausblick
10 Literaturverzeichnis
1 Einleitung
Das Internet wächst und wächst und wächst
Die Internet Domain Survey im Januar 1995 ergab, dass weltweit knapp 5 Millionen Rechner dauerhaft (d.h. keine Teilnehmer über das Telefonverfahren) an das Internet angeschlossen waren (vgl. Internet Software Consortium, Host Count History[1]). Im January 2000, fünf Jahre später, waren über 72 Millionen Rechner dauerhaft an das Internet angeschlossen (vgl. ebd., Latest Survery Results). 1,7 Millionen Rechner davon mit der Länderkennung .de (Deutschland) registriert (ebd., Distribution by Top-Level Domain Name by Host Count).
Im allgemeinen Sprachverständnis werden mit dem Internet eher unseriöse, inkriminierte Inhalte, Hacker, Viren- und Sicherheitsprobleme assoziiert. Wissenschaftliches Handeln mit seinen moralischen und technischen Ansprüchen steht im krassen Widerspruch dazu.
„Vierzehn Studentinnen und Studenten.brauchenein Buch, das 48,90 DM kostet. Aus Erfahrung wissen sie, daß – wenn überhaupt – nur ein Exemplar in der Bibliothek steht“(Rückriem, Stary, Franck, Vorwort zur 5.Auflage). Warum, stellt sich für mich die Frage, nicht einen „Blick“ ins Internet werfen? Sicherlich befindet sich das gesuchte Buch nicht als Online-Version im Internet, möglicherweise aber eine Rezension. Vielleicht wird es aber auch über einen Second-Hand-Büchermarkt[2] im WWW angeboten? Es gibt aber auch die Möglichkeit die Online-Bibliothek der Universität zu befragen und das Buch vorzumerken. Per E-Mail kommt dann die Information, wann es abgeholt werden kann.
Ziel meines Referates ist es, ungeübten Internetnutzern eine kleine Einführung zu geben und Vorschläge zu machen, wie Internet-Informationen für das wissenschaftliche Arbeiten genutzt werden können und was sich im einzelnen daraus ergeben kann. Meine Ausführungen hierzu fallen in Anbetracht der Fülle des Themas kurzgehalten aus. Wer sich darüber hinaus weiter, oder tiefer informieren möchte den verweise ich auf das Literaturverzeichnis.
2 Geschichte des Internet
Dieser Absatz bezieht sich auf die Webseite „Die Geschichte des Netzes: ein historischer Abriß“ von Jochen Musch[3].Die Ursprünge des heutigen Internet reichen bis in die 60er Jahre zurück. 1958 wurde vom amerikanischem Verteidigungsministerium die A dvanced R esearch P rojects A gency gegründet, um Forschungsprojekte zu fördern, die den technischen Rückstand (Sputnik-Schock) gegenüber der Sowjetunion aufholen sollten (vgl. auch DARPA, 1.2,[4]). Die ARPA hatte das Ziel neue Technologien zu entwickeln und deren Realisierbarkeit zu prüfen. Da die ARPA über keine eigenen Forschungseinrichtungen verfügte, kooperierte sie mit universitären und industriellen Vetragspartnern, denen sie finanzielle Mittel zur Verfügung stellte. Je nach Eignung wurden die Ergebnisse dieser Forschungsprojekte dem Militär oder der Privatwirtschaft überlassen.
Die US Air Force beschäftigte die Frage, wie militärische Kommandostrukturen auch unter schwierigen Bedingungen, z.B. eines sowjetischen Nuklearangriffes, aufrecht erhalten werden könnten. 1964 schlug Paul Baran von RAND Corp. als Lösung ein elektronisches Datennetz vor. Die zu übermittelnden Daten sollten in einzelne „Pakete“ aufgeteilt und unabhängig voneinander auf den Weg durchs Netz geschickt werden. Beim Empfänger sollten die einzelnen Pakete dann wieder zusammengesetzt werden. Dies sollte die Kapazität der Leitung für mehrere Nutzer und die Wiederholung beschädigter oder verlorengenganger Datenpakete erhöhen. Die Idee Paul Barans wurde jedoch nicht umgesetzt, da dass amerikanische Verteidigungsministerium eine einheitliche Lösung für die gesamten Streitkräfte anstrebte. Mit John Licklider änderten sich die Schwerpunkte der ARPA. Seine Überlegungen beinhalteten auch eine zivile Nutzung von Computern in Wissenschaft und Verwaltung. Die ARPA gründete 1962 das I nformation P rocessing T echniques O ffice unter der Leitung von Licklider.
Die Idee des dezentralen paketvermittelnden Datennetzes wurde 1965 von der S ociete I nternationale de T elecommunications A eronautics, der 175 Flughäfen angeschlossen waren, umgesetzt. Neun internationale Knotenpunkte (Amsterdam, Brüssel, Frankfurt, Hong Kong, London, Madrid, Paris u. Rom) wurden über eine Telefonleitung vernetzt.
1966 beschäftigte sich die IPTO damit, die über das Land verteilten ARPA-Computerzentren nach Barans Idee zu vernetzen. 1969 wurde dies realisiert. Das ARPANET wurde mit vier Knoten, zwischen drei Universitäten und einem Forschungsinstitut, in Betrieb genommen. Als wichtigster Dienst dieses Netzes kristallierte sich die elektronische Post (E-Mail) heraus. Nun war es auch möglich lange Texte an einen oder mehrere Empfänger zu senden. Die erste grosse E-Mail-Diskussionsliste war die SF-Lovers-Liste. Auch ARPA-Forscher beteiligten sich an öffentlichen Diskussionen über das Thema Science-Fiction. Die Mailingliste wurde zunächst einige Monate wegen des fehlenden wissenschaftlichen Anspruch gesperrt, später aber wieder als wichtiges Pilotprojekt zur Erforschung der Verwaltung von grossen Mailinglisten zugelassen.
1972, anlässlich der I nternational C onference on C omputer C ommunications“, wurde das ARPANET der Öffentlichkeit vorgestellt. Die Demonstration war ein Erfolg und die Anzahl der mit dem ARPANET verbundenen Rechner stieg stark an. 1973 wurde es auch möglich unterschiedliche Hardware, wie Satellitenverbindungen, in das ARPANET zu integrieren. Das SATNET wurde 1975 gegründet und übertrug u.a. seismische Messungen.
Es sollten aber nicht nur verschiedene Hardware, sondern auch unterschiedliche Netzwerktypen mit dem ARPANET verbunden werden. Hierfür mussten standardisierte Verständigungprotokolle geschaffen werden. Um 1980 wurde das T ransmission C ontrol P rotocol / I nternet P rotocol zum Standard im ARPANET. TCP/IP wurde kostenlos von der ARPA zur Verfügung gestellt. Auch heute funktioniert die Datenfernübertragung ins Internet per TCP/IP.
Schon 1974, als das APRANET aus über 100 Hostrechnern bestand, versuchte die ARPA das Netz in private Hände zu geben, was aber mangels Interesse nicht gelang. Interessenskonflikte kamen zwischen Militär und Wissenschaft zustande. Dem Militär ging es um Sicherheit und Zuverlässigkeit, während die Forscher eine gewisse Flexibilität und Freiheit des Netzes für ihre Versuche forderten. Durch das starke Anwachsen des Netzes wuchsen die Sicherheitsbedenken. Dies hatte eine Abkopplung des militärischen Teils im ARPANET zur Folge. 1983 entstand das militärische Datennetz Milnet und das ARPANET wurde dem wissenschaftlichen und somit zivilen Betrieb überlassen. Das N ational S cience F oundation N et wurde 1984 in das ARPANET integriert. So entstand ein Forschungsnetz, das alle bedeutenden wissenschaftlichen Rechenzentren des Landes miteinander verband. Einzelne Universitätrechner oder kleinere Rechnernetze konnten sich mit einem Rechenzentrum verbinden und darüber in andere Netze gelangen. Das NSFNET wurde immer grösser und übernahm alle Funktionen des ARPANET. 1990 deinstallierte die ARPA die gesamte Hardware des ARPANET.
Auch in Europa gab es zeitgleich ähnliche Entwicklungen, wobei aber die ISO-Normen im Vordergrund standen. Der Kompatibilität wegen enstand aber in Europa ein multiprotokollfähiges Datennetz, was auch TCP/IP unterstützte. Dieses wurde EuropaNet genannt und verschiedene nationale wissenschaftliche Netzwerke, wie z.B. das Deutsche Forschungsnetz, wurden daran angeschlossen.
1989 entwickelte Tim Berners-Lee, der am CERN, dem Institut für Teilchenphysik in Genf arbeitete, ein neuartiges und bedienerfreundliches Hypertextsystem für das hauseigene Intranet. Die Idee des World Wide Web war geboren. 1991 wird das WWW der Öffentlichkeit vorgestellt. Die Wirtschaft befriedigt die hohe Nachfrage und bietet immer kostengünstigere Zugangsmöglichkeiten an (vgl. Karadeniz, Die Geschichte des Internets[5]). Inzwischen ist das WWW der am weitesten verbreitete Dienst des Internet und ist durch die Hyperlinkfähigkeit mit einem weltweiten Gewebe zu vergleichen.
3 Das Internet – häufig verwendete Begriffe
Dieser Abschnitt beruht auf der Einführung „Grundlagen zum Internet“ von Dirk Wetzel (Wetzel, S. 1 ff.[6]). Das Internet hat seinen Ursprung in den USA. Es ist somit nicht verwunderlich, dass die meisten Begriffe rund ums Internet aus der englischen Sprache übernommen wurden. Hier geht es nun darum, die wesentlichen Begriffe kurz zu klären.
Unter browsen (stöbern) ist beispielsweise das Abrufen von Informationen aus dem World Wide Web, oft auch kurz WWW oder W3 genannt, gemeint. Der Informationssuchende, der Browsende, heisst User (Anwender). Zum Browsen wird eine bestimmte Software (Programm), wie z.B. dem Netscape Navigator oder dem Microsoft Internet Explorer benötigt. Die Software, durch die dann Bildschirminhalte auf dem Screen (Bildschirm) sichtbar werden, wird Client genannt.
Bildschirminhalte, also Informationen einer bestimmten Internetadresse im WWW (http://www. ), werden als Webpage bezeichnet.
Um Internetseiten, wiederzufinden ist es möglich, diese zu bookmarken. Bookmarks (Lesezeichen) sind die gespeicherten Internetsadressen, vergleichbar mit der Kurzwahlspeicherfunktion eines Telefons, des Browsers.
Die Website, als redaktionelle Einheit, ist der Überbegriff für eine oder mehrere zusammenhängende Webpages, die einer Person oder Organisation zugehörig sind.
Eine Homepage ist eine Internetseite (Wepage/Website), mit der sich z.B. eine Privatperson, wie eine erweiterte Visitenkarte, im Internet vorstellt.
Unter Host (Gastgeber, Wirt) ist ein dauerhaft mit dem Internet verbundener Rechner zu verstehen. Die Serversoftware (eine Software, die auf dem Host läuft), ist für die Datenvermittlung zwischen Server und dem Rechner des Users verantwortlich. Für die technische Betreuung eines Servers ist der Admin(istrator), der SysOp (System Operator), oder auch der Web- bzw. Hostmaster zuständig. Personen, die mit der Datenpflege einer Internetseite verantwortlich sind, werden auch manchmal mit diesen Begriffen bezeichnet.
Ein Link ist ein Verweis von einer Internetseite zur anderen. Ist die Adresse dieses Verweises in den Link eingearbeitet, wird der Wechsel per mouse-click ermöglicht. Einen solchen Link nennt man Hyperlink. Sind in den Text einer Internetseite mehrere Hyperlinks integriert, so spricht man von einem Hypertext. Wird beispielsweise von der Site der http://www.uni-oldenburg.de zur http://www.uni-bremen.de und umgekehrt gelinkt so ist dies ein Crosslink.
Es ist aber auch möglich eine Internetadresse, wie z.B. http://www.kosovo.de direkt in das Eingabefeld des Browsers einzutippen und zu bestätgen (z.B. mit Return oder Enter), wodurch die Informationen der manuell eingegebenen Site geöffnet werden. Eine gezielte Suche von Infomationen ist mit einer Searchengine (Suchmaschine), wie z.B. http://www.altavista.de, möglich. Volltextsuchmaschinen werden von einer Software (z.B. Agenten, Robots) gesteuert, die automatisch z.B. deutschsprachige Sites ablesen und die gesammelten Informationen in einem Index verarbeiten, der vom Suchenden abgefragt werden kann. Es werden dabei nicht nur Wörter die im Titel, oder der Überschrift vorkommen (Meta Tag genannt) gesammelt, sondern der gesamte Text. Dies ist der Grund, weshalb Volltextsuchmaschinen eine enorm hohe Anzahl von Treffern (Suchergebnisse), bei allgemeinen Suchbegriffen, erzielen. Durch die syntaktischen Möglichkeiten einer Suchmaschine lassen sich Suchbegriffe jedoch recht erfolgreich einschränken. Dieses Vorgehen wird i.d.R. in der Online-Hilfe einer jeden Suchmaschine ausführlich erklärt.
Metasuchmaschinen, wie z.B. http://www.metager.de, suchen mit einer recht hohen Geschwindigkeit in verschiedenen Suchmaschinen gleichzeitig. Aufgrund der enormen Reichweite solcher Suchmaschinen können sie bei der Suche nach sehr speziellen Begriffen sehr nützlich sein. Es gibt auch hier Eingrenzungsmöglichkeiten des Suchbegriffes. Bei http://www.ferretsoft.com, besteht die Möglichkeit sich das kleine Metasuchrogramm Webferret zu downloaden (sich Dateien aus dem Netz auf die Festplatte des eigenen Rechners herunterzuladen). Webferret ist eine browserunabhängige und Windows-kompatible Software, die online (mit dem Netz verbunden) gestartet, mit sehr hoher Geschwindigkeit gleichzeitig die grössten vorhandenen Suchmaschinen abfragt und die Treffer mit prozentualer Quote und Kurzinfo, in einem eigenen Fenster anzeigt.
[...]
[1] http://www.isc.org/ds, 29.Feb.2000
[2] http://www.booklooker.de, 29.Feb.2000
[3] http://www.psychologie.uni-bonn.de/sozial/staff/musch/history.htm, 27.Feb.2000
[4] http://www.darpa.mil/mto/desktop/word%20pm%20guide/sections/section%201.doc, 29.Feb.2000
[5] http://www.netplanet.org/geschichte/history.html, 29.Feb.2000
[6] http://www.phil.uni-erlangen.de/~p1bbk/Materialien/Internet.pdf, 27.Feb.2000