Daß Wikipedia mittlerweile die herkömmliche Enzyklopädie abgelöst hat ist bekannt und nicht weiter verwunderlich. Um so verwunderlicher jedoch ist, daß die Geschichtswissenschaft bis jetzt kaum auf diese Entwicklung reagiert hat. Sind doch die historischen Lemmata auf Wikipedia die am besten recherchierten und meist kontrovers diskutierten.
Wo die Gründe dafür liegen und welche Möglichkeiten sich für die Geschichtswissenschaften in der Wikipedia bieten könnten versucht dieser Essay zu beantworten.
„Zwar weiß ich viel, doch will ich alles wissen“ – Zur Rolle von Wikipedia und fluiden Wissensformen
Wenn die Microsoft Enzyklopädie „Encarta“ zum Sommer unwiderruflich eingestellt wird, der Brockhaus nur mehr online existiert und auch der Duden sich immer mehr zum online Nachschlagewerk entwickelt, muß klar die Frage nach der Rolle des Internets und der Wikipedia dabei gestellt werden.
Klar ist, daß das Medium Internet alle Bereiche des gesellschaftlichen Lebens beeinflußt und revolutioniert hat, wie kaum eine andere Entwicklung in der Geschichte der Menschheit zuvor. Es ist in einem Atemzug mit der Erfindung des Rades, dem Buchdruck, der Reformation, der Aufklärung und der Industrialisierung zu nennen. Vielmehr ist es sogar das Ergebnis einer kausalen Kette, in der jene Ereignisse stehen. Sie alle bilden jeweils eine Zäsur, durch welche die menschliche Gesellschaft in einem erheblichen Maße weitergebracht und verändert wurde, in deren Verlauf bloßes technisches Wissen um die Umsetzung einer Fertigkeit, zum Wissen um das Wissen an sich geworden ist.
Gutenbergs Buchdruck war Schlüssel und Beginn dieser weiteren Entwicklung, er machte erstmals das Wissen auf einfache Weise vielfach publizierbar. Es waren nun nicht mehr die Klöster und andere Institutionen der Kirche, die das Wissen der Welt verwalteten und kopierten. Das Buch als Medium zur Verbreitung von Wissen konnte von hier an leicht weitergegeben werden, wurde vom exklusiven, manuell abgeschriebenem, wertvollen Artefakt, mehr und mehr zum Alltagsgegenstand.
Daß Luther diese Entwicklung aufgriff und mit dem Verfassen und Vervielfältigen der deutschsprachigen Lutherbibel nun auch die Sprache, in der das Wissen vermittelt wurde für jedermann verständlich machte, verstärkte den Prozeß der rasanten Wissenstransformation. Theoretisch gesehen war von nun an Wissen jedem Menschen zu jeder Zeit zugängig.
Die Reformation bringt in Folge die Möglichkeit, neue Wege der Erforschung und Erstellung von Wissen zu gehen. Die von der Kirche geprägten wissenschaftlichen Dogmen der Scholastik sind endgültig nicht mehr die ultima ratio wissenschaftlicher Arbeit.
Dieses kommt schließlich mit der so genannten Aufklärung vollends zum Tragen.
Hier wird eine Blüte geistigen Arbeitens initiiert die weit bis ins 20. Jahrhundert hineinreicht und vielleicht noch darüber hinaus andauert.
Dieser neue Impuls, der zahlreiche neue Errungenschaften folgen (man denke nur an die grundlegenden Errungenschaften von Leibniz und Newton, den Ideen von Kant und Hegel, die Werke von Schiller und Goethe), eröffnet wiederum das Tor zur industriellen Revolution. Wieder werden die Mittel andere, Wissen kann nun nicht nur in größerem Maße aufgelegt und veröffentlicht werden, die Geschwindigkeit der Wissensübertragung vergrößert sich in immer kürzeren Abständen um ein Vielfaches. Briefe werden nicht mehr mit der Postkutsche oder per Eilboten überbracht, es folgen Eisenbahn, Telegraph, Telephon, Fax und schließlich als Schlußpunkt dieser Entwicklung das Internet.
Damit ist es tatsächlich theoretisch möglich, daß jeder Mensch, weltweit, zu jedem Zeitpunkt in der Lage ist, über das Wissen der Welt zu verfügen, es sich anzueignen und mit anderen in sekundenschnelle Wissen auszutauschen, unabhängig davon, welchen Zugriff er aufgrund seines sozialen Umfeldes er auf Bibliotheken, Universitäten, Buchhandlungen oder anderem hat. Auch der materielle rahmen spielt theoretisch keine Rolle mehr, erfahrungsgemäß sind es überwiegend materiell schwächere Gruppen die in Internetcafés vorzufinden sind.
Daß die zeitliche Weiterentwicklung der Technologie im Laufe der Zeit dabei immer rasanter geworden ist, zeigt ein Blick in die Vergangenheit von vor 10 – 15 Jahren, als das Internet und seine Vorläufer noch in den Kinderschuhen steckten und überwiegend etwas für ambitionierte Experten, Futuristen oder Hacker war. Im Jahr 2009 ist es derweil eine Selbstverständlichkeit, mittels eines iPhones oder anderer entsprechender Geräte, Emails zu schreiben und zu empfangen und nebenbei noch rasch im Internet den Weg zur nächsten Tankstelle nachzuschlagen.
Wissen ist somit nicht nur frei verfügbar sondern auch von jeglicher Örtlichkeit entbunden worden. Mit Recht stellen sich Philosophen die Frage, nach der Greifbarkeit des Wissens, wenn es vielerorts nur noch digital verfügbar ist und im Netz „umherschwirrt“. Ist Wissen in irgendeiner Weise noch greifbar? Sind Codes aus Einsen und Nullen noch Wissen? Insbesondere dann wenn man weiteres Wissen braucht um diese Codes zu lesen? Lesen wir vielleicht in Zukunft nur noch Einsen und Nullen und keine althergebrachten Buchstaben mehr?
Fest steht, daß Wissen fluide geworden ist, es wurde entlokalisiert und wird beständig verändert. Waren es erst über 160 Menschen die in Mexiko an der Schweinegrippe starben, sind es wenige Tage nur noch 7 Tote. Die Geschwindigkeit der Informationsweitergabe führt gleichzeitig dazu, daß auch falsches Wissen unhinterfragt und ohne Verifizierung weiter gegeben wird.
Dieses unhinterfragte Wissen ist gleichfalls problematisch, da nicht nur der Zugriff auf das Wissen sondern auch die Weitergabe des eigenen Wissens für Jedermann möglich geworden ist.
Es ist Jedem möglich eigene Informationen in das Medium Internet einzustellen, sie somit rapide zu verbreiten und ohne jede Kontrolle, als wahre Informationen darzustellen. Anders als bei wissenschaftlicher Fachliteratur, entpersonalisiert das Internet die dort getätigten Aussagen vom Verfasser. Aus „Lieschen Müller hat gesagt“ wird „im Internet steht, daß...“.
Grundsätzlich freilich muß eine Entpersonalisierung nicht schlecht sein, wie das Beispiel des Magazins „The Economist“ zeigt. Seit jeher werden hier die Verfasser der Artikel nicht genannt, das Magazin tritt somit als Einheit und gleichzeitig auch als Garant für die Verläßlichkeit der Informationen ein. Gleichzeitig kann es so weltweit von Relevanz sein und sich von nationalen Blickweisen lösen, weltweite Themen ansprechen und schließlich als einziges globales Magazin der Welt gelten [ JUNGCLAUSSENi ].
Das Internet bietet die Garantie hierfür zunächst einmal nicht. Ohne Angabe von Quellen und ohne die Sicherheit einer „Institution“, kann dort alles postuliert werden.
Bestes Beispiel hierfür bietet die so genannte Bielfeld-Verschwörung: Im Jahr 1994 erlaubt sich der Informatikstudent Achim Held im Usenet die Behauptung, die Stadt Bielefeld existiere nicht. Bielefeld sei lediglich das Hauptquartier einer Weltverschwörung, die von „Ihnen“ gesteuert werde. In satirischer Weise belegt er dieses mit fiktiven, aus der Luft gegriffenen Beweisen und stellte seine Verschwörungstheorie ins Internet [HELDii].
Bis heute ist die Bielefeld-Verschwörung einer der beliebtesten Internet-Späße und Thema zahlreicher Partygespräche, nun wird sie sogar durch die Stadt Bielefeld verfilmt um die
bisherige negative Werbung in positive Bahnen zu lenken. Gleichwohl ist die Idee von der Bielefeld-Verschwörung von Held weiter ausgebaut worden [BIELEFELD-VERSCHWÖRUNGiii]
Das Beispiel spricht in seinen Konsequenzen und den Kreisen, die es gezogen hat, für sich.
Im Kern der neuen Wissensquelle Internet steht nun das Lexikon Wikipedia. Bereits der Name zeigt die Anlehnung an das Wort Enzyklopädie und den damit verbundenen Anspruch der Wikipedia. Die eigentliche Enzyklopädie der Antike vertrat die Idee, sämtliches Wissen der Welt in sich zu tragen, und auch Wikipedia vertritt diesen Anspruch. Insbesondere will Wikipedia-Gründer Jimmy Wales„vor allem in den Sprachen, die in den armen Ländern gesprochen werden, noch stärker vertreten sein, damit diejenigen, die sich keine Bücher leisten können, einen größeren Zugang zu Wissen bekommen“ [LEMBKEiv].
Wikipedia nutzt nun die Möglichkeit des Internets und arbeitet nach dem Grundsatz: Einer weiß viel, zwei wissen mehr und alle wissen alles. Wikipedia nennt dies das Wiki-Prinzip, korrekter basiert Wikipedia (wie der Name unschwer vermuten läßt) auf dem Hypertext-System Wiki.
Dieses System läßt sich am leichtesten mit dem Titel des Buches von Tim Berners-Lee aus dem Jahr 1999 umschreiben: „Weaving the Web“. Berners-Lee arbeitete 1984 am CERN und erkannte dort bald die Problematik des Austausches unter den einzelnen Büros. Da einige Büros in der Schweiz, andere wiederum auf der französischen Seite des Genfer Sees lagen, machten die unterschiedlichen Infrastrukturen der internen Netzwerke einen Austausch von Informationen oft sehr schwierig oder unmöglich. Um diese Problem zu lösen konzipierte Berners-Lee ein Projekt auf dem Prinzip des Hypertexts und entwickelte einen Zugehörigen Browser dazu, den er WorldWideWeb nannte [BERNERS-LEEv]. Er gilt damit als „Erfinder“ des Internets.
In „Writing the Web“ erläutert er, daß nicht nur das browsen durch, sondern genauso das edieren des Webs von enormer Wichtigkeit ist [BERNERS-LEE, FISCHETTIvi].
Mit seiner „Erfindung“ des Internets, gebiert Berners-Lee also gleichzeitig auch das Wiki-Prinzip.
Wikis beziehen sich somit nicht nur auf die Wikipedia, sondern grundsätzlich auf alle Internetseiten, die öffentlich oder semiöffentlichem von den entsprechenden Nutzern bearbeitbar sind. Jede dieser Seiten besitzt dabei einen Link, der zu einem Dialog zur Bearbeitung des Textes führt. Daß dabei keine Kenntnisse der Programmiersprache HTML notwendig sind, sondern die Bearbeitung des Textes in der Regel durch eine einfache, an den üblichen Textbearbeitungsprogrammen angelehnte Weise möglich ist, macht die Handhabung um einiges einfacher.
Jede Bearbeitung und Veränderung des jeweiligen Wiki-Textes wird zusätzlich gespeichert und allen Autoren sichtbar gemacht. Auf diesem Wege wird auf eine Peer-Review durch Experten verzichtet, etwaige Korrekturen werden durch alle Nutzer im Nachhinein getätigt [CUNNINGHAM, LEUFvii].
Die erste völlige Umsetzung des Wiki-Prinzips entwickelte Ward Cunningham 1995 und nannte sie in Anlehnung an Berners-Lees WorldWideWeb, „WikiWikiWeb“ (der Begriff „wiki wiki“ stammt aus dem Hawaiianischen und bedeutet nichts weiter als „sehr schnell“, Cunningham entwickelte also ein Kofferwort, Lewis Carrolls „The Hunting of the Snark“ [CARROLLviii] lässt – wie so oft im naturwissenschaftlich-technischem Bereich – grüßen).
[...]
- Quote paper
- Cand. phil. Eric A. Leuer (Author), 2009, "Zwar weiß ich viel, doch will ich alles wissen!" - Zu Wikipedia und fluiden Wissensformen, Munich, GRIN Verlag, https://www.grin.com/document/137469