Projekte wie die Wikipedia zeigen, wie eine Gesellschaft ihr erarbeitetes Wissen dokumentieren kann. In dieser kollaborativ erstellten Enzyklopädie bildet sich eine Art neuronales Netzwerk komplex miteinander verschalteten Wissens ab. Es ist das Wissen einer unbestimmten Anzahl von Menschen, die ihr angeeignetes Wissen weitergeben, ohne einen finanziellen Lohn oder Ruhm einzufordern. Die Art und Weise, wie diese Enzyklopädie seit nunmehr einem Jahrzehnt erarbeitet wird, wirft die Frage auf, ob Wissensverbreitung und -erarbeitung nicht komplett vergesellschaftet werden sollte. Ihr Erfolg lässt vermuten, dass ein von benennbaren Einzelpersonen vertretenes Expertenwissen nicht mehr zwingend gefordert wird. Stattdessen setzt sich in einer immer intensiver vernetzten Wissensgesellschaft eine Vorstellung durch, dass auch ein virtuelles Netzwerk für die Erarbeitung, Verbreitung und Bewahrung von Wissen sorgen kann.
Es wäre banal, in dieser Arbeit ausschließlich die Werkzeuge und bereits bestehenden kollaborativen Projekte zu beschreiben, die es Menschen ermöglichen kollaborativ zusammenarbeiten. Das können in Kollaborationsprojekte involvierte Forscher besser und detaillierter. In meiner Arbeit wird es stattdessen um Modelle der kollaborativen Zusammenarbeit gehen. Dazu werde ich zunächst, noch bevor ich zum eigentlichen Thema – die kollaborativen Arbeit an digitalen Editionen – komme, die mentalitätsgeschichtlichen Grundlagen beschreiben. Die wichtigste Grundlage für das kollaborative Arbeiten dürfte die Einsicht in die dynamischen Entwicklungsprozesse der Kategorien Text und Wissen sein: Zum einen scheint ein Text nichts zu sein das zu jeder Zeit immer auf dieselbe Weise verstanden wird. Wenn man einen Text also als etwas versteht, das maßgeblich von einem Leser abhängt, dann erhält dieser Leser eine Macht über diesen Text, durch welche seine einmal festgelegte Erscheinungsform nur noch zu einer Möglichkeitsform wird, die der Leser mitbestimmt (Kap. II.1). Wenn man diesen Gedanken weiterführt, dann gerät man zum zweiten dahin, die Natur von über Texte transportierte Wissen genauer zu untersuchen und Abhängigkeitsverhältnisse zwischen Produkt und Wissen, Wissen und Experte zu beleuchten (Kap II.2). Schließlich wird man zu der Einsicht gelangen, dass in den heutigen Tagen, da herkömmliche Produktions- und Distributionsstrategien von Text und Wissen einem fundamentalen Wandel unterliegen, weder einzelne Experten noch proprietäre Vereinnahmungen von Wissen als ...
Inhaltsverzeichnis
I. Einleitung
1.1 Allgemeine Einführung
1.2 Zu zwei Begriffen: Kollaboration und Text
1.3 Allgemeine Hinweise zum Zitieren und Referenzieren
II. Dynamik als Merkmal von Text und Wissen
II. l Text und Dynamik
II. l .a Über Zensur und die Frage wer in Texte eingreifen kann
II. l .b Text und Textur - Zu den Möglichkeitsformen eines Textes
II. l .c Zur Dynamik der Texturen - und wie man in sie eingreifen kann
II .1. d Hypertexte und der von ihnen angestoßene Wandel im Umgang l6 mit Texten und Texturen
II. 2 Wissen und Dynamik
II.2. a Zur Unterscheidung von Wissen und Erkenntnis
II.2. b Erkenntnis und Wissensprodukte
II.2. C Etikettierung von Wissensprodukten
II.2. d Das Web 2.0 als neue Form der Vernetzung und Zusammenarbeit
II.2. e Zur Geschichte des freien Wissens
II.2. f Virtuelle Netzwerke als kollaborative Umgebungen
II.3 Zwischenfazit
III.Kollaboration im Bereich wissenschaftlicher Arbeit
III.l Zur Kommunikationsfreiheit und neuen Rollenverteilungen
III.2 Zu aktuellen Beteiligungsmustern
III.3 Methoden und Modelle
III.4 Modelle für das kollaborative Arbeiten an digitalen Editionen
III.5 Akquise von Kollaborateuren und Motivation für 54 kollaboratives Arbeiten
III.6 Grenzen und Freiheiten - Bedingungen und Regulierungssysteme für das 59 kollaborative Arbeiten
IV. Fallbeispiele
IV. l Transcribe Bentham
IV. l.a Zum Projekt
IV. l.b Beschreibung der Möglichkeiten zur Mitarbeit
IV. l.c Kritik
IV. 2 Monasterium Collaborative Archive
IV. 2.a Zum Projekt
IV.2.b Beschreibung der Möglichkeiten zur Mitarbeit
IV.2.c Kritik
V V. Ausblick - Ein Desiderat
VI. Verzeichnis der verwendeten Quellen
Vorwort
... denn daß alle ächte und den menschlichen Geist würdig beschäftigende Arbeit niemals fertig werden, das istja eben etwas erfreuliches. Eine Aufgabe ganz lösen heißt mit andern Worten: ihr ein beschränktes Ziel setzen.
Jacob Grimm
Die Idee zum Thema dieser Arbeit stammt aus einem Vortrag, den ich im Rahmen der Spring School „Digitale Edition“ 2012 in Wien gehört habe. Dort fielen in einem Nebensatz die Worte „digital social edition“ - in schillerndes Schlagwort, das mich seither nicht mehr los gelassen hat. Damit verband ich die Vorstellung, dass tatsächlichjedem die Möglichkeit gegeben werden könnte, an wissenschaftlichen Editionen mitzuwirken. Ich stellte mir eine Gesellschaftswissenschaft im wörtlichen Sinne vor. Dass diese Vorstellung nur bedingt realistisch ist, fiel mir erst während des Schreibens dieser Arbeit auf. Dennoch bin ich auf einige recht interessante Modelle der Beteiligung gestoßen, die eine Zusammenarbeit zwischen Wissenschaftlern und den sogenannten Citizen Scientists möglich machen kann.
Das oben stehende Zitat ist für mich der Trost dafür, in meiner Arbeit nicht alles besprochen zu haben, was ich mir anfangs vorgenommen habe. Dennoch bin ich froh, dass ich mich mit einem Thema beschäftigen konnte, dass auch außerhalb der Wissenschaft von Bedeutung ist und mich sicher noch lange Zeit beschäftigen wird.
Diese Arbeit ist - ganz im Sinne der Kollaboration - mit der Unterstützung vieler Beteiligter entstanden. Zu Dank verpflichtet bin ich Herrn Dr. Jörg Jungmayr dafür, dass er mir die Reise nach Wien ermöglicht und mich in Fragen der Organisation stets hilfreich beraten hat. Außerdem danke ich Herrn Dr. Patrick Sahle für den regen Austausch zu meinem Thema und der bemerkenswerten Unterstützung. Vom Hörensagen weiß ich, dass so gute Betreuung alles andere als die Regel ist.
Danken möchte ich auch meinen Freunden, die meine Arbeit Wort für Wort gelesen, korrigiert und mir noch manch guten Ratschlag gegeben haben. Sie hier zu verewigen ist für mich das Mindeste an Dank:
Jean Pierre Bassenge, Konstantin Bubolz, Sarah Bützow, Benedict Gläser, Sarah Götze, Sophia Gustorff, Christopher Hertwig, Stefan Meier, Sonja Piotrowski, Stefanie Schulz.
Nicht zuletzt möchte ich meiner Partnerin Katharina danken, die mich während der letzten Monate unterstützt und ertragen hat. Sie hat für mich das getan hat, was sie am meisten hasst: Geduld haben und diskutieren.
Patrick Ewald Berlin, den 24. April 2013
I. Einleitung
1.1 Allgemeine Einführung
Projekte wie die Wikipedia zeigen, wie eine Gesellschaft ihr erarbeitetes Wissen dokumentieren kann. In dieser kollaborativ erstellten Enzyklopädie bildet sich eine Art neuronales Netzwerk komplex miteinander verschalteten Wissens ab. Es ist das Wissen einer unbestimmten Anzahl von Menschen, die ihr angeeignetes Wissen weitergeben, ohne einen finanziellen Lohn oder Ruhm einzufordern. Die Art und Weise, wie diese Enzyklopädie seit nunmehr einem Jahrzehnt erarbeitet wird, wirft die Frage auf, ob Wissensverbreitung und -erarbeitung nicht komplett vergesellschaftet werden sollte. Ihr Erfolg lässt vermuten, dass ein von benennbaren Einzelpersonen vertretenes Expertenwissen nicht mehr zwingend gefordert wird. Stattdessen setzt sich in einer immer intensiver vernetzten Wissensgesellschaft eine Vorstellung durch, dass auch ein virtuelles Netzwerk für die Erarbeitung, Verbreitung und Bewahrung von Wissen sorgen kann.
Es wäre banal, in dieser Arbeit ausschließlich die Werkzeuge und bereits bestehenden kollaborativen Projekte zu beschreiben, die es Menschen ermöglichen kollaborativ zusammenarbeiten. Das können in Kollaborationsprojekte involvierte Forscher besser und detaillierter. In meiner Arbeit wird es stattdessen um Modelle der kollaborativen Zusammenarbeit gehen. Dazu werde ich zunächst, noch bevor ich zum eigentlichen Thema - die kollaborativen Arbeit an digitalen Editionen - komme, die mentalitätsgeschichtlichen Grundlagen beschreiben. Die wichtigste Grundlage für das kollaborative Arbeiten dürfte die Einsicht in die dynamischen Entwicklungsprozesse der Kategorien Text und Wissen sein: Zum einen scheint ein Text nichts zu sein das zujeder Zeit immer auf dieselbe Weise verstanden wird. Wenn man einen Text also als etwas versteht, das maßgeblich von einem Leser abhängt, dann erhält dieser Leser eine Macht über diesen Text, durch welche seine einmal festgelegte Erscheinungsform nur noch zu einer Möglichkeitsform wird, die der Leser mitbestimmt (Kap. II.1). Wenn man diesen Gedanken weiterführt, dann gerät man zum zweiten dahin, die Natur von über Texte transportierte Wissen genauer zu untersuchen und Abhängigkeitsverhältnisse zwischen Produkt und Wissen, Wissen und Experte zu beleuchten (Kap II.2). Schließlich wird man zu der Einsicht gelangen, dass in den heutigen Tagen, da herkömmliche Produktionsund Distributionsstrategien von Text und Wissen einem fundamentalen Wandel unterliegen, weder einzelne Experten noch proprietäre Vereinnahmungen von Wissen als Produkt angemessene Strategien sind.
Diese Sichtweise hat unmittelbare Folgen für die Wissenschaft und die von ihr erarbeiteten Grundlagen: Die Verstetigung von Wissen und seine Verbreitung geht immer mehr an die Gesellschaft über. Gerade das Internet als zeit- und ortsunabhängiger Wissensspeicher ist Hauptbetätigungsfeld vieler Freiwilliger (Kap. II.3). Die Frage ist nun nicht etwa, wie sich wissenschaftliche Organisationen in kompetitiver Auseinandersetzung gegen diese Freiwilligen positioniert, sondern wie sie die Potenziale nutzen, die sich durch die Medienerweiterung des Internets und den so entstandenen neuen Kommunikationskanälen und virtuellen Arbeitswerkzeugen nutzen kann (Kap. III).
Nicht-Wissenschaftler zu beteiligen ist nicht nur eine Möglichkeit sondern eine Notwendigkeit. Denn eine wissenschaftliche Disziplin ist immer auch eine Gesellschaftswissenschaft. Sie wird von ihr finanziert, und an sie sollen die Ergebnisse wissenschaftlicher Arbeit zurückgeführt werden. Es ist daher nur ein logischer Schritt, Menschen die Möglichkeit zu geben, sich unabhängig von ihrer Expertise in die wissenschaftliche Arbeit mit einbringen zu können. Für die Geisteswissenschaften bietet sich die digitale wissenschaftliche Edition als Untersuchungsgegenstand an.
Daraus ergeben sich für die Grundlagenforschung der Geisteswissenschaften, der Editionsphilologie, diverse Herausforderungen in Sachen Einhaltung wissenschaftlicher Standards: die Qualitätssicherung anspruchsvoller Arbeit ist eines der brennendsten Probleme, die eine Vergesellschaftung wissenschaftlicher Arbeit mit sich bringt. Deswegen möchte ich, auch im Blick auf die Diskursivierung von Wissen neue Modelle der Bewertung von Wissen vorschlagen, durch die Wissen nicht deswegen als wertvoll gilt, weil es von einer bestimmten Organisation herausgegeben oder einer bestimmten Person geschrieben wurde, sondern weil eine Gemeinschaft direkt über ihren Wert entschieden hat. Eine Qualitätssicherung über soziale Kontrolle kann durchaus mit einem wissenschaftlichen peer-review- Verfahren mithalten.
Mit meiner Arbeit möchte ich das Rad nicht neu erfinden. Es gibt bereits sehr gute Entwicklungen in Sachen der digitalen Wissensverbreitung. Die vielen bereits existierenden Methoden scheinen mir allerdings noch zu disparat und nicht konsequent auf einen Bereich angewendet zu werden. Die digitale Editionsphilologie könnte meines Erachtens sehr davon profitieren, würde sie alle bereits vorhandenen Werkzeuge konsequent auf ihren Gegenstand anwenden. Bestehende Wege zu beschreiben und neue aufzuzeigen ist mein Ziel. Dazu werde ich zwei Beispiele gelungener kollaborativer Projekte vorstellen: Transcribe Bentham und MOM-CA (Kap. IV). In einem Ausblick werde ich meine Version von einer kollaborativen Edition aufBasis dessen beschreiben, was, was bereits da ist (Kap. V).
1.2 Zu zwei Begriffen: Kollaboration und Text
Unter dem Begriff Kollaboration ist im wissenschaftlichen Diskurs kein Verrat zu vermuten. Er lehnt sich an die englische Bedeutung des Begriffs collaborative an. Darunter ist das gemeinschaftliche Arbeiten und Konzipieren zu verstehen. Im Gegensatz dazu versteht man unter dem Wort cooperative lediglich ein einfaches Zusammenwirken. Kollaboration bedeutet in diesem Sinne eine stärkere Involviertheit der Gemeinschaft an einer Aufgabe und umfasst aus meiner Sicht nicht nur die Arbeit in fest abgegrenzten Teams mit nur wenig dynamischen Entwicklungen sondern vor allem eine Gemeinschaftsarbeit, die keine persönlichen Bindungen bedarf. Ich werde deswegen den Begriff Kollaboration und seine Derivate im Sinne eines dezentralen Zusammenwirkens von Experten und Interessierten verwenden.
Wie erwähnt werde ich in Kapitel II.l einen neuen Textbegriff entwerfen. Um allerdings in den darauf folgenden Kapiteln den Lesefluss nicht massiv zu behindern, werde ich darin nicht meinen Textbegriff hinter dem Wort „Text“ verbergen, sondern dieses dem allgemeinen Verständnis angepasst verwenden. Ich bin davon überzeugt, dass diese Abschnitte genug Stoff zum Nachdenken bieten - da bedarf es keines zusätzlichen sprachlichen Irrgartens.
1.3 Allgemeine Hinweise zum Zitieren und Referenzieren
Einige Quellen in dieser Arbeit stammen aus über das Internet abrufbaren Dateien. Das Problem mit dem Zitieren entsteht dadurch, dass darin oftmals keine Seitenzahlen zu finden sind. Ich habe mir damit geholfen, indem ich in den Fußnoten jeweils den Anfang des paraphrasierten bzw. referenzierten Textabschnitts zitiert habe. Über die Suchfunktion, die jeder Browser bzw. jeder pdf-Reader zur Verfügung stellt, können so die jeweiligen Textabschnitte gefunden werden.
In einer Arbeit, die ich über das Kollaborieren räumlich voneinander getrennter Menschen schreibe, konnte ich es mir nicht nehmen lassen, die Wikipedia als derzeit wohl bekanntestes Kollaborationsprojekt der Welt zu zitieren. Das mache ich nicht nur, um mir das Leben zu erleichtern. Ich mache das zum einen, weil an manche Texte und damit an manche Ideen nicht mit angemessenen Aufwand heranzukommen war. Ich mache das zum anderen, um diesem online-Projekt die Ehre zu erweisen und um zu zeigen, dass man auch aus der Wikipedia sinnvoll zitieren kann. Denn ungeachtet der Frage, ob man im Allgemeinen qualitatives Wissen in ihr findet (was man aus Vergleichen mit redaktionell betreuten Enzyklopädien wie der Britannica offensichtlich tut!), geht es um die Frage, welchem Wissen man vertraut. Es ist aus meiner Sicht nicht evident, warum Wissen, welches ich in Büchern und Aufsätzen von für mich unbekannten Autoren finde, richtiger sein sollte, als Wissen, das von einer Vielzahl von vornherein anonymer Autoren stammt. Wissen von anderen zu akzeptieren hat immer etwas mit Glauben und Vertrauen zu tun, das selbstverständlich zurückgekoppelt sein muss an eigene Überlegungen und Erfahrungen. Es wird die Zeit kommen, da solche Rechtfertigungen nicht mehr nötig sein werden.
II. Dynamik als Merkmal von Text und Wissen II. 1 Text und Dynamik
Il.l. a Über Zensur und die Frage wer in Texte eingreifen kann
An einer Stelle in „Deutschland. Ein Wintermährchen“ kokettiert Heinrich Heine mit der Ansicht, der eigene Text sei die physische Fortsetzung seiner selbst:
Doch ach! da kommt der Hoffmann auch Mit seiner Censorscheere!
Die Scheere klirrt in seiner Hand,
Es rückt der wilde Geselle
Dir auf den Leib - er schneidet ins Fleisch -
Es war die beste Stelle.1
Friedrich Lorenz Hoffmann, zu Heines Hamburger Zeit Zensor in der Hansestadt, wurde im „Wintermährchen“ ein literarisches Denkmal von zweifelhaftem Wert gesetzt: Er steht dadurch heute noch sinnbildlich für eine Zeit der geistigen Repression durch die Vertreter eines furchtsamen Staates.
Liegen zumindest in Europa die Zeiten eines repressiven und in die Meinungsfreiheit massiv eingreifenden Staates auch schon viele Jahrzehnte zurück, so ist die Empfindlichkeit in Verdachtsfällen geblieben, wenn andere Institutionen an seiner statt in einen Text eingreifen möchten. Im Falle der bevorstehenden Änderungen an Otfried Preußlers „Die kleine Hexe“ ist sie wieder zu spüren. Dort darf das ohne böse Absicht benutzte „Negerlein“ keinen Platz mehr haben. Der Thienemann Verlag wird Mitte des Jahres 2013 diesen Begriff gegen einen weniger diskriminierenden Begriff austau- schen.2
Entgegen aktueller Diskussionen3 handelt es sich hier nicht um eine Zensur, wie sie Heinrich Heine erfuhr. Sicherlich ist es eine Änderung an empfindlicher Stelle, verschleiert sie doch den Autor als historische Gestalt, die aus einem zeitlich gefärbtem Sprachgebrauch heraus schrieb. Die Diskussion um Preußlers Sprachgebrauch dreht sich dabei vordergründig um eine Bearbeitung nach den Maßgaben der political correctness. Tatsächlich aber geht es um die Frage, wie wir mit unserem geistigen Erbe, unserer Mentalitätsgeschichte und mit unserer all dies konstituierenden Sprache umgehen. Damit einher geht auch die Frage, wer auf welche Weise mit unseren Texten umgehen darf. Im Falle der kleinen Hexe wird die Veränderung durch den Verlag in Abstimmung mit der Familie Preußler vorgenommen.
Im Sinne Roland Barthes’ wären diese allerdings nicht zwingend zu befragen, da nicht die Intention des Autors, die durch die Schrift nicht repräsentiert werden könne, maßgeblich dafür ist, wie ein Text verstanden wird.
Die Schrift ist der unbestimmte, uneinheitliche, unfixierbare Ort, wohin unser Subjekt entflieht, das Schwarzweiß, in dem sich jede Identität aufzulösen beginnt, angefangen mit derjenigen des schreibenden Körpers.4
Der Poststrukturalist Barthes betont in seinem Aufsatz „Der Tod des Autors“ die Rolle des Lesenden bei der Sinnkonstitution eines Textes. Der Lesende sei der Ort, an dem die Vielfalt der Zitate einer Kultur, aus denen sich auch ein Text speist, zusammentreffe.5 Man könnte daraus schließen, dass ein Leser ein Mitspracherecht in der Frage haben sollte, in welchen Zitate ein Text transportiert wird.
Diese radikale Abkehr vom Autor-Genie romantischer Prägung trägt Früchte bis in die heutigen Tage. So ist die Diskussion um die Wortwahl in der kleinen Hexe weniger eine Debatte um den Autor als vielmehr eine um das moralisch Sagbare und Unsagbare. Störend an dieser Diskussion ist nicht, dass sie wahrscheinlich ohne Aussicht auf ein für alle Seiten zufriedenstellendes Ergebnis geführt wird, sondern mit welchen Mitteln die opponierenden Parteien operieren. Dort, wo mit Faschismus und Schlimmerem argumentiert wird6, fehlt sichtbar ein analytischer Blick auf erzählende Texte: Wer von der Zensur eines Textes spricht und die Veränderung einzelner Worte meint, ohne diese in ihrer syntagmatischen Eingebundenheit zu lesen, der hat die Funktionsweise von Texten nicht verstanden. Mit Blick auf die aktuelle Diskussion scheint mir daher der Hinweis angebracht, dass ein erzählender Text weit mehr ist, als eine lose Aneinanderreihung von unantastbaren Wortmonumenten. Er ist ein auf kohärenter wie kohäsiver Ebene verknüpftes, mit Sinn gefülltes und Sinnstiftung anregendes Werkzeug der Kommunikation. Er ist außerdem eine Spiegelung des Wissens und der Phantasie eines Autors, seines Sprachgefühls und seiner Beherrschung gesellschaftlicher Normen.
Diese Worte tragen noch keine Antwort auf die Frage in sich, ob und wie man in Texte eingreifen darf. Sie weisen aber daraufhin, dass man es bei erzählenden Texten mit historischen, immateriellen Artefakten zu tun hat, die von einem Autor ausgehen, der eine Schnittstelle von historischen, intellektuellen Diskursen darstellt: Er kann seine Gedanken immer nur in Rückbezug auf bereits gemachte Erfahrungen und historisch geprägte Erkenntnisse formulieren. Er kann dazu auch nur - von Neologismen und Wortumprägungen abgesehen - die sprachlichen Mittel anwenden, die zu einer bestimmten Zeit durch den Gebrauch in der Gesellschaft geprägten Bedeutung zur Verfügung stehen. Wenn Preußler also in seinen Texten das Wort „Negerlein“ verwendet, dann tut er das zwar im Rahmen eines kolonialzeitlich geprägten gesellschaftlichen Rollenmodells. Die Äußerungsabsicht seines Textes ist dadurch aber noch nicht von rassistischer Natur, wie ein genauer Blick auf die fragliche Passage zeigt. Dort heißt es im Kapitel „Wollen wir wetten?“ zunächst wie folgt:
Wie kamen die beiden Negerlein auf die verschneite Dorfstraße? Und seit wann gab es Türken und Indianer in dieser Gegend? Türken mit roten Mützen und weiten Pluderhosen - und Indianer, die gräulich bemalte Gesichter hatten und lange Speere über den Köpfen schwangen.7
Ein vorurteilsbeladenes Klischee von verschiedenen Ethnien ist in diesen Zeilen unübersehbar. Man muss allerdings berücksichtigen, dass im Jahre 1957, als diese Zeilen erstmals veröffentlicht wurden, an eine flächendeckende Verbreitung einer multiethnischen Kultur noch nicht zu denken war. Vorurteile wiejene Preußlers können nur in direktem Kontakt mit denen abgebaut werden, über deren Köpfe man sie geprägt hat. Noch heute befinden wir uns in einem Prozess der Ablösung von veralteten kulturellen Vorstellungsmustern. Dabei rückt auch die Literatur in den Fokus, weil Literatur, als Ergebnis gesellschaftlicher Entwicklungen und Veränderungen begriffen, nicht aus einem solchen Prozess herausgehalten werden kann.
Bei der zitierten Passage von Rassismus zu sprechen, ist nachweisbar falsch: Nachdem die erste Verwunderung über die seltsamen Unbekannten abgeklungen ist, vermutet der Rabe Abraxas - der ständige Begleiter der kleinen Hexe -, dass es sich bei den beiden „Negerlein“ und den anderen seltsamen Gestalten um Zirkuskünstler handeln könnte.
Aber die beiden Negerlein waren nicht vom Zirkus und ebenso wenig die Türken und Indianer. Auch die kleinen Chinesinnen und der Menschenfresser, die Eskimofrauen, der Wüstenscheich und der Hottentottenhäuptling stammten nicht aus der Schaubude. Nein, es war Fastnacht im Dorf!8
Es geht hier also nicht um die Vermittlung eines rassistischen Weltbildes im Sinne von Rollenzuweisungen von Sklave und Herrscher, „Untermensch“ und „Herrenrasse“, sondern um den kindlichen Spaß, eine fremde und un(be)greifbare Rolle einzunehmen. Würde man diese Aussageabsicht verändern, so könnte man tatsächlich von Zensur sprechen. Ändert man aber nur die Textur dieses Textes, dann sind solche Behauptungen unangemessen.
II.l. b Text und Textur - Zu den Möglichkeitsformen eines Textes
Die Diskussion um die kleine Hexe bringt mich zu der Erkenntnis, dass ein Text nicht unmittelbar erfahrbar, sondern nur über die Interpretation seiner Textur mittelbar zu erschließen ist. Sprache, die sich in der Textur eines Textes zeigt, veraltet. Die Gefahr, dass Texte dadurch falsch verstanden werden können9, ist real und sollte nicht übergangen werden mit dem Hinweis, dass sich ein Leser nur genügend historische Kenntnisse aneignen müsse, um einen Text richtig zu verstehen. Das würde die Bedeutung des Sinn konstituierenden Lesers unzulässig auf die Rolle des Übersetzers der Gedanken eines Autors verkürzen. Tatsächlich ist er aber ein mit dem erzählenden Text kollaborie- render Konstrukteur von Sinn. Diese Konstruktion kann nie eine endgültige sein, da sich die Bedingungen der Lektüre verändern. Moritz Baßler weist in diesem Zusammenhang auf die Transsituativität des Lesens hin: Die Lektüre eines Textes sei nicht an eine bestimmte Situation gebunden, wodurch unterschiedliche Lesungen entstünden.10 Situationen sind immer auch zeitspezifisch.
Die Bedeutung des Lesens als Sinnkonstitution und -konstruktion ist allgemein anerkannt. So schreibt etwa Gunter Martens, „daß der Prozeß des Lesens nicht [...] dem Text äußerlich ist, sondern ihn allererst konstituiert.“11 Aus dieser Einsicht zieht er den Schluss, dass ein Text ein Zeichen sei, „dessen Struktur durch eine vom Zeichenbenutzer und vom jeweiligen situativen Umfeld bestimmte dynamische Wechselbeziehung zwischen Textträger und Textbedeutung gekennzeichnet ist.“12 Radikaler sind die Vorstöße der Poststrukturalisten, welche die Produktivität des Textes auf der Seite des Lesers sehen. Dadurch entwickelte sich ein Textbegriff, der sich nicht mehr an einen Autor sondern am Leser orientiert. Solche Positionen tragen allerdings die Gefahr in sich, zu weit in ein neues Extrem abzudriften, welches dem Text- und Autorbegriff des 19. Jahrhundert lediglich diametral gegenübersteht, ohne ihn als Alternative ablösen zu können.
Einen Zugang zum Verständnis der Natur erzählender Text erhält man nicht, wenn man die Macht des Autor-Genies durchjene des Lesers ersetzt, sondern indem man sowohl die produktionsästhetische als auch die rezeptionsästhetische Komponente zu gleichen Teilen berücksichtigt. Einen Text kann man zunächst als die von einem Autor nach Kriterien der Textualität mit sprachlichen Mitteln codierten Gedanken verstehen, die notwendigerweise in ein materielles Medium überführt13 und dort fixiert werden. Das Ergebnis dieses Übersetzungsprozesses wird in einer Textur sichtbar, die schon immer mit dem Text gemeinsam auftritt, weil sie ohne ihn nicht zu denken wäre.14 Ein Text wird dabei aus produktionstechnischen Gründen auf eine medien- und materialspezifische Art sichtbar gemacht.
Ein Autor stellt auf dem zu einer von ihm intendierten „fertigen“ Textur verschiedene Texturen her - mitunter können sich Texturen auf einem materiellen Träger auch überlagern.15 Den etablierten Begriff der Fassung möchte ich hier bewusst umgehen, denn er steht im selben Paradigma wie „Gerahmtes“, „Umzäuntes“. Ein Text kann allerdings nicht in eine letztgültige Form gebracht werden, selbst wenn ein Autor seine Arbeit an seinem Text beendet hat - das Beispiel der kleinen Hexe zeigt das überdeutlich. Die rezeptionsästhetische Komponente gilt es deswegen nicht weniger zu beachten. Texturen sind nach einer ersten Veröffentlichung in prinzipiell unendlicher Vielfalt zu ein und demselben Text herstellbar. Der Kommunikationsprozess zwischen einer
Textur und einem Leser ist daher abhängig davon, mit welcher Textur er es zu tun hat. Die Beschäftigung mit von einem Autor handgeschriebenen Manuskript würde womöglich zu einem anderen Zugang zum Text führen, als die elaborierte Form eines zum Verkauf gedachten Druckwerks, das zwar auf der vom Autor angefertigten Textur basiert, ihrjedoch nicht komplett entspricht. Für gewöhnlich ähneln sich beide Texturformen in der Wahl der Worte. Komplett verschieden sind sie allerdings z.B. hinsichtlich des gewählten Schriftschnitts sowie hinsichtlich der medialen Ausstattung. Diese prägen den Rezeptionsprozess eines Textes:
Layout matters! Wenn wir unsere Textwahrnehmung reflektieren, kommen wir nicht umhin festzustellen, dass Texte aufgrund ihrer Dokumentbindung Sprachzeichen (linguistische Codes) und bibliografische Codes und grafische Codes anbieten.16
Layout matters! Allerdings verhält es sich genau umgekehrt: Nicht Texte sind es, die diese Angebote machen, sondern Texturen. Texte sind lediglich in einem subjektiv gefärbten, auf dem Vorwissen des Rezipienten basierender Aneignungsprozess als Text zu erkennen und mental repräsentierbar.17 Texturen hingegen sind die Lieferanten dieser Codes, die während ihrer Herstellung abhängig vom gewählten Medium an einen Text vererbt werden und sich so die „Maske“ eines Textes bilden.
An dem, was und in welchem Umfang vererbt wird, ist nicht allein der Autor beteiligt. Denn eine für einen Leser gedachte Textur entsteht nicht automatisch aus einer vom Autor angefertigten Textur heraus, sondern ist ein konkreter Übersetzungsprozess, an dem unter anderem Hersteller und Illustratoren beteiligt sind. Die Produktion von Texturen eines Textes endet also nicht in der Hand des Autors. Ihre Entstehungsgeschichte weitet sich über die Grenzen der Veröffentlichung aus, verlässt mit der Erstveröffentlichung die „Werkstatt des Autors“ und hält Einzug in neue Werkstätten. Es ist z.B. nicht unüblich, dass erzählenden Texten durch Illustrationen eines Künstlers eine alternative Form des Erzählens beigefügt wird. Diese wird idealerweise durch interpretative Erschließung des Textes hergestellt und bietet in Kombination mit einer bisher verbreiteten Textur einen erweiterte (mitunter auch verengende) mediale Repräsentation eines Textes.
II.l. c Zur Dynamik der Texturen - und wie man in sie eingreifen kann
An dem oben gezeigten Beispiel wird erkennbar, dassjede Textur lediglich eine Möglichkeitsform eines Textes sein kann. Dies ist keine qualitative Gleichstellung, sondern soll deutlich machen, dassjede Textur, abhängig von ihren medien- und materialspezifischen Eigenschaften, einen unvergleichbaren Zugang zum Textverständnis bieten kann. Damit öffnet sich ein Blick auf zwei gleichberechtigt ablaufende dynamische Prozesse. Der autorseitige Prozess umfasst die Veränderungen, die ein oder mehrere Textträger durch einen Autor bzw. durch von ihm beauftragte Schreiber unternommen haben. Aus der Einsicht in die Dynamik der Textentstehung, welche sich durch Streichungen, Ergänzungen und Neuformulierungen zeigt, muss die Erkenntnis entstehen, dass eine Textur „nicht etwas in sich Ruhendes, etwas ein fur allemal Abgeschlossenes ist, sondern als ein dynamisches Gebilde begriffen werden muß, das sich in steter Veränderung befindet.“18 Diese Dynamik läuft auf diachroner Achse ab und repräsentiert sich in den Texturen, die auf dem Weg zu einer vom Autor intendierten, letztgültigen Textur entstehen. Das wäre also die Gesamtmenge aller Manuskripte, die ein und denselben Text repräsentieren. Die leserseitige Dynamik hingegen bewegt sich sowohl auf diachroner als auch auf synchroner Ebene: Zu ein und demselben Zeitpunkt ist es gängige Praxis mehrere Texturen desselben Textes anzubieten. Wird ein Text für einen bestimmten Nutzen kanonisiert, so kann man davon ausgehen, dassjede folgende Generation neue Texturen herstellen wird, wie es jetzt im Falle der kleinen Hexe geschieht. Rezipienten aus verschiedenen Epochen können sich nicht mit immer denselben Texturen beschäftigen. Denn alles, was auf einer Textur liegt und sich der Rezeption stellt, veraltet.
Es sollte daher theoretisch jedem Menschen möglich sein, die für in passende Textur eines Textes herzustellen oder zumindest angeboten zu bekommen. Ein Nebeneinander von zwei Texturen der kleinen Hexe, wobei eine das „Negerlein“ bewahrt und eine zweite es etwa durch „Schornsteinfegerlein“ ersetzt, halte ich für eine plausible Möglichkeit. Das Beispiel der Illustration als interpretationsfordernde bzw. -lenkende Beigabe zeigt, wie kontingent und austauschbar einzelne Elemente einer Textur sein können. Der Unterschied zwischen der Streichung einer zusätzlich hinzugefügten illustrativen Repräsentation des Textes und dem Austausch eines Wortes ist, dass für das betreffende Wort zwingend eine passende paradigmatische Entsprechung gefunden werden muss, die sich wie das ursprüngliche Wort gleichermaßen in den syntagmati- schen Rahmen des Textes einfügen kann.
Derjenige, der verändert, wird dadurch allerdings noch nicht zum Co-Autor des Textes. Die Wahl eines neuen Paradigmas ist gewiss eine intellektuelle und kreative Leistung. Vor allen Dingen aber ist es eine verantwortungsvolle Aufgabe, weil die herzustellende Möglichkeitsform des Textes, wenn die Änderung allgemein anerkannt werden soll, intensive Beschäftigung mit dem Text und der über seine Textur zu erschließenden Aussageabsicht erfordert. Die neue Möglichkeitsform muss außerdem gewährleisten, dass ein Text in seiner einmal syntagmatisch festgelegten Struktur stabil bleibt, wenn auch nach der Änderung noch von ein und demselben Text die Rede sein soll. Ist derjenige, der verändert, auch kein Co-Autor, so ist er zumindest ein Kollaborateur in der Herstellung einer Möglichkeitsform des Textes.
Il.l. d Hypertexte und der von ihnen angestoßene Wandel im Umgang mit Texten und Texturen
Mit dem Erfolg des Internets vollzieht sich ein Paradigmenwechsel im Umgang mit der Position des Autors. Die Möglichkeiten eines Internetnutzers, Texte (meist) problemlos zu kopieren und für eigene Zwecke zu verändern, hat auch zu einem Wandel im Umgang mit Texten geführt. So wurde der Lexikonartikel zur „kleinen Hexe“ in der deutschsprachigen Wikipedia seit seinem nunmehr siebenjährigen Bestehen bereits 89 Mal verändert.19 Keine einzige dieser Änderungen, die einen ursprünglich 1.215 Bytes großen Beitrag auf einen Umfang von 7.568 Bytes anwachsen ließ, hat eine auch nur ansatzweise ähnliche öffentliche Aufmerksamkeit erfahren, wie die geplante Änderung in der Druckversion. Was ist anders?
Zum einen handelt es sich bei der kleinen Hexe um einen Klassiker der Kinder- und Jugendbuchliteratur. Bereits drei Generationen wird aus diesem Buch über Wagemut und Menschlichkeit, Freundschaft und der Bekämpfung des Bösen vorgelesen. Es steht davor, in das kulturelle Gedächtnis einer Gemeinschaft einzugehen, wenn es das nicht längst getan hat. Auch der Autor ist durch sein Schaffen zu einer geachteten Persönlichkeit unter den Kennern in der Gesellschaft geworden, dessen Texte man mit seiner Hand, mit seinem Intellekt identifiziert. Ein Eingriff in einen solchen Text, scheint manchen gewiss wie eine von Heine beschriebene Beschneidung.
Zum anderen ist ein literarisches Werk nicht mit einem Lexikonartikel vergleichbar. Während in einem literarischen Text maximale Subjektivität geübt wird, findet sich in einem Lexikonartikel der Versuch der maximalen Objektivität. Letztere Arbeitsweise ist bemüht, Wissen so wertfrei wie möglich zu präsentieren; erstere ist offensiv oder unterschwellig gestaltete Vermittlung von Werten und Normen. Diese sind in der Zeit ihrer Entstehung verankert und geben wieder, was einst gefühlt und gedacht wurde.
Fundamental anders ist das Konzept, nachdem diese beiden Texte entstanden sind. Während an der Entstehung der kleinen Hexe wohl nur wenig mehr Leute als Preußler selbst beteiligt gewesen sein dürften, eröffnet sich der Wikipedia-Artikel zur kleinen Hexe vorbedingungslos jedem, der etwas hinzuzufügen hat. Das Prinzip der kollabora- tiven Autorschaft, wie es in unzähligen wikis20 vorgeführt wird, ist unter dem Druckparadigma nur sehr umständlich realisierbar. Die digitale Textproduktion entwickelt sich mehr und mehr hin zu einer Gemeinschaftsarbeit. Die Vorstellung vom ausschließlich rezipierenden Leser löst sich schon seit geraumer Zeit auf. Durch die Möglichkeiten des Internets vollzieht sich im praktischen Rahmen das, was von den poststrukturalisti- schen Denkern theoretisch vorgeformt wurde.
Die Grundlage dafür ist ein neues Verständnis von der Dauerhaftigkeit von Texten. Der gedruckte oder in anderer Form greifbar gemachte Text konnte für sich eine gewisse Stabilität und Unveränderbarkeit beanspruchen.21 Mit der fortschreitenden Entwicklung des Internets und der immer konsequenter werdenden Nutzung der zur Verfügung stehenden technischen Möglichkeiten ändert sich auch der Begriff, den wir heute von einem digitalen Text haben können. Begriffe wie „Textentstehung“ können darin nicht mehr vorkommen, da „Entstehung“ ein Fertigwerden impliziert. Während man in der Zeit des Druckparadigmas zwischen Textproduktion und Textrezeption unterscheiden konnte, ist das in der Zeit des digitalen Paradigmas nur noch für elektronische, statische Texte möglich.22 Für Hypertexte hingegen gilt das Prinzip der Textevolution, in der ein manifestes Fertigwerden nicht vorkommt. Damit ändert sich auch die Bedeutung der Speicherung und der Wiederholbarkeit einer Lektüre. Der Wikipedia-Eintrag zur kleinen Hexe kann zu zwei Zeitpunkten kaum noch als ein und derselbe Text bezeichnet werden. Zwar sind sämtliche Vorstufen durch Versionierung erhalten, allerdings ist es nur mit gewissem Aufwand möglich, denselben Text nach einer größeren Zeitspanne wieder aufzufinden. Die Veränderungen finden hier nicht auf Texturebene sondern auf Textebene statt.
Wie mit einer Textur eines Textes - und eben auch mit ihm selbst - umgegangen wird, ist nicht nur, wie oben dargestellt, gattungs- sondern auch medienspezifisch. Nach Hrachovec verlieren Bücher ihre „Kategorie des Alters“, wenn sie dem Papier enthoben werden.23 Einem digital repräsentierten Text fehle die direkte Erfahrbarkeit mit dem materiellen Zeichenträger. Selbstverständlich ist auch eine solche Textur materiell gespeichert - jedoch auf einem für den herkömmlichen Leser nicht erreichbaren Server. Diese Leerstelle bei der Erschließung eines Textes führt zu einem freieren Umgang mit ihnen: War es im Gutenberg-Zeitalter noch nötig, ein komplett neues Druckwerk herzustellen, um einen Text zu verändern, so genügen heute einige wenige Handgriffe.
Ein Text, dessen Textur in einem digitalen Netzwerk realisiert wird erhält eine Vielzahl bedeutsamer Funktionserweiterungen. Die wohl wichtigste dürfte die Vernetzung mit anderen Texturen durch Hyperlinks sein. Dadurch wird, wie George Landow bemerkt, eine solche Textur stets mit anderen Hypertexten kollaborieren: any document placed on any networked system that supports electronically linked materials potentially exists in collaboration with any and all other documents on that system; [...] any document electronically linked to any other document collaborates with it.24
Was von den Poststrukturalisten theoretisch vorgeformt wurde, wird mit der Medienerweiterung durch das Internet in ein praktisch angewandtes Modell überführt. Produktivität und Intertextualität können im Internet in einer Weise hervortreten, wie es im Druckzeitalter nicht möglich war. Ein Text existiert niemals für sich allein - er ist ohne eine intertextuelle Bindung zu anderen Texten nicht vorstellbar. Der Hypertext als Strukturprinzip digitaler Texturen stellt nun, anders als seine gedruckten Pendants, über Hyperlinks eine sichtbare Verknüpfung zu anderen Hypertexten her. Der Informationsgehalt eines einzelnen, um einen Hyperlink angereicherten Wortes oder Satzes, erweitert sich um die Informationen, die in der verlinkten Textur zu finden sind. Damit ermöglicht der Hypertext eine nicht-lineare Anordnung von Wissen in einem Maße, wie
es das gedruckte Medium nie vermochte. Es gibt im digitalen Zeitalter nicht mehr nur die Gleichzeitigkeit aller Textelemente in einem Text, sondern die potenzielle Gleichzeitigkeit des Wissens vieler Texte.
Dem Verlust der materiellen Erfahrbarkeit eines Textes stellt sich somit eine Funktionserweiterung entgegen. Diese Funktionen sind zumindest zum Teil an der Oberfläche abrufbar, allerdings zwischen Text und Textur auf einem digitalen Sediment codiert. Die Grundlage für solche Funktionserweiterungen ist die Einführung von markup languages wie etwa der Hypertext Markup Language (HTML), in welcher sich u.a. Hyperlinks schreiben lassen. Diese markup languages eröffnen dem Rezipienten die Möglichkeit, einen Text und die dahinter und daneben liegenden Elemente zujeder Zeit beliebig zu gestalten und zu verändern. Damit lösen sie einen Text von seinem im Gutenberg-Zeitalter unlösbaren Abhängigkeitsverhältnis zu seiner Speicherung. Es entsteht ein neues Verständnis von Textur als aktiv gestaltbare Präsentationsfläche eines Textes. In diesem Sinne seien markup languages konzipiert worden, wie Julia Flanders bemerkt. So heißt es bei ihr über die Standard Generalized Markup Language (SGML), von der HTML ein Dialekt ist:
SGML [...] was designed around the premise that content and presentation, structure and behavior, could and should be separated: that content and structure were permanent features of the text itself, while presentation and usage were contingent and temporary dimensions ofpublication.25
Die Wahrnehmung eines digital repräsentierten Textes erfolgt nicht nur über die sichtbare Textur, sondern auch über das dahinter liegenden digitalen Sedimente. Für digitale Editionen unterscheidet Klaus Prätor in diesem Sinne zwischen einer Oberfläche, einer Präsentations- und einer Archivschicht, auf denen sich jeweils Daten befinden, die durch Stylesheets als Verbindungsstücke der Schichten verbunden sind.26 Er nimmt in diesem Zusammenhang eine Unterscheidung zwischen Topologie und Navigation vor:
Beide verhalten sich wie Möglichkeit und Realisierung. Eine Topologie stellt potentielle Verbindungen von Dokumentknoten bereit, eine Navigation realisierte Verknüpfungen innerhalb eines Hyperdokuments oder eines anderen Informationssystems.27
Die Topologie sei dabei auf der Archivebene, die Navigation auf der Präsentationsebene zu finden.
Die Topologie beruht auf sachlicher Auszeichnung des Dokuments sowie auf Metainformation. Die Navigation hat die technische Realisierung der Nutzerinteraktion und die ästhetischen Anforderungen an sie zum Gegenstand.28
Die digitale Repräsentation eines Textes - oder mehr noch: einer Edition von Texten - kann ausgehend von derselben Archivebene erfolgen. So können verschiedenste Möglichkeitsformen eines Textes durch entsprechende Codierungen auf der Präsentationsebene und Programmierungen der verbindenden Stylesheets erfolgen. Kollaborateuren eröffnen sich durch diese Einsicht in das Innenleben eines Text-Textur-Gefüges zwei Arbeitsflächen, auf der in die Darstellung von Leser-Texturen eingegriffen werden kann.
Die Komplexität dieser Aufgaben hat Peter Robinson an einem einzelnen Wort illustriert. Sein Beispiel dreht sich um das Wort „Ma(r)king“, an dem er die Problematik der richtigen Codierung einer Textur erläutert. Die Klammer um das „r“ könne als Hinzufügung gesehen werden, aber auch als Streichung oder Korrektur, und je nach Deutung des Editors verschiedenartig mit dem tag set der Text Encoding Initiative (TEI) ausgezeichnet werden.29 Jede Möglichkeitsform müsste als gleichwertig angesehen werden, weil nicht zu entscheiden ist, was tatsächlich „richtig“ ist. Es wäre der klassische Fall, wo ein Nebeneinander aller Codierungen, deren Texturen sich nicht unterscheiden würden, einer Entscheidung für eine Form vorzuziehen wäre. Texturen tragen auf ihrer unterhalb liegenden Sedimentschicht Funktionen in sich, die erhalten bleiben muss, wiejede andere alternative Textur eines Textes. Denn eine Entscheidung, welche Codierung vorzuziehen ist, kann nie endgültig getroffen werden. Zu stark ist sie abhängig von den Interessen der Rezipienten.
Die Rolle des Editors ist allerdings keine eröffnende, sondern eine beschränkende Rolle bei der Texterschließung. Er kann nur sinnvoll nach eigenem Interesse und Kenntnisstand codieren. Nachvollziehbar wird das, wenn man sich die eingangs erwähnten Verse Heines genauer betrachtet. Einmal könnte man sie in einer Basisauszeichnung für ein allgemeines Publikum codieren, welches von einem Hypertext keine weiteren Funktionen fordert als seine Lesbarkeit.30
<lg>
<l>Die Scheere klirrt in seiner Hand,</l>
<lb/>
<l>Es rückt der wilde Geselle</l>
<lb/>
<l>Dir auf den Leib - er schneidet ins Fleisch -</l>
<lb/>
<l>Es war die beste Stelle.</l>
</lg>
Der Text wäre hier mit dem <lg>-tag („line group“) als Strophe gekennzeichnet, seine Verse mit dem <l>-tag („line“) umgeben. Getrennt wären die einzelnen Verse durch den <lb/>-tag („line break“). Diese recht nüchterne Form der Auszeichnung würde es einem Stylesheet ermöglichen, den Text in die eingangs gezeigte Form zu bringen.
Sobald das Interesse an der Struktur eines Textes größer wird, müsste dies auch in der Codierung berücksichtigt werden. Man könnte für an Reim und Metrik Interessierte wie folgt codieren:
<lg rhyme=“-b-b“>
<l met=“ - + - + - + - +“>Die Scheere klirrt in seiner Hand,</l>
<lb/>
<l met=“- + - + — + -“>Es rückt der wilde Geselle</l>
<lb/>
<l met=“- + - + - + — +“>Dir auf den Leib - er schneidet ins Fleisch -</l>
<lb/>
<l met=“- + - + - + -“>Es war die beste Stelle.</l>
</lg>
Diese Form der Codierung gibt Aufschluss über Hebungen und Senkungen sowie über das Reimschema der Strophe. Im Kontext einer digitalen Edition, welche sämtliche Gedichte Heines codiert bereitstellt, könnte durch eine Suchabfrage z.B. sämtliche Volksliedstrophen aus seinem Gesamtwerk ausgelesen und dargestellt werden. Ohne in irgendeiner Form die semantische und syntaktische Struktur zu verändern, würde auf diese Weise eine Textur hergestellt, die einen größeren Funktionsumfang hat als die Basisauszeichnung.
Ein Historiker wird in dieser Codierung aber womöglich nicht die Hilfestellung finden, die ihm die Analyse des Gesamtwerks Heines erleichtern würde. Wahrscheinlich wäre er weniger an Reim und Metrik, dafür aber umso mehr an historischen Persönlichkeiten und veralteten Schreibweisen interessiert. Ein Text nach dieser Maßgabe könnte in dieser Form codiert sein:
<lg>
<l>Die <orig reg=“Schere“>Scheere</orig> klirrt in seiner Hand,</l>
<lb/>
<l>Es rückt <persName xml:id=“FLHoff‘>der wilde Geselle</persName></l>
<lb/>
<l>Dir auf den Leib - er schneidet ins Fleisch -</l>
<lb/>
<l>Es war die beste Stelle.</l>
</lg>
In dieser Form der Codierung wäre das Auftreten Friedrich Lorenz Hoffmanns mit dem <persName>-tag („person name“) gekennzeichnet, obwohl er hier nur als „wilder Geselle“ in Erscheinung tritt. Die Vergabe des Identifikationsmarkers „FLHoff“ macht es möglich, durch Suchoperationen sämtliche im Gesamtwerk Heines erscheinende Vorkommnisse seiner Person auszulesen. Die Kennzeichnung des Wortes „Scheere“ mit dem <orig>-tag („original“) und einer Regularisierungsform im @reg-Attribut („regularized“) macht eine Suche im Gesamtwerk Heines nach dem Wort „Schere“ möglich und würde als Funde sowohl „Scheere“ als auch „Schäre“ oder „Schehre“ ausliefern.
Die drei Beispiele sollen eine Ahnung davon vermitteln, was alles zwischen Text und Textur codiert werden kann. Sie haben in ihrer jeweiligen Darbietungsform einen unterschiedlichen Funktionsumfang, wenn auch der optische Eindruck in allen drei Fällen derselbe sein wird. Ihre Codierung einem einzigen Editor zu überlassen, ist deswegen ungenügend. Dieser müsste, um allen Interessen gerecht zu werden, jedes einzelne Textphänomen auszeichnen und in Fällen wie des oben dargestellten Falles um das Wort „ma(r)king“ sogar Mehrfachauszeichnungen in ein und derselben Sedimentschicht vornehmen. Dies würde zu einem „over-encoding“ führen, wie Robinson anmahnt31, und kann für eine wissenschaftliche Edition keine Option sein. Stattdessen sollte der umfangreich verfügbare digitale Speicherplatz für die Darstellung mehrerer gleichberechtigter Codierungen genutzt werden. Da es einem einzelnen Editor nicht möglich sein wird, alle Interessen bedienen zu können, ist die Abgabe dieser Aufgabe an diejenigen, die mit einem Text arbeiten sollen, die logische Konsequenz.
[...]
1 Heinrich Heine: Deutschland. Ein Wintermährchen. In: DHA, Bd. 4, S. 89-157, hier: S. 154.
2 Vgl. Stellungnahme des Thienemann Verlags. <http://cms.thienemann.de/index.php? option=com_content&view=article&id=637:sprachliche-modernisierung-von- klassikern&catid=15:news-artikel&Itemid=29>
3 Vgl. z.B. Greiner (2013), S. 13f.
4 Barthes (1967), S. 185.
5 Ebd., S. 192.
6 Vgl. Klaus Willbergs Stellungnahme: <http://cms.thienemann.de/index.php? option=com_content&view=article&id=642:klaus-willberg-zu-den-reaktionen-auf-die- sprachliche-modemisierung&catid=15:news-artikel&Itemid=29>
7 Preußler (1957), S. 86.
8 Ebd.
9 Es wäre selbstverständlich zu fragen, was genau ein falsches Verständnis ausmacht. „Richtig“ und „Falsch“ sind lediglich Kategorien, die Diskursteilnehmer auf Wissenselemente (z.B. Texte) anwenden, um sie in ihre Diskurse einzubinden bzw. auszustoßen. Ein „Falsch“ wäre nur anzuwenden, wenn ein Wissenselement in einem weiten Interpretationsrahmen betrachtet wird und selbst dieser gesprengt wird. Wer z.B in Goethes Erlkönig die Mahnung vor den Gefahren des Atomzeitalters hinein liest, der hat objektiv gesehen eine falsche Interpretation des Textes vorgenommen.
10 Vgl. Baßler (2007), S. 356f.
11 Martens (1989),S.4.
12 Ebd., S. 13.
13 Vgl. Hay (1988), S. 68. und S. 75.
14 Einen Sonderfall stellen Schriften wie z.B. die minoische Linearschrift A dar, zu der bis heute keine Entschlüsselung gefunden werden konnte, wodurch sie den Text noch immer für sich behält. Es ist einer der seltenen Fälle, wo eine Textur ohne Text auftritt und man trotzdem davon ausgehen kann, dass ein Text in ihr codiert vorliegt.
15 Die Arbeitsweise Friedrich Hölderlins ist dafür ein klassisches Beispiel. Er entwickelte seine Texturen aus einzelnen „Gedankenfetzen“ heraus. Manche seiner Manuskripte vermitteln den Eindruck, als gäbe es für ihn keine „fertige“ Textur.
16 Sahle (2013),S.28.
17 Vgl. Tergan (1993), S. 16.
18 Martens (1989), S. 4.
19 Vgl. die Versionsgeschichte des Wikipedia-Eintrags zur „kleinen Hexe“ nach der Bearbeitung durch „Concord“, 21. Februar 2013, 17:20: <de.wikipedia.org/wiki/Die_kleine_Hexe>.
20 Nicht nur Wikipedia benutzt als Content Management System das Mediawiki. Auch unzählige weitere Projekte, die auf kollaboratives Erstellen und Teilen von Wissen aus sind, nutzen diese kostenfrei zur Verfügung stehende Software.
21 Vgl. Hrachovec (1999), von „Klassische gedruckte Mitteilungen...“ bis „... Druckwerk herzustellen.“
22 Texte im pdf-Format wären dafür ein Beispiel. Es gilt aber insgesamt für alle digitalen Texte, die keine Bearbeitung zulassen.
23 Vgl. Hrachovec (1999).
24 George Landow, zit. nach Kuhlen (2004).
25 Flanders (2005), S. 60.
26 Vgl. Prätor (2007), S. 241f.
27 Prätor (2007), S. 242.
28 Ebd., S. 243.
29 Vgl. Robinson (2000), S. 309.
30 Bei allen Beispielen handelt es sich nicht um valides XML. Es werden lediglich Ausschnitte aus XML-Dokumenten dargestellt.
31 Vgl. Robinson (2000), S.310 und 315.
- Quote paper
- Patrick Ewald (Author), 2013, Kollaboratives Arbeiten an digitalen wissenschaftlichen Editionen. Alternative Methoden des Edierens im Web 2.0, Munich, GRIN Verlag, https://www.grin.com/document/320263
-
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X. -
Upload your own papers! Earn money and win an iPhone X.