Warum wurde die Bibliothek von Alexandria zur bedeutendsten Textsammlung des Altertums? Weil man sich hier Manuskripte aus aller Welt beschaffte und dabei einen eher laxen Umgang mit deren Eigentümern pflegte. So sollen die Staatshandschriften der drei großen Tragiker Aischylos, Sophokles und Euripides gegen eine Sicherheit von 15 Silbertalenten zur Abschrift aus Athen ausgeliehen, unter Verzicht auf die Rückgabe des Geldes aber nur Kopien zurückgegeben worden sein. Die im Hafen von Alexandria liegenden Schiffe wurden nach interessanten Papyrus-Rollen durchsucht, die man den Besitzern abnahm und in Form von Abschriften zurückerstattete.
Der Zwang zur Freiheit: Open Access bietet großartige Chancen für Wissenschaftler, Autoren und Verleger
Auch wenn dieser recht sorglose Umgang mit fremdem Gut zu denken gibt, vollzog sich der nachfolgende Umgang mit den so erworbenen Trägern der kulturellen Überlieferung unter anspruchsvollen Bedingungen: In dem von König Ptolemaios I. eingerichteten Museion wurde durch kritischen Vergleich von verschiedenen Varianten zunächst der originale Wortlaut von Texten rekonstruiert, um verbindliche Ausgaben, oft versehen mit wissenschaftlichen Kommentaren, zu erstellen. Resultat dieser Arbeit alexandrinischer Philologen seit dem zweiten vorchristlichen Jahrhundert sind nicht nur die mehr oder weniger einheitlichen Texte antiker Schriftsteller, die bis heute eine Grundlage des literarischen Weltkulturerbes darstellen. Entwickelt wurden auch Techniken des kritischen Umgangs mit Texten, die in editionsphilologischen Instrumentarien wie Transkription und Kollation, Rezension und Emendation bis in die Gegenwart gepflegt werden. Vor allem aber bilden sich Formen einer Aufmerksamkeit heraus, die intensive Beobachtungen an einzelnen Details wie an Zusammenhängen ermöglicht und vorantreibt. Eine wichtige soziale Voraussetzung für diese Textumgangsformen ist Zeit, die den Philologen des alexandrinischen Museion in besonderer Weise zur Verfügung steht: Die ausgewählten Gelehrten dürfen bei freier Kost und Logis ihren Forschungen nachgehen, erhalten ein festes Gehalt und sind von Steuern befreit. Paradiesisch.
Auch heute stehen vermeintlich risikobereite Unternehmen bereit, die geistiges Eigentum kapern und vernetzten Nutzern zur Verfügung stellen. Neben den Aktivitäten des Internet-Unternehmens Google, das nach Schätzungen der VG Wort seit 2004 etwa 7 Millionen Titel elektronisch archiviert hat, gibt es die nicht damit zu verwechselnde Initiative von Wissenschaftlern und Forschungsförderungsinstitutionen, neue Wege in der Publikation ihrer Ergebnisse zu beschreiten. Die Befürworter von „Open Access“ sehen in diesem Publikationsmodell die Gewähr für den freien, demokratischen und barrierelosen Zugang zu einem Wissen, das aufgrund der staatlichen Subventionierung von Wissenschaft und Forschung grundsätzlich schon Gemeingut ist (siehe den nebenstehenden Artikel). Wie aber steht es um die Aneignung und Verarbeitung der so zur Verfügung gestellten wissenschaftlichen Texte?
Zur Beantwortung dieser Frage ist kurz an die technischen Konditionen und homogenisierenden Voraussetzungen digitaler Formate zu erinnern. Elektronische Präsentations- und Distributionsmedien basieren auf codierten Signalströmen. Alles, was an Computern produziert wird und also in binären Codierungen vorliegt, kann in Sekundenschnelle um den Erdball gesandt und ebenso global empfangen werden. Zugleich lassen sich Werke der Wissenschaft und der Kunst aus früheren Epochen retrospektiv digitalisieren und online verfügbar machen – womit ein Wissensschatz entsteht, gegen den sich die geschätzten 700.000 Schriftrollen der Bibliothek von Alexandria vergleichsweise dürftig ausnehmen.
Doch der Schein trügt. Zwar können die im Internet versammelten Wort- und Bildmengen beeindrucken: Nach eigenen Angaben durchsucht allein die Suchmaschine Google regelmäßig acht Milliarden Seiten (die Zahl steigt stetig). Zum einen aber sind diese Informationsmengen im Netz noch kein Wissen, sondern Daten. Wissen, so wiederholen es seine Erforscher und Historiker immer wieder, ist an Personen und Strukturen gebunden, an Fragen nach dem Sinn und der Bewertung von Beobachtungen, Geschehnissen, Mitteilungen. Wissen umfasst Regeln zur Selektion und Kombination von Daten sowie zum Teil langwierig zu erwerbende Kompetenzen zur Anwendung dieser Regeln in veränderlichen Kontexten. Erwerb und Anwendung von Wissen setzen eine Ressource voraus, die durch sekundenschnell abgearbeitete Algorithmen paradoxerweise aber immer mehr verknappt wird. Vereinfacht gesagt: Wissen benötigt und verbraucht Zeit. Zeit, um einen Text oder ein Bild in seiner Gesamtheit wie in seinen Details wahrzunehmen. Zeit, um relevante von irrelevanten Aspekten zu unterscheiden. Zeit, um eigene Positionen zu Fragen zu entwickeln und diese zu formulieren.
Atomisierte Lektüre
Schickt man elektronische Suchroboter mit schlagwortartig verkürzten Fragestellungen durch das Internet, kehren sie in Sekundenschnelle mit Stellenangaben und Satzfetzen zurück. Statt sich nun in diese Informationen zu versenken – deren Ordnung eine Suchmaschine mit schwer verständlichen Relevanzkriterien erstellt – werden meistens nur die ersten der zumeist zahlreichen „Treffer“ überflogen bzw. mit Augen oder Suchbefehlen „gescannt“, ehe die Entscheidung fällt, den Text auszudrucken oder abzuspeichern. Diese Umgangsformen einer beschleunigten Flüchtigkeit stellen noch kein neues Problem dar: Schon beim Übergang von der intensiven zur extensiven Lektüre in der zweiten Hälfte des 18. Jahrhunderts, als Wissensbereiche expandieren und sich mit der Formierung eines literarischen Marktes die Angebote vervielfältigen, werden Wandlungen im Aufmerksamkeitsverhalten konstatiert und mit Stichworten wie „Lesesucht“ und „Romanfieber“ konzeptualisiert.
Neu und zu bedenken scheinen dagegen die von empirischen Untersuchungen bestätigten Rezeptions- und Produktionspraktiken insbesondere unter Schülern und Studenten, die eine atomisierte und punktuelle Lektüre mit den Collage-Techniken von Textverarbeitungsprogrammen verbinden. Ergebnis sind Kompilationen, die ihre Abkunft von oft selbst nur zusammengestellten WWW-Seiten nicht verbergen. Diese Entwicklungen sind weder zu beklagen, noch den jugendlichen Nutzern des WWW anzulasten. Sie korrespondieren vielmehr der Logik eines technologischen Fortschritts, der keine Inhalte entwickelt (das müssen denkende Individuen übernehmen), sondern immer perfektere Verfahren zu deren technischer Reproduzierbarkeit bereitstellt.
Damit verbunden ist ein weiterer Umstand. Was den Datenströmen des Internet noch nicht abzuschätzende Konsequenzen verleiht, ist neben einer sich verflüchtigenden Aufmerksamkeit der gleichfalls mehrfach dimensionierte Prozess eines Autoritätsverlustes, der Werte wie Individualität und Originalität in technische Fertigkeiten (Recherche und Selektion, Kopie und Kombination) verwandelt und aus dem knappen Gut Wissen einen scheinbar überreich sprudelnden Pool von Informationen macht.
Anders formuliert: Während die speichertechnischen Beschränkungen der Medien vor dem Digitalzeitalter eine Auswahl von zu aktualisierenden Informationen erzwangen, zu dessen Autorisierung und Bearbeitung immer subtilere Strategien und differenziertere Organe entwickelt wurden, erlauben die Potentiale des WWW die uneingeschränkte Partizipation aller mit Internet-Zugang ausgestatteten Nutzer – und zwar nicht nur in rezeptiver, sondern auch in produktiver Hinsicht. Die Resultate einer solchen Entgrenzung des vormals knappen Gutes Wissen lassen sich einerseits an den zur Zeit etwa 112 Millionen Internet-Blogs studieren. Ein immer wieder herausgestelltes Ergebnis der digitalen Demokratisierung von Wissen ist andererseits die Online-Enzyklopädie Wikipedia, die Erkenntnis jedoch weniger als systematisch zu gewinnendes Gut, sondern eher als Aggregat engagiert erstellter Beiträge präsentiert – und zwar qualitativ heterogen und weitgehend ohne übergeordnete Steuerungs- und Verbesserungsmechanismen.
Die Einführung „gesichteter Artikel“ reagiert auf die unbefriedigende Situation eines großartigen Projekts. Doch wird die signifikante Hebung von Standards für Wissen im Netz ohne die stabilisierende und dirigierende Macht von Institutionen nur schwer zu realisieren sein. Solange aber die Gratis-Mentalität von Internet-Nutzern die Chancen eines Ausgleichs für investierte Mühen vereitelt, wird da wohl wenig passieren. Und das bleibt zu bedauern.
Eine letzte Dimension von Wissen unter den Bedingungen seiner digitalen Reproduzierbarkeit betrifft seine Grenzen. Wie andere kulturelle Reflexionsformen unterliegt Wissen einer zeitlichen Dynamik; es kann entstehen und vergessen werden; lässt sich wiederentdecken oder gewinnt unter veränderten Umständen besondere Relevanz... Zugleich umschließt es immer auch reflexive Komponenten zur Bestimmung und Bewertung der eigenen Qualität. Die schiere Menge der im Netz versammelten Informationen im Verbund mit technischen Recherche-, Selektions- und Rekombinationsmöglichkeiten suggeriert dagegen Grenzenlosigkeit und Gleichzeitigkeit eines Wissens, das kein Außerhalb mehr zu kennen scheint: Was sich nicht googeln lässt, existiert nicht.
Lohnende Investitionen
An der weiteren Ausgestaltung dieses virtuell unabschließbaren Raumes arbeiten nicht nur die Entwickler des Suchmaschinen-Monopolisten. Auch die Pioniere von „Open Access“ geben mit ihrer Zusicherung, wissenschaftliche Inhalte ohne Zeitverzug der Sofort-Rezeption durch weltweit verbundene Forscher zuzuführen, ein Leistungsversprechen ab, das den Druck auf Wissensproduzenten nicht verringern dürfte und in seinen Folgen für die Qualität von Wissen noch nicht abzuschätzen ist. Wenn Texte ohne Begutachtung und zeitliche Distanz im Netz veröffentlicht werden können, dann fehlen (erst einmal) limitierende Instanzen, die eine Qualitätssicherung verbürgen.
Angesichts dieser Entgrenzungslogik scheinen zwei Entwicklungen möglich. Einerseits ist zu befürchten, dass sich einmal mehr Strategien zum Gewinn begrenzter Aufmerksamkeit durch Überbietung durchsetzen: Um in den vervielfältigten virtuellen Welten überhaupt gesehen oder gehört zu werden, muss besonders rasch publiziert, besonders laut gesprochen oder besonders steil argumentiert werden. Andererseits haben bisherige Kultur- und Medienentwicklung gezeigt, dass für entstehende Probleme des Umgangs mit neuen Darstellungsweisen und Speicherkapazitäten immer auch Lösungen gefunden wurden, die eben nicht in der Verdrängung alter durch neue Medien bestanden, sondern in einem Wandel der Formen und Funktionsweisen – und zwar für die kulturellen Reflexionsformen im Ganzen wie in ihren Bereichen. Eines aber bleibt gewiss: die Illusion, über kopierbare Texte oder heruntergeladene Grafiken als rasch konsumierbare Träger von Erkenntnis verfügen zu können.
Doch Wissen ist und bleibt mehr als ein Recherche-Ergebnis und kann nicht durch bloß geschickte Suchanfragen erworben werden. Wie ästhetische Erfahrung sind intellektuelle Einsichten an die Investition von Zeit und Aufmerksamkeit gebunden. Und sie lassen sich nur gewinnen, wenn Fragen wieder und wieder anders aufgenommen und beantwortet, reformuliert und im dialogischen Prozess geklärt werden können – was angesichts des Diktats technologischer Beschleunigung und des fortwährenden Geredes von Effizienz eine immer größere Herausforderung darstellt.
Ralf Klausnitzer lehrt Neuere deutsche Literatur an der Humboldt-Universität zu Berlin
Zur Abbildung: Cornelia Sollfrank benutzt zur Herstellung ihrer Bilder von ihr selbst entwickelte Computerprogramme: sogenannte Netzkunstgeneratoren. Unsere Abbildung zeigt ein Werk aus der Serie anonymous_warhol-flowers. Durch die Eingabe eines Künstlernamens und eines Titels wird Material aus dem Internet ausgewählt und durch einen über Zufallsgeneratoren gesteuerten Bildbearbeitungsprozess zu einem neuen Bild collagiert, Mit diesen Collagen schreibt die 48-jährige Künstlerin die von Andy Warhol perfektionierte überindividuelle Bildproduktion für das digitale Zeitalter fort und wird Teil einer künstlerischen Störung von Urheberrechts-, Originalitäts- und Autorschaftskonzepten.
Was ist Ihre Meinung?
Kommentare einblendenDiskutieren Sie mit.