$Id: textwissenschaft_des_digitalen.html,v 1.2 2002/03/25 16:32:00 paragram Exp $

Für eine Textwissenschaft des Digitalen

Florian Cramer

1.10.2001

Abstract

Alle digitalen Datenströme sind codiert, alles Multimediale des Computers ist textuell gespeichert und wird textuell prozessiert, und schließlich sind auch die Prozessoren dieser Texte selbst maschinell ausgeführter Text. Textwissenschaftliche Methodik ist deshalb nicht obsolet, sondern höchst aktuell für die Analyse digitaler Zeichensysteme. Zu fragen ist, ob der Begriff "Medium" den Netzcomputer überhaupt adäquat beschreibt, und wie sinnvoll es ist, digitale Zeichen mit medientheoretischen Schlagwörtern wie "Virtualität" und "Interaktivität" zu belegen.

1  Computer und Internet basieren auf Code, d.h. auf Text. Auch alles "Multimediale" des Computers ist textuell gespeichert und prozessiert.

Computer und Internet sind die ersten "neuen Medien" oder vielmehr Zeichentechnologien der Moderne, die auf einer textuellen Codierung basieren, nämlich dem Alphabet von Null und Eins. Der Begriff des "Mediums" ist hier allerdings nicht unproblematisch. Weil der Computer eine Meta- Maschine ist, die alle anderen Maschinen in sich nachbilden kann - und damit auch deren Untermenge der technischen Medien -, wäre es ein Trugschluß, den Computer nur von dieser Untermenge her zu denken oder gar nur anhand dessen zu analysieren, was auf Bildschirmen zu sehen, aus Lautsprechern zu hören und mit der Maus anzuklicken ist. Die audiovisuellen Ausgabemedien des Computers sind arbiträr und austauschbar, die Binärschrift hingegen ist seine Konstante.

Bilder und Töne sind im Computer Code-Text. Der Computer kennt weder audiovisuelle oder multimediale Information, noch eine audiovisuelle Syntax. Nichts wäre falscher, als Computer als Bildmedien aufzufassen. Erstens ist ein Bild im Computer zu Codesequenz gerastert und wird erst auf einem analogen Ausgabemedium zum Bild, zweitens verhelfen Bildanzeigen Computern nur scheinbar zu einer visuellen Logik. Ein Desktop- Bildsymbol einer graphischen Betriebssystem-Oberfläche z.B. ist bloß ein binärer Schalter, der eine Kette textueller Befehle auslöst. Die ikonische Bildinformation selbst ist im Computer kontingent. Man kann die gesammelten Werke Goethes auf CD-ROM nach dem Wort "Vogel" durchsuchen, nicht aber eine Sammlung von Bilddateien nach Abbildern von Vögeln oder eine Sammlung von Tondateien nach Vogelstimmen; es sei denn, man setzt aufwendige Muserterkennungsalgorithmen oder manuelle Indizierungen ein, die aber auch nichts anderes tun, als Text in Text zu übersetzen, nämlich die schriftgerasterten Bild- und Toninformationen in Textbeschreibungen.

Kurzum: Es gibt im Computer nichts als Schrift, woraus folgt, daß Schrift, Text der Schlüssel zum strukturellen Verständnis des Computers und der Digitalisierung analoger Zeichen ist. Der Prozeß der Digitalisierung von Zeichen ist unzweifelhaft der größte Verschriftlichungsprozeß in der Geschichte der Menschheit.

2  Eine Literaturwissenschaft des Internets verkennt ihre eigenen methodischen Vorteile, wenn sie glaubt, ihre traditionellen Kompetenzen seien obsolet, und sie müsse sich als Medien- oder Kulturwissenschaft neu erfinden.

Im Gegenteil müssen Medien-, Kultur- und Kunstwissenschaftler mehr denn je auch zu Textwissenschaftlern und Codierungsexperten werden, wenn sie sich mit digitalisierten Zeichen beschäftigen. Strenggenommen gibt es gar keine digitalen Medien, sondern nur digitale Information; digitale Information, die auf analogen - optischen, elektrischen, magnetischen und mechanischen - Medien gespeichert und durch sie übertragen wird. Wie Programmierhandbücher und auf Papier gedruckter Computer-Programmcode zeigen, gehört selbstverständlich auch das Buch zu diesen Medien digitaler Information, so daß sich Debatten über das Ende des Buchs und der Schrift im Zeitalter sogenannter "neuen Medien" damit eigentlich erübrigen sollten. An diesen Debatten, aber auch schon am Begriff der "neuen Medien" zeigt sich ein Strukturproblem der Medienwissenschaften: Daß nämlich ein seit Kracauer und McLuhan an analogen Massenmedien wie Film, Funk und Fernsehen geschultes Begriffs- und Analyseinstrumentarium untauglich auf Computer und digitale Information projiziert werden.

3  Begriffe wie "Nonlinearität" und "Interaktivität" sind Schein-Neuerungen für das Verständnis von Text.

Die Behauptung, elektronische Texte seien "nonlinear" oder "interaktiv" fällt in ihrer negativen Implikation, nämlich linearer und interaktionsfreier Text hinter die moderne Texthermeneutik sowie hinter strukturalistische und rezeptionsästhetische Literaturtheorien des letzten Jahrhunderts zurück. Sie tut so, als gäbe es nur Syntagmen und keine Paradigmen, kein assoziatives Gedächtnis, ja, nicht einmal einen souveränen und mit eigener Imagination und Selektionsvermögen versehenen Leser. Zugleich verschweigt sie, daß auch elektronische Zettelkasten-Texte in einer Reihenfolge und linearen Zeitspanne gelesen werden und daß "interaktive" Textspiele, nicht anders als konventionell schriftlich notierte Textspiele und Partituren, aus einem invariablen und sequentiellen Code von Regeln bestehen.

In Film und Fernsehen hingegen lassen sich mit "Interaktivität" und "Nonlinearität" in der Tat technische Neuerungen beschreiben, die zum Teil durch Digitalisierung bedingt sind. Hieran zeigt sich abermals, wie problematisch die Anwendung medienwissenschaftlicher Topoi auf Literatur und digitale Zeichensysteme ist.

4  "Text" von "Hypertext" zu unterscheiden, ist eine computertechnische Konvention, die nicht auf einen literaturwissenschaftlichen Textbegriff übertragbar ist.

"Hypertext" beschreibt in der Informatik ein Datenbankmodell der assoziativen Organisation von Information, im Unterschied etwas zu hierarchischen Topologien (wie z.B. der Ordnerstruktur eines Dateisystems) oder zur tabellarischen Anordnung (wie z.B. in einer Adreßdatenbank).

Wie schon die Projektion von "Interaktivität" und "Nonlinearität" vom Film auf die Literatur bedeutet auch der "Hypertext" für die Literatur eine Scheinneuerung, die einen künstlich simplifizierte Textbegriff voraussetzt. Indizes, Querverweise, Fußnoten und selbst Seitenzahlen sind "hypertextuelle" Strukturen, und Werke wie die Bibel, Gedichtsammlungen oder Enzyklopädien sind "Hypertexte", die assoziativ und sprunghaft gelesen werden. Aus intertextualitätstheoretischer Sicht ist eine Unterscheidung von "Text" und "Hypertext" ohnehin fragwürdig, wenn jeder Text - jedes "Gewebe" - seine eigenen Querverweise knüpft.

5  Digitaler Code ist nicht manipulierbarer, rhetorischer oder "virtueller", als es jeder Text schon immer war.

Diese These betrifft den Titel dieser Sektion des Germanistentags, "Virtualisierung". Im umgangssprachlichen Gebrauch scheint mir "virtuelle" schlicht ein Synonym von "künstlich" zu sein; und künstlich zu sein bedeutet für Literatur und Kunst gewiß keine Neuerung.

In der Computertechnik steht "virtuell" sehr präzise für die Modellierung eines Hardware-Geräts per Software-Code. "Virtueller Speicher" ist physisch nicht vorhandener Chipspeicher, der per Software auf einen Festplattenspeicher ausgelagert wird. (Ein "virtual device" [virtuelles Gerät] ist eine Schnittstelle im Betriebssystem, der eine Hardware- Schnittstelle korrespondieren kann, aber nicht muß. Im Betriebssystem Unix z.B. löscht man Daten, indem man sie auf das virtuelle "Nullgerät" verschiebt.)

Da Sprache und Literatur selbst nur Code besitzen und keine Geräte, gibt es in ihnen nichts zusätzlich zu virtualisieren. Literatur ist per se ein System der "Virtualisierung" durch sprachliche Imagination und hat dies immer auch reflektiert; an Don Quijote und seinem Ritter-Datenhelm zum Beispiel oder an Werther und Lotte, für die sich das Naturschauspiel eines Gewitters zum bloßen Signifikanten für das Signifikat "Klopstock" virtualisiert hat.

Wenn also digitaler Code qua seiner Algorithmik zwar Maschinen virtualisieren kann, alles andere aber gewiß nicht besser als literarische Sprache, wird durch ihn Literatur nicht virtueller oder rhetorischer.

6  Allerdings werden andere Medien, Bild- und Tonaufzeichnungen zum Beispiel, durch digitale Codierung rhetorisiert und textuell manipulierbar.

Da ich diese These schon zu begründen versucht habe, möchte ich sie nur noch durch ein Praxisbeispiel illustrieren: Das Programm "Photoshop" ist heute das Standarwerkzeug von Bildredaktionen, Verlagen und Setzereien zur nachträglichen Bearbeitung digitalisierter Bilder. Von Farb- und Größenveränderungen abgesehen, erlaubt es praktisch unbegrenzte Manipulationen von Bildmaterial bis in die Mikrostruktur des kleinsten Bildpunkts. Diese Bildbearbeitungen sind jedoch faktisch textuell, weil sie die binäre Codierung des Bilds manipulieren. Die schon von Textverarbeitungsprogrammer her bekannten Operationen des Ausschneidens, Kopierens und Filters laufen hier lediglich auf einem Code ab, der durch analoge Ausgabegeräte bildhaft gemacht wird.

Photoshop ist also ein rhetorischer Prozessor, der die klassischen Techniken des Schreibens und Redigierens auf verschriftlichte Bilder überträgt und durch diese Manipulation eben ihre digitale Schriftlichkeit und Rhetorizität exponiert. (Nicht anders verhält es sich bei digitalen "special effects" im Film.)

7  Vernetzte Computer sind nicht bloß Medien, sondern universelle semiotische Maschinen.

Stand "Medium" einst, ähnlich dem Äther in der Physik des 19. Jahrhunderts, für die mittlere Strecke zwischen Sender und Empfänger, so scheint sich seine Definition metonymisch verschoben zu haben zu einem Begriff für Zeichen-Technologien insgesamt bzw. zum Sammelbegriff für Institutionen, die diese Technologien redaktionell programmieren.

Wenn man, was sich für sinnvoll halte, Medium als Mittelstrecke der Kommunikation zwischen Sendern und Empfängern definiert, läßt sich auch zeichentheoretisch belegen, daß Computer mehr als nur Medien sind und dennoch in ihrer Komplexität textwissenschaftlich analysierbar: Computer übertragen nicht nur Daten, sondern schreiben und interpretieren sie auch prozeß- bzw. schriftgesteuert, in den Grenzen der von den Programmierern implementierten formalen Regeln. Für Literaturwissenschaftler ergeben sich daraus zwei interessante Beobachtungsperspektiven:

8  Das Neue am digitalen Text ist nicht "Hypertextualität" oder "Virtualisierung", sondern die Tatsache, daß er sich selbst maschinell ausführen, replizieren und modifizieren kann.

Dies stellt die Literaturwissenschaft vor zwei interessante Probleme:

  1. müssen Texttheorien und Poetologien die Mathematik und algorithmische Operationen mitreflektieren.

    (Dies tat im 17. Jahrhundert bereits der Dichter, Poetiker und Sprachforscher Georg Philipp Harsdörffer);

  2. muß diese Texttheorie reflektieren, daß auch die Prozessierung von Schrift durch Schrift geschieht, daß Schrift Prozessoren und Maschinen emulieren kann und als solche zugleich formal und performativ ist.

(Germanistentag 2001, Erlangen)

c/o Freie Universität Berlin, Seminar für Allgemeine und Vergleichende Literaturwissenschaft, Hüttenweg 9, D-14195 Berlin, cantsin@zedat.fu-berlin.de