t t Id: opencontent.tex,v 1.36 2002/06/04 15:27:11 paragram Exp

Vom freien Gebrauch von Nullen und Einsen - ,,Open Content`` und Freie Software

Florian Cramer

4.5.2002

Ein Beispiel von vielen: Zur Zeit werden analoge VHS-Videocassetten durch die digitale DVD abgelöst. Die technischen Vorteile sind dieselben wie beim Systemwechsel von Audiocassetten zur Musik-CD vor mehr als zehn Jahren, mit einer künstlichen Einschränkung allerdings. Jeder DVD-Film enthält einen Regionalcode, der dafür sorgt, daß zum Beispiel eine in den USA gekaufte DVD nur in Nordamerika und eine in Europa gekaufte DVD nur in Europa abgespielt werden kann. Damit soll verhindert werden, daß etwa ein amerikanischer Film aus den USA importiert wird, bevor er in Europa in die Kinos kommt, ungeachtet der Tatsache, daß die Original-DVD auch Jahre später nicht in Europa abspielbar sein wird. Man stelle sich vor, ein in den USA gekauftes Buch würde durch einen technischen Selbstzerstörungsautomatismus in dem Moment seine Seiten schwärzen, da man mit ihm den Atlantik überquert.

Vor welche Probleme die Reginalcodierung von DVD-Filmen Bibliotheken, Sammlungen und Filmmuseen schon heute stellt, erübrigt sich deshalb weiter auszuführen. Dabei ist diese Codierung nur eine technisch primitive Vorstufe von digitalen Medien, die, um Kopien zu verhindern, individuell für das jeweilige Abspielgerät ihres Käufers oder Abonnenten codiert werden. Diese Technik firmiert heute unter dem euphemistischen Namen ,,Digital Rights Management (DRM)``. Das Buch, das sich beim Atlantiküberflug einschwärzt, ist in Gestalt von E-Books mit ,,Digital Rights Management`` bereits Realität. Auf Grund von Urheberrechtsnovellen ist in den USA, demnächst auch in der Europäischen Union, nicht nur der urheberrechtlich illegale Vertrieb von Medien strafbar, sondern bereits die Bereitstellung von Technologien, die solch einen unerlaubten Vertrieb ermöglichen. Auf der Grundlage dieses neuen Rechts wurde in den USA der russische Programmierer Dimitri Sklyarov verhaftet, der eine Software zur Aushebeln der Paßwortkontrolle von E-Books geschrieben hatte.

Nach Jahrzehnten der promiskuitiven Freiheit von digitaler Information im Internet erleben wir zur Zeit einen Backlash der Proprietarisierung digitaler Nullen und Einsen. Es wiederholt sich damit eine Entwicklung, die sich in den 1970er und 1980er Jahren schon in der Computersoftware vollzog. Wir kennen heute die zwei Resultate dieser Entwicklung: einerseits proprietäre Software wie die von Microsoft, andererseits freie Software wie Linux. Die Frage heute ist, nach welchem dieser beiden Modelle auch andere digitale Information und mit ihr die sogenannte Wissensgesellschaft organisiert wird, oder ob beide Interessen möglich ausgeglichen werden können wie die von Buchhandel und öffentlichen Bibliotheken durch das heutige Urheberrecht.

Was sind ,,Freie Software`` und ,,Open Source``?

Freie Software ist die älteste Form öffentlichen Wissens im Internet und, wie sich in den letzten Jahren immer deutlicher herausgestellt hat, auch die konzeptuell avancierteste aller jener Netzkulturen, die sich Informationsfreiheit auf ihre Fahnen geschrieben haben. So ist auch das Konzept des ,,Open Content`` direkt nach Freier Software bzw. Open Source modelliert. ,,Open Source`` hat sich seit 1998 als Alternativbezeichnung zu Freier Software eingebürgert. Technisch bezeichnen beide dasselbe, lediglich die politisch-philosophischen Nuancierungen sind verschieden. ,,Open Source`` unterstreicht, daß nicht nur lauffähige Software, sondern auch ihr Programm-Quellcode offengelegt ist, also nicht nur das fertige Produkt, sondern auch sein Herstellungsrezept. ,,Freie Software`` betont, daß es dabei nicht bloß um das Offenlegen von Interna geht, sondern auch um die Nutzungsfreiheit des offengelegten Codes. Während der Begriff ,,Freie Software`` seit den 1980er Jahren verbreitet ist, wurde ,,Open Source`` als Manageretagen-kompatibles Schlagwort erst 1998 geprägt. Firmen wie Netscape und Sun konnten leichter davon überzeugt werden, ihre Software wie den Netscape-Browser und das Programmpaket StarOffice als ,,Open Source`` freizugeben denn als ,,Freie Software``, auch wenn es auf dasselbe hinauslief.

Doch welche ,,Offenheit`` und ,,Freiheit`` ist gemeint? Auf allen Computersystemen ist traditionell Software verbreitet, die frei benutzt und weitergegeben werden kann und unter Namen wie ,,Freeware`` oder ,,Shareware`` firmiert. Auch werden Browser- und Abspielprogramm wie der Microsoft Internet Explorer, der RealPlayer und der QuickTime Player traditionell kostenlos verteilt. Doch gehen ,,Freie Software`` und ,,Open Source`` weit über solche Gratissoftware hinaus:

  1. Nicht nur das Fertigprodukt, sondern auch der Programm-Quellcode (gewissermaßen das Kochrezept oder der Bauplan der Software) wird mitgeliefert;
  2. Verbreitung und Nutzung des Programms unterliegt keinen Restriktionen. Das heißt auch, daß Freie Software kommerziell verkauft werden darf, ohne daß ihre Autoren am Gewinn beteiligt werden;
  3. der Programm-Quellcode darf nicht nur eingesehen, sondern auch modifiziert bzw. ganz oder in Teilen in andere Programme eingebaut werden;
  4. das veränderte Programm darf frei verbreitet werden.

Freie Software bewirkt somit mehrerlei: Erstens begeben sich ihre Nutzer auch dann, wenn sie selbst keine Programmierer sind, nicht in die Abhängigkeit eines Herstellers, so, wie etwa Firmen von Datenbank-Herstellern abhängig sind oder wie viele digitale Kunst von proprietären Programmen wie z.B. QuickTime und Flash abhängig geworden und zum Untergang verurteilt ist, wenn ihre Hersteller ihre Entwicklung und Anpassung an aktuelle Computer und Betriebssysteme einstellen. Ein anderes Beispiel sind kostenlose, aber nicht-freie Internet-Dienste wie z.B. die Mailinglisten der ,,Yahoo Groups``. Würde Yahoo diesen Dienst einstellen oder kostenpflichtig machen, wären auch zahlreiche Netzkunst-Projekte betroffen, und die Web-Archive wichtiger Mailinglisten könnten verschwinden. Da Yahoo weder vollen administrativen Zugriff auf seine Server gewährt, noch die auf den Servern laufende Yahoo Groups-Software freigibt, ist den Nutzern die Kontrolle über den Dienst - und letztlich auch über die von ihnen selbst eingestellten Textbeiträge - entzogen.

Freie Programme hingegen gehören ihrer Nutzergemeinschaft und können ihr nicht mehr weggenommen werden. Erlahmt die Entwicklung, kann jeder andere Programmierer einspringen und mit dem hinterlassenen Code weiterarbeiten, oder die Nutzergemeinde selbst kann freie Programmierer für notwendige Anpassungen und Erweiterungen anheuern. Wird, wie im Beispiel der Mailinglisten, ein Netzdienst eingestellt, so ist es möglich, ihn andernorts mit denselben Funktionen fortzuführen, wenn man statt ,,Yahoo Groups`` auf eine freie Software wie GNU Mailman zurückgreift.

Zweitens wächst Freie Software zu einer öffentlichen Bibliothek von frei benutzbaren Programmfunktionen. Während Firmen, die zum Beispiel ein Konkurrenzprodukt zu Microsoft Word entwickeln wollen, mit null Codezeilen anfangen und Millionenbeträge in die Nachprogrammierung gängiger Programmfunktionen investieren müssen, müssen freie Entwickler das Rad nicht neuerfinden, sondern können auf zahllose fertige Module - wie z.B. Rechtschreibprüfprogramme - zurückgreifen oder ein vorgefundenes Programm nach ihren Vorstellungen umschreiben.

Zentral für das Konzept der Freien Software ist also der Gedanke, daß Softwarecode erstens Architektur und Infrastruktur ist, zweitens Wissen und es drittens keine Hersteller-Monopole auf diese Infrastruktur und dieses Wissen geben darf.

Open Content

Der Begriff ,,Open Content`` wurde 1998, im selben Jahr wie ,,Open Source``, von der Webseite http://www.opencontent.org lanciert. Er steht seitdem für den Versuch, die Spielregeln von Freier Software möglichst nahtlos auf alle anderen Formen digitaler Information zu übertragen. So war die ,,Open Content``-Initiative auch der erste Versuch, die Philosophie und Politik Freier Software in andere Netzkulturen hineinzutragen.

Doch nicht nur mit dem Schlagwort ,,Open`` wird in der Computerindustrie gewohnheitsmäßig Schindluder getrieben, sondern auch ,,Content`` ist ein problematischer Begriff. Im Verständnis der Medienindustrie ist ,,Content`` dasjenige, mit dem Medien gefüllt werden. Agentur-Nachrichten zum Beispiel sind solch ein ,,Inhalt``, der sich wahlweise in Zeitungen, ins World Wide Web, ins Radio oder auf öffentliche Anzeigetafeln ergießt. Wenn ein Medienkonzern die Übertragungsrechte der Fußball-Weltmeisterschaft hält, besitzt er einen ,,Content``, den er in mehreren Medien verbreiten kann. Die Rede vom ,,Content`` beruht somit auf einer Unterscheidung von ,,Form`` und ,,Inhalt``, Zeichenträger und Zeichen; eine Dichotomie, die nicht nur als solche problematisch ist, sondern auch umso fragwürdiger wird, je mehr Zeichenträger bzw. Medien, wie etwa DVD-Filme oder CD-Musik, selbst nur Zeichen, nämlich Codes für die Formatierung anderer Codes sind.

Indem ,,Open Content`` die Öffnung dieser Zeichen verkündet, bezeichnet der Begriff, im allgemeinsten Sinne, Daten - Schriften, Bilder, Töne -, die nicht exklusiv und proprietär vermarktet werden, sondern öffentlich und frei zur Verfügung stehen. Gemeint sind vor allem digitale Daten, spezifischer noch digitale Daten im Internet.

Retrospektiv hat die Lancierung von ,,Open Content`` einen problematischen Beigeschmack, den nämlich des Dotcom-Fiebers der späten 1990er Jahre und der damals verbreiteten Vorstellung, man könne Produkte verschenken, um später an Dienstleistungen zu verdienen. Eine Illusion, die vorübergehend auch Risiko- und Börsenkapital in die Kassen von Freie Software-Firmen spülte und Programmierer glauben ließ, vom Schreiben Freier Software leben zu können. Damals schon und heute erst recht ist dies ein Privileg einer kleinen Programmiererelite geblieben, und keiner Firma ist es bisher gelungen, nur mit der Entwicklung von Freier Software profitabel zu arbeiten. Noch mehr gilt dies für andere Formen digitaler Information. Zum Beispiel wäre es für fast alle freien Buchautoren illusorisch zu glauben, man könne statt von klassischen Honorar-Knebelverträgen von ,,Open Content``-Publikationen leben.

Daß das Schlagwort ,,Open Content`` dennoch aktuell geblieben ist, hat zwei Gründe. Erstens gab und gibt es neben bezahlter Autorentätigkeit nichtkommerzielle, öffentliche Informationsangebote, die langfristig zugänglich gemacht und als öffentliches Gut besser geschützt werden könnten, wenn ihre Urheber sie unter kodifizierte Lizenz-Spielregeln nach dem Vorbild Freier Software stellen würden. Zu diesen Angeboten zählen, neben Websites und Diskussionsforen, die von Idealisten und Enthusiasten betrieben werden, die gesamte Textproduktion der öffentlich finanzierten Wissenschaften, von Bildungsinstitutionen, Non-Profit-Organisationen und Einrichtungen wie Bibliotheken, Museen und Archiven, potentiell auch von öffentlich-rechtlichen Medien. Zweitens bedroht ein verschärftes Urheber- und Patentrecht, dessen Kontrolle in die digitalen Medien und Netze selbst einkodiert wird, die technische Infrastruktur, die solche freien Angebote erst möglich gemacht hat. Daß es mit dem Internet eine technisch offene Plattform zur Verbreitung von Information gibt, ist keine in Stein gemeißelte Selbstverständlichkeit. Wie schnell eine Kultur des promiskuitiven Code-Austauschs abgeschafft werden kann, zeigt die Geschichte der ältesten Form digitaler Information - der Computer-Software - seit den 1970er Jahren.

Zur Mediengeschichte der Software

War die Programmierung von Computern zu Beginn eine akademisch-mathematische Disziplin, so begünstigte die Erfindung maschinenübergreifender Programmiersprachen wie Algol und Fortran ab den 1960er Jahren eine Programmierkultur, die Universitäten, Computerhersteller und andere Firmen gleichermaßen einschloß. Auch in den 1970er Jahren sah die Computerindustrie Software als Dienstleistung und kostenlose Zugabe zu Rechnern an. Epochal waren vor allem die Erfindung des Mehrbenutzer-Betriebssystems Unix und der Programmiersprache C in den ,,Bell Labs`` der Telefongesellschaft AT&T. Unix war eine genial konzipierte Software, was sich nicht zuletzt daran zeigt, daß auch heute noch die Blaupause bzw. den Unterbau wichtiger Betriebssysteme wie GNU/Linux, FreeBSD, Solaris und MacOS X bildet. Kritische Masse gewann Unix aber nicht nur dank seiner eincodierten intellektuellen Brillanz, sondern auch dadurch, daß es gegen marginale Pauschalgebühren an Bildungsinstitutionen weitergegeben wurde, mitsamt seinem Programm-Quellcode und der Erlaubnis, ihn zu modifizieren. An Universitäten wie der University of California at Berkeley wurde Unix von Informatikstudenten wie Bill Joy konsequent zu einem Netzwerkbetriebssystem weiterentwickelt und damit zum technischen Fundament dessen, daß später Internet hieß. E-Mail z.B. war ursprünglich das Unix-Kommando ,,mail`` und das Domain-Namensystem, das physischen Rechneradressen Namen wie ,,gnu.org`` zuordnet, eine Erweiterung der Unix-Systemdatei ,,hosts``.

Da die universitären Weiterentwicklungen von Unix wieder in das AT&T-Unix zurückflossen, war Unix Produkt einer funktionierenden Kollaboration von freien und in Firmen angestellten Entwicklern. Diese Netzkultur zerbrach jedoch, als in den frühen 1980er Jahren mit dem Aufkommen der Personal Computer Software nicht mehr als kostenlose Service-Beigabe, sondern als Ware begriffen wurde. Ein klassisches Dokument dieses Wandels ist der ,,Open Letter to Computer Hobbyists`` von Bill Gates, dessen Firma Microsoft damals noch keine Betriebssysteme, sondern Homecomputer-Programmiersprachen entwickelte und kommerziell vertrieb. In diesem Brief appelliert Gates an Homecomputer-Nutzer, Microsoft-Programme nicht untereinander kostenlos zu tauschen, sondern käuflich zu erwerben, weil nur damit die Weiterentwicklung der Software gesichert wäre. Zur gleichen Zeit kündigte AT&T, juristisch begünstigt durch eine Restrukturierung der Firma, den Universitäten seine liberale Unix-Politik auf und begann, das Betriebssystem teuer an andere Computerhersteller zu lizenzieren. Die freien Mitautoren der Software wurden dadurch faktisch enteignet. So machte zehn Jahre vor der Erfindung des World Wide Web die älteste Netzkultur der Computerhacker eine Erfahrung, die zum Beispiel künstlerischen Netzkulturen noch bevorstehen könnte, wenn die Hersteller von de-facto-Standardsoftware wie Flash oder Java einmal ihre Lizenzspielregeln ändern sollten.

Einige freie Entwickler zogen daraus die Konsequenz, daß man von Null anfangen und einen diesmal vollständig freien Clone des Unix-Betriebssystems schreiben müsse. 1983 gründete der MIT-Programmierer Richard Stallman das GNU-Projekt, dessen Akronym für ,,GNU is not Unix`` stand. In langjähriger Kleinarbeit entstanden Schritt für Schritt GNU-Clones aller Unix-Systemprogramme, die jedoch vorerst nicht ohne den Unterbau eines kommerzieller Betriebssysteme nutzbar waren. Autark wurde das System erst, als Linus Torvalds 1991 den Linux-Betriebssystemkern schrieb, der in Kombination mit der GNU-Software ein fertiges Unix-kompatibles Betriebssystem ergab. Was seit 1994 in der Regel nur unter dem Namen ,,Linux`` firmiert, ist tatsächlich eine Kombination aus diverser freier Unix-kompatibler-Anwendungssoftware mit dem technischen Unterbau des Linux-Kerns und der GNU-Programme.

Um zu verhindern, daß das neue System proprietarisiert würde wie Unix von AT&T, entwickelte das GNU-Projekt neben seinem Programm-Code auch einen juristischen Code, der die Freiheit der Software absichern sollte. Die GNU General Public License (GPL), unter der nicht nur Linux und die GNU-Software, sondern auch viele freie Software wie z.B. der KDE-Desktop lizenziert sind, ist ein ingeniöser Hack des Copyrights, der mit den Schutzmechanismen des Urheberrechts absichert, daß Code nur frei verbreitet werden darf. In dieser Hacker-Logik nennt das GNU-Projekt die GPL nicht ein Copyright, sondern ein ,,Copyleft``. Nach den Spielregeln des GPL-Copylefts darf Code wie alle freie Software frei kopiert, frei genutzt, modifiziert und auch kommerziell vertrieben werden. Von Public Domain und anderen freien Lizenzbestimmungen unterscheidet sich die GPL jedoch dadurch, daß sie es verbietet, freien Code proprietär zu machen und vorschreibt, daß Modifikationen von GPL-Code wieder unter die GPL gestellt werden. Die praktische Konsequenz ist, daß jeder, der in ein Programm GPL-lizenzierten Code einfügt, auch das fertige Programm unter die GPL Stellen muß, so daß, wie vor allem Microsoft argumentiert, die GPL den Charakter eines juristischen Computerviruses hat. Je umfangreicher und attraktiver die öffentliche Bibliothek von GPL-lizenziertem Programmcode wird, desto größer ist auch der Anreiz für Programmierer, sich ihr zu bedienen und damit nolens volens zu ihr beizutragen. Genau aus diesem Grund verbieten es auch Microsofts neueste Lizenzverträge, Microsoft-Produkte in Verbindung mit GPL-Code zu verwenden.

,,Freie Software`` ist somit, formal gesehen, ein Lizenzierungsmodell und definiert sich daher nicht durch Programmiertechnik, sondern rein juristisch. Indem sie der juristischen Kontrolle proprietärer Distributionsmodelle eigene juristische Regeln entgegensetzt, partizipiert sie nolens volens an der zunehmenden Verrechtlichung digitaler Netze und Medien. Seitdem das Internet zum Schlachtfeld von Urheber-, Patent- und Markenrecht geworden ist, leben private Anbieter von Informationen im Netz mit dem latenten Risiko, zum Beispiel wegen Verletzungen von Wortmarken abgemahnt zu werden. Freie Lizenzen wie die GPL versuchen, den Spieß umzudrehen und Information freier zu machen, als es das Standard-Urheberrecht vorsieht.

Genau hieran knüpft das Modell des ,,Open Content``, das die Lizenz-Regelungen der Freien Software übernimmt, adaptiert, damit gewissermassen den rechtlichen und politischen Kern der Freien Software herausschält und verallgemeinert. Würden nichtkommerzielle Informationsangebote im Internet - zum Beispiel medizinische Ratgeber, private Linksammlungen, Text- und Bildarchive - unter ,,Open Content``-Lizenzen gestellt, so wäre damit erst gewährleistet, daß dieses Informationen frei weiterverwendet, auf anderen Servern gespiegelt und nötigenfalls von neuen Autoren aktualisiert werden könnten. Anderenfalls greift automatisch das normale Urheberrecht. Würde einer der zahllosen Hobbyisten, die heute nützliche Internetangebote betreiben, plötzlich sterben, würde seine Website vom Netz verschwinden und dürfte, selbst wenn dies wahrscheinlich nicht seinem Willen entspräche, erst siebzig Jahre nach seinem Tod gespiegelt oder weitergeführt werden. So, wie die Freie Software erst in den 1980er Jahren die Notwendigkeit rechtlicher Selbstabsicherung in den Köpfen freier Programmierer implementierte, geht es bei ,,Open Content`` weniger um eine Kulturrevolution des Copyrights, als um die Bewahrung bestehender freier Information.

Die Definition von ,,Open Content``

Mit der Website http://www.opencontent.org wurde 1998 auch eine ,,Open Content License`` aus der Taufe gehoben, die wortgleich war mit der GNU General Public License bis auf die durchgehende Ersetzung des Worts ,,software`` durch ,,content``. Seitdem sind mit der ,,Open Document License``, der ,,Open Publication License (OPL)``, der ,,GNU Free Documentation License (FDL)``, der ,,Scientific Design License (SDL)``, der Open Music License sowie der Open Audio License der Electronic Frontier Foundation, der ,,Freien Lizenz für Texte und Textdatenbanken`` des Münchener Instituts für Rechtsfragen von Freier und Open Source Software und schließlich der Free Art License zahlreiche weitere ,,Open Content``-Lizenzen hinzugekommen. Während in der Freien Software sich nach einer zwischenzeitlichen Inflation von Lizenzmodellen zwei Lizenztypen durchgesetzt haben, nämlich einerseits die GNU GPL, die Proprietarisierung von freiem Code verbietet, und andererseits Berkeley Unix-ähnliche Lizenzen, die Proprietarisierungavon freiem Code erlaubt, schreckt die Vielzahl der ,,Open Content``-Lizenzen potentielle Interessenten ab und führt auch zur unerfreulichen Situation, daß verschieden lizenzierte Informationsquellen wegen inkompatibler Spielregeln nicht miteinander kombiniert werden dürfen.

Wieso ist es überhaupt nötig, für ,,Open Content`` eigene Spielregeln zu erfinden? Welche Erfordernisse werden nicht durch die klassischen Lizenzmodelle Freier Software abgedeckt? Tatsächlich gibt es zum Beispiel Bücher und Musikdateien, die unter die GNU General Public License gestellt wurden. Potentiell problematisch ist dies allerdings in zweierlei Hinsicht: Sowohl die GPL, als auch die unmittelbar von ihr abgeleiteten ,,Open Content``-Lizenzen bieten keinen Schutz vor Zensur oder mutwilligen Verfälschungen in abgeleiteten Werken, die auf den ersten Urheber zurückfallen könnten. Ein historisches Beispiel ist die Verfälschung eines Kapitels der 1864 publizierten ,,Gespräche in der Unterwelt zwischen Machiavelli und Montesquieu`` des französischen Republikaners Maurice Joly in die ,,Protokolle der Weisen von Zion``, einem anonym antisemitischen Pseudo-Dokument einer jüdischen Weltverschwörung. Ein Autor hätte keine rechtliche Handhabe gegen solche Verfälschungen seines Werks, wenn es unter der GPL oder der ,,Open Content License`` stünde. Zweitens fällt die Tatsache, daß frei lizenzierte Werke von Dritten ohne Honorierung der Urheber kommerziell vertrieben werden dürfen, zum Beispiel für freie Buchautoren und Musiker viel negativer ins Gewicht als für angestellte Programmierer, die üblicherweise mehr Geld verdienen und auch nicht auf Zeilen- oder Auflagenhonorare angewiesen sind.

Beide Probleme, Zensur und kommerzielle Ausbeutung, sind in neueren Open Content-Lizenzen berücksichtigt. Die ,,Open Publication License`` zum Beispiel erlaubt es, digitale Texte frei in Netzen zu verbreiten, stellt aber Modifikationen und Nachdrucke auf Papier unter Urheber-Vorbehalt. Die ,,Freie Lizenz für Texte und Textdatenbanken`` hingegen schreibt typographische Auszeichnungen aller veränderten Textpassagen vor, während die ,,GNU Free Documentation License``, um Zensur zu verhindern, unveränderliche Textpassagen vorsieht und außerdem, analog zu Quellcode und ausführbarem Code von Computersoftware, bestimmt, daß Dokumente in ,,transparenten``, d.h. herstellerunabhängig les- und schreibbaren Dateiformaten erstellt werden müssen.

So, wie ,,Freie Software`` zunächst keine Software-Entwicklungsmethode ist, sondern ein Lizenzierungsmodell für digitalen Code, ist ,,Open Content`` in seinen derzeitigen Lizenzmodellen in Wahrheit keine Ergänzung oder Ausdehnung, sondern ein politischer Korrekturversuch des Copylefts. Zensur und Ausbeutung sind für Freie Software-Entwickler ebenfalls problematisch; so, wie die ,,Gespräche in der Unterwelt zwischen Machiavelli und Montesquieu`` zu den ,,Protokollen der Weisen von Zion`` umgeschrieben wurde, wurde etwa auch das Computerspiel ,,Castle Wolfenstein`` in eine Pro-Nazi-Software verändert. Da die Erstversionen der Ego-Shooter ,,Doom`` und ,,Quake`` mittlerweile unter der GPL freigegeben sind, können sie legal auf ähnliche Weise modifiziert werden. So zeigt die Ausdehnung der GPL auf andere digitale Formate einige allgemeinen Schwächen klassischer freier Lizenzen auf, die aber durch eine Balkanisierung gemäß bestimmter Ausgabeformatierungen digitaler Nullen und Einsen (als Software-Algorithmen, als Bücher, als Musik oder als Film) nicht wettgemacht werden. Wenn Computerprogrammcode eine subjektive und ästhetische Äußerungsform ist und unter die Redefreiheit fällt, so ist die Unterscheidung von ,,Software`` und ,,Content`` letztlich konventionell und willkürlich. Statt ,,Open Content`` von ,,Freier Software`` abzugrenzen, könnte man beide ebensogut - oder besser - unter einen Begriff wie ,,freien Code`` fassen.

Die Unterscheidung von ,,Software`` und ,,Content`` kollabiert auch dadurch, daß es sich bei beiden um Nullen und Einsen handelt, die lediglich durch ihre maschinelle Interpretation sich das eine oder andere materialisieren. Dadurch, daß der Computer eine symbolverarbeitende Maschine ist, wird Schrift in ihm zu Architektur und Architektur zu Schrift. Ein prominentes Beispiel ist das Programm ,,DeCSS``, das kryptographische Auslesesperren von DVD-Filmen aufhebt und deshalb in den USA gerichtlich verboten wurde. Da sich das Verbot gegen die Schriftzeilen des Programm-Quellcodes richtete, wurde es von seinen Kritikern als Schriftzensur gedeutet, die im Widerspruch zur garantierten Redefreiheit im ersten Verfassungszusatz der USA steht. Um dies zu untermauern, wurde ,,DeCSS`` unter anderem in ein Gedicht umgeschrieben und als T-Shirt-Aufdruck verbreitet.1 So kann nicht nur eine arbiträre Kette von Nullen und Einsen je nach vermuteter Codierung für ein Computerprogramm oder zum Beispiel für Goethes ,,Heideröslein`` gehalten werden, es wäre auch möglich, eine Computersprache zu entwerfen und für sie einen Compiler zu schreiben, der den Originaltext des ,,Heideröslein`` als hochsprachliche Notation eines Programms interpretiert, dessen maschinenausführbares Produkt funktional äquivalent zu DeCSS ist. Würde das ,,Heideröslein`` dann gegen geltendes Recht verstoßen?

Der Fall Napster und das ,,Digital Rights Management``

Der Schritt hin zu einer umfassenderen Politik des freien Code ist in der Praxis schon längst vollzogen. An Netzforen wie http://www.slashdot.org kann man ablesen, wie seit 1998 ist aus der Debatte über Freie Software und ,,Open Content`` eine viel allgemeinere Diskussion der Informationsfreiheit und des Konzepts des ,,geistigen Eigentums`` im Zeitalter der digitalen Information geworden ist. Mittlerweile ist diese Diskussion in einer breiten Öffentlichkeit angekommen. Prominente Streitfälle waren peer-to-peer-Netze wie die Musik-Tauschbörse Napster, die internationale Rebellion von Wissenschaftlern, vor allem Biologen und Mathematikern, gegen die Praxis von akademischer Fachzeitschriften, Artikel nicht frei ins Internet zu stellen und schließlich die Strafverfolgung von Programmierern, deren Software kryptographische Herstellercodierungen von DVD-Filmen und elektronischen Büchern aushebelt. Selbst dann, wenn man diese Kontroversen neutral zu beschreiben versucht, lassen sich zwei Schlüsse aus ihnen ziehen: Erstens, daß das traditionelle Urheberrecht in seiner jahrhundertelangen Anpassung an die spezifischen Bedürfnisse und Gegebenheiten des Buchhandels für digitale Information nicht mehr taugt, zweitens, daß die Frage, was ihm folgen soll, Gegenstand eines Kulturkampfs geworden ist. Daß es ein Kulturkampf ist, dessen Ausgang über die künftige Ordnung des Wissens entscheidet, ist allen technisch Literaten bewußt; wenn man in Feuilletons kaum davon liest und wenn in Geistes- und Sozialwissenschaften sowie in den Künsten wenig davon wahrzunehmen ist, so zeigt sich daran nur das Ausmaß des digitalen Analphabetismus.

Der Fall Napster ist sprichwörtlich geworden, weil sich in ihm der Kulturkampf erstmals abzeichnete. Vor seiner Abschaltung im Jahr 2001 erlaubte es Napster jedem seinem Nutzer mit jedem anderen Napster-Nutzer in der Welt Musikdateien zu tauschen, und zwar außerhalb traditioneller Server-basierter Internetdienste wie World Wide Web und E-Mail. Der eigentliche Datenaustausch spielte sich nur zwischen den PCs der Nutzer ab. Der zentrale Napster-Server enthielt keine Musik, sondern nur eine Datenbank, die die Musikdateien aller momentan angeschlossener Nutzer katalogisierte. Neuere peer-to-peer Netze wie Gnutella kommen, indem sie auch den Katalog auf die angeschlossenen Nutzer verteilen, ganz ohne Zentralserver aus und erlauben über den Austausch von Musik hinaus das Einstellen beliebiger Dateitypen. Je nach Sichtweise kann man diese Netze als Einladungen zur systematischen Bruch des Urheberrechts ansehen sowie als Schund-Multiplikatoren von Pornographie und Chart-Pop; oder aber man hält sie für eine historische Revolutionierung von Bibliothek und Archiv zu einem Zusammenschluß von Privatbibliotheken mit einem in Echtzeit katalogisierten dynamischen Bestand. Auf seinem Höhepunkt im Januar 2001 war Napster die umfangreichste Musikbibliothek aller Zeiten und bot zumindest die beste Sammlung populärer Musik des 20. Jahrhunderts. Daher könnte man nicht nur die Erfindung, sondern auch den Verlust dieses Archivs für epochal halten.

Der Fall Napster, der mit der gerichtlich verfügten Abschaltung des Zentralservers im Mai 2001 zu den Akten gelegt wurde, legte die Grundlage der Bestrebungen der Musik-, Film- und Verlagskonzerne, per ,,Digital Rights Management`` Urheberrechtskontrollen direkt in digitale Medienformate einzucodieren. Der Bertelsmann-Medienkonzern erwarb die Aktienmehrheit von Napster Inc. und plante, den Dienst auf der Basis von Abonnementgebühren und mit einem neuen, ,,Digital Rights Management``-gestützten Musikdateiformat wiederzubeleben, beließ es bis heute allerdings bei dieser Ankündigung. Zu Recht sahen Medienkonzerne und Interessenverbände wie die ,,Recording Assocation of American (RIAA)`` und die ,,Motion Picture Association of America (MPAA)`` in Napster nur den Anfang einer Entwicklung, an deren Ende zum Beispiel auch der peer-to-peer-Tausch von digitalisierten Filmen und Büchern stehen würde. Daß Musik dieser Distributionsweise zum Durchbruch verholf, lag auch daran, daß sie (im Gegensatz zu Literatur und Film) seit Erfindung der Audio-CD im Jahr 1982 systematisch als digitales Datenmaterial verbreitet wurde, dessen Nullen und Einsen vergleichsweise simpel ausgelesen, umcodiert und in digitale Netze gespeist werden konnten. Daß dies Künstler und Verleger, die von ihren Urheberrechten faktisch leben, alarmierte, ist so verständlich wie legitim.

Was also ist problematisch an ,,Digital Rights Management`` bzw. digital eincodierter Urheberrechtskontrolle? Daß sie die öffentliche Nutzung von Medien in Bibliotheken sowie in Forschung und Lehre verhindert, leuchtet sofort ein, daß sie Archivierung und langfristige Lesbarkeit von Information verhindert, dürfte vielen erst spät dämmern. Interessant sind aber auch die Konsequenzen für das Rechtsverständnis. Mit dem gesetzlichen Verbot von Entsperr-Techniken wie im amerikanischen ,,Millennium Copyright Act`` und in der geplanten EU-Urheberrechtsnovelle erhalten Software- und Medien-Hersteller die Definitions-Narrenfreiheit darüber, was überhaupt ein ,,Kopierschutz`` ist und was somit strafrechtlich relevant gegen ihn verstößt. Und wenn schließlich die Einhaltung urheberrechtlicher Spielregeln durch ,,Digital Rights Management`` erfolgt, wird die Exekutive eines Gesetzes nicht mehr Beamten, sondern Algorithmen überantwortet, und privatwirtschaftlichen noch dazu. Außerdem beschränkt sich diese Kontrolle nicht auf das Urheberrecht, sondern greift massiv in das individuelle Nutzungsrecht ein. Der Definition nach regelt das Urheberrecht nur die anonyme Transaktion zwischen Urheber bzw. Rechteinhaber und Käufer, nicht aber Transaktionen von privat zu privat und die private Nutzung. Analog dazu gesteht das US-amerikanische Recht dem Käufer einen ,,fair use`` dessen zu, was er legal erworben hat. Bücher zum Beispiel dürfen nicht nur zitiert, sondern für den privaten Gebrauch auch kopiert, abgeschrieben, antiquarisch weiterverkauft und natürlich verliehen werden. Wenn das ,,Digital Rights Management`` zum vermeintlichen Schutz des Urheberrechts alle Transaktionen und Nutzung entanonymisiert und den ,,fair use`` einschränkt, wenn neue urheberrechtliche Verbote von Entsperr-Techniken das bisherige Nutzerrecht auf Privatkopien faktisch abschaffen,2 so drückt sich darin etwas aus, das man auch als Gegner solcher Eingriffe nicht bestreiten kann: Daß nämlich im Zeitalter preiswerter PC-Hardware, preiswerter Hochgeschwindigkeitszugänge zum Internet und peer-to-peer-Netze zwischen privater und öffentlicher Transaktion nicht länger unterschieden werden kann.

Denn jedes Abspielen von digitaler Information - jede Anzeige einer Textseite, jedes Abspielen von Musikstücken und Filmen, jedes Laden einer Software -, ist ein Vorgang, bei dem Nullen und Einsen von einem Ort zum anderen kopiert werden, zum Beispiel von der CD-Silberschicht zum Ton-Wandlerchip eines CD-Players oder von der Festplatte in den Arbeitsspeicher eines Personal Computers. Die Unterscheidung von ,,Abspielen`` einerseits und ,,Kopieren`` wird um so willkürlicher, je häufiger die Abspielleitung statt des kurzen Kabels vom CD-Laser zum Audiochip eine Internet-Verbindung ist. Bis zu welcher Kabellänge werden Bits eine ,,genutzt``, ab welcher werden sie ,,distribuiert``? So lösen sich mit Discounter-PCs, DSL-Flatrates und Gnutella zwar Bertolt Brechts und Hans Magnus Enzensbergers Medienutopien ein, denen zufolge die Empfangsapparat doch gefälligst auch Sendeapparate werden mögen; doch klebt daran die dialektische Fußangel, daß die vormaligen Empfänger und heutigen Sender auch allen rechtlichen Risiken des Sender- und Produzententums ausgesetzt sind.

Doch weiten ,,Digital Rights Management``-Codierungen nicht nur das Regiment der Urheberrechte pauschal auf die Nutzungsrechte aus, sondern sie sind auch der Hebel, um das traditionelle Urheberrecht zu umgehen und nach dem Vorbild der Softwareindustrie durch einen individuellen Kundenvertrag mit einer Herstellerlizenz zu ersetzen. - In diesem Detail überschneiden sich interessanterweise das Copyleft der freie Software und das proprietäre Distributionsmodell digitaler Information. - Der Käufer erwirbt ein Werk nicht mehr als sein Eigentum, sondern nur mit einer Nutzungslizenz, die zum Beispiel die Lektüre eines Werks nur durch eine Person und auf einem Gerät erlaubt oder sogar, wie bereits heute in einigen E-Book-Lizenzen, verbietet, es laut vorzulesen. Durch ,,Digital Rights Management`` kann nicht nur die örtliche Nutzung eingeschränkt werden ähnlich wie beim DVD-Regionalcode, sondern auch die Nutzungsdauer. Vorreiter auf diesem Gebiet ist Microsoft. Für den de-facto-Monopolisten wird es immer mehr zum Problem, daß Windows-Nutzer die alten Versionen ihrer Software weiterverwenden und bei sinkenden PC-Preisen die hohen Lizenzgebühren für vorinstallierte Windows-Betriebsssysteme zunehmend ins Gewicht fallen. Microsoft möchte deshalb seine Software künftig zukünftig nicht mehr verkaufen, sondern gegen monatliche oder jährliche Nutzungsgebühren vermieten (und über die ,,.NET``-Architektur das Betriebssystem fest an eigene Netzwerk-Dienste koppeln). Auch in digitalen Musik-, Film- und Literaturkonserven soll das ,,Digital Rights Management`` vor allem die Umstellung von Verkauf auf Vermietung erleichtern und zeitliche Nutzungsbegrenzungen und Zahlungsmoral überwachen.

Freier Code als Gegenmodell

,,Open Content`` und Freie Software sind konservative Projekte. Sie sind der Versuch, das Konzept freien Wissens, akademischer Zitierfreiheit und öffentlicher Bibliotheken für digitale Netzwerke zu bewahren. Dort, wo das Copyleft die traditionelle Zitierfreiheit übersteigt, nämlich in der Erlaubnis, Code willkürlich zu verändern und ohne Urheber-Kompensation kommerziell zu vertreiben, liegen auch potentielle Fallstricke, die spezialisiertere ,,Open Content``-Lizenzen zu lösen versuchen. Weil Software-Algorithmen Mathematik sind und Digitalcodes Binärzahlen, erträumt sich Freie Software für Computercode dieselbe Freiheit, mit denen mathematische Formeln und Beweise seit der Antike in der Wissenschaft zirkulieren. Während die Medienindustrie ihre Lizenz- und Copyrightmodelle an digitalisierten, ursprünglich nichtschriftlichen Medien wie Tonaufnahmen und Film entwickelt und daher in der Tradition des sinnlich konkreten Kunstwerks denkt, liegt Freier Software ein Verständnis digitaler Codes als abstrakter Schrift und freier Meinungsäußerung zugrunde. Die Buchkultur ist insofern eine Avantgarde digitaler Netze und Medien, als Literatur (neben schriftlich notierter, insofern literarisierte Musik) die älteste informationsverlustfrei massenreproduzierbare Kunst ist; eine konzeptualistische, d.h. weitgehend unabhängig von ihrem materiellen Träger verfaßte Kunst zumal, der jene Fixierung auf ausstellbare Objekte und Originale fremd ist, die zum Beispiel den Betrieb der bildenden Kunst an digitaler Netzkunst verzweifeln läßt.

Als Prototypen digitaler Schriftkultur zeigen Buchdruck und Bibliotheken, wie ein kommerzielles, privatwirtschaftliches Vertriebssystem mit einem öffentlich-nichtkommerziellen koexistieren kann. Was wie ein Allgemeinplatz klingt, war kurz nach Gutenbergs Erfindung noch keiner, denn Drucker und Verleger wollten Leihbibliotheken zunächst verboten wissen. Das Urheberrecht glich ihre Interessen mit denen der Bibliothekare, Autoren und Leser aus; es war nie ein Dogma, sondern Verhandlungsgegenstand und pragmatisches Instrument.

So ist die Unterscheidung von rechtlich geschützter Kunst und freiem Wissen konventionell und wird erschwert, wenn Wissenschaftler wie Künstler im selben Notationssystem von Nullen und Einsen arbeiten. Auffällig ist diese Unschärfe in der zunehmenden Überlappung von (künstlerischem) Urheber- und (technisch-wissenschaftlichem) Patentrecht. So ist es das Geschäftsmodell der privatwirtschaftlichen Genforschung von Firmen wie Monsanto und Celera, entschlüsselte Genome zu patentieren und Gewinn durch die Lizenzierung geistigen Eigentums zu erzielen. Patentiert sind unter anderem Krankheiten, Körperteile und Pflanzensorten, als Textcode ihres Genoms. Auch Software-Konzepte und -Algorithmen werden in den USA großflächig, in der EU teilweise patentiert. Der Internet-Buchhändler amazon.com zum Beispiel besitzt ein Patent auf Bestellungen mit nur einem Mausklick. Andere Online-Versandhandlungen müssen entweder mindestens zwei Mausklicks zum Abschicken einer Bestellung erforderlich machen oder Lizenzgebühren an Amazon entrichten. Die British Telecom behauptet, aus den 1970er Jahren ein Patent auf Hypertext-Links zu besitzen und bringt es gegen die Erfinder des World Wide Web in Stellung. Da der Computer nach Turing es erlaubt, jede Maschine und somit jede Technik durch symbolische - d.h. schriftliche - Prozessierung zu implementieren, wird die Grenze von sogenannter Software-Technologie zu Literatur und Kunst, zwischen Patent- und Urheberrecht ebenso fließend und in der Konsequenz willkürlich wie die zwischen Urheber- und Nutzungsrecht.

Wenn es also nötig ist, bisheriges Urheber-, Patent- und Nutzungsrecht zu revidieren, ist es dann realistisch für das Internet und andere digitale Informationssysteme eine verbriefte radikale Freiheit der Information, des Kopierens und Zitierens zu fordern? Und hat freie Information (oder ,,Open Content``) eine eigene Poetik und Ästhetik, besondere Schreib- und Leseweisen?

Zitate, Parodien und Appropriationen in der Kunst

Nicht nur das meiste Wissen, sondern auch die meiste Literatur und Kunst ist jedermann frei verfügbar und fällt nicht unter das Urheberrecht. Denn es ist nur eine Ausnahmeregelung für die Werke lebender Autoren und erlischt siebzig Jahre nach dem Tod des Urhebers. Dem Buchdruck insgesamt ging es, wie Gutenbergs Bibel zeigt, zunächst nur darum, vorhandenes freies Wissen zu multiplizieren.

Erst später entwickelte sich eine Literatur, die genuin für den Buchdruck konzipiert wurde, Sebastian Brants ,,Narrenschiff`` zum Beispiel, dessen Erstausgabe 1494 erschien, fünfzig Jahre nach Gutenbergs Erfindung. Das ,,Narrenschiff`` ist eine puritanische Moralsatire in Versform, ein Katalog menschlicher Laster, von denen jedes durch eine Narrenfigur personifiziert und in einem Kapitel abgehandelt wird. Text und Illustrationen sind, zumindest in den frühen Kapiteln des Buchs, nach einem strikten Schema komponiert: Einem dreizeiligen Motto folgt ein Holzschnitt der Narrenfigur, dann die Kapitelüberschrift und schließlich 4+30 Verszeilen, die in der Baseler Erstausgabe die Druckseiten exakt, d.h. ohne Weißraum am Kapitelende ausfüllen. Text und Bild wurden also dem Druckspiegel angepaßt und nicht umgekehrt. Man stelle sich analog vor, ein zeitgenössisches elektronisches Musikstück würde so komponiert, daß es auf die Ziffer genau die 5,2 Milliarden beschreibbaren Bits einer CD ausfüllen würde. Das ,,Narrenschiff`` ist deshalb eines der ersten Werke einer massenreproduzierbaren Medienkunst, einer Kunst also, die ihr Medium nicht als zufälligen, austauschbaren Zeichenträger begreift, sondern sich aus seinen technischen Parametern heraus formal konstruiert.

Das medienkünstlerische Konzept des ,,Narrenschiffs`` erwies sich als so erfolgreich, daß bis 1509 nicht nur fünf Originalausgaben des Buchs erschienen, sondern, kurz nach der Erstveröffentlichung zahllose unautorisierte Nachdrucke, unter anderem in Straßburg und Augsburg. Da ein Urheberrecht in der Frühneuzeit noch nicht existierte, gerieten Buchveröffentlichungen zu einem kommerziellen Wettlauf zwischen Erst- und Nachdruckern. Bereits die zweite Baseler Edition des ,,Narrenschiffs`` wurde daher mit einer ,,Verwahrung`` gegen die Nachdrucker versehen, mit der die Geburtsstunde des modernen Copyrights schlug.

Der Begriff des Originalwerks hat in der Geschichte der Literatur wechselhafte Konjunkturen erlebt. Daß er erst im 18. Jahrhundert zusammen mit dem Geniekünstler erfunden worden sei, erscheint mir eine zu simple Behauptung. So geht zum Beispiel das Wort ,,Plagiat``, das seit dem 17. Jahrhundert verbürgt ist, zurück auf den spätantiken Epigrammdichter Martial, der einen Konkurrenten, der seine Pointen kopiert und für eigene Erfindungen ausgegeben hatte, ,,Plagiarius``, Kindesräuber nannte (Martial I,52).

In satirischer Dichtung wie der von Martial und Sebastian Brant entbehren die Invektiven gegen die Plagiatoren insofern nicht der Ironie, als natürlich auch Parodien nicht möglich sind ohne die Aneignung anderer Texte oder den impliziten Rekurs auf sie. Ein aktuelles Beispiel ist der Roman ,,The Wind Done Gone`` der amerikanischen Schriftstellerin Alice Randall, der Margaret Mitchells ,,Gone with the Wind`` (,,Vom Winde verweht``) aus der Perspektive einer schwarzen Halbschwester von Scarlett O'Hara neu erzählt. Am 25. Mai 2001 hob ein New Yorker Berufungsgericht eine von den Mitchell-Erben erwirkte Verfügung auf und entschied, daß ,,The Wind Done Gone`` kein illegitimes Plagiat sei, sondern eine zulässige Parodie und durch das Recht auf freie Meinungsäußerung geschützt.

Davon, wie unscharf die Unterscheidung von Parodie und Plagiat ist, erzählt die Kurzgeschichte ,,Pierre Menard, Autor des Quijote`` von Jorge Luis Borges. Der ,,Don Quijote``-Roman des (fiktiven) spätsymbolistischen Dichters Pierre Menard ist zwar bis auf die Autorensignatur in jedem Wort identisch mit dem ,,Don Quijote`` von Cervantes. Doch durch die Neuzuschreibung eines Texts des frühen 17. an einen Schriftsteller des späten 19. Jahrhunderts gewinnt derselbe Wortlaut eine völlig andere Bedeutung:

,,Es ist eine Offenbarung, hält man den Quijote Menards vergleichend neben den von Cervantes. Dieser schrieb beispielsweise [...] ,... die Wahrheit, deren Mutter die Geschichte ist [...].` Verfaßt im 17. Jahrhundert, verfaßt von dem ,Laienverstand` Cervantes', ist die Auszählung nichts weiter als ein rhetorisches Lob auf die Geschichte. Menard dagegen schreibt: [...,Die Wahrheit, deren Mutter die Geschichte ist.`] Die Geschichte, Mutter der Wahrheit: dieser Gedanke ist überwältigend. Menard, Zeitgenosse von William James, definiert die Geschichte mitnichten als eine Erforschung der Wirklichkeit, sondern als deren Ursprung.

Mit Borges' Erzählung ließe sich argumentieren, daß Plagiate, Raubkopien zwar ein juristischer Tatbestand sein mögen, aus ästhetischer Sicht aber keine Form der Aneignung illegitim oder unoriginell sein kann, ja, schon jede neue Lektüre eines Texts ein Plagiat ist, weil sie erstens seine Zeichen wiederholt und zweitens ihn zwangsläufig unzeitgemäß wahrnimmt und genau wie Menard in eine moderne Sichtweise transkribiert. Der ,,Pierre Menard`` ließe sich somit als eine Allegorie aller Leser, Kritiker und Philologen deuten. Nicht nur ist jede Parodie ein (Teil-)Plagiat, jedes Plagiat ist, ob beabsichtigt oder nicht, auch eine Parodie.

Der moderne Begriff der literarischen Parodie wurde maßgeblich geprägt von dem russischen Literaturwissenschaftler Michail Bachtin und seiner Theorie der ,,Dialogizität`` aus den 1920er Jahren. An Dostoevskijs Romanen hatte Bachtin beobachtet, wie sich ein Text maskiert, indem der die Sprache seiner Figuren spricht. Später identifizierte Bachtin diese Sprachmaskierung als formatives Merkmal des Romans überhaupt, das er, am Beispiel von Rabelais' grotesken Romanen, auf eine volkstümliche Lachkultur zurückführte und auf die karnevalistischen Parodierung hoher Kunst und offizieller Diskurse. Die strukturalistische Literaturtheorie der 1960er Jahre, besonders die frühen Schriften von Julia Kristeva, destillierten aus Bachtins Theorie der hybriden Maskierung und parodistischen Doppelzüngigkeit im Romanwort einen neuen Begriff der ,,Intertextualität``, der sich seitdem als allgemeiner Terminus für die Bezugnahme von Texten auf Texte durchgesetzt hat.

Aus sprachwissenschaftlicher Sicht kann Intertextualität nicht von einer Anti-Intertextualität unterschieden werden, denn jeder Text besteht aus Buchstaben, Wörtern und Phrasen, die dem Sprachrepertoire (Paradigma) entnommen werden. Jedes Sprechen ist Zitieren. Intertextualität wird plagiatorisch, wenn Zeichenketten von einer hohen Komplexität und Unterscheidbarkeit - wie zum Beispiel der gesamte Romantext des ,,Don Quijote`` - in einem zweiten Text wiederkehren. So kennzeichnet die Kunst des 20. Jahrhunderts eine systematische Verletzung von geistigem Eigentum, die nicht erst mit postmoderner Zitaten- und popkultureller Sampleästhetik einsetzt, sondern bereits in den Collagen der Kubisten, Futuristen und Dadaisten beginnt, in den Montageromanen und Joyce und Döblin und der Montagemusik von Cage und Zimmermann. Hieran zeigen sich ähnliche Unschärfen und Widersprüche wie in der Abgrenzung von Urheber-, Nutzungs- und Patentrecht: Juristischen Anstoß erregten künstlerische Zeichenappropriationen erst, als sie von den hochkulturell geschützten Avantgarden in Populärkultur migrierten und man Hiphop-Musiker wegen unautorisierten Samplings verklagte.

,,Open Content``-Projekte

Wenn es eine jahrhundertalte Poetik und Ästhetik des Intertextuellen gibt, gibt es dann auch eine neue Ästhetik des freien Codes? Ein sowohl klassisches, als auch schlechtes Beispiel ist das ,,Project Gutenberg``, das noch vor der Erfindung des World Wide Web eine öffentliche digitale Bibliothek der Weltliteratur erstellen wollte; schlecht ist sein Beispiel deshalb, weil es einen provinziellen Literaturkanon mit editorischem Dilettantismus und unklarer Lizenzpolitik verbindet. Unter der Flagge des ,,Open Content`` segeln, neben Musikern, die ihre Tondateien unter freien Lizenzen vertreiben, eine Reihe von Mitschreibprojekten, von denen mir vor allem drei bekannt sind:

Sollten Projekte wie die Nupedia einmal kritische Masse gewinnen (wofür auch das GNU-Softwareprojekt fast zehn Jahre lang brauchte), so würden Sie vor allem die Wissenschaften vor interessante Herausforderungen stellen. Indem ,,Open Content``-Plattformen die kollaborativen Produktionsweisen freier Softwareentwicklung übernehmen, adaptieren sie Methoden, die ihrerseits von den Wissenschaften und ihrem Prinzip des kollektiven peer review übernommen wurden. Nur wird die Wissenserzeugung der Open Content-Projekte durch ihren Umweg über die Freie Software keineswegs wieder zu traditioneller Wissenschaft. So, wie das Copyleft traditionelle Zitierfreiheit letztlich neudefiniert und radikalisiert hat, entkleidet Freie Software-Entwicklung wissenschaftliche Arbeitsweisen aller institutionellen Rituale und ständischen Hierarchien. Ihre nüchterne Meritokratie drückt sich zum Beispiel darin aus, daß der Entwicklungschef des stabilen, für Endnutzer vorgesehenen Linux-Kernels ein 18jähriger Brasilianer ist.

Allerdings fällt jeder quantitative und qualitative Vergleich von ,,Open Content``-Schreibprojekten mit freier Software ernüchternd aus, erst recht, wenn man bedenkt, daß der Start von http://www.opencontent.org bereits vier Jahre zurückliegt. So ist ,,Open Content`` virulenter als potentielles Lizenzierungsmodell für bestehende freie Informationsangebote, denn als ein Konzept, das eigene Angebote generiert oder kommerzielle Geschäftsmodelle in Frage stellt. Noch mehr gilt dies für die Künste. Das verbreitete Argument, daß ohnehin nur die wenigste Künstlern leben von der Publikation ihrer Werke leben könnten - Lyrikbände selbst namhafter Autoren haben zum Beispiel selten Auflagen von mehr als wenige hundert Stück -, verkennt zum Beispiel die Notwendigkeit und Kosten eines professionellen Lektorats, der Redaktion, Übersetzung und Edition. Öpen Content" ist daher kaum interessant für privatwirtschaftliche Verlage, die berechtigterweise auf traditionellen Urheberrechtsschutz angewiesen sind, um professionell arbeiten zu können, sondern vielmehr eine Herausforderung für den öffentlichen Sektor. Im Zeitalter des Internets müssen unbequeme Fragen gestellt werden, wie zum Beispiel: Warum werden öffentlich finanzierte Forschungsergebnisse durch Verlage oder gar Patente proprietarisiert? Warum müssen staatlich finanzierte Literatur-Editionen nicht unter freier Nutzungslizenz ins Internet gestellt werden? Warum gilt ähnliches nicht für öffentlich bezahlte Auftragsarbeiten: Dramen für Stadttheater, Kunst am Bau, Auftragskompositionen? Warum sind gebührenfinanzierte Produktionen des öffentlich-rechtlichen Rundfunks nicht öffentlich verfügbar, sondern werden lizenzkostenpflichtig in Rundfunkarchiven gehortet?

Zuletzt

Das Schlagwort ,,Open Content`` führt mittel- und langfristig auf den Holzweg, wenn man sich der ihm eingeschriebenen Ideologie von Form und Inhalt entledigt. Die Gegenspieler haben dies schon begriffen, wenn sie per ,,Digital Rights Management`` und kryptographischen ,,Fingerabdrücken`` Nutzungskontrollen direkt in Datenströme einkodieren. Im Richtungskampf über die künftige Ordnung digitalen Wissens können sogenannte digitale ,,Inhalte`` nicht von digitalen Formaten, Software- und Hardware-Architekturen separiert werden, die ihrerseits politisch und ästhetisch codierte Schriften sind.

©Dieser Text unterliegt der Open Publication License Version 1.0 http://opencontent.org/openpub/ und darf gemäß ihrer Bestimmungen frei kopiert und weiterverwendet werden.