Florian Cramer on Tue, 4 Jun 2002 18:58:14 +0200 (CEST) |
[Date Prev] [Date Next] [Thread Prev] [Thread Next] [Date Index] [Thread Index]
[rohrpost] Vom Freien Gebrauch der Nullen und Einsen - "Open Content" und Freie Software [1/2] |
[Anmerkung vorab: Dies ist das Manuskript eines Vortrags, dessen erste Fassung am 4.7.2001 in der Stadtbücherei Stuttgart und dessen zweite Fassung am 13.5.202 im Medienkunstzentrum Hangar in Barcelona gehalten wurde. - Ich danke Johannes Auer sowie Olivier Schulbaum und Susana Noguero von platoniq für die Einladungen. - Ich plaziere den Text hier als follow-up zu Tilmans thematisch verwandten Artikel "Die Rache der Hacker" vom 22.5.. Die Originaldateien gibt es unter: http://userpage.fu-berlin.de/~cantsin/homepage/writings/copyleft/open_content/open_content_-_stuttgart_barcelona/open_content.pdf http://userpage.fu-berlin.de/~cantsin/homepage/writings/copyleft/open_content/open_content_-_stuttgart_barcelona/open_content.html http://userpage.fu-berlin.de/~cantsin/homepage/writings/copyleft/open_content/open_content_-_stuttgart_barcelona/open_content.tex - Florian] Id: opencontent.tex,v 1.36 2002/06/04 15:27:11 paragram Exp Vom freien Gebrauch von Nullen und Einsen - ,,Open Content`` und Freie Software Florian Cramer 4.5.2002 Ein Beispiel von vielen: Zur Zeit werden analoge VHS-Videocassetten durch die digitale DVD abgelöst. Die technischen Vorteile sind dieselben wie beim Systemwechsel von Audiocassetten zur Musik-CD vor mehr als zehn Jahren, mit einer künstlichen Einschränkung allerdings. Jeder DVD-Film enthält einen Regionalcode, der dafür sorgt, daß zum Beispiel eine in den USA gekaufte DVD nur in Nordamerika und eine in Europa gekaufte DVD nur in Europa abgespielt werden kann. Damit soll verhindert werden, daß etwa ein amerikanischer Film aus den USA importiert wird, bevor er in Europa in die Kinos kommt, ungeachtet der Tatsache, daß die Original-DVD auch Jahre später nicht in Europa abspielbar sein wird. Man stelle sich vor, ein in den USA gekauftes Buch würde durch einen technischen Selbstzerstörungsautomatismus in dem Moment seine Seiten schwärzen, da man mit ihm den Atlantik überquert. Vor welche Probleme die Reginalcodierung von DVD-Filmen Bibliotheken, Sammlungen und Filmmuseen schon heute stellt, erübrigt sich deshalb weiter auszuführen. Dabei ist diese Codierung nur eine technisch primitive Vorstufe von digitalen Medien, die, um Kopien zu verhindern, individuell für das jeweilige Abspielgerät ihres Käufers oder Abonnenten codiert werden. Diese Technik firmiert heute unter dem euphemistischen Namen ,,Digital Rights Management (DRM)``. Das Buch, das sich beim Atlantiküberflug einschwärzt, ist in Gestalt von E-Books mit ,,Digital Rights Management`` bereits Realität. Auf Grund von Urheberrechtsnovellen ist in den USA, demnächst auch in der Europäischen Union, nicht nur der urheberrechtlich illegale Vertrieb von Medien strafbar, sondern bereits die Bereitstellung von Technologien, die solch einen unerlaubten Vertrieb ermöglichen. Auf der Grundlage dieses neuen Rechts wurde in den USA der russische Programmierer Dimitri Sklyarov verhaftet, der eine Software zur Aushebeln der Paßwortkontrolle von E-Books geschrieben hatte. Nach Jahrzehnten der promiskuitiven Freiheit von digitaler Information im Internet erleben wir zur Zeit einen Backlash der Proprietarisierung digitaler Nullen und Einsen. Es wiederholt sich damit eine Entwicklung, die sich in den 1970er und 1980er Jahren schon in der Computersoftware vollzog. Wir kennen heute die zwei Resultate dieser Entwicklung: einerseits proprietäre Software wie die von Microsoft, andererseits freie Software wie Linux. Die Frage heute ist, nach welchem dieser beiden Modelle auch andere digitale Information und mit ihr die sogenannte Wissensgesellschaft organisiert wird, oder ob beide Interessen möglich ausgeglichen werden können wie die von Buchhandel und öffentlichen Bibliotheken durch das heutige Urheberrecht. Was sind ,,Freie Software`` und ,,Open Source``? Freie Software ist die älteste Form öffentlichen Wissens im Internet und, wie sich in den letzten Jahren immer deutlicher herausgestellt hat, auch die konzeptuell avancierteste aller jener Netzkulturen, die sich Informationsfreiheit auf ihre Fahnen geschrieben haben. So ist auch das Konzept des ,,Open Content`` direkt nach Freier Software bzw. Open Source modelliert. ,,Open Source`` hat sich seit 1998 als Alternativbezeichnung zu Freier Software eingebürgert. Technisch bezeichnen beide dasselbe, lediglich die politisch-philosophischen Nuancierungen sind verschieden. ,,Open Source`` unterstreicht, daß nicht nur lauffähige Software, sondern auch ihr Programm-Quellcode offengelegt ist, also nicht nur das fertige Produkt, sondern auch sein Herstellungsrezept. ,,Freie Software`` betont, daß es dabei nicht bloß um das Offenlegen von Interna geht, sondern auch um die Nutzungsfreiheit des offengelegten Codes. Während der Begriff ,,Freie Software`` seit den 1980er Jahren verbreitet ist, wurde ,,Open Source`` als Manageretagen-kompatibles Schlagwort erst 1998 geprägt. Firmen wie Netscape und Sun konnten leichter davon überzeugt werden, ihre Software wie den Netscape-Browser und das Programmpaket StarOffice als ,,Open Source`` freizugeben denn als ,,Freie Software``, auch wenn es auf dasselbe hinauslief. Doch welche ,,Offenheit`` und ,,Freiheit`` ist gemeint? Auf allen Computersystemen ist traditionell Software verbreitet, die frei benutzt und weitergegeben werden kann und unter Namen wie ,,Freeware`` oder ,,Shareware`` firmiert. Auch werden Browser- und Abspielprogramm wie der Microsoft Internet Explorer, der RealPlayer und der QuickTime Player traditionell kostenlos verteilt. Doch gehen ,,Freie Software`` und ,,Open Source`` weit über solche Gratissoftware hinaus: 1. Nicht nur das Fertigprodukt, sondern auch der Programm-Quellcode (gewissermaßen das Kochrezept oder der Bauplan der Software) wird mitgeliefert; 2. Verbreitung und Nutzung des Programms unterliegt keinen Restriktionen. Das heißt auch, daß Freie Software kommerziell verkauft werden darf, ohne daß ihre Autoren am Gewinn beteiligt werden; 3. der Programm-Quellcode darf nicht nur eingesehen, sondern auch modifiziert bzw. ganz oder in Teilen in andere Programme eingebaut werden; 4. das veränderte Programm darf frei verbreitet werden. Freie Software bewirkt somit mehrerlei: Erstens begeben sich ihre Nutzer auch dann, wenn sie selbst keine Programmierer sind, nicht in die Abhängigkeit eines Herstellers, so, wie etwa Firmen von Datenbank-Herstellern abhängig sind oder wie viele digitale Kunst von proprietären Programmen wie z.B. QuickTime und Flash abhängig geworden und zum Untergang verurteilt ist, wenn ihre Hersteller ihre Entwicklung und Anpassung an aktuelle Computer und Betriebssysteme einstellen. Ein anderes Beispiel sind kostenlose, aber nicht-freie Internet-Dienste wie z.B. die Mailinglisten der ,,Yahoo Groups``. Würde Yahoo diesen Dienst einstellen oder kostenpflichtig machen, wären auch zahlreiche Netzkunst-Projekte betroffen, und die Web-Archive wichtiger Mailinglisten könnten verschwinden. Da Yahoo weder vollen administrativen Zugriff auf seine Server gewährt, noch die auf den Servern laufende Yahoo Groups-Software freigibt, ist den Nutzern die Kontrolle über den Dienst - und letztlich auch über die von ihnen selbst eingestellten Textbeiträge - entzogen. Freie Programme hingegen gehören ihrer Nutzergemeinschaft und können ihr nicht mehr weggenommen werden. Erlahmt die Entwicklung, kann jeder andere Programmierer einspringen und mit dem hinterlassenen Code weiterarbeiten, oder die Nutzergemeinde selbst kann freie Programmierer für notwendige Anpassungen und Erweiterungen anheuern. Wird, wie im Beispiel der Mailinglisten, ein Netzdienst eingestellt, so ist es möglich, ihn andernorts mit denselben Funktionen fortzuführen, wenn man statt ,,Yahoo Groups`` auf eine freie Software wie GNU Mailman zurückgreift. Zweitens wächst Freie Software zu einer öffentlichen Bibliothek von frei benutzbaren Programmfunktionen. Während Firmen, die zum Beispiel ein Konkurrenzprodukt zu Microsoft Word entwickeln wollen, mit null Codezeilen anfangen und Millionenbeträge in die Nachprogrammierung gängiger Programmfunktionen investieren müssen, müssen freie Entwickler das Rad nicht neuerfinden, sondern können auf zahllose fertige Module - wie z.B. Rechtschreibprüfprogramme - zurückgreifen oder ein vorgefundenes Programm nach ihren Vorstellungen umschreiben. Zentral für das Konzept der Freien Software ist also der Gedanke, daß Softwarecode erstens Architektur und Infrastruktur ist, zweitens Wissen und es drittens keine Hersteller-Monopole auf diese Infrastruktur und dieses Wissen geben darf. Open Content Der Begriff ,,Open Content`` wurde 1998, im selben Jahr wie ,,Open Source``, von der Webseite http://www.opencontent.org lanciert. Er steht seitdem für den Versuch, die Spielregeln von Freier Software möglichst nahtlos auf alle anderen Formen digitaler Information zu übertragen. So war die ,,Open Content ``-Initiative auch der erste Versuch, die Philosophie und Politik Freier Software in andere Netzkulturen hineinzutragen. Doch nicht nur mit dem Schlagwort ,,Open`` wird in der Computerindustrie gewohnheitsmäßig Schindluder getrieben, sondern auch ,,Content`` ist ein problematischer Begriff. Im Verständnis der Medienindustrie ist ,,Content`` dasjenige, mit dem Medien gefüllt werden. Agentur-Nachrichten zum Beispiel sind solch ein ,,Inhalt``, der sich wahlweise in Zeitungen, ins World Wide Web, ins Radio oder auf öffentliche Anzeigetafeln ergießt. Wenn ein Medienkonzern die Übertragungsrechte der Fußball-Weltmeisterschaft hält, besitzt er einen ,,Content``, den er in mehreren Medien verbreiten kann. Die Rede vom ,,Content `` beruht somit auf einer Unterscheidung von ,,Form`` und ,,Inhalt``, Zeichenträger und Zeichen; eine Dichotomie, die nicht nur als solche problematisch ist, sondern auch umso fragwürdiger wird, je mehr Zeichenträger bzw. Medien, wie etwa DVD-Filme oder CD-Musik, selbst nur Zeichen, nämlich Codes für die Formatierung anderer Codes sind. Indem ,,Open Content`` die Öffnung dieser Zeichen verkündet, bezeichnet der Begriff, im allgemeinsten Sinne, Daten - Schriften, Bilder, Töne -, die nicht exklusiv und proprietär vermarktet werden, sondern öffentlich und frei zur Verfügung stehen. Gemeint sind vor allem digitale Daten, spezifischer noch digitale Daten im Internet. Retrospektiv hat die Lancierung von ,,Open Content`` einen problematischen Beigeschmack, den nämlich des Dotcom-Fiebers der späten 1990er Jahre und der damals verbreiteten Vorstellung, man könne Produkte verschenken, um später an Dienstleistungen zu verdienen. Eine Illusion, die vorübergehend auch Risiko- und Börsenkapital in die Kassen von Freie Software-Firmen spülte und Programmierer glauben ließ, vom Schreiben Freier Software leben zu können. Damals schon und heute erst recht ist dies ein Privileg einer kleinen Programmiererelite geblieben, und keiner Firma ist es bisher gelungen, nur mit der Entwicklung von Freier Software profitabel zu arbeiten. Noch mehr gilt dies für andere Formen digitaler Information. Zum Beispiel wäre es für fast alle freien Buchautoren illusorisch zu glauben, man könne statt von klassischen Honorar-Knebelverträgen von ,,Open Content``-Publikationen leben. Daß das Schlagwort ,,Open Content`` dennoch aktuell geblieben ist, hat zwei Gründe. Erstens gab und gibt es neben bezahlter Autorentätigkeit nichtkommerzielle, öffentliche Informationsangebote, die langfristig zugänglich gemacht und als öffentliches Gut besser geschützt werden könnten, wenn ihre Urheber sie unter kodifizierte Lizenz-Spielregeln nach dem Vorbild Freier Software stellen würden. Zu diesen Angeboten zählen, neben Websites und Diskussionsforen, die von Idealisten und Enthusiasten betrieben werden, die gesamte Textproduktion der öffentlich finanzierten Wissenschaften, von Bildungsinstitutionen, Non-Profit-Organisationen und Einrichtungen wie Bibliotheken, Museen und Archiven, potentiell auch von öffentlich-rechtlichen Medien. Zweitens bedroht ein verschärftes Urheber- und Patentrecht, dessen Kontrolle in die digitalen Medien und Netze selbst einkodiert wird, die technische Infrastruktur, die solche freien Angebote erst möglich gemacht hat. Daß es mit dem Internet eine technisch offene Plattform zur Verbreitung von Information gibt, ist keine in Stein gemeißelte Selbstverständlichkeit. Wie schnell eine Kultur des promiskuitiven Code-Austauschs abgeschafft werden kann, zeigt die Geschichte der ältesten Form digitaler Information - der Computer-Software - seit den 1970er Jahren. Zur Mediengeschichte der Software War die Programmierung von Computern zu Beginn eine akademisch-mathematische Disziplin, so begünstigte die Erfindung maschinenübergreifender Programmiersprachen wie Algol und Fortran ab den 1960er Jahren eine Programmierkultur, die Universitäten, Computerhersteller und andere Firmen gleichermaßen einschloß. Auch in den 1970er Jahren sah die Computerindustrie Software als Dienstleistung und kostenlose Zugabe zu Rechnern an. Epochal waren vor allem die Erfindung des Mehrbenutzer-Betriebssystems Unix und der Programmiersprache C in den ,,Bell Labs`` der Telefongesellschaft AT&T. Unix war eine genial konzipierte Software, was sich nicht zuletzt daran zeigt, daß auch heute noch die Blaupause bzw. den Unterbau wichtiger Betriebssysteme wie GNU/Linux, FreeBSD, Solaris und MacOS X bildet. Kritische Masse gewann Unix aber nicht nur dank seiner eincodierten intellektuellen Brillanz, sondern auch dadurch, daß es gegen marginale Pauschalgebühren an Bildungsinstitutionen weitergegeben wurde, mitsamt seinem Programm-Quellcode und der Erlaubnis, ihn zu modifizieren. An Universitäten wie der University of California at Berkeley wurde Unix von Informatikstudenten wie Bill Joy konsequent zu einem Netzwerkbetriebssystem weiterentwickelt und damit zum technischen Fundament dessen, daß später Internet hieß. E-Mail z.B. war ursprünglich das Unix-Kommando ,,mail`` und das Domain-Namensystem, das physischen Rechneradressen Namen wie ,,gnu.org`` zuordnet, eine Erweiterung der Unix-Systemdatei ,,hosts``. Da die universitären Weiterentwicklungen von Unix wieder in das AT&T-Unix zurückflossen, war Unix Produkt einer funktionierenden Kollaboration von freien und in Firmen angestellten Entwicklern. Diese Netzkultur zerbrach jedoch, als in den frühen 1980er Jahren mit dem Aufkommen der Personal Computer Software nicht mehr als kostenlose Service-Beigabe, sondern als Ware begriffen wurde. Ein klassisches Dokument dieses Wandels ist der ,,Open Letter to Computer Hobbyists`` von Bill Gates, dessen Firma Microsoft damals noch keine Betriebssysteme, sondern Homecomputer-Programmiersprachen entwickelte und kommerziell vertrieb. In diesem Brief appelliert Gates an Homecomputer-Nutzer, Microsoft-Programme nicht untereinander kostenlos zu tauschen, sondern käuflich zu erwerben, weil nur damit die Weiterentwicklung der Software gesichert wäre. Zur gleichen Zeit kündigte AT&T, juristisch begünstigt durch eine Restrukturierung der Firma, den Universitäten seine liberale Unix-Politik auf und begann, das Betriebssystem teuer an andere Computerhersteller zu lizenzieren. Die freien Mitautoren der Software wurden dadurch faktisch enteignet. So machte zehn Jahre vor der Erfindung des World Wide Web die älteste Netzkultur der Computerhacker eine Erfahrung, die zum Beispiel künstlerischen Netzkulturen noch bevorstehen könnte, wenn die Hersteller von de-facto-Standardsoftware wie Flash oder Java einmal ihre Lizenzspielregeln ändern sollten. Einige freie Entwickler zogen daraus die Konsequenz, daß man von Null anfangen und einen diesmal vollständig freien Clone des Unix-Betriebssystems schreiben müsse. 1983 gründete der MIT-Programmierer Richard Stallman das GNU-Projekt, dessen Akronym für ,,GNU is not Unix`` stand. In langjähriger Kleinarbeit entstanden Schritt für Schritt GNU-Clones aller Unix-Systemprogramme, die jedoch vorerst nicht ohne den Unterbau eines kommerzieller Betriebssysteme nutzbar waren. Autark wurde das System erst, als Linus Torvalds 1991 den Linux-Betriebssystemkern schrieb, der in Kombination mit der GNU-Software ein fertiges Unix-kompatibles Betriebssystem ergab. Was seit 1994 in der Regel nur unter dem Namen ,,Linux`` firmiert, ist tatsächlich eine Kombination aus diverser freier Unix-kompatibler-Anwendungssoftware mit dem technischen Unterbau des Linux-Kerns und der GNU-Programme. Um zu verhindern, daß das neue System proprietarisiert würde wie Unix von AT&T, entwickelte das GNU-Projekt neben seinem Programm-Code auch einen juristischen Code, der die Freiheit der Software absichern sollte. Die GNU General Public License (GPL), unter der nicht nur Linux und die GNU-Software, sondern auch viele freie Software wie z.B. der KDE-Desktop lizenziert sind, ist ein ingeniöser Hack des Copyrights, der mit den Schutzmechanismen des Urheberrechts absichert, daß Code nur frei verbreitet werden darf. In dieser Hacker-Logik nennt das GNU-Projekt die GPL nicht ein Copyright, sondern ein ,,Copyleft``. Nach den Spielregeln des GPL-Copylefts darf Code wie alle freie Software frei kopiert, frei genutzt, modifiziert und auch kommerziell vertrieben werden. Von Public Domain und anderen freien Lizenzbestimmungen unterscheidet sich die GPL jedoch dadurch, daß sie es verbietet, freien Code proprietär zu machen und vorschreibt, daß Modifikationen von GPL-Code wieder unter die GPL gestellt werden. Die praktische Konsequenz ist, daß jeder, der in ein Programm GPL-lizenzierten Code einfügt, auch das fertige Programm unter die GPL Stellen muß, so daß, wie vor allem Microsoft argumentiert, die GPL den Charakter eines juristischen Computerviruses hat. Je umfangreicher und attraktiver die öffentliche Bibliothek von GPL-lizenziertem Programmcode wird, desto größer ist auch der Anreiz für Programmierer, sich ihr zu bedienen und damit nolens volens zu ihr beizutragen. Genau aus diesem Grund verbieten es auch Microsofts neueste Lizenzverträge, Microsoft-Produkte in Verbindung mit GPL-Code zu verwenden. ,,Freie Software`` ist somit, formal gesehen, ein Lizenzierungsmodell und definiert sich daher nicht durch Programmiertechnik, sondern rein juristisch. Indem sie der juristischen Kontrolle proprietärer Distributionsmodelle eigene juristische Regeln entgegensetzt, partizipiert sie nolens volens an der zunehmenden Verrechtlichung digitaler Netze und Medien. Seitdem das Internet zum Schlachtfeld von Urheber-, Patent- und Markenrecht geworden ist, leben private Anbieter von Informationen im Netz mit dem latenten Risiko, zum Beispiel wegen Verletzungen von Wortmarken abgemahnt zu werden. Freie Lizenzen wie die GPL versuchen, den Spieß umzudrehen und Information freier zu machen, als es das Standard-Urheberrecht vorsieht. Genau hieran knüpft das Modell des ,,Open Content``, das die Lizenz-Regelungen der Freien Software übernimmt, adaptiert, damit gewissermassen den rechtlichen und politischen Kern der Freien Software herausschält und verallgemeinert. Würden nichtkommerzielle Informationsangebote im Internet - zum Beispiel medizinische Ratgeber, private Linksammlungen, Text- und Bildarchive - unter ,,Open Content``-Lizenzen gestellt, so wäre damit erst gewährleistet, daß dieses Informationen frei weiterverwendet, auf anderen Servern gespiegelt und nötigenfalls von neuen Autoren aktualisiert werden könnten. Anderenfalls greift automatisch das normale Urheberrecht. Würde einer der zahllosen Hobbyisten, die heute nützliche Internetangebote betreiben, plötzlich sterben, würde seine Website vom Netz verschwinden und dürfte, selbst wenn dies wahrscheinlich nicht seinem Willen entspräche, erst siebzig Jahre nach seinem Tod gespiegelt oder weitergeführt werden. So, wie die Freie Software erst in den 1980er Jahren die Notwendigkeit rechtlicher Selbstabsicherung in den Köpfen freier Programmierer implementierte, geht es bei ,,Open Content`` weniger um eine Kulturrevolution des Copyrights, als um die Bewahrung bestehender freier Information. Die Definition von ,,Open Content`` Mit der Website http://www.opencontent.org wurde 1998 auch eine ,,Open Content License`` aus der Taufe gehoben, die wortgleich war mit der GNU General Public License bis auf die durchgehende Ersetzung des Worts ,,software`` durch ,,content``. Seitdem sind mit der ,,Open Document License``, der ,,Open Publication License (OPL)``, der ,,GNU Free Documentation License (FDL)``, der ,,Scientific Design License (SDL)``, der Open Music License sowie der Open Audio License der Electronic Frontier Foundation, der ,,Freien Lizenz für Texte und Textdatenbanken`` des Münchener Instituts für Rechtsfragen von Freier und Open Source Software und schließlich der Free Art License zahlreiche weitere ,,Open Content``-Lizenzen hinzugekommen. Während in der Freien Software sich nach einer zwischenzeitlichen Inflation von Lizenzmodellen zwei Lizenztypen durchgesetzt haben, nämlich einerseits die GNU GPL, die Proprietarisierung von freiem Code verbietet, und andererseits Berkeley Unix-ähnliche Lizenzen, die Proprietarisierungavon freiem Code erlaubt, schreckt die Vielzahl der ,,Open Content``-Lizenzen potentielle Interessenten ab und führt auch zur unerfreulichen Situation, daß verschieden lizenzierte Informationsquellen wegen inkompatibler Spielregeln nicht miteinander kombiniert werden dürfen. Wieso ist es überhaupt nötig, für ,,Open Content`` eigene Spielregeln zu erfinden? Welche Erfordernisse werden nicht durch die klassischen Lizenzmodelle Freier Software abgedeckt? Tatsächlich gibt es zum Beispiel Bücher und Musikdateien, die unter die GNU General Public License gestellt wurden. Potentiell problematisch ist dies allerdings in zweierlei Hinsicht: Sowohl die GPL, als auch die unmittelbar von ihr abgeleiteten ,,Open Content``-Lizenzen bieten keinen Schutz vor Zensur oder mutwilligen Verfälschungen in abgeleiteten Werken, die auf den ersten Urheber zurückfallen könnten. Ein historisches Beispiel ist die Verfälschung eines Kapitels der 1864 publizierten ,,Gespräche in der Unterwelt zwischen Machiavelli und Montesquieu`` des französischen Republikaners Maurice Joly in die ,,Protokolle der Weisen von Zion``, einem anonym antisemitischen Pseudo-Dokument einer jüdischen Weltverschwörung. Ein Autor hätte keine rechtliche Handhabe gegen solche Verfälschungen seines Werks, wenn es unter der GPL oder der ,,Open Content License`` stünde. Zweitens fällt die Tatsache, daß frei lizenzierte Werke von Dritten ohne Honorierung der Urheber kommerziell vertrieben werden dürfen, zum Beispiel für freie Buchautoren und Musiker viel negativer ins Gewicht als für angestellte Programmierer, die üblicherweise mehr Geld verdienen und auch nicht auf Zeilen- oder Auflagenhonorare angewiesen sind. Beide Probleme, Zensur und kommerzielle Ausbeutung, sind in neueren Open Content-Lizenzen berücksichtigt. Die ,,Open Publication License`` zum Beispiel erlaubt es, digitale Texte frei in Netzen zu verbreiten, stellt aber Modifikationen und Nachdrucke auf Papier unter Urheber-Vorbehalt. Die ,,Freie Lizenz für Texte und Textdatenbanken`` hingegen schreibt typographische Auszeichnungen aller veränderten Textpassagen vor, während die ,,GNU Free Documentation License``, um Zensur zu verhindern, unveränderliche Textpassagen vorsieht und außerdem, analog zu Quellcode und ausführbarem Code von Computersoftware, bestimmt, daß Dokumente in ,,transparenten``, d.h. herstellerunabhängig les- und schreibbaren Dateiformaten erstellt werden müssen. So, wie ,,Freie Software`` zunächst keine Software-Entwicklungsmethode ist, sondern ein Lizenzierungsmodell für digitalen Code, ist ,,Open Content`` in seinen derzeitigen Lizenzmodellen in Wahrheit keine Ergänzung oder Ausdehnung, sondern ein politischer Korrekturversuch des Copylefts. Zensur und Ausbeutung sind für Freie Software-Entwickler ebenfalls problematisch; so, wie die ,,Gespräche in der Unterwelt zwischen Machiavelli und Montesquieu`` zu den ,,Protokollen der Weisen von Zion`` umgeschrieben wurde, wurde etwa auch das Computerspiel ,,Castle Wolfenstein`` in eine Pro-Nazi-Software verändert. Da die Erstversionen der Ego-Shooter ,,Doom`` und ,,Quake`` mittlerweile unter der GPL freigegeben sind, können sie legal auf ähnliche Weise modifiziert werden. So zeigt die Ausdehnung der GPL auf andere digitale Formate einige allgemeinen Schwächen klassischer freier Lizenzen auf, die aber durch eine Balkanisierung gemäß bestimmter Ausgabeformatierungen digitaler Nullen und Einsen (als Software-Algorithmen, als Bücher, als Musik oder als Film) nicht wettgemacht werden. Wenn Computerprogrammcode eine subjektive und ästhetische Äußerungsform ist und unter die Redefreiheit fällt, so ist die Unterscheidung von ,,Software `` und ,,Content`` letztlich konventionell und willkürlich. Statt ,,Open Content`` von ,,Freier Software`` abzugrenzen, könnte man beide ebensogut - oder besser - unter einen Begriff wie ,,freien Code`` fassen. Die Unterscheidung von ,,Software`` und ,,Content`` kollabiert auch dadurch, daß es sich bei beiden um Nullen und Einsen handelt, die lediglich durch ihre maschinelle Interpretation sich das eine oder andere materialisieren. Dadurch, daß der Computer eine symbolverarbeitende Maschine ist, wird Schrift in ihm zu Architektur und Architektur zu Schrift. Ein prominentes Beispiel ist das Programm ,,DeCSS``, das kryptographische Auslesesperren von DVD-Filmen aufhebt und deshalb in den USA gerichtlich verboten wurde. Da sich das Verbot gegen die Schriftzeilen des Programm-Quellcodes richtete, wurde es von seinen Kritikern als Schriftzensur gedeutet, die im Widerspruch zur garantierten Redefreiheit im ersten Verfassungszusatz der USA steht. Um dies zu untermauern, wurde ,,DeCSS`` unter anderem in ein Gedicht umgeschrieben und als T-Shirt-Aufdruck verbreitet. {1} So kann nicht nur eine arbiträre Kette von Nullen und Einsen je nach vermuteter Codierung für ein Computerprogramm oder zum Beispiel für Goethes ,,Heideröslein`` gehalten werden, es wäre auch möglich, eine Computersprache zu entwerfen und für sie einen Compiler zu schreiben, der den Originaltext des ,,Heideröslein`` als hochsprachliche Notation eines Programms interpretiert, dessen maschinenausführbares Produkt funktional äquivalent zu DeCSS ist. Würde das ,,Heideröslein`` dann gegen geltendes Recht verstoßen? Der Fall Napster und das ,,Digital Rights Management`` Der Schritt hin zu einer umfassenderen Politik des freien Code ist in der Praxis schon längst vollzogen. An Netzforen wie http://www.slashdot.org kann man ablesen, wie seit 1998 ist aus der Debatte über Freie Software und ,,Open Content`` eine viel allgemeinere Diskussion der Informationsfreiheit und des Konzepts des ,,geistigen Eigentums`` im Zeitalter der digitalen Information geworden ist. Mittlerweile ist diese Diskussion in einer breiten Öffentlichkeit angekommen. Prominente Streitfälle waren peer-to-peer-Netze wie die Musik-Tauschbörse Napster, die internationale Rebellion von Wissenschaftlern, vor allem Biologen und Mathematikern, gegen die Praxis von akademischer Fachzeitschriften, Artikel nicht frei ins Internet zu stellen und schließlich die Strafverfolgung von Programmierern, deren Software kryptographische Herstellercodierungen von DVD-Filmen und elektronischen Büchern aushebelt. Selbst dann, wenn man diese Kontroversen neutral zu beschreiben versucht, lassen sich zwei Schlüsse aus ihnen ziehen: Erstens, daß das traditionelle [--> 2/2] -- http://userpage.fu-berlin.de/~cantsin/homepage/ http://www.complit.fu-berlin.de/institut/lehrpersonal/cramer.html GnuPG/PGP public key ID 3200C7BA, finger cantsin@mail.zedat.fu-berlin.de ------------------------------------------------------- rohrpost - deutschsprachige Liste fuer Medien- und Netzkultur Archiv: http://www.nettime.org/rohrpost http://post.openoffice.de/pipermail/rohrpost/ Ent/Subskribieren: http://post.openoffice.de/cgi-bin/mailman/listinfo/rohrpost/