UTOPIE kreativ, H. 117
(Juli 2000)
S. 649-658
Vorbemerkungen
In der programmatischen Debatte im Umfeld der PDS ist (wieder einmal) ein heftiger Streit darüber entbrannt, ob bzw. inwiefern die kapitalistische Gesellschaftsordnung auch als »moderne Gesellschaft« begriffen werden kann und muß. Im Kern geht es dabei um eine realistische Interpretation der Marxschen Erkenntnis, daß »neue höhere Produktionsverhältnisse nie an die Stelle alter treten, bevor die materiellen Existenzbedingungen derselben im Schoß der alten Gesellschaft selbst ausgebrütet worden sind« (MEW 13: 9).
Diese These wird auch von den Kritikern des Moderne-Ansatzes nicht in Frage gestellt. Die Differenzen beginnen allerdings bereits bei der Frage, welche Entwicklungen als Keime einer sozialistischen Alternative anzusehen sind und wie sich diese entwickeln werden.
Methodisch konsequent zu Ende gedacht muß ein derartiger Ansatz auch danach forschen, wie solche Keime in die alte Gesellschaft eingebettet sind und diejenigen Prozesse und Instrumente heraus finden, die schon heute, in der Logik gegenwärtiger gesellschaftlicher Verhältnisse, in der Lage sind, diesen Keimen ein Substrat zu bereiten, auf dem sie knospen, sich entwickeln und Früchte tragen können, statt einzugehen. Ein solches Herangehen kann selbstverständlich kein Ersatz für die Kritik der gegenwärtigen Herrschaftsverhältnisse sein, bedeutet aber, viel intensiver und unmittelbarer in diese Gesellschaft hinein zu schauen und in der Summe der Widersprüche und Perversionen auch Tendenzen und Prozesse aufzuspüren, die weit unter der Oberfläche auf sehr subtile Weise globalen Trends entgegen wirken. Zweifellos bedarf es sehr genauer analytischer Arbeit, um die Kraft und Dynamik solcher Gegentrends realistisch einzuschätzen. Diese Arbeit steht wohl, wenigstens die Analyse heutiger Umbrüche betreffend, im wesentlichen noch bevor.
Daß solche unscheinbaren Trends wichtig für Analyse und Prognose gesellschaftlicher Veränderungen sind und nicht nur Fluktuationen um einen ansonsten stabilen »Endzustand der Geschichte« (Fukuyama) darstellen, wird aus marxistischer Sicht damit begründet, daß »die Bourgeoisie nicht existieren kann, ohne (…) sämtliche gesellschaftlichen Verhältnisse fortwährend zu revolutionieren« (MEW 4, S. 465).
Im Gegensatz zu Marx sehen wir heute die historische Dynamik solcher Umwälzungsprozesse klarer. Sie ist keineswegs so linear, wie es das Zitat nahe legt, sondern wird durch ein Wechselspiel von Phasen größerer Umbrüche und Zeiten relativer Konstanz wenigstens der wichtigsten Formen der Produktionsorganisation geprägt. Die größeren Umbruchphasen korrelieren eng mit wichtigen technologischen Durchbrüchen und haben wie die Kondratjew-Wellen eine Periode von etwa 70 bis 80 Jahren. Es waren wohl auch diese Umbrüche, die Marx um 1850 und Lenin um 1920 zu sehr optimistischen Prognosen für eine sozialistische Perspektive verleitet haben. Der Kapitalismus hat jedoch in beiden Umbruchphasen eine erstaunliches Anpassungsvermögen unter Beweis gestellt und war jeweils in der Lage, zu neuen Formen der Produktionsorganisation überzugehen (von der Manufaktur zum Fabriksystem der industriellen Produktion und später zum Fließbandsystem des Fordismus), ohne die eigenen Grundpfeiler in Frage zu stellen. Eine solche einigermaßen schlüssige Anpassung steht für die aktuelle Umbruchphase bisher aus.
Wenn wir uns in der Analyse heutiger Umbrüche auf Marx stützen wollen, dann gilt es also zu berücksichtigen, daß er zu seiner Zeit die Wellenform dieser Umbruchprozesse nicht genauer erkennen konnte und somit sicher an vielen Stellen die Charakterisierung des speziellen Umbruchs um 1850 (des Übergangs zur industriellen Produktion) und die Momente der allgemeineren Dynamik (insbesondere die wachsende Rolle allgemeiner Arbeit) nicht sauber genug trennt. Ein solches Defizit gilt es heute zu vermeiden, wobei sowohl die spezielle Dynamik der aktuellen Umbrüche (Übergang zu einer Gesellschaft, die durch die Allgegenwart von Computern geprägt wird) als auch die allgemeine Dynamik (das Ende der »Vorgeschichte der menschlichen Gesellschaft« – MEW 13: 9) zu analysieren sind.
Ein großer Teil der Irritationen, die die programmatische Debatte in der PDS bisher begleiten, liegt zweifellos darin begründet, daß sich die »Modernisierer« (etwa im »Kommentar« oder den Mehrheitsthesen) stärker auf die Dynamik zivilgesellschaftlicher Instrumente und damit auf diese allgemeinen Fragen konzentrieren, während eine fundierte Charakterisierung des speziellen Umbruchs der neunziger Jahre noch weitestgehend aussteht. Auch die Kritiker des Moderne-Ansatzes erkennen die Rolle an, die zivilgesellschaftlichen Instrumenten in dem Versuch zukommt, eine Klammer um Prozesse und Entwicklungen zu legen, die unter alleiniger Wirkung der Marktgesetze die Gesellschaft längst atomisiert hätten. Ihr Verweis sowohl auf deren (wenigstens in »ruhigen Zeiten«) vordergründig systemstabilisierende Wirkung als auch die Tatsache, daß sie sich nicht im Selbstlauf entwickeln, sondern ihr Aus- oder Abbau von harten gesellschaftlichen Auseinandersetzungen begleitet ist, bleibt für ein besseres Verständnis der vielfältigen Wirkungen dieser Instrumente genauer zu analysieren.
Ein solches voll funktionsfähiges zivilgesellschaftliches Substrat, also eine ausgebaute sowohl technische als auch soziale Infrastruktur, ist für technologische Prozesse in ihrer heutigen Komplexität notwendiger denn je. Erst ein solches gesellschaftliches Umfeld schafft den notwendigen Raum für den verantwortungsvollen Umgang mit diesen Technologien und kann verhindern, daß sie in scheinbar blinder Gewalt soziale oder gar biologische Existenzbedingungen der Menschheit zerstören. In der Austrocknung dieses Substrats liegt anerkanntermaßen eines der Grunddefizite der Sozialismusversuche des 20. Jahrhunderts, die letztlich zu deren Scheitern führten. Die Art und Weise, wie die Austrocknung des zivilgesellschaftlichen Substrats in den neunziger Jahren ihre Fortsetzung findet, läßt Schlimmes befürchten, befindet sich aber nicht im Gegensatz zu realsozialistischen Defiziten, sondern führt sie fort. Es ergibt sich damit die Frage, ob neoliberale Politik nicht eher das auf die Spitze getriebene Alte als der Beginn einer neuen Epoche ist, der große Krach also nicht hinter uns liegt, sondern unmittelbar bevorsteht.
Deshalb sind auch Argumente zu entwickeln, mit denen sich prognostizieren läßt, ob die aktuellen technologischen Umbrüche noch einmal in primär am Profit orientierten Formen der Produktionsorganisation stabil aufgefangen werden können oder diesmal Grundpfeiler kapitalistischer Gesellschaftsverhältnisse erschüttert werden. Es gibt genügend Anzeichen dafür, daß der Stand der Produktivkräfte die Transzendierung dieser Strukturen auf die Tagesordnung stellt. Marx schreibt in seinen Grundrissen dazu, daß in einem stark wissenschaftlich geprägten Arbeitsumfeld »die Schöpfung des wirklichen Reichtums weniger abhängt von der Arbeitszeit und dem Quantum angewandter Arbeit als von der Macht der Agentien, die während der Arbeitszeit in Bewegung gesetzt werden und die selbst wieder (…) in keinem Verhältnis steht zur unmittelbaren Arbeitszeit, die ihre Produktion kostet, sondern vielmehr abhängt vom allgemeinen Stand der Wissenschaft und dem Fortschritt der Technologie« (MEW 42: 592).
Eine solche Gesellschaft, die mehr auf die individuelle Kompetenz als die austauschbare Arbeitskraft des Einzelnen angewiesen ist, wird damit in wichtigen Bereichen auch einem anderen Gesetz als dem der Ökonomie der Zeit folgen. Die Gültigkeit dieses Gesetzes ist aber die Prämisse für die Anwendbarkeit der ökonomischen Theorie von Marx, wie er selbst im Anschluß an die oben zitierte Stelle heraus arbeitet. Im Zuge der Analyse einer »modernen« Gesellschaft wird man also diesen Rahmen zu überschreiten haben.
Linux versus Windows
Für ein solch umfassendes neues Theoriegebäude ist die detaillierte Analyse realer, insbesondere ökonomischer Prozesse eine unabdingbare Voraussetzung, wobei der Analyse ausgewählter Trends »unter der Oberfläche« bei der Suche nach Keimen alternativer Organisationsformen besondere Bedeutung zukommt. In meinen Augen illustriert gerade ein sehr interessantes Projekt aus dem Bereich der Computersoftware, worauf es dabei ankommt.
Im März 2000 fand in Hannover wie jedes Jahr die Cebit, die deutschlandweit größte Computerschau, statt. Im Mittelpunkt der Berichterstattung stand der Software-Riese Microsoft mit der Europapremiere seines neuen Betriebssystems Windows 2000. Mit einem Upgrade-Preis ab etwa 300 DM pro Lizenz ist es nicht ganz billig und deshalb zunächst auch nicht so sehr für Privatnutzer gedacht (diese werden auf den Sommer und eine Variante vertröstet, die den klangvollen Namen Windows Millenium Edition tragen soll), zumal die Unterstützung einschlägiger Computerspiele wohl auch noch zu wünschen übrig läßt. Statt dessen soll Windows 2000 die mit Windows NT vor allem im Bereich der Server und Geschäftsanwendungen erreichten Positionen festigen, wo sich heute noch verschiedene Unix-Varianten großer Firmen wie IBM oder Sun hartnäckig behaupten.
Hat sich die neue Windows-Version erst einmal an zentralen Stellen wie Ämtern, Schulen und Büros durchgesetzt, wird auch der Privatnutzer nicht um einen Griff ins Portemonnaie herum kommen, auch wenn er bereits für die Vorgängerversionen Win959 und Win98 kräftig zur Kasse gebeten worden ist. Schließlich gibt es zum neuen Windows auch ein neues (und natürlich extra zu bezahlendes) Word 2000 mit einem neuen, wiederum nur aufwärts kompatiblen Format. Und wenn erst einmal genug Dateien im neuen Format eingegangen sind, wird der gebeutelte Privatnutzer die eigene Informationsinfrastruktur zähneknirschend »aufrüsten«, auch wenn weder Absender noch Empfänger die neu eingebauten Möglichkeiten nutzen oder zu nutzen gedenken. Die Möglichkeiten, aus der Position eines proprietären de-facto-Standards heraus Geld zu scheffeln, sind faktisch unbegrenzt, bedürfen wenig Einfallsreichtums und stehen kaum in Relation zum tatsächlichen Aufwand für die Neuentwicklungen. Die mit diesen Werkzeugen erstellten Produkte sind sperrig, intransparent und enthalten teilweise Informationen, die der Absender eigentlich nicht zur Weiterverbreitung vorgesehen hatte. Andererseits sind die Programme mit Mechanismen ausgestattet, die sie vor »unbefugter« Weitergabe effektiv schützen sollen, indem die Software ständig prüft, ob die Charakteristika des jeweils verwendeten Rechners, die in der Registrierungsphase gespeichert wurden, noch zutreffen. Ist dies nicht der Fall, aus welchem Grund auch immer, wird der Dienst verweigert.
Eine völlig andere Philosophie verfolgen die Entwickler des Betriebssystems Linux. Dieses System, das heute Distributoren wie Red Hat, Debian, Caldera oder SuSe auf CD-Rom zusammen mit einem großen Berg weiterer freier Software für knapp 100 DM (pro CD-Set mit dickem Handbuch) vertreiben, ist eines der zentralen, aber bei weitem nicht das einzige Projekt, das die wachsende Schar der Anhänger offenen Quellcodes vorantreiben. Auf Intel-Rechnern stellt es inzwischen eine ernst zu nehmende Alternative zu Windows dar. Wem der Preis von 100 DM immer noch zu hoch ist, der kann sich die CD von einer Freundin oder einem Freund leihen, denn der Preis ist ausschließlich für die CD, nicht aber für das System selbst zu zahlen. Dieses unterliegt den Lizenzbedingungen der GPL, der GNU Public License, die fordert, daß das System frei (und nur zusammen mit all seinen Quellen) verbreitet werden darf und daß alle Weiterentwicklungen und Programme, die in irgendeiner Form unter GPL lizensierten Code enthalten, wiederum unter der GPL veröffentlicht werden müssen. Die subtile Wirkung dieser auch als CopyLeft im Gegensatz zum CopyRight bezeichneten Regelung ist kaum zu unterschätzen.
Auch ohne aggressive Marketing-Kampagnen hat dieses Betriebssystem in den reichlich acht Jahren, die seit dem ersten »offiziellen« Release 0.02 am 5. Oktober 1991 vergangen sind, bereits einen festen Platz im akademischen Bereich erobert. Die steile Karriere des Pinguins (das Markenzeichen von Linux) in unternehmensweiten IT-Konzepten in den letzten beiden Jahren liegt vor allem in der Verfügbarkeit verschiedener Profisoftware für Linux und Windows begründet. Das folgende längere Zitat aus dem Jahre 1998 erhellt, warum sich auch industrielle Anwender zunehmend für Linux und damit gegen Windows entscheiden: »Früher in den Unternehmen mit den Worten ›Kost nix – taugt nix‹ belächelt, entdecken nun professionelle Anwender das alternative Unix-Betriebssystem Linux. In der Regel sind dafür nicht nur die Kostenvorteile der unentgeltlich zu beziehenden Software verantwortlich, sondern Stärken wie Stabilität, rasche Weiterentwicklung und schnelle Problemlösung, falls irgendwo ein Fehler auftritt. Der Grund dieser Vorzüge ist die Offenheit. Alles liegt im Quelltext für jeden zugänglich vor. Jeder kann sich an der Fortentwicklung des Betriebssystems beteiligen. Millionen aus der Internet-Gemeinde tun dies. Allerdings zeigt sich hier die Hauptschwäche des Linux-Konzepts: Es gibt weder das Linux noch ein Unternehmen, das hinter dem »virtuellen« Produkt steht. Bei Problemen hat man im Prinzip keinen Ansprechpartner. Linux ist ein zusammen gewürfeltes Software-Konglomerat. Zwischenzeitlich bieten viele kleine Softwarehäuser sorgsam zusammen gestellte Linux-Software und Support – besonders für professionelle Anwender. (…) Linux stammt aus den Universitäten. (…) Viele der Studenten von damals sitzen heute in den Softwarefirmen und drängen mit Erfolg darauf, entsprechende Programme auch auf Linux zu portieren. Beispiele sind etwa Star Division oder die Software AG.«
Der weitere Siegeszug von Linux zeichnet sich bereits ab, auch wenn Microsoft offensichtlich viel Kraft und Geld in eine Gegenstrategie investiert
Zur Geschichte des Open-Source-Projekts
Wie kommen derart viele Menschen und Unternehmen im heutigen gesellschaftlichen Umfeld auf die absurde Idee, Teile ihrer Arbeitsergebnisse anderen großzügig und im wesentlichen kostenfrei zur Verfügung zu stellen, statt diese in klingend Münze zu verwandeln? Ein Blick in die Entstehungsgeschichte des Open-Source-Projekts erhellt einige Zusammenhänge.
Die Wurzeln des Projekts reichen bis in die Anfänge des Computerzeitalters zurück, wo das entscheidende Geschäft mit Verkauf und Wartung von Hardware gemacht wurde. Für diese wurde meist nur eine minimale Softwareausstattung mitgeliefert. Weiter gehende Software wurde von den Anwendern selbst entwickelt und in vielen Fällen, besonders im akademischen Bereich, freizügig ausgetauscht. Gute Bedingungen hierfür ergaben sich besonders, nachdem AT&T im Ergebnis eines Kartellrechtsprozesses im Jahre 1956 ihre Patente im Softwarebereich gegen nominelle Gebühren an die Konkurrenz lizensieren mußte. Auch die Entwicklung magnetischer Datenträger beförderte die Austauschbarkeit von Softwareprodukten.
1969 entwickelten Thompson und Ritchie in den AT&T Bell Telephone Labs die erste Version von Unix, die unter den speziellen Bedingungen des Kartellabkommens fast ausschließlich an Universitäten zum Einsatz kam und von AT&T kaum weiter gehende Unterstützung erfuhr. Entsprechende Eigeninitiativen der Nutzer ließen nicht auf sich warten und wurden über das Usenet vernetzt. Die Universität von Berkeley, Kalifornien, koordinierte diese Aktivitäten, indem sie unter maßgeblicher Beteiligung von Bill Joy, dem späteren Gründer von Sun Microsystems, einen eigenen Zweig von Unix, die Berkeley Software Distributon (BSD), entwickelte und an andere Universitäten vertrieb. Das Jahr 1982 ist das Geburtsjahr des kommerziellen Unix. IBM, HP und DEC veröffentlichten Unix-Versionen unter neuen Namen für ihre eigene Hardware. Nach einem weiteren Kartellprozeß trennte sich AT&T 1984 von 26 Firmen der Bell-Gruppe und durfte fortan als Wettbewerber im Computergeschäft auftreten. Damit nahm die Ära der liberalen Unix-Lizensierung, des Zugriffs auf den Quellcode sowie des Austauschs von Programmen und Verbesserungen ein Ende. Die Lizenzgebühren für Unix wurden drastisch angehoben. Jahre vor Windows war damit der Goldesel, den ich weiter oben beschrieben habe, bereits entdeckt.
Derartige Restriktionen stehen allerdings im Widerspruch zur Funktionalität, die gerade grundlegende Software wie ein Betriebssystem für kommunikative Zwecke erfüllen muß. Entsprechender Widerstand regte sich in der Gemeinde, in deren Ergebnis Richard Stallman im Jahr 1984 das GNU-Projekt mit dem Ziel ins Leben rief, ein freies Unix zu schaffen und hierzu als Koordinationsstelle die Free Software Foundation gründete. Das Open-Source-Projekt, damals noch unter dem Banner »freie Software«, war geboren. Das Credo aller zukünftigen Anstrengungen wird mit den ersten Sätzen der GPL umrissen: »The licenses for most software are designed to take away your freedom to share and change it. By contrast, the GNU General Public License is intended to guarantee your freedom to share and change free software – to make sure the software is free for all its users.«
Unter diesem Banner wurden Schritt für Schritt wichtige Software-Werkzeuge wie Compiler (C), Editoren (Emacs), Programmiersprachen (Perl, Python, Tcl und andere), Standards und Programme (wie sendmail, make, tar, awk) entwickelt, um den Computer zu einem effektiven Werkzeug für kreative geistiger Arbeit zu machen. Mit dem Erscheinen von Linux ist die letzte Lücke im GNU-Projekt geschlossen, und es steht erstmals in der Geschichte der Datenverarbeitung ein komplettes freies Betriebssystem zur Verfügung.
Die entwickelten Werkzeuge sind nicht nur billiger, sondern ihren kommerziellen Geschwistern in Zuverlässigkeit und Funktionalität oft überlegen. Allerdings fehlt ihnen in vielen Fällen der »letzte Schliff«, die intuitiv zu bedienende Oberfläche. Die Bedeutung des ersten Punkts überwiegt aber für den professionellen Einsatz, so daß selbst stark kommerziell orientierte Softwareunternehmen in ihren internen Entwicklungsprozessen gern freie Werkzeuge einsetzen.
Mit der weiteren Verbreitung freier Software stand auch deren Verhältnis zu kommerziellen Produkten neu auf dem Prüfstand. Die strengen Regeln der GPL fordern, daß jedes Programm, das auch nur eine Zeile unter GPL lizensierten Codes enthält, auch der GPL unterstellt werden muß. Sie sind folglich mit jeder Lizenz, die mehr Einschränkungen enthält, inkompatibel. Die Akzeptanz freier Software beschränkte sich daher über zehn Jahre lang fast ausschließlich auf den privaten und akademischen Bereich. Mit Linux erreichte eine freie Software in kürzester Zeit eine Beliebtheit und Verbreitung, wie sie bis dahin in diesem Sektor unbekannt war. Damit rückte freie Software auch in das Blickfeld der kommerziellen Welt.
Mit der stärkeren Verzahnung beider Bereiche wurden eine Reihe anderer Lizenzen entworfen, die die freie Verbreitung des Quellcodes sicher stellen, aber vor einer kommerziellen Verwertung geringere Hürden aufbauen. Anfang 1998 wurden diese Entwicklungen von führenden Köpfen der Gemeinde analysiert und der Begriff »open source software« aus der Taufe gehoben, der in der Folgezeit den Begriff »freie Software« in der Außendarstellung zunehmend verdrängt hat. Dabei wurden Anforderungen formuliert, die eine Softwarelizenz erfüllen muß, damit sie dem Open-Source-Bereich zugerechnet werden kann. Auch diese Regeln enthalten an zentraler Stelle die Forderung nach freizügigem, solidarischem und nicht kommerziellem Umgang mit den Quellen, erlauben aber stärker die kommerzielle Verwertung abgeleiteter Produkte. Auch wenn R. Stallman und mit ihm ein Teil der Gemeinde gute Gründe ins Feld führen, einer solchen Aufweichung kritisch zu begegnen, haben sich damit letztlich die stärker pragmatischen Kräfte durchgesetzt. Die neue Dynamik, die die Open-Source-Bewegung mit dieser Entscheidung gewonnen hat, führte dazu, daß heute der Übergang zwischen freier und nichtfreier Software fließend ist.
Aktuelle Entwicklungen
Der kritische Leser wird an dieser Stelle einwenden, daß diese ersten Berührungen mit der kommerziellen Welt, die bereits zur Aufweichung der GPL geführt haben, nur die Vorboten wesentlich ernsterer Angriffe sind und es bestimmt nur eine Frage der Zeit ist, bis dieses »Kommunardenprojekt« glattgebügelt wird und auch die heutigen Verfechter offener Software beginnen, das Hohelied auf den Markt anzustimmen. Ein solcher Einwand ist mit Blick auf die weltweit forcierten Prozesse der Privatisierung bisher relativ freizügig zugänglichen geistigen Eigentums (an Filmen, Fußballrechten, Bildern, selbst Genen) mehr als verständlich.
Allerdings läuft gegenwärtig aus irgend welchen Gründen im Open-Source-Bereich gerade der umgekehrte Prozeß: Nachdem sich Linux im akademischen Bereich bereits fest etabliert hat, beginnt es jetzt auch im kommerziellen Bereich eine zunehmend wichtige Rolle zu spielen. Distributoren, Berater- und Supportfirmen schaffen inzwischen das nötige Hinterland, um diese und andere freie Software stabil in Geschäftsprozesse einzubinden. Es ist eine ganze Industrie entstanden, die sich entgegen allen marktgesetzlichen Regeln an der gemeinsamen Weiterentwicklung dieser freien Software beteiligt, und eigene Gewinne nur in Bereichen erzielt, die darauf aufsetzen. Große Firmen wie Intel, IBM oder Sun unterstützen diese Initiativen, da sie auch mittelbar von den Entwicklungen profitieren und so außerdem den zunehmenden Einfluß von Microsoft zurück zu drängen hoffen. Auch im öffentlichen Bereich, namentlich der Bundesverwaltung, wird über diese Alternativen ernsthaft nachgedacht.
Die Komplexität der Motivationslage macht die Geschichte von Netscape deutlich. Diese Firma hatte einen besonders guten Start in das Zeitalter der Web-Browser und daher relativ rasch eine Vormachtstellung in diesem Softwaresektor aufbauen können. Da Web-Browser für den Computernutzer das Tor in die Web-Welt darstellen, bedeutet Kontrolle auf diesem Gebiet zugleich Kontrolle über eine Reihe weiterer Gebiete, etwa die Formate, in denen Texte und Graphiken vorliegen müssen, um von diesen Browsern gut (oder überhaupt) dargestellt zu werden. Den ersten Browserkrieg im Jahr 1994 hatte Netscape noch gewonnen, damals gegen den durch staatliche Stellen unterstützen Browser Mosaic. Mit dem neoliberal motivierten Rückzug staatlicher Stellen aus diesem Geschäft und folglich der Aufgabe öffentlicher Definitionsmacht über diesen Standard war das Feld frei, hier einen proprietären Standard ähnlich dem von Windows zu etablieren. Die strategische Bedeutung dieses Bereichs wurde von Microsoft mit einiger Verspätung erkannt. Dann jedoch setzte der Softwareriese seine volle Marktmacht ein, um hier zu einer dominierenden Stellung zu gelangen. Eine Schlacht zwischen beiden Kontrahenten begann, in der Microsoft sogar darauf setzte, seinen eigenen Browser, den Internet Explorer, kostenlos wegzugeben, ihn auf Computern vorinstallieren zu lassen und große Internet-Service-Provider zu bewegen, ihre Software mit dem Microsoft-Browser zu bündeln. Einem solch geballten Dumping hatte Netscape nur wenig entgegen zu setzen, so daß Analysten im Jahr 1998 keinen Pfifferling mehr auf den Netscape-Browser gaben. An dieser Stelle scherte Netscape aus dem Browserkrieg aus und legte die Quellen des eigenen Browsers offen mit der erklärten Absicht, ihn als Projekt mit dem Namen Mozilla im Open-Source-Bereich weiter zu entwickeln. Der Feldzug von Microsoft ist damit nicht beendet, seine Chancen, den Sieg in Form eines neuen proprietären Standards davon zu tragen, sind aber nach allgemeiner Einschätzung deutlich geringer geworden.
Der Start von Mozilla in der Open-Source-Welt verlief allerdings schwerfälliger als erhofft, weil es wahrscheinlich nicht so einfach ist, in kurzen Zeiträumen eine ausreichende Zahl guter Programmierer für ein solches Projekt zu interessieren. So hat Netscape in den letzten zwei Jahren gegenüber dem Microsoft Internet Explorer weiter an Boden verloren. Beta-Tester der neuen Version Netscape 6, deren offizielles Release für den Sommer 2000 angekündigt ist, berichten aber von einem deutlichen Leistungszuwachs, so daß auch diese Geschichte noch nicht zu Ende geschrieben ist.
Schlußfolgerungen
Viele Beobachter sind sich einig, daß Open-Source-Software nicht nur billiger und bequemer zu beziehen, zu verteilen und zu warten, sondern in der Regel auch qualitativ besser als entsprechende kommerzielle Produkte ist. Die gute Qualität der entwickelten Software resultiert entscheidend aus der Art und Weise der Zusammenarbeit in einem solchen Projekt: Eine weltweite Gemeinde von Programmierern arbeitet freundschaftlich und ohne Druck zusammen, jeder übernimmt entsprechend der eigenen Kompetenz und den eigenen Vorlieben in wohlumrissenen Teilaufgaben Verantwortung, kann dort eigene Kreativität zur Entfaltung bringen und sich zugleich darauf verlassen, daß dies in anderen Bereichen des Projekts ebenso geschieht. Die Ergebnisse der Arbeit werden gemeinsam bewertet, wobei sich schnell heraus stellt, wer die fähigsten Köpfe in diesem Kreis sind. Diese übernehmen dann in der Regel auch die Leitung des Projekts, allerdings nicht in einem hierarchischen Sinne, sondern als »primus inter pares«. Auch wenn nicht jedes Projekt gelingt, so ist es doch erstaunlich, daß auf einer so freiwilligen Grundlage überhaupt ernsthafte Ergebnisse entstanden sind.
All das klingt fast wie die Beschreibung einer idyllischen Welt, obwohl es in der konkreten Arbeit natürlich nicht ohne Konflikte abgeht. Eine wesentliche Voraussetzung derartiger Projekte liegt darin, daß die beteiligten Personen nicht gezwungen sind, das Ergebnis dieser Projektarbeit zu verkaufen, um davon ihren Lebensunterhalt zu bestreiten. Mit Blick auf die große Zahl solcher Projekte gibt es offensichtlich gute Gründe, sich nicht nur im öffentlichen Dienst einen derartigen Luxus zu leisten. Auch Unternehmen wissen die Kompetenz zu schätzen, die sich Mitarbeiter auf diesem Wege aneignen und in die kommerziellen Projekte in den eigentlichen Geschäftsfeldern der Firma einbringen. Selbst subtile Detailkenntnisse Einzelner von Entwicklungen im Open-Source-Bereich können sich als Wettbewerbsvorteil für die ganze Firma erweisen. Ähnliches kann man wohl auch von »Freelancern« sagen, auch wenn deren Freiräume für »Muße« gewöhnlich deutlich geringer sind.
Die hier beschriebenen Phänomene beziehen sich auf Arbeitsverhältnisse, in denen primär Kompetenz zählt und nicht gearbeitete Zeit. Damit schließt sich der Bogen und wir sind wieder bei jenem Marxzitat angelangt, mit dem die Vorbemerkungen abgeschlossen haben. Wir haben festgestellt, daß derartige Arbeitsverhältnisse bereits heute geprägt sein können durch ein Klima, in dem solidarische Ansätze mit selbst bestimmten und selbst bestimmbaren Freiräumen, Kreativität und Verantwortung zusammen treffen. Daß sich ein solches wohlwollendes Miteinander eigentlich konkurrierender Subjekte aus oft rein pragmatischen Erwägungen heraus in dieser Gesellschaft entwickelt, entwickeln kann und sogar von großen Firmen gestützt wird, die jeglicher Sympathien für sozialistische Ideen unverdächtig sind, halte ich für sehr bemerkenswert.
Keine einigermaßen brauchbare Beschreibung eines »modernen Kapitalismus« wird ohne eine genaue Analyse derartiger Mechanismen auskommen können. Leider haben auch die etablierten ökonomischen Lehrmeinungen hierzu nicht nur wenig zu bieten, sondern betrachten diesen Bereich geradezu als blinden Fleck. Man wird deshalb bei bürgerlichen Ökonomen wenige Anleihen aufnehmen können. Statt dessen warten die vielfältigen Überlegungen, in denen die »Hacker«-Szene über sich selbst nachdenkt, auf eine systematische Aufarbeitung und stärkere theoretische Fundierung. Einige wichtige Quellen sind im Anhang zusammen gestellt.
Und ein letzter Gedanke im Lichte dieser Erfahrungen: Auch wenn der Slogan der »sozialen Gerechtigkeit« in Wahlkämpfen und Agitation der Linken stets einen wichtigen Platz einnehmen wird, halte ich ihn als roten Faden für eine programmatische Debatte weniger geeignet als das genauere Ausleuchten der subtilen Sprengkraft, die diese solidarischen Konzepte in der hier angedeuteten Spannbreite in sich tragen: Gerechtigkeit ist ein konfrontativer, Solidarität ein kooperativer Ansatz.
Literatur aus dem Open-Source-Bereich:
Open Source. kurz & gut, Köln 1999.
http://www.opensource.org: Alles, was man über Open Source wissen und gelesen haben sollte.
E. S. Raymond (http://www.tuxedo.org/~esr/writings), insbesondere die Beiträge:
The Cathedral and the Bazaar (Vortrag auf der Linux-World 1997),
Homesteading the Noosphere, April 1998, The Magic Cauldron, Juni 1999. Diese sind inzwischen zusammen mit weiteren Beiträgen zum Thema »Open Source« unter dem Titel The Cathedral and the Bazaar bei O’Reilly als Buch erschienen.
T. O’Reilly: Where the Web leads us, Okt. 1999.
R. Stallman: The GNU project, 1998.
Literatur zu einer Ökonomie der Informationsgesellschaft:
F. Fortier: Virtuality Check – A Political Economy of Computer Networking (Entwurf), Mai 1998.
H.-G. Gräbe: Arbeit und Wissen in der modernen Gesellschaft, in: Der Osten im Übergang vom Industrie- zum Informationskapitalisums, Heft 24 der Texte zur politischen Bildung der Rosa-Luxemburg-Stiftung Sachsen e.V. (August 1996), S. 41-55.
H.-G. Gräbe: Wissenschaft zwischen Freizügigkeit und Kommerz, in: Utopie kreativ, Heft 100 (Februar 1999).
K. Köhntopp, T. Roessler: How free software development can be supported, Netpol Digest vom 1. Dezember 1999.
R. Verzola: Cyberlords: the rentier class of the information sector, Juli 1997.
******************************************
Hans-Gert Gräbe – Jg. 1955; Dr. rer. nat. habil., Studium und Graduierung im Fach Mathematik, forscht seit Mitte der achtziger Jahre zur Computeralgebra im Grenzbereich zwischen Mathematik und Informatik, seit 1990 am Institut für Informatik der Universität Leipzig Privatdozent und wissenschaftlicher Mitarbeiter.
|
1 Siehe etwa I. Wagner: Für einen neuen Sozialismus als historisch-gesellschaftliche Alternative zum Kapitalismus, Schriftenreihe des Marxistischen Forums, Heft 23, Berlin, September 1999, S. 12. 2 Im Vorwort zum »Kommentar« (vgl. nächste Fußnote) stellt L. Bisky auf Seite 8 fest: »Die Multi- Media-Entwicklung, die Dynamik der Informations- und Kommunikationsindustrie aber haben wir politisch und programmatisch bislang nur unzureichend im Griff. Auch das vorliegende Buch weist in diesem Bereich seine bedauerlichste Lücke auf.« 3 Zur Programmatik der PDS – Ein Kommentar, Berlin 1997. 4 Vgl. Thesen der Programmkommission zur programmatischen Debatte, Berlin, November 1999 (http://www.pds-online.de). 5 Vgl. Minderheitenvotum zu den Thesen der Programmkommission der PDS, Berlin, November 1999 (http://www.pds- online.de. – Abschnitt III: »Zur Moderne-Konzeption«). 6 Darauf verweist z.B. die Leipziger Volkszeitung vom 26. Februar 2000, die im Beitrag »Pinguin macht Windows 2000 Konkurrenz« von der diesjährigen Cebit berichtet. 7 So enthält eine Winword-Datei zum Beispiel Informationen über vorgenommene Änderungen, um diese gegebenenfalls rückgängig machen zu können. Das ist sogar schon Profis auf die Füße gefallen, wie über eine Pressemitteilung von Microsoft berichtet wird, in dem sich noch »interessante« Informationen zwischen den Zeilen fanden. Die jeder Winword-Lizenz eigene Identifikationsnummer, die offensichtlich in jedes damit erstellte Dokument eingebrannt wird und etwa zur Überführung des (angeblichen) Autors des Killer-Virus »I love you« diente, verdeutlicht die »überwachungsstaatliche« Dimension solcher Geheiminformationen, die nur durch Code-Transparenz selbst transparent gemacht werden kann. 8 Noch einmal zur Erklärung: Will ich die 20 Rechner im Computerkabinett einer Schule (klingt unreal, zugegeben, wäre aber schön und eigentlich notwendig) betreiben, so brauche ich auf jedem von ihnen ein Betriebssystem. Wähle ich Linux, so investiere ich einmal 100 DM für die CDs, kann das System damit (rechtlich einwandfrei) auf allen Rechnern installieren und habe als Dreingabe noch eine große Auswahl freier Software wie Editoren, C- oder Pascal-Compiler usw. Wähle ich Windows, muß ich 20 Lizenzen (zu je etwa 800 DM) erwerben und noch einmal eine erkleckliche Summe für Word, Excel oder gleich eine Office Suite berappen. Allerdings ist der Softwaregigant gegenüber Schulen derzeit sehr »großzügig« … 9 Das Akronym GNU kommt im Zusammenhang mit vielen Open-Source-Projekten vor und steht für GNU Not Unix, da es ein Hauptziel der Open-Source-Gemeinde war, ein freies Unix-ähnliches Betriebssystem zu schaffen. Der rekursive Charakter des Akronyms nimmt Bezug auf eine in der Informatik verbreitete Programmiertechnik. Daß gerade das G als der (in diesem Kontext willkürliche) Anfangsbuchstabe ausgesucht wurde, hat mit einer zweiten »Marotte« in der Gemeinde zu tun: Viele Projekt wählen sich ein Maskottchen: Neben dem Gnu sind Pinguin (Linux), Kamel (Perl), Schlange (Python) und viele weitere Tiere vertreten. Mit dem Buchstaben G beginnen auch die Namen vieler Open-Source-Versionen klassischer Unix-Software (gcc = GNU C Compiler, gtar = GNU-Ver-sion des Archivprogramms tar, gzip = GNU zip) sowie einzelner Projekte (GIMP = GNU Image Manipulation Program, der freie »Photo-shop«; GNOME = GNU Network Model Environment, ein freies Desktop-Projekt). 10 Computer Zeitung (CZ) vom 16. April1998, S. 16. 11 Einige Überschriften aus dem ersten Quartal 2000: »Die Linuxworld zeigt den Microsoft-Jüngern den Vogel« (CZ vom 10. Februar); »Linux-Tag mausert sich zur IT-Messe« (CZ vom 16. März); »Regierungsberater wollen Windows ausrangieren« (CZ vom 23. März). 12 Vgl. die »Halloween-Paper«, www.opensource.org, die der Open-Source-Gemeinde zugespielt wurden. In diesen internen Arbeitspapieren von Microsoft werden die zu erwartenden Entwicklungen im Open-Source-Bereich aus der Sicht des Softwareriesen analysiert und Gegenstrategien entworfen. 13 Nach Open Source. kurz & gut, Köln 1999. 14 Mit dem Wort »Gemeinde« bezeichne ich den weltweiten Kreis der mehr oder weniger aktiven Mitstreiter am Open-Source-Projekt, der nach vorsichtigen Schätzungen (http://www.linux.de) mehr als zehn Millionen Personen umfaßt. Die Sozialisationsformen, die sich durch die Kommunikation per Internet in diesem Kreis herausgebildet haben, legen eine solche Bezeichnung nahe. 15 Den genauen Wortlaut der GNU Public Licence, der obligatorischer Bestandteil jeder regulären Kopie einer entsprechend lizenzierten Software ist (und gewöhnlich in einer Datei namens COPYING steht), findet der Leser im Internet unter der Adresse http://www.gnu.org/copyleft/gpl.html. Nach einigen Versuchen, diesen Text auch in andere Sprachen zu übertragen, und damit verbundenen Irritationen hat sich die Gemeinde geeinigt, ausschließlich das englische Original zu verwenden. Um die komplexen Bedeutungsinhalte zu erhalten, die inzwischen mit den Begriffen ›share‹, ›change‹ und ›freedom‹ aufgerufen werden, folge ich dieser Regel in meinem Text. 16 Vgl. dazu den im Literaturteil genannten Aufsatz von Richard Stallman, der insbesondere die Konflikte beschreibt, die entstehen können, wenn ein Stück proprietären Codes in besonders erfolgreicher offener Software verwendet wird. Die Versuchung des jeweiligen Lizenzhalters ist groß, alle rechtlichen Hebel in Gang zu setzen, um daraus seinen eigenen Gold-esel zu schnitzen. Die Gemeinde reagiert darauf gewöhnlich sehr allergisch und weiß sich zu wehren; siehe etwa die Reaktionen auf den Versuch, aus dem Graphikstandard ›gif‹ solcher Art Kapital zu schlagen (http://www.burnallgifs.org). 17 Vgl. hierzu den Brief 2/2000 der regierungseigenen Koordinierungs- und Beratungsstelle für Informationstechnik (KBSt): »Open Source Software in der Bundesverwaltung« vom März 2000 (http://linux.kbst. bund.de). Die Geschichte dieses Dokuments ist recht interessant: Es handelt sich um ein internes Arbeitspapier der KBSt, das von vielleicht übereifrigen Beamten der mittleren Ebene Anfang 2000 ins Netz gestellt wurde und sofort die Aufmerksamkeit der Gemeinde erregte. Nach entsprechender Presse war das Dokument »auf höhere Weisung« hin nicht mehr zugänglich. Offensichtlich paßten die getroffenen Einschätzungen (die Zahlen sprachen für sich) nicht in die politische Landschaft. Nach geharnischten Protesten aus der Gemeinde wurde die Entscheidung (manche sprachen von »Zensur«) aufgehoben und ein entschärftes Dokument wieder ins Netz gestellt. In der neuen Version sind »aus wettbewerbsrechtlichen Gründen« die Kostengegenüberstellungen von Microsoft- und Open-Source-Produkten entfernt, die in der zweiten Spalte an allen Stellen eine glatte 0,00 enthielten. Das Original ist natürlich auch noch zugänglich, denn brisante Dokumente pflegt die Gemeinde gleich nach deren Entdeckung zu spiegeln (d.h. zu kopieren), so daß sie von verschiedenen Servern in allen Ecken der Welt zu haben sind. 18 Browser sind Programme, die der Darstellung von HTML-Dokumenten dienen und somit die grundlegende Software für das »Surfen im Netz« bilden. Neben den beiden heute am weitesten verbreiteten Browsern Netscape und Microsoft Internet Explorer gibt es noch viele andere solche Programme wie etwa Opera oder WebTV. Die Sprache HTML wird von einem internationalen Standardisierungsgre-mium, dem World Wide Web Consortium W3C (http://www.w3c.org), weiterentwickelt. 19 Siehe http://home.netscape.com/browsers/6/index.html 20 E. Raymond beschreibt in den drei im Literaturteil zitierten Aufsätzen sehr detailliert eigene Erfahrungen aus der Mitarbeit in derartigen Projekten. |