Vom vertikalen zum horizontalen Produktionsmodell in der Computerindustrie

Werner WinzerlingMail link

Veränderungen in der Wettbewerbsstruktur, dargestellt am Beispiel des Betriebssystems Linux

Abstract

Der Beitrag untersucht, worin das große Interesse der Computerindustrie an dem Betriebssystem Linux besteht. Die hier häufig vorgebrachten Argumente reichen allein zur Erklärung nicht aus. Vielmehr zeigt sich, dass der Wandel von der vertikalen zur horizontalen Computer-Herstellung auch mit grundlegenden Veränderungen im Kooperations- und Wettbewerbsmodell einher geht. Der PC als schon klassisches Modell dieser horizontalen Produktionskette wird aus den Komponenten unterschiedlicher Hersteller zusammen gesetzt. Gemeinsam ist diesen Herstellern, dass sie sich im Interesse des Gesamterfolges auf "stillschweigende Vereinbarungen" einlassen müssen. Dabei ist es wichtig, dass hier jedem Markführer auf seinem Gebiet auch potente Wettbewerber gegenüberstehen. Im Fall der Betriebssysteme drohte nun eine Situation einzutreten, in der dem Markführer Microsoft kein ernsthafter Wettbewerber mehr gegenüberstand. Dies hat die anderen Teilnehmer des horizontalen Marktmodells veranlasst nach einem geeigneten neuen Wettbewerber zu suchen, der scheinbar in Gestalt von Linux gefunden wurde.

Vorbemerkung

Linux ist derzeit in aller Munde. Kaum eine Fachzeitschrift, die nicht auch aktuelle Beiträge zu diesem Betriebssystem enthält. Was aber viel bedeutender ist: Fast alle namhaften Hard- und Software-Hersteller kündigen gleichzeitig dafür ihre Unterstützung an. Im folgenden wird etwas abseits der üblichen Argumentationslinien untersucht, was Linux tatsächlich so bedeutungsvoll für die Computerindustrie und Anwender macht. Dabei werden zunächst einige häufig für Linux vorgebrachte Argumente einer kritischen Wertung unterzogen.

Technologie

Monolithisch statt Microkernel

Das dem Betriebssystem Linux zu Grunde liegende Konzept eines monolithischen Betriebssystem-Kerns ist ca. 30 Jahre alt und muss als veraltet bezeichnet werden.

Stellvertretend für diese Diskussion soll hier aus der berühmte Tanenbaum-Torvalds-Debatte, die Anfang 1992 in der MIMIX-News-Gruppe geführt wurde, eine Bemerkung von Prof. Dr. Andrew S. Tanenbaum zitiert werden:

"Microkernel vs. Monolithische Systeme: ... es genügt festzustellen, dass unter den heutigen Entwicklern von Betriebssystemen, diese Debatte endgültig vorüber ist. Microkernel-Architekturen haben gewonnen. ... Im Jahr 1991 noch ein monolithisches System zu entwickeln, halte ich für eine schlechte Idee." [1, S. 222]

In seiner Anwort hat Linus Torwalds dann auch zugegeben, dass er den einfacheren monolithischen Ansatz für ein Betriebssystem nur deshalb gewählt hatte, weil das damals gerade laufende GNU/HURD Microkernel-Projekt nicht recht von der Stelle zu kommen schien. Einem GNU-Microkernel hätte er Linux nicht entgegen stellen wollen. [1, S.224]

Eine gewisse Anziehungskraft scheint in diesem Zusammenhang wohl auch deshalb von Linux auszugehen, weil es (etwas überzeichnet formuliert) jeder halbwegs begabte Informatik-Student bereits am Ende des Grundstudiums nach einer guten einführenden Betriebssystem-Lehrveranstaltung verstehen kann.

Bemerkenswert ist, dass sich die sonst sehr technisch interessierten Linux-Anwender und -Systemspezialisten am veralteten Aufbau von Linux nicht zu stören scheinen. Auch weitere wesentliche architektonische Mängel werden praktisch nicht diskutiert.

Interessanterweise scheiterte das GNU/HURD Microkernel-Projekt gerade dort, wo eigentlich die Stärken der Open Source Entwicklung liegen sollten: nämlich beim Testen. Richard Stallmann schrieb hierzu: "HURD zuverlässig zu machen, zog sich über viele Jahre hin." [2, S. 65] (... bis es dann vom monolithischen Linux überholt wurde).

So stellt sich die Frage, ob das viel gerühmte Open Source "Basar"-Entwicklungsmodell [3] nicht doch Grenzen kennt. Dagegen scheint es Microsoft spätestens mit dem Betriebssystem-Release Window 2000 gelungen zu sein, innerhalb von durchaus akzeptablen 10 Jahren einen stabilen und zuverlässigen Microkernel zu entwickeln.

Inkompatibilität von Unix

Eine wesentliche Ursache, die eine größere Verbreitung von Unix verhinderte, ist die Inkompatibilität der Versionen. Jede Unix-Version eines Herstellers nutzt oft nicht nur den gleichen Kernel, sondern auch andere Erweiterungen. So gleicht keine Version der anderen und die Anwender und Administratoren müssen deren Einzelheiten jeweils speziell erlernen.

Noch problematischer ist, dass die Software-Hersteller ihre Produkte für die verschiedenen Versionen aufwendig portieren müssen. Die damit erreichbare Kundenbasis ist oft zu klein, um dies zu rechtfertigen. Ganz anders dagegen, die große Basis installierter Microsoft-Windows-Systeme, mit ihren einheitlichen API's über die gesamte Betriebssystem-Familie hinweg. So findet man heute auch die konkurrenzlos meiste Software für die Microsoft-Plattform.

Mit den unterschiedlichen Linux-Distributionen u.a. von Red Hat, Caldera, Suse und vielen weiteren kleineren Distributoren, wiederholt sich das bereits bei Unix beobachtete Dilemma. Neben dem Spezialwissen, das für jede der verschiedenen Linux-Distributionen benötigt wird, steht wieder vor den Entwicklern die Frage, welches Linux sie denn unterstützen sollen.

Dies wird dann von den Unternehmen oft sehr restriktiv entschieden. Während beispielsweise Oracle derzeit noch für Red Hat, Caldera, und Suse eine Unterstützung anbietet, will die SAP ihr R/3 auch in Zukunft ausschließlich für die Distribution von Red Hat liefern - und auch dies nur für eine speziell angepaßte Version. "Wir können nicht alle Linuxe testen" lautet hierzu die Erklärung der IBM. [4, S. 23]

Leistungsvergleiche

In einer Untersuchung der D. H. Brown, Inc., die jährlich einen vielbeachteten Leistungsvergleich der wichtigsten Server-Betriebssysteme erstellt, schneiden die 1999 erstmals mit untersuchten Linux-Distributionen von Red Hat und Caldera sogar noch etwas schlechter ab, als die Microsoft Windows/NT 4.0 Enterprise Edition, die bisher gegenüber den untersuchten kommerziellen Unix-Betriebssystemen den letzten Platz belegte. [5]

Die Untersuchung D. H. Brown verdeutlicht ebenfalls den großen Abstand, den Windows/NT und insbesondere Linux gegenüber den kommerziellen Unix-Versionen hinsichtlich des Funktionsumfangs, der Skalierbarkeit, der Sicherheit u.ä. immer noch aufweisen.

Die Centennial Network Labs an der North Carolina State University in Raleigh, USA haben 1999/2000 im Auftrag der US-amerikanischen Zeitschrift NetworkWorld ebenfalls eine Untersuchung wichtiger Netzwerk-Betriebssysteme durchgeführt. Einbezogen waren hierbei Windows/2000 Advanced Server, Netware 5.1, Red Hat Linux 6.1 und Unixware 7.1.1.

Auch in diesem Test landete Linux in der Gesamtwertung mit deutlichem Abstand nur auf dem 3. Platz, hinter dem Testsieger Windows/2000 und dem zweitplatzierten Novell.

Betriebssysteme aus der Sicht der Betreiber

Kommandozeilen kontra Fenster

Man kann die allgemein unter Unix-Administratoren und speziell im Linux-Bereich verbreitete Ansicht auch mit folgenden Worten beschreiben 1Scroll downwards:

"Wahre Männer Worten nutzen keine Windows (Fenster-Technik)."

Oder, vielleicht noch treffender: "Wahre Männer 2Scroll downwardsbrauchen keine Windows."

Ob dies aber den Anforderungen in den IT-Bereichen der Unternehmen gerecht wird, muss bezweifelt werden. Erfordert doch die Kommandozeilen-Administration einen wesentlich höheren und auch wiederkehrenden Lernaufwand, bis man die notwendigen Kommandos "im Kopf" hat. Gerade bei selten benutzten Kommandos und bei einer größeren Anzahl unterschiedlicher Betriebssysteme, wie sie in der Praxis die Regel sind, entstehen dadurch ein deutlich höherer Arbeitsaufwand und eine größere Fehleranfälligkeit.

Dagegen sind Windows-unterstützte Administrationswerkzeuge - wenn sie denn gut gemacht sind - in der Regel mit einem wesentlich geringeren Lernaufwand verbunden. Damit können dann mehr Systeme von weniger Personen bzw. bei gleichbleibender Personalstärke die vorhandenen Systeme intensiver betreut werden.

Neueste Technologien zur Unterstützung der Nutzer von Softwaresystemen, wie z. B. die Wizard- oder Agententechnologie erfordern zwingend leistungsfähige Windows-Darstellungsmöglichkeiten.

Inzwischen wurden auch für Linux grafische Administrations-Tools entwickelt. Das bekannteste für die Serverinstallation ist LinuxConf. LinuxConf eignet sich aber nur für die Serveradministration im engeren Sinne. Zusätzliche Services des Betriebssystems und die Anwendungs-Server können mit dem ebenfalls neu entwickelten, aber noch nicht ausgereiften grafischen Tool Webmin administriert werden. [6]

Da die Tools durch die "Open Source Gemeinde" aber erst im nachhinein entwickelt werden, stehen diese für die jeweils neuesten Softwareversionen meist noch nicht zur Verfügung. Entweder muss dann doch wieder der Kommandozeilen-Modus verwendet werden oder man ist auf die uneinheitlichen und kostenpflichtigen Tools eines Linux-Distributors angewiesen.

Auch erreichen diese grafischen Linux-Administrationstools noch nicht die Tiefe und Breite der entsprechenden Microsoft-Unterstützung, wie z.B. die Management-Console mit der Snap-In-Technologie, der Active Directory Service oder die IntelliMirror-Technologie. Der Vorsprung, den die Microsoft-Betriebssysteme hier gegenüber Linux noch besitzen, wird in Veröffentlichungen üblicherweise in Jahren geschätzt.

Kosten

Ein wichtiges Auswahlkriterium für den IT-Einsatz in einem Unternehmen sind zweifellos die Investitions-Kosten. Dies sollte eigentlich ein gewichtiges Argument für Linux als kostenloses Betriebssystem sein.

In einer Studie des Institutes für Angewandte Betriebswirtschaftslehre und Unternehmensführung (IAB) an der Universität Karlsruhe wurden die IT-Investitionen für typische mittelständische Industrie-Unternehmen aus den Bereichen Maschinenbau und Elektrotechnik untersucht. [7]

Der Anteil der Software an den gesamten IT-Investitionen wurde hier im Durchschnitt mit (nur) 16% ermittelt. Der Aufwand für das eigene Betriebspersonal beträgt dagegen 30%. Unter den Softwarekosten selbst beträgt der Anteil der Anwendungssoftware 95%. Die Kosten für das Betriebssystem sind dort in den sonstigen (sic!) Kosten von 5% enthalten. Würde man nun in einem solchen Unternehmen sämtliche Betriebssysteme gegen Linux austauschen (was wohl schon durch die Vorgaben der Anwendungssoftware unmöglich sein dürfte), dann betrüge die Ersparnis bei den IT-Ausgaben wohl höchstens 2%.

Wenn jedoch mit einer Linux-Einführung kein bisher genutztes Betriebssystem abgelöst werden kann, stehen diesen minimalen Einsparungen zusätzliche Ausgaben für die Administration eines weiteren Betriebsystems gegenüber.

Das ebenfalls hier häufig anzutreffende Argument, Linux braucht gegenüber anderen Betriebssystemen geringere Hardware-Ressourcen trifft nur unter einschränkenden Bedingungen zu. Es setzt zum einen eine reduzierte Funktionalität voraus (z.B. als Betriebssystem für einen Einzweck-Server) sowie zum anderen, den Verzicht auf eine grafische Bedienoberfläche (z.B. Gnom oder KDE).

Heterogenität

Noch vor der Frage, welche Linux-Distribution eingesetzt werden soll, steht vor jedem Unternehmen das noch grundsätzlichere Problem, ob überhaupt noch ein weiteres Betriebssystem in die meist ohnehin schon heterogene Systemlandschaft eingeführt werden sollte. Denn für jedes neue Betriebssystem werden zusätzliches Wissen und zusätzliche Erfahrungen der Administratoren benötigt.

In einem solchen Umfeld ist ein weiteres Betriebssystem, meist wenig willkommen. Und so wird Linux oft nur dort eingesetzt, wo z.B. Systemadministratoren in Eigeninitiative das Unternehmen mit einem ersten Web-Angebot ins Internet bringen. Dort wo noch keine durchgängige Unternehmens-Strategie für einen Internetauftritt existiert, muss eine solche Lösung meist ohne größere Investitionen auskommen. Und da bietet sich das kostenlose Linux ohne grafisches Interface auf einem ausgemusterten Alt-PC an, zusammen mit der ebenfalls aus der Open Source Entwicklung stammenden Web-Server-Software Apache.

Linux-Hype?

Argumente und Emotionen

Aus dem bisher Dargelegten ist zunächst nicht zu erklären, woraus die große Aufmerksamkeit resultiert, die Linux insbesondere im kommerziellen Umfeld derzeit erfährt.

Die große Resonanz in der kommerziellen IT-Öffentlichkeit dürfte aber zumindest teilweise damit zu erklären sein, dass die Linux-Anhänger auch überproportional Autoren und Leser der entsprechenden Fachzeitschriften sind.

Überhaupt werden die Linux-Diskussionen von deren Anhänger oft sehr emotional geführt. Dies lässt sich immer dann gut beobachten, wenn Kritik an Linux geäußert wurde, wie z. B. nach der Veröffentlichung der "berühmten" Mindcraft-Performance-Studie. [8]

Dass ein Mangel an sachlichen Argumenten im Zweifel auch schon mal mit Emotionen ausgeglichen wird, läßt sich seit den Linux-Anfängen beobachten. So gibt Linus Torvalds in der bereits erwähnten Tanenbaum-Torvalds-Debatte ganz freimütig zu:

"Normalerweise gerate ich nicht in eine Flame-Argumentation, aber wenn es um Linux geht, bin ich sehr empfindlich." [1, S. 225]

Und in [9] wird die private E-Mail von Eric Raymond an einen Mitstreiter zitiert, die - von ihm wohl nicht beabsichtigt - in einem Message-Board aufgetaucht ist: 3Scroll downwards

"Wenn Du Dich in der Öffentlichkeit noch einmal wie ein Arschloch aufführst, das unsere Gemeinde spalten, ihre Interessen in Frage stellen und mich beleidigen will, dann werde ich das persönlich nehmen. Du wirst es bereuen. Pass auf, was Du tust." [9]

"GNU is not Unix" und "Linux ist nicht Microsoft"

Ein weiterer Grund für den Erfolg von Linux ist wohl auch in der Aversion vieler Linux-Anhänger gegenüber dem Unternehmen Microsoft zu finden. Die Entscheidung für Linux wird oft mit dem Argument "Freie Software vs. Betriebssystem-Monopol" begründet. (vgl. auch [10])

Interessant ist dabei allerdings, dass dieser Vorwurf nur Microsoft trifft und nicht sinngemäß z. B. auch die Produzenten von Intel-Prozessoren, Cisco-Routern oder Java-Systemen. Alle diese Firmen schützen die eigenen Produkte vor der Konkurrenz mit dem gleichen Vorgehen. Andererseits ist es den zuletzt genannten Firmen gelungen, in der Öffentlichkeit ein positives Image zu vermitteln (z.B. [11]). Dagegen hat sich Microsoft oft durch ein sehr ungeschicktes öffentliches Verhalten selbst geschadet und damit wesentlich zum eigenen Negativ-Image beigetragen.

Linux in der PC-Wertschöpfungskette

Vertikale und horizontale Hersteller

Der sich derzeit vollziehende Wandel in der Computerherstellung dürfte einen weiteren wichtigen Schlüssel zum Verständnis des kommerziellen Linux-Interesses liefern.

Die klassische Form der Computer-Herstellung ist die des vertikalen Herstellers. Dieser baut einen kompletten Computer - "aus einer Hand". Dazu entwickelt und produziert er zumindest die entscheidenden Bestandteile seines Computers selbst, wie Prozessoren, Betriebssystem und wichtige dem System nahe Anwendungssoftware. Beispiele hierfür sind die IBM mit den Systemen IBM/390, AS/400 sowie RS/6000 und das Unternehmen Sun mit der Sparc/Solaris.

Dagegen werden Personalcomputer heute vor allem von horizontal spezialisierten Herstellern gebaut.

Der Vorteil dieses Modells besteht insbesondere in der großen Stückzahl, auf die sich jeder Komponenten-Hersteller hier konzentrieren kann. Dies erlaubt ihm in eine sehr effiziente und hochautomatisierte Fertigung zu investieren, die dann aufgrund des Skaleneffektes insgesamt zu geringeren Komponentenkosten und letztlich zu immer preiswerteren PC-Systemen führt.

Marktführer und Wettbewerber

Die Tabelle [aus 12, S. 115] zeigt die Marktführer und deren Herausforderer auf den verschiedenen horizontalen Marktsegmenten zum Zeitpunkt der Veröffentlichung 1999. Dabei ist zu berücksichtigen, dass es in den einzelnen Segmenten stärkere und schwächere Marktführer gibt. So ist Intel im Segment der Prozessoren sicherlich ein stärkerer Marktführer, als z.B. Seagate bei den Festplatten. Andererseits dominiert niemand erkennbar die gesamte Herstellungskette.

Die Tabelle verdeutlicht weiterhin, dass in einem Markt von horizontalen Herstellern, das Ausscheren nur eines dieser Hersteller das gesamte Geschäftsmodell aller beteiligten Unternehmen gefährden kann. Würde z.B. der Hersteller einer bestimmten Komponente plötzlich einen vielfach höheren Preis fordern, führt dies automatisch dazu, dass sich damit auch der Preis des Gesamtsystems um diesen Betrag erhöht.

Dieser eine Hersteller würde dabei sehr wahrscheinlich einen deutlich höheren Gewinn verbuchen können, trotz des zwangsläufig zu erwartenden (geringen) Rückgangs des Gesamtabsatzes an PCs. Bei allen anderen Herstellern würde aber der eigene Umsatzes zurück gehen. Würden daraufhin alle Hersteller ihre Komponentenpreise erhöhen, wären Personalcomputer bald "unverkäuflich".

Andererseits hat das Modell der dominanten und Markt-führenden Komponentenhersteller auch Vorteile. In der schnelllebigen Informationstechnologie ist meist keine Zeit, um in langwierigen (und oft auch noch erfolglosen) Abstimmungsprozessen "offizielle" Standards zu definieren. Hier ist das Modell des "Industriestandards", der vom jeweiligen Marktführer gesetzt wird, wesentlich geeigneter.

In diesem horizontalen Produktionsmodell muss deshalb ausgeschlossen werden, dass ein Hersteller, z. B. in der oben erläuterten Form, aus der "stillschweigenden Übereinkunft" ausbricht. Dies wird im allgemeinen dadurch erreicht, dass weitere Hersteller als Wettbewerber bereit stehen, die Aufgabe des Marktführers zu übernehmen.

So ist auch das finanzielle Engagement von Marktführern zu werten, die in Wettbewerber eines anderen horizontalen Marktsegmentes investieren, obwohl mit diesen Beteiligungen oftmals keine großen Gewinne erzielt werden. Damit wird aber eine vollständige Abhängigkeit vom jeweiligen Marktführer vermieden. Außerdem kann so Druck auf die Preise ausgeübt werden, auch im Interesse eines möglichst hohen Absatzes der eigenen Komponenten.

Spezialisten dominieren die horizontale PC-Industrie (Stand 1999) [12, S. 115\]
Marktsegment Marktfuehrer Wettbewerber
Services EDS Andersen Consulting, CSC, Debis
Datenbank (DBMS) Oracle Informix, Sybase
Datenkommunikation Cisco 3Com, Nortel
System-Software Microsoft Novell
Drucker Hewlett-Packard Epson, Canon
PCs Compaq IBM, Apple, Dell
Festplatten Seagate Quantum, Conner
Mikroprozessoren Intel Motorola, AMD, Cyrix

Microsoft im horizontalen Produktionsmodell

Während derzeit bei allen anderen PC-Komponenten den Marktführern ausreichend starke Wettbewerber gegenüber stehen, hat sich das Gewicht im Segment der Betriebssysteme zuletzt sehr deutlich zugunsten von Microsoft verschoben. Es gibt, nachdem das OS/2 von IBM in der Bedeutungslosigkeit verschwunden ist, praktisch keinen Wettbewerber mehr, der im Bedarfsfall kurzfristig die Stelle von Microsoft einnehmen könnte.

Dies ist - wie oben gezeigt wurde - eine gefährliche Situation für das horizontale Produktionsmodell. Und so war es naheliegend, dass die "Hersteller-Gemeinschaft" (natürlich ausgenommen Microsoft) nach einem Ausweg aus dieser unbefriedigenden Situation suchte.

In gewisser Weise erfüllen auch die derzeitigen Gerichtsverhandlungen in den USA wegen Monopolisierung (die logischer Weise aus der beschriebenen Situation resultieren) die Aufgabe, Microsoft zu disziplinieren. Andererseits könnte eine Teilung von Microsoft im Ergebnis eines Richterspruches, auch dazu führen, dass die durchaus erwünschte Durchsetzungskraft des Marktführers bei neuen Standards spürbar geschwächt wird. Kommt es dadurch zu neuen Inkompatibilitäten würde dies in letzter Konsequenz auch den Gesamtabsatz an Personalcomputern schwächen.

Linux als Wettbewerber

Dies alles stützt die Vermutung, dass künftig Linux das Produkt des Wettbewerbers zu Microsoft sein soll. Diese Entwicklung wird von den horizontalen Herstellern (ausgenommen Microsoft) unterstützt, um einerseits eine Alternative zu Microsoft zu besitzen und um andererseits die Preise für Microsoft-Software im Interesse des gesamten Geschäftsmodells niedrig zu halten.

In diesem Fall besteht aber auch kein ernsthaftes Interesse Microsoft als Markführer aus der horizontalen PC-Herstellungskette heraus drängen, so lange sich dieses Unternehmen an die "stillschweigenden Übereinkünfte" hält. Die technologischen Vorteile von Windows 2000 gegenüber Linux sowie dessen gesicherte Weiterentwicklung dürften hierfür entscheidend sein.

Andererseits hat Linux aufgrund seiner Open-Source-Herkunft den großen Vorteil, dass derzeit nur vergleichsweise geringe Investitionen für dessen Weiterentwicklung erforderlich sind.

Einheitliche Strategie ohne Masterplan

An der Strategie der horizontalen Hersteller fällt weiterhin auf, dass diese offensichtlich keiner direkten Abstimmungen bedarf. Bei der Vielzahl der aufeinander angewiesenen Marktführer und Wettbewerber wäre ein gemeinsamer "Masterplan" wohl nicht geheim zu halten.

Vielmehr ergibt sich das zweckmäßigste Vorgehen jedes einzelnen Teilnehmers aus der "inneren Logik" des horizontalen Produktionsmodells. So folgt z.B. sein Agieren am Markt, das Preismodell - für jeden Beteiligten nachvollziehbar aus seiner momentanen Stellung innerhalb der Herstellungskette, aus seiner aktuellen Position als Marktführer oder Wettbewerber, aus der konkreten Wettbewerbssituation im eigenen Teilsegment usw.

Man findet ein solches abgestimmtes Marktverhalten, dass jedoch keinerlei direkte Abstimmung unter den Beteiligten bedarf, auch in Oligopol-Märkten, z.B. in der Mineralölindustrie. Während es sich aber hierbei um Märkte mit sehr geringer Produktdifferenzierung handelt, basiert das PC-Herstellungsmodell auf einem horizontalen Markt mit völlig unterschiedlichen, aber eng zusammen gehörenden Produkten.

Dies ist eine qualitativ neue Situation, die auch in sehr engem Bezug zur viel zitierten Informations- und Wissensgesellschaft steht und deshalb noch weiterer wirtschaftswissenschaftlicher Untersuchungen bedarf, wie sie derzeit u.a. in [12] in ersten Ansätzen erfolgen.

Literatur

  1. LINUX is obsolete : The Tanenbaum-Torvalds Debate. in: Open Sources: Voices of the Open Source Revolution / Edited by Chris DiBona : Sam Ockman ; Mark Stone. O'Reilly, 1999, S. 221 - 251
  2. Stallmann, Richard: The GNU Operating System and the Free Software Movement. in: Open Sources: Voices of the Open Source Revolution / Edited by Chris DiBona : Sam Ockman ; Mark Stone. O'Reilly, 1999, S. 53 - 70
  3. Raymond, Eric: The Cathedral & The Bazaar. - Sebastopol: O'Reilly, 1999. auch in: http://www.tuxedo.org/~esr/writings//cathedral-bazaar
  4. Unterschiedliche Linux-Strategien der Hersteller irritieren die Anwender. in: Computerwoche 27(25.02.2000)8, S. 23 - 24
  5. D. H. Brown Associates, Inc.: Linux How Good Is It?. - Port Chester, NY, April 1999
  6. Schleder, Frank Michael: Großer Bruder : Linux-Distribution für den Serverbetrieb. - in: NetworkWorld (10.03.2000)5, S. 65
  7. Institut für angewandte Betriebswirtschaftslehre und Unternehmensführung, Univ. Karlsruhe: Studie. zitiert in: Kleine mittelständische Unternehmen profitieren von Windows. - Computerwoche 26(1999)43, S. 26
  8. Mindcraft, Inc.: A File and Web Server Comparison: Microsoft Windows NT Server 4.0 and Red Hat Linux 5.2 Upgraded to the Linux 2.2.2 Kernel. - Los Gatos, CA, April 13, 1999
  9. CW-Wert. in: Computerwoche 27(25.02.2000)8, S. 10
  10. Fischbach, Rainer: Frei und/oder offen? From Pentagon Source to Open source and beyond. in: FifF-Kommunikation 16(1999)3, S. 21 - 26
  11. Grove, Andy S.: Only The Paranoid Survive. How to exploit the crisis points that challenge every company and career. New York, N. Y.: Doubleday, 1996
  12. Zerdick, A. ; Picot, K. ; Schrape, K. ; Artope, A. ; Goldhammer, K. ; Lange, U.Z. ; Vierkant, E. ; Lopez-Escobar, E. ; Silverstone, R.: Die Internet-Ökonomie - Strategien für die digitale Wirtschaft. - Berlin, Heidelberg, New York: Springer, 1999 (European Communication Council Report)
  13. Kutnick, Dale, Meta Group, CEO: Anwender kaufen Business-Portale nicht bei SAP und Co.: Interview zitiert in: Computerwoche 27(25. 2.2000)8, S. 104


Diskussion auf der Oekonux-ListeRemote link


1Scroll upwards Dies meint generell die Administration und Bedienung eines Betriebssystems über Fenster-Oberflächen - in Linux beispielsweise über Gnom oder KDE.

2Scroll upwards Diese Bemerkung wurde hier bewusst nicht geschlechtsneutral gewählt ;-) .

3Scroll upwards Das Marktforschungsinstitut Meta Group hierzu: "... Zwar hat fast jedes größere Unternehmen einen oder mehrere Web-Auftritte, aber die sind meist nicht koordiniert und noch seltener in die interne DV integriert." [13]