Sie besuchen die Seite über eine ungesicherte Verbindung. Gesicherte Verbindung mit https (empfohlen)
Bei Beschränkungen des Internet-Zugangs (Gäste-WLAN oder ähnliches, ohne https) wechseln Sie bitte nicht

Grundlagen

... eine Einführung

Was ist zu unterscheiden

Häufig unterscheiden Anwender nicht zwischen Betriebssystem und Anwendung. Sowohl die einschlägige Fachpresse (die Tagespresse ohnehin) als auch Software-Hersteller wie Microsoft versuchen, die Unterscheidung immer mehr zu unterdrücken, was den Anwender einerseits zwar mit weniger Wissen belastet, ihn im Störungsfall jedoch mangels Wissen vor gewaltige Probleme stellen kann.

Grundsätzlich benötigt jeder Personal Computer (PC) ein Betriebssystem, die Hardware alleine kann überhaupt nichts! Ebenso kann keine Anwendung ohne vorhandenes Betriebssystem laufen.

Ein Betriebssystem ist die Verbindungsstelle von der verwendeten Hardware zur Anwendung, die Anwendung ist die Schnittstelle zum Benutzer. Jede „normale“ Anwendung greift auf die vom Betriebssystem gebotenen Schnittstellen zu. Eine Anwendung braucht sich im Normalfall nicht um die Verwaltung der Hardware zu kümmern, das ist die Aufgabe des Betriebssystems.

Aufgrund starker Limitierungen der gebotenen Schnittstellen war es früher (zu Zeiten von CP/M oder reinem DOS) bei vielen Anwendungen üblich, dass sie selbst direkt auf die Hardware zugegriffen und diese gesteuert haben (beispielsweise wurde die Bildschirmausgabe durch Direktzugriff auf die Grafikkarte beschleunigt). Diese Unsitte ist speziell bei Spielen immer noch vorhanden, auch bei den DOS-Nachfolgern mit grafischer Oberfläche, allgemein sind diese als Windows bekannt, wird immer noch von Anwendungen direkt auf die Hardware zugegriffen, so dass die Laufstabilität des jeweiligen Systems sehr stark von der Anwendung abhängen kann.


Nun aber ganz kurz etwas technische Beschreibung zur Begriffsbestimmung und ein wenig Historie:

Die Hardware jedes Computers bietet über das sogenannte BIOS (Basic Input Output System) eine durch Gewohnheit und Kompatibilitätszwang mehr oder weniger standardisierte Schnittstelle zur Software. Nach dem Einschalten meldet das BIOS von PCs die erkannten Hardwarekomponenten und sucht an bestimmten Stellen nach einem Ladeprogramm für das Betriebssystem. Sofern ein Lader für ein Betriebssystem gefunden wurde, wird dieser gestartet.

Bei der Einführung des PCs (Personal Computer) Ende der 70er/Anfang der 80er Jahre des letzten Jahrhunderts hatte sich IBM auf die Prozessoren der 8086-Familie von Intel festgelegt. DOS 1.0 war eigentlich ein CP/M, erst DOS 2.0 war eine wirkliche Erweiterung. Die stabilste DOS-Version dürfte wohl die Version 3.3 gewesen sein.

Beinahe alle DOS-Versionen hatten den Nachteil, dass sie eigentlich immer nur eine Anwendung starten konnten: DOS ist (mit Ausnahme einiger spezieller Versionen) ein "Singletasker". Durch diverse tief eingreifende Programme wurde selbst unter DOS das anscheinend gleichzeitige benutzen mehrerer Programme ermöglicht: DOS wurde zum Pseudo-„Multitasker“. Das wohl bekannteste Hilfsprogramm hierzu war DesqView, DR-DOS (später Novell-DOS) brachte gewisse Ansätze von haus aus mit.

Bis zum Stadium DOS 3.0 war der PC-Anwender immer noch direkt mit der Kommandozeile konfrontiert, grafische Oberflächen waren nur Apple-, Atari- und Amiga-Usern bekannt.

Den ersten erwähnenswerten Versuch, auf Intel-PCs eine grafische Oberfläche zu etablieren, startete Digital Research (DR) mit GEM. Diese Oberfläche war ein „Nachbau“ der von Apple-MacIntosh und Atari bekannten Oberfläeche. Als XGEM war sie bereits Mehrbenutzer-fähig und konnte mehrere Anwendungen gleichzeitig laufen lassen.

Nunja, wie das Leben so spielt: DR bekam rechtliche Probleme mit Apple, Microsoft veröffentlichte ein Windows. Weitere Mitbewerber in diesem Segment bekamen den Fuss nicht auf den Boden, GEM verschwand von der Bildfläche.

Bereits 1983 begannen IBM und Microsoft, ein Betriebssystem zu entwickeln, welche die von DOS bekannten Limitierungen aufheben sollte:
OS/2.

Mit technischen Daten, welche bis dato nur sehr hochpreisigen Unix-Derivaten (eine vollwertige Arbeitsplatzlizenz auf *ix-Basis kostete 1985 ca. DM 8.000,-, also etwa EUR 4.000,- !!!) vorbehalten waren, also Multitasking oder Verwaltung von 1 Gigabyte Arbeitsspeicher (= 1024 Megabyte, DOS konnte nur mit Krücken mehr als 1 MB verwalten und dieses eine MB wegen ungeschickter Plazierung der Grafikadressen auch nur mit Problemen) war OS/2 zwar kein Mehrbenutzersystem, aber technologisch sehr gut platziert, nämlich führend.

Der Preis von über DM 2.000,- pro Lizenz war für den normalen Anwender erschreckend hoch, aber es war letztendlich sein Geld wert.

Die Standard-Betriebsart von OS/2 ist schon immer ein sogenanntes pre-emptives Multitasking, welches jeder Anwendung soviel, aber nicht mehr, Rechenleistung zur Verfügung stellt, wie sie wirklich beansprucht. Dadurch ist die Resourcen-Verwaltung sehr effizient, was sich für den Anwender in bequemer Arbeit quasi gleichzeitig mit mehreren Programmen wiederspiegelt. Ab Version 1.1 gab es den sogenannten Presentation Manager als grafische Oberfläche. Die Nutzung erfolgte hauptsächlich als Server-Betriebssystem in Firmen, welche den LAN-Server (IBM) oder Lan-Manager (Microsoft) im Einsatz hatten.

Schon vor Erscheinen der OS/2-Version 1.3 gab es Diskrepanzen zwischen IBM und Microsoft, welche die Aufkündigung der Zusammenarbeit bei der Weiterentwicklung von OS/2 zur Folge hatten. Microsoft setzte auf das hauseigene Windows, IBM holte zunächst einmal sehr tief Atem.

Während Microsoft die bunten Bilder der Windows-Welt immer noch auf reiner DOS-Basis darstellte, überarbeitete IBM Teile von OS/2 und brachte es als Version 2 mit grafischer Oberfläche auf den Markt.

Es war beinahe ein Traum Wirklichkeit geworden:

Plötzlich hatte man als Anwender ein sehr stabil laufendes Multitasking-fähiges Betriebssystem UND eine komfortable grafische Oberfläche zur Verfügung bei sehr guter Resourcen-Ausnutzung zu bezahlbarem Preis.

Speziell im Bankbereich setzte sich OS/2 sehr stark durch (über lange Jahre hinweg wurden beispielsweise quasi alle Geldautomaten auf der Welt unter OS/2 betrieben), die konsequente Weiterverbreitung wurde allerdings schon damals erfolgreich durch das Marketing von IBM verhindert.

Im Frühjahr 1995 veröffentlichte IBM OS/2, die Dritte: Warp3 (Connect). Wieder scheiterte die Markteroberung am Marketing. Selbstverständlich schlief die Konkurrenz nicht, Ende 1995 erschien Windows95 (also kurz vor Erreichen seines Verfallsdatums). Aufgrund der hohen Qualität dieses Produktes blieben

  1. die Händler auf den meisten der georderten Windows95-Pakete „sitzen“,
  2. verkaufte IBM trotz massiver innerer „Gegenwehr“ innerhalb eines Monats so viele OS/2-Lizenzen wie vorher das ganze Jahr nicht.

Für den Anwender war trotzdem die Zeit der Verschlechterung angebrochen:
IBM hatte ein qualitativ sehr hochwertiges Produkt und schaffte es nicht, dieses zu verkaufen. Microsoft hatte ein <Bewertung gestrichen> Produkt und verkaufte es zunächst über das sogenannte Bundling von Hard- und Software. Da Microsoft gleichzeitig das Office-Paket als Killer-Applikation auf dem Markt hatte, war der Erfolg von Windows nicht mehr zu verhindern.

Technisch betrachtet war Windows95 eigentlich nichts weiter als ein DOS mit grafischer Oberfläche. Das sogenannte Multitasking war kein pre-emptives, sondern ein kooperatives, also eine reine Zeitscheibenverteilung mit gleichem Anteil für jede gestartete Anwendung.

Als Microsoft sein Windows98 (technisch ist es nicht wirklich besser als Win95) herausbrachte, hatte IBM zwar Warp4 auf dem Markt, aber keine richtige Zielgruppe dafür. In der IBM-eigenen Methodik hatte der für OS/2 zuständige Betriebsteil in den Vorjahren irrsinnige Summen in die Entwicklung einer PowerPC-(PPC-)Version von OS/2 investiert, was durch das Scheitern der ehrgeizigen PPC-bezogenen Pläne jedoch zum Fenster hinausgeworfenes Geld war.

Ebenso hatte IBM die Entwickler damaliger Standard- oder zumindest bekannter Software für die Erstellung von OS/2 basierender Software finanziell gefördert, jedoch in den allerseltensten Fällen etwas dafür zurückerhalten (nebenbei floss aber noch mehr IBM-Geld an Entwickler von Windows-basierender Software). Selbst für das Einfordern vertraglich festgelegter Beträge war wegen der Pleite mit dem PPC-Projekt kein Geld mehr in der Kasse des OS/2-Bereiches.

Zwischenzeitlich ist OS/2 bei Kennern immer noch beliebt, kommt aber gegen Linux mehr und mehr ins Hintertreffen.

Windows ist bei Kennern immer noch kein ernsthaftes Thema für den wirklichen Eigenbedarf. Um dies zu verdeutlichen, möchte ich auf ein, zumindest für mich sehr erstaunliches, Phänomen hinweisen:
Bei vielen Endanwendern ist es heutzutage „normal“, dass der Computer mindestens einmal täglich abstürzt!

Das wird stillschweigend akzeptiert, die Arbeit von Stunden wird wiederholt!!

Auf Grund seiner damals sehr hohen Verbreitung ist dies wohl am ehesten Windows98 zuzuschreiben (welches aber schon um Welten stabiler als Win95 „lief“!). Weder WindowsME, noch Windows-NT, Windows2000 oder das erst vor kurzem erschienene Windows 8 bzw. 8.1 haben das, was Microsoft in seiner Werbung schon immer verspricht (stabiles Funktionieren, Sicherheit) gehalten.

Stabilität und Sicherheit sind die Faktoren, welche die Nutzungskosten einer Software (TCO, Total Costs of Ownership) bestimmen:

Keine oder nur geringe Stabilität bedeutet Störungen im Ablauf, verursacht also Kosten.

Durch Abstürze bedingter Datenverlust verursacht weitere Kosten.

Keine Sicherheit (Windows ist berühmt-berüchtigt für seine Sicherheitslöcher, Microsoft hat mit seiner Lizenzierungspolitik seit XP die Ausspähbarkeit quasi als Nutzungsbedingung eingebaut) stellt einen absolut unkalkulierbaren Risikofaktor dar, welcher im kommerziellen Umfeld zu einem Mehr an Investitionen beispielsweise im Firewall-Bereich führt. Dieses Mehr ist letztendlich jedoch vergebliche Liebesmühe.

Seit einigen Jahren rückt Linux mehr und mehr als wirklich ernsthafte Windows-Alternative in den Vordergrund. Im Serverbereich hat Linux seinen Platz auf jeden Fall erobert, nur in Intranets schrecken viele Verantwortliche mangels KnowHow der intern zuständigen Abteilung vor einer Umstellung zurück. Schließlich legt ein Systeminformatiker bereits im ersten Lehrjahr die Prüfung zur Zertifizierung des aktuellsten Microsoft-Servers ab. Vom daran hängenden Netzwerk hat er allerdings absolut keine Ahnung.

Aufgrund des extrem guten Preis-/Leistungsverhältnisses bestehen jedoch gute Chancen, dass eine kommende Entscheider-„Generation“ nicht nur Windows, sondern auch eine Vergleichsplattform kennt. Dann müssen die heutigen EDV-Koriphäen entweder lernen oder ernsthaft argumentieren, da es absehbar ist, dass es bis 2005 jegliche Art von Anwendung in mindestens gleicher Qualität wie auf Windows-Basis auch für Linux gibt.

Aaaaber: Ich war selbst einige Zeit als leitender Systemadministrator im Online-Bereich tätig und betrachte die derzeitige Versionsschwemme im Linux-Bereich mit einiger Skepsis. Der Grund für diese Skepsis liegt darin, dass es bei derart kurzen Entwicklungszyklen einfach nicht mehr möglich ist, wirklich umfassend zu testen.

Ich folge der Upgrade-Hype nicht und aktiviere auf aktiven Einsatzrechnern nur das, was wirklich eine Verbesserung darstellt UND einiges an Einsatzzeit nachweisen kann. Auch biete ich nicht jeden Schnickschnack, sondern beschränke mich (also das jeweilige System) auf den tatsächlichen Bedarf.

Letztendlich führt das zu höherer Systemstabilität und Sicherheit, so dass die tatsächlichen Betriebskosten so gering wie möglich gehalten werden (auch das Einspielen von Updates/Fixes kostet Geld).