Die installierte Basis und keine Experimente
Ich arbeite gerade an einem Aufsatz über die Geschichte von OS/2. Dabei gab es natürlich schon am Anfang die Frage, warum Microsoft mit IBM überhaupt zusammenarbeitete. Denn eines der Ziele von IBM war von Anfang an Kontrolle über das Betriebssystem zu bekommen. Das betraf eigentlich Microsofts Kerngeschäft. Warum also ließ sich Microsoft darauf ein?
David Weise, der langjährige Projektleiter der Windows Entwicklung verwies in einem Interview darauf, das man damals bei der Führungsetage von Microsoft die „installierte Basis“ unterschätzt hatte und glaubte, ein neues Betriebssystem würde wie DOS innerhalb von wenigen Jahren den Markt an sich reißen.
Was ist damit gemeint?
Als man mit der Arbeit an OS/2 begann, war es 1985. Der Marktanteil der IBM-PC und kompatiblen stieg von knapp 32 Prozent im Jahr 1984 auf 48 Prozent in diesem Jahr. Das war eine installierte Basis von mehreren Millionen Geräten. Alle diese PC liefen unter DOS. Die Anwender nutzten Anwendungen unter DOS, die auch immer zahlreicher und besser wurden. Man muss nur mal Anwendungen der ersten Stunde wie Wordstar und Visicalc mit denen der zweiten Generation wie MS Word oder Lotus 1-2-3 vergleichen.
Wenn ein neues Betriebssystem DOS verdrängen sollte, dann musste es mehr als dieses bieten. Neue Anwendungen für das System gab es ja erst mal nicht. Das ist das typische Henne-EI Problem. Ein noch so tolles System nützt einem nichts, wenn man keine Anwendungen hat. Die müssen aber erst entwickelt werden und Software-Firmen tun dies natürlich vor allem für die Plattform die schon existiert, weil es so viel mehr potenzielle Käufer gibt.
Das heißt, ein neues Betriebssystem muss einen deutlichen Mehrwert bieten. Bei OS/2 war dies die Schutzmechanismen des Protected Mode des 80286. Er verhinderte, dass abstürzende Programme auch das System und andere Programme mit zu Crash bringen konnten. Daneben erlaubte er Multi-Tasking.
Das klingt erst mal toll. Doch es gab zwei Mankos. OS/2 brauchte in der ersten Version erheblich mehr Speicher als damals in einem durchschnittlichen PC steckte. Und sein DOS-Emulationsmodus war schlecht, denn funktionierte dort etwas nicht, konnte auch OS/2 abstürzen.
Das zweite Manko war, das Anwender gar nicht so oft Multitasking brauchten. Man arbeitete an einer Anwendung und beendete diese, wenn man was anderes machen wollte. Das ist auch im täglichen Leben so. Selten macht man dort zwei Dinge aktiv gleichzeitig, eher ist es so, dass man etwas mit voller Aufmerksamkeit macht und etwas anderes nur kontrollieren muss. So war es auch beim PC. Was man öfters brauchte, sind kleine Hilfsprogramme um z. B. Dateien zu kopieren oder mal kurz was auszurechnen. Dafür gab es TSR (Terminate and Stay Resident) Programme. Das waren Anwendungen, die im System einige wichtige Sprünge auf sich umbogen und dann einen kleines Programm im Speicher hinterließen. Drückte man auf eine Taste, so wurden sie aktiv wie z. B. Borlands Sidekick.
Für diejenigen die tatsächlich mehrere DOS-Anwendungen parallel ausführen wollten, gab es Alternativen. Wenig Erfolg hatten Multitasking-Anpassungen von DOS, die man dann anstatt DOS installieren mussten wie Concurrent DOS. Die Anwender scheuten vor Experimenten zurück. Was war, wenn dann meine Anwendung nicht mehr lief? Erfolgreicher waren Deskview-386 und PC-MOS-386. Sie nutzten den neuen Befehlsstart des 386-Prozessors und setzten diese auch voraus. Er bot einen „virtuellen 8086 Modus“, in dem ein Programm abgeschottet von anderen war. Jeder „virtuelle PC“ entsprach einem DOS, nur konnte es davon beliebig viele geben und die Kontrolle hatte immer noch das Masterprogramm. Da diese Programme Aufsätze auf DOS waren, waren sie populärer als ein neues DOS mit echten Multitasking Fähigkeiten. Funktionierte ein Programm unter ihnen nicht, so startete man es eben von DOS aus und nicht vom Multitasking-Aufsatz.
Doch selbst diese Programme wurden selten genutzt. Eben, weil man meistens mit einer Anwendung arbeitete. Für die Leute die mit mehreren Programmen gleichzeitig arbeiteten, gab es „integrierte Pakete“. Heute würde man Office dazu sagen. Standard war, dass man damals mehrere Anwendungen hatte. Mit einer Textverarbeitung schrieb man Briefe, Rechnungen etc. Daten wie privater Natur (Adressen) oder beruflicher (Bilanz, Lagerverwaltung) verwaltete man mit einer Datenbank und Kalkulationen (Buchhaltung, Bilanz) machte man mit einer Tabellenkalkulation. Der Datenaustausch geschah über Import und Export-Funktionen. Integrierte Pakete wie Symphonie oder Frameworks hatten diese Anwendungen in einem Hauptprogramm integriert. Meist war eine Komponente gut und die andere erfüllte die Basisanforderungen. Der Hauptvorteil von ihnen war der viel einfachere Datenaustausch. Für eine Rechnung benötigte man Daten aus der Datenbank (Adresse, Rechnungsnummer, Kundennummer) und musste Berechnungen der durchgeführten Leistung durchführen (Tabellenkalkulation) und das ganze landete in einem Brief (Textverarbeitung). Bei einem integrierten Paket war die Datenübergabe verzahnt und wesentlich einfacher.
Kurz: es arbeitet sich unter unter DOS. Der Hauptnachteil war der begrenzte Arbeitsspeicher, die von DOS verwaltbaren 640 KByte überschritten am Ende der Achtziger die meisten Rechner im Anlieferungszustand. Doch selbst dafür gab es Lösungen. Zum einen von Intel die EMM Speicherkarten und dann noch den EMS-Standard. Beide Lösungen ermöglichten den Zugriff auf mehr Speicher, indem sie ihn über einen kleinen Speicherbereich im oberen Speicher ansprachen. Das gab es zuerst als Karte, doch bekannter war ab dem 80386 Prozessor ist die Softwarelösung EMM386.Exe die damals mit DOS mitgeliefert wurde.
Es gibt eine gewisse Parallele zu der Geschichte der grafischen Oberfläche. Der Macintosh als erster bezahlbarer PC (vorher gab es für die die es ganz genau wissen natürlich noch Apples Lisa, den Xerox Star und den Xerox Alto) erschien 1984, Atari ST und Amiga 1986. Zumindest der Atari ST war deutlich billiger als ein PC. Ein Amiga kostete genauso viel wie ein (kompatibler) PC, bot aber die grafische Oberfläche. Doch auch wenn diese Rechner einige Jahre lang sich gut verkauften, konnten sie an der Dominanz der PC mit der textbasierten Oberfläche nichts ausreichten. Warum? Ist denn nicht eine grafische Oberfläche besser, intuitiver bedienbar? Ja das ist sie, aber es muss eben ein handfester Vorteil herausspringen. Die Anwendungen damals waren textbasiert. Niemand bearbeitete Bilder auf dem PC. Für textbasierte Anwendungen bringt eine grafische Oberfläche wenig, am meisten noch das WYSIWYG (What you see is what you get). Also die Darstellung auf dem Bildschirm war die des Ausdrucks. Doch was brachte da an Zusatznutzen, wenn der Drucker ein Typenrad- oder Nadeldrucker mit festen Schriften war? Der Laserdrucker der auch Grafik ausgeben konnte und beliebige Schriften rendern konnte, war zwar schon erfunden aber unerschwinglich teuer. Was blieb, ist die einfachere Bedienung. Nur: damals war ein PC teuer. Wer sich den kaufte, der war auch bereit Arbeit zu investieren, Arbeit sich in die Bedienung von Programmen einzuarbeiten. Und einmal gelernt ist man da viel schneller unterwegs, als wenn man dauernd von der Tastatur zur Maus wechselt. Nach Jahrzehnten ertappe ich mich immer wieder dabei, wie ich wenn ich was suchen möchte, STRG+Q und F eintippe, weil so die Suchfunktion von Wordstar und vielen Texteditoren die Wordstar kompatibel waren, funktionierte. Dummerweise schließt STRG+Q bei meiner aktuellen Textverarbeitung das aktuelle Fenster …
Was Erfolg hat, ist die Evolution, die Migration nicht das revolutionär Neue. Windows wurde auch deswegen ein Erfolg, weil Windows anders als OS/2 kein eigenständiges Betriebssystem war. Es war ein Aufsatz auf DOS, denn man von DOS aus starten musste. Spätere Versionen (Windows 95 – Windows ME) haben das verbogen, es war aber immer noch so. Jemand musste sich nicht für eine grafische Oberfläche oder für DOS entscheiden, er konnte beides haben.
Das Anwender in ihren Angewohnheiten sehr beharrlich sind, zeigen auch die zwei später so gefloppten Windows Versionen Vista und Windows 8. Vista nervte durch unnötige Nachfragen, Windows 8 rationalisierte einfach die Titelleiste des Fensters weg, weil Microsoft meinte, es sollte ein Windows für Geräte mit Tastatur und ohne (Tabletts, Smartphones) geben. Die Leute kauften das nicht, bei Vista musste Microsoft sogar den Support für XP verlängern, bei Windows 8 gab es schnell ein Update auf die Version 8.1 und etwas später dann Windows 10.
Die meisten Anwender arbeiten nach der Devise: Keine Experimente. Die macht dagegen Microsoft. In jeder Windows Version führen sie etwas ein was mir nicht gefällt (Kacheln im Startmenü die man von Hand wieder alle löschen muss) oder streichen etwas, was ich gerne habe. So die Gageds von Windows 7 oder das man in den Desktopeinstellungen genau festlegen kann welches Element wie groß sein soll – für Sehbehinderte die keine größeren Titelleisten und Symbole brauchen, aber lesbarer Menüs, ist es besser die Schriftarten der Elemente, die man schlecht erkennen kann, zu vergrößern, anstatt den ganzen Fensterinhalt, wie dies seit einigen Versionen nur noch möglich ist, sofern man nicht in der Registry manuell editieren will.
Das wohl größte Experiment im letzten Jahr war das Brechen eines Versprechens und die Einführung des Verfalldatums für PC. Hatte Microsoft nicht versprochen, das Windows 10, das letzte Windows sein würde – mit Updates auf Lebenszeit? Die Lebenszeit ist nun maximal neun Jahre: Windows 10 erschien 2015 und der Support läuft 2024 aus. Dazu kommt das die neue Version Windows 11 detaillierte Hardwareanforderungen hat. Einige Voraussetzungen kann ich nachvollziehen wie das TPM-Modul auf dem Mainboard. Doch selbst die Computerzeitschrift ct’ konnte keinen gemeinsamen Nenner bei den unterstützten Prozessoren ausmachen. Da gab es einige Prozessoren die neuer sind und die unterstützt werden aber denen bestimmte Befehle fehlen, die ansonsten „bessere“, aber ältere Prozessoren haben. Der tiefere Sinn ist wohl das man die PC-Verkäufe ankurbeln möchte, den die ersten Prozessoren die von Windows 11 als Systemanforderung genannt werden kamen 2018 auf den Markt. Drei Jahre (Erscheinungsdatum von Windows 11: November 2021) sind aber heute kein Problem mehr. PC sind zuverlässiger geworden. Ich habe lange Jahre alle fünf bis sechs Jahre einen neuen PC gekauft. Zum einen, weil irgendwann Abstürze immer häufiger wurden – angeblich sind daran Elektrolytkondensatoren schuld, die altern und dann auslaufen – zum andern, weil man ja immer mehr bekam, mehr Speicher, schnellere Prozessoren. Das ist seit einigen Jahren nicht mehr so, zumindest ist der Zuwachs gering. Bei meinen aktuellen PC habe ich beim Kauf auf Festkörper-Kondensatoren geachtet und er arbeitet immer noch – gekauft habe ich ihn im Juli 2014, also ist er fast acht Jahre alt. Er ist hinreichend schnell, ich bin mit ihm zufrieden und will auch nicht alles neu aufspielen und einrichten. Das ist bis man jede Feineinstellung wieder gemacht hat nämlich eine Menge Arbeit. Microsoft ist offenbar der Meinung, man solle sich alle drei Jahre einen neuen PC kaufen, damit der Umsatz der Hardwarehersteller stimmt – und es klappt: der Umsatz der Branche ist 2021 um 15 Prozent angestiegen, nachdem er die letzten Jahre zurückging, weil die Leute eher Smartphones und Tabletts kauften
Vobis hat eine kurze Zeit lang PCs mit OS/2 verkauft. Das Problem dabei: Mit den standardmäßig verbauten 4 MB RAM brauchte OS/2 über 10 Minuten alleine zum Booten. Und war es damit endlich fertig, war es so lahm dass an ein Arbeiten nicht zu denken war. Da die meisten Nutzer DOS und WIndows schon rumliegen hatten, wurden diese wiederlaut fluchend draufgespielt und das OS/2 im Mülleimer „installiert“.
Was mich am DOS am meisten gestört hat, war der fehlende Treiberstandard. So mußte jeder Softwarehersteller seine Treiber selbst enwickeln. So warb Softmaker damit, dass sie für Textmaker Treiber für über 1000 Druckertypen mitliefern.
Für alle Programme nutzbare Standardtreiber wären bei DOS technisch kein Problem gewesen, aber man wollte ja WIndows verkaufen…