Home | Computer | Computer Geschichte | Site Map |
Viel geschrieben, auch auf dieser Website wurde über die Entstehung des IBM PC und wie er zu seinem Betriebssystem MS-DOS bzw. PC-DOS kam. Nur wenig aber über die Zeit die danach folgte. Die Nachfolgerechner des IB; PC, die Konkurrenz durch Nachbauten (Klones) und der Versuch von IBM sich zu emanzipieren und einen neuen Standard zu setzen.
Der ursprüngliche IBM PC wurde von Phillip Estridge als Leiter der Arbeitsgruppe als "offenes System" entworfen. Estridge hatte privat einen Apple II und kannte die Vorteile dessen offener Architektur. "offen" heißt, das die Systembestandteile bekannt sind. IBM beschrieb in technischen Handbüchern genau die Technik des PC. Das ermöglichte es Firmen Karten für den IBM PC zu entwerfen. Das war Absicht, denn IBM konnte gar nicht alle Karten für alle denkbaren Anwendungsgebiete entwerfen. Manche Karten wurden erheblich beliebter als IBMs eigene. So die Hercules Grafikkarte. IBM hatte eine Karte herausgebracht die Textdarstellung mit feinem Raster konnte, und eine die Grafikdarstellung konnte, aber Text nur in einem groben Raster. Hercules kombinierte beides auf einer Karte, bot aber nur Monochromgrafik. Offen bedeutete auch das die Systemarchitektur bekannt war. Für Programmierer wichtig war, welche Funktionen des Computers er wie ansprechen konnte. Das geschah durch das BIOS. IBM hatte den Rechner zudem aus Standardbausteinen aufgebaut, anders als seine Vorgänger IBM Modell 5120 und IBM Displaywriter die von IBM selbst erstellte Logikbausteine einsetzten. Weiterhin hatte IBM den Fehler begangen, von Microsoft das Betriebssystem und die Programmiersprachen zu lizenzieren. Das war kostengünstig (für die gesamte Entwicklung von PC-DOS sollen nur rund 80.000 Dollar an Lizenzgebühren geflossen sein). Dadurch behielt Microsoft aber die Rechte konnte DOS an andere Hardwarehersteller lizenzieren. Die Version hieß dann eben MS-DOS und nicht PC-DOS.
Vom Erfolg des IBM PC wurde die Firma überrascht. Dort schätzten Optimisten, das man in den ersten fünf Jahren vielleicht 250.000 Geräte absetzen könnte. Diese Stückzahl wurde schon nach zwei Jahren erreicht. Der wesentliche Grund für den Erfolg war der Ruf IBMs. Man darf nicht vergessen, das es beim Erscheinen des IBM PC erst seit knapp drei Jahren PCs gab. Die ersten PCs wurden nur zum Programmieren lernen und sich mit dem Computer beschäftigen verkauft. Anwendungen wie Wordstar (Textverarbeitung), Visicalc (Tabellenkalkulation) und DBase (Datenbank) waren noch jünger. Rechner wie der Apple II wurden von technikaffinen gekauft. IBM war aber führend bei Großrechnern. Die Firma hatte zeitweise einen Marktanteil von 50 % bei Großrechnern. Ihr Service war sehr gut, ihre Vertriebssparte noch besser. Sie hatten dort, wo ihre Rechner eingesetzt wurden, sich einen guten Ruf erworben. Wenn IBM sich nun mit diesen kleinen Geräten beschäftigt, dann musste etwas an diesen dran sein. Viele kauften den IBM PC nur, weil er von IBM war. IBMs Einstieg förderte aber den ganzen Markt. Denn dadurch, das IBM einen PC gebaut hatte, wurde dieses Gerät erst für viele interessant, die es vorher für ein teures Technikspielzeug hielten. Sie kauften aber nicht nur bei IBM, schlussendlich kostete ein Komplettsystem etwa doppelt so viel wie ein Apple II.
Die ersten Konkurrenten des IBM PC, die erschienen, waren keine Nachbauten, sondern MS-DOS kompatible Maschinen. Darunter verstand man Rechner, welche den 8086/88-Prozessor verwendeten, aber eine andere interne Architektur aufwiesen, z. B. andere Diskettenformate einsetzten oder den Bildschirm anders verwalteten. Da MS-DOS den gleichen Aufbau wie CP/M hatte, also Hardwareebene und API trennte, konnte es auch auf anderen Rechnern mit dem 8086/8 laufen, wenn das BIOS angepasst wurde. Viele dieser Maschinen waren bessere Rechner als die von IBM - sie setzten den 8086 ein oder hatten einen Z80 Prozessor zusätzlich um CP/M-80 einzusetzen. Andere hatten einen höher auflösenden Bildschirm oder speicherten mehr Daten auf einer Diskette wie der Sirius 1. Trotzdem war keiner wirklich erfolgreich.
Denn der IBM-PC hatte bald einen normativen Charakter. Zum einen verkaufte er sich besser als alle anderen Computer mit dem x86-Prozessor und war der Standard. Zum Zweiten gab es in vielen Firmen ein geflügeltes Word: "Es wurde noch niemand dafür entlassen, dass er IBM gekauft hat". IBM hatte einen so guten Ruf in der Geschäftswelt, dass viele Interessenten überhaupt nicht den Kauf eines MS-DOS kompatiblen Computers erwogen. Der Todesstoß für die nur auf DOS-Ebene kompatiblen Rechner kam aber durch die Langsamkeit des IBM-PC. Dadurch, dass ein langsamer Prozessor gewählt wurde, programmierten viele Softwareentwickler an MS-DOS vorbei und schrieben Programme, welche direkt auf die Hardware zugriff. Derartige Programme liefen dann nur noch auf dem IBM-PC. So konnte man Text auf dem Bildschirm ausgeben, indem man die MS-DOS Funktion 9 aufrief, welche dann pro Buchstaben jeweils eine BIOS-Funktion zum Schreiben eines Zeichen aufrief - oder man schrieb direkt in den Bildschirmspeicher, der beim IBM PC bei Adresse 655.360 anfing. Letzteres war schneller und wurde bald gängige Praxis. Damit lief das Programm aber nur noch auf einem IBM PC oder vollständig zu ihm kompatiblen Computer.
Es dauerte fast zwei Jahre, bis die ersten Nachbauten des IBM PC auf dem Markt erschienen. Dass ein Computer kopiert wird, ist nicht ungewöhnlich. Es war bei den Großrechnern von IBM üblich und auch Altair und Apple II wurden kopiert.
Das Problem für die Nachbauten war das BIOS des IBM-PC. In diesem kleinen ROM-Baustein steckte der einzige Teil der Software, den IBM selbst programmiert hatte. Es waren das Startprogramm für das Betriebssystem und die elementaren Routinen, um die Hardware des Computers anzusprechen. Hätte eine Firma diesen Baustein einfach kopiert, so wäre sehr bald ein Brief von IBMs Rechtsabteilung ins Haus geflattert. Dies kam trotzdem vor: Viele Firmen, die genauso schnell entstanden, wie sie wieder verschwanden, bevor man ihnen habhaft werden konnte, boten in Fernost kopierte BIOS-Chips an. Gegen US-Firmen die Rechner mit solchen kopierten BIOS-ROM anboten ging IBM auch gerichtlich vor. Für US-Anbieter musste ein umständlicher, aber rechtlich unanfechtbarer, Weg beschritten werden. Compaq, der erste Hersteller eines Clones, erstellte daher ein eigenes, kompatibles BIOS.
Dies geschieht in zwei Schritten. Eine Gruppe untersuchte das IBM BIOS. Dies geschah über die Analyse des Verhaltens bzw. durch die Art wie MS-DOS das BIOS aufrief. Daraus konnte abgeleitet werden, welche Routinen es enthielt, wie diese angesprungen wurden und welche Daten dabei übergeben wurden. Diese Gruppe schrieb die Ergebnisse als Spezifikationen auf. Sie durfte keine Dokumentation benutzen oder sich den Quelltext ansehen, da beides geistiges Eigentum von IBM war.
Eine zweite Gruppe programmierte ein zweites BIOS auf Basis dieser Spezifikationen. Was herauskam, war ein neues BIOS, das nicht auf IBMs Code basierte und damit rechtlich unanfechtbar war. 1 Million Dollar kostete Compaq diese Vorgehensweise - eine Menge Geld für wenig Code. 15 Programmierer waren mit der Aufgabe beschäftigt. Nachdem Compaq damit erfolgreich war, kam kurze Zeit später die Firma Phoenix Technologies auf die Idee, dies als Dienstleistung anzubieten. Jede Firma konnte nun einen "jungfräulich programmierten" BIOS-Chip kaufen - für 25 Dollar pro Stück.
Compaq baute nicht nur einen Klon. Die Firma erschloss einen neuen Markt, da der Compaq ein portabler Computer war. Der Monitor war in ein Koffergehäuse eingebaut worden. Der Compaq Portable war um 800 Dollar preiswerter, als ein ähnlich ausgestatteter IBM-PC. Trotzdem machte Compaq Gewinne: Compaq hatte als kleine Firma noch kein so großes Management wie IBM mitzufinanzieren und vor allem behandelte sie alle Händler gleich: Bei IBM bekam der eigene Großkundenvertrieb 36% des Verkaufspreises als Marge und andere Händler nur 33%. Sie hatten auch keine Chance an Großkunden PCs zu vertreiben, weil diese schon vom Großkundenvertrieb von IBM beliefert wurden.
Der Compaq Portable verkaufte sich hervorragend: Compaq konnte im ersten Jahr 53.000 Computer absetzen und machte einen Umsatz von 111 Millionen Dollar im ersten Unternehmensjahr - ein neuer US-Rekord.
Weitere Unternehmen folgten. Zum einen schon bekannte Hersteller von größeren Rechnern wie Wang, DEC, Zenit, NCR. Zum anderen folgten Nachbauten anderer Mikrocomputerhersteller wie Commodore, Tandy, Triumph-Adler, Olivetti und schließlich noch namenlose Hersteller, die ihre Computer aus Bauteilen zusammenstellten. Fast alle waren preiswerter als das Original. Im Laufe der Zeit wurden viele Rechner leistungsfähiger, um sich von anderen Clones abzusetzen, verfügten über eine bessere Grafikkarte, mehr Speicher oder waren schneller.
Das Management von IBM war lange Zeit der Meinung, die Nachbauten wären kein großes Problem: Man würde durch die Marktmacht Bauteile in größeren Stückzahlen und daher billiger einkaufen und wäre so preiswerter. Was sie vergaßen, war das der Standard eine Nachfrage generierte, die neue Unternehmen auf den Plan rief. Sehr bald gab es ein halbes Dutzend Hersteller von Floppy-Disk-Laufwerken, die sich im Preis laufend unterboten. Bei den Prozessoren hatte IBM durch die Forderung, eine zweite Quelle verfügbar zu haben, sogar selbst für Konkurrenz gesorgt. Nicht nur AMD fertigte den 8086 in Lizenz, auch Siemens, Harris, National Semiconductor und einige andere mehr. Bald waren von taiwanischen Firmen zahllose No-Name Produkte jeder Art zu haben: vom Gehäuse über Grafikkarten zu Diskettenlaufwerken. Es begann der Preiskrieg, der bis heute anhält, weil so viele Produzenten die Preise drücken.
Viele der kleineren Hersteller konnten sich dieser Marktsituation besser als IBM anpassen. Heute steckte ein Floppydisklaufwerk von Teac im Rechner, morgen eines von Sony, weil es billiger war und übermorgen vielleicht eines von Shugart. IBM war zu träge, um dem so schnell zu folgen und daher immer teurer. 1985 erzielte IBM einen Rekordumsatz, aber die Gewinne sanken. Die Preise für IBM-Kompatible Rechner sanken alle sechs Monate um 30%. In einem Markt mit Dutzenden von Anbietern desselben Produktes, wird der Wettbewerb vor allem über den Preis ausgetragen. Das war IBM nicht gewohnt. Bei Großrechner blieb der Preis konstant oder sank nur leicht, das Modell wurde nach einigen Jahren durch ein neues ersetzt. Meistens verkaufte IBM die Rechner gar nicht, sondern vermietete sie. So waren die Einnahmen prognostizierbar und die Miete musste man nicht senken. In einem Markt mit sinkenden Preisen muss man so schnell wie möglich verkaufen. Lager bedeuten Verluste, denn die PCs werfen mit jedem Tag im Lager weniger Gewinn ab.
Mehr Probleme als die Nachbauten durch andere Firmen machte IBM aber die Firma Chips & Technologies. Das kleine Startup-Unternehmen hatte eine Marktlücke gefunden und erfand ein Produkt, auf das jeder nur wartete: den Chipsatz. Während man die meisten Bestandteile eines IBM-PC fertig kaufen konnte, war dies mit dem Motherboard schwer. Es musste von jedem Hersteller selbst konstruiert werden. Es waren auf der Platine des IBM-AT außer dem Prozessor und Speicher 63 Chips verbaut. Diese Chips banden die Busslots an den Prozessorbus an. Sie trennten Adressen- und Datenleitungen zwischen ROM, RAM und Bus auf, verstärkten elektrische Ströme, kommunizierten mit der Tastatur, dem Bildschirm und anderen Peripheriegeräten. Im Fachjargon nannte man dies ein "TTL-Grab", da viele Bausteine aus der TTL-Familie 74xxx stammten. Das machte den Nachbau aufwendig. Eine Firma die einen Rechner über längere Zeit produziert, versucht daher diese vielen Bausteine durch einige wenige zu ersetzen, welche Funktionen zusammenfassen. So sank bei Apple die Anzahl der Chips bei jeder Version des Apple II. Für einen Klonehersteller lohnt sich dies nur, wenn er bereit ist, viel Geld für die Konstruktion eines solchen Bausteins zu investieren, er also mit einer hohen Stückzahl rechnet, um die Kosten wieder hereinzubekommen.
Chips & Technologies bot dies als Dienstleistung an: genauer gesagt, sie produzierten fünf Chips, welche die 63 des Motherboards eines IBM-AT ersetzten. Sie kosteten nur 72,40 Dollar. Nun produzierten zahlreiche Firmen kompatible Hauptplatinen, die noch dazu, weil nur wenige Chips benötigt wurden, preiswerter als IBMs eigene Platinen waren. Das Zeitalter der PC-Schrauber begann. Nun konnte nicht nur eine Computerfirma einen PC-kompatiblen bauen - das konnte nun jeder. Alle Bauteile waren auf dem freien Markt erhältlich. Es begann die Zeit der "No-Name" Kompatiblen und der frei verkäuflichen Mainboards.
Ab 1987 steigen die Verkäufe von IBM-Kompatiblen PCs rapide an. Die Stückzahl verdoppelte sie sich zwischen 1987 und 1988 und stiegen 1989 um weitere 50% an. Gleichzeitig sank der Marktanteil von IBM und damit auch die Möglichkeiten der Firma, die Weiterentwicklung der PC-Plattform aktiv zu beeinflussen.
IBM machte nach Erscheinen des IBM PC bei den Produkten einige Fehlentscheidungen. Der unmittelbare Nachfolger - IBM PC XT war noch ein Verkaufsschlager. Der ursprüngliche PC hatte ein zu schwaches Netzteil um eine Festplatte mit Strom zu versorgen und der auf dem Motherboard verbaute Speicher war zu klein. Beide Kritikpunkte wurden beim IBM PC XT (XT für Extended Technologie) beseitigt. Zudem hatte er acht anstatt fünf Slots - die waren dadurch das man für den Druckerport, Grafikkarte, Diskettenkontroller, Festplattenkontroller und Speichererweiterung jeweils eine Karte brauchte im IBM PC knapp.
Der erste Flop für IBM war der IBM PC-Jr - das Jr stand für "Junior". Der IBM-PC war ein Bürocomputer. Der IBM PC Jr war als Heimcomputer gedacht. IBM wollte nun auch noch den Heimcomputermarkt erobern, der damals vom C64 und Sinclair Spectrum dominiert wurde. Es war eine preiswerte Version des IBM PC.
Der Rechner wurde nach dem Erfolg des IBM-PC mit großen Vorschusslorbeeren bedacht, konnte aber bei Weitem nicht an dessen Erfolg anknüpfen. In ein kleineres Gehäuse passte nur ein Diskettenlaufwerk hinein, was für die Zielgruppe aber keine Einschränkung war - die meisten Heimcomputer verfügten nur über ein Diskettenlaufwerk. Schon eher eine Einschränkung war der nur auf 128 KiB ausbaubare Speicher. Die Tastatur mit nur 62 Tasten aus Gummi wurde als billig empfunden und diese erste drahtlose Tastatur war zudem unzuverlässig. Alle Erweiterungsbuchsen waren ubiquitär, sodass keine IBM PC Peripherie angeschlossen werden konnte. Vor allem benötigte man neben dem PC-Jr noch einen Monitor, da der Rechner nicht an ein Fernsehgerät angeschlossen werden konnte. Zusammen mit dem hohen Preis von 1.269 Dollar führte dies dazu, dass er sich schlecht verkaufte. Vorgestellt im März 1984, wurde seine Produktion schon ein Jahr später wieder eingestellt.
Der Nachfolger des IBM PC, der IBM AT erschien erst 1984. Geplant war diese nächste Generation 18 Monate nach dem IBM PC, doch bekam ihn IBM nicht früher fertiggestellt. IBM hatte den IBM PC in einem Jahr fertiggestellt, doch nun war die PC-Division angewachsen. Je mehr Leute an einem Projekt arbeiten, desto länger dauert es, es fertigzustellen. Der AT(Advanced Technology) hatte dann auch noch anfangs technische Probleme. So war der Prozessor anfangs nur mit 6, anstatt geplanter 8 MHz getaktet und die verbauten Festplatten wiesen eine hohe Ausfallrate auf. Als dies korrigiert war, erschienen aber schon die Nachbauten. Compaq präsentierte sechs Monate später den Compaq 286. Technisch hatte IBM beim AT wenig verbessert. Der Bus wurde von 8 auf 16 Bit verbreitert und später ISA-Bus (Industrial System Architecture) genannt. Die EGA Grafik mit der doppelten Auflösung der CGA-Grafik und endlich 16 anstatt zwei Farben im höchsten Modus sowie der Fähigkeit zu scharfer Textdarstellung wurde eingeführt. Die neuen Fähigkeiten des 80286-Prozessors der 16 MByte Speicher ansprechen konnte, wurden aber von MS-DOS gar nicht genutzt. Wer die größere Ausbauvariante mit 1 MByte Speicher kaufte, der konnte die oberen 512 KByte nur als RAM-Disk nutzen.
Als 1985 der 80386-Prozessor erschien, war von IBM noch kein Rechner mit diesem Prozessor geplant. Diesmal wartete Compaq nicht. Compaq entwickelte den Deskpro 386. Technisch gesehen war der Deskpro 386, genauso wie der AT ein Nachfolger des IBM-PC. Compaq machte nicht mehr, als die Hauptplatine auszutauschen. Zusätzlich hatte Compaq zwei Steckplätze angepasst, da der 80386-Prozessor mehr Signalleitungen bereitstellte. Die neuen Slots hießen nun EISA - Estended ISA. Das war alles. Der Compaq Deskpro 386 war nichts anderes, als ein schneller IBM AT. Doch ein psychologischer Umbruch hatte stattgefunden: Compaq galt nun als Technologieführer. Erst sieben Monate später erschien von IBM ein Computer mit dem 386-Prozessor.
1985 sank erstmals der Marktanteil von IBM. Er betrug nur noch 53%. Im Vorjahr lag er noch bei 63%. Zwar stiegen die Verkaufszahlen weiter an, so wurden 1,4 Millionen PCs verkauft, doch die Gewinnspanne sank. Um den Absatz anzukurbeln, gab es ein Prämienprogramm für Händler - je mehr Computer sie kauften, desto billiger waren diese. Das führte dazu, dass Händler sich auf Vorrat eindeckten und die PCs dann an andere Händler verkauften, die nicht in den Genuss dieser Rabatte kamen. Das System musste zusammenbrechen, weil die Händler sich nicht mehr nach der Nachfrage orientierten. So begann Michael Dell seine Karriere - er kaufte PCs von klammen IBM Händlern unter deren Einkaufspreis und verkaufte sie selbst weiter. Im ersten Monat machte er so 30.000 Dollar Gewinn und gründete danach seine eigene Firma - Dell.
Der ursprüngliche IBM-PC wurde in weniger als einem Jahr entworfen. Wie bei vielen anderen "Schnellschüssen" war seiner Architektur ein langes Leben vergönnt. Chef der PC-Division war nach dem Tod von Estridge nun Bill Loewe. Von ihm stammte das Konzept des IBM PC, aber während dessen Entwicklung wurde er abberufen und hatte seitdem nichts mehr mit diesem Geschäftsfeld zu tun. Schon beim IBM AT waren die Einschränkungen des bisherigen Standards sichtbar und IBM ging daran, diese zu beseitigen. Es gab zwei wesentliche Probleme. Das Erste war DOS.
DOS wurde für den 8086-Prozessor entworfen. Dieser Prozessor hatte einen Adressbereich von 1 MiB. DOS nutzte davon 640 KiB für Anwendungsprogramme und der darüber liegende Bereich war für Erweiterungskarten reserviert. In diesem Bereich lag z. B. der Speicher von Grafikkarten, Netzwerkkarten und das BIOS.
Doch der 80286-Prozessor konnte 16 MiB Speicher adressieren. Der 1985 erschienen 80386-Prozessor sogar 4.096 MiB. Die Speicherbegrenzung von DOS bewirkte, das Programme nur einen Teil des Speichers nutzen konnten. Es musste also ein neues Betriebssystem her.
Eine weitere Begrenzung war, das DOS nur ein Programm zur gleichen Zeit ausführen konnte. Die schnelleren Prozessoren würden es aber erlauben mehrere Programme parallel auszuführen, zwischen denen der Benutzer wechseln könnte. Auch diese Einschränkung sollte das nächste Betriebssystem abschaffen.
Auch bei der Hardware gab es Nachholbedarf. Während man durch das modulare System relativ einfach die Steckkarte für die Grafik- und Textdarstellung durch eine leistungsfähigere austauschen konnte, ebenso Diskettenlaufwerke durch welche mit höherer Kapazität so war dies nicht so einfach beim Bussystem. Der IBM PC hatte einen Bus eingeführt, der wegen des 8-Bit Busses des 8088 Prozessors nur 8 bittig war. Er war mit 4,77 MHz getaktet. Beim 80286 hat man zu diesem Steckplatz einen zweiten Stecker hinzugefügt, der die Breite auf 16 Bit erweiterte und die Taktfrequenz von 4,77 auf 8 MHz erhöht und damit die Datenrate auf bis zu 5,33 MHz. Der ISA (Industrial System Arcitecture) genannte Bus hatte jedoch Mängel. Jede Karte musste adressiert werden. Dazu wurde ihr ein Interrupt und eine Portadresse zugewiesen. Dies musste der Anwender in Form von DIP-Schaltern (wegen ihrer Kleinheit auch "Mäuseklavier" genannt tun). Das war nicht bedienerfreundlich und entsprach nicht einer Philosophie, wonach der Anwender möglichst wenig an der Hardware selbst tun sollte. War eine Konfiguration falsch, so kamen sich Karten ins Gehege und funktionierten nicht. Zudem konnte nur je eine Karte auf dem Bus Master sein. In diesem Modus gibt der Prozessor die Kontrolle über den Bus an die Karte ab, die dann selbstständig, ohne den Prozessor einzubeziehen, auf den Hauptspeicher zugriff. War z.B. die Grafikkarte Busmaster, dann konnte der Festplattenkontroller nur auf den Bus zugreifen, indem er einen Interrupt auslöste was die Aktivität des Prozessors und der anderen Karte unterbrach. Das kostete jedoch wertvolle Zeit und verlangsamte den Bus.
IBM wollte sowohl die Einschränkungen der PC Plattform wie auch des Betriebssystems überwinden, mit einer zweiten Generation von PCs.
Die Hardware dazu hieß Personal System/2 (abgekürzt: PS/2), das zugehörige Betriebssystem Operation System/2 oder OS/2. Der Schrägstrich ist ein IBM.Markenzeichen dieser Zeit und findet sich in vielen Produktnamen wieder so System /370 für die Großrechner.
Die Hardware, also das PS/2 wurde zuerst fertig. Am 2.4.1987 wurden die ersten vier Modelle vorgestellt. PS/2 Modell 30 war das Einstiegsmodell mit einem 8086 Prozessor, Modell 50 und 60 ein Rechner im Desktop- und Towergehäuse mit dem 80286 Prozessor und das Topmodell 80 ein Tower mit dem 80386 Prozessor.
Es gab vier grundlegende Neuerungen, wobei aber nur eine Änderung eine radikale Abkehr vom bisherigen PC Konzept war.
Die neu eingeführte VGA Grafikkarte (Video Graphic Array) steigerte sowohl die Auflösung wie auch die Farben. Sie bot im hochauflösenden Modus maximal 640 × 480 Punkte, ein Drittel mehr als die bisherige EGA-Karte mit 640 × 350 Pixeln. Sie schloss damit zu Grafikfähigkeiten auf, die der Amiga als deutlich günstigerer Computer schon hatte. Programmierer freuten sich darüber das die Pixel nun quadratisch waren - da ein Röhrenmonitor dieser Zeit ein typisches Seitenverhältnis von 4 zu 3 hatte, sahen auf einer EGA Karte Kreise mehr wie Ellipsen aus, weil die Zahl der Pixel in der Vertikalen um ein Drittel zu klein war. Zudem bot sie einen neuen Modus mit 256 Farben. Dann halbierte sich aber die Auflösung auf 320 x 200 Pixel, sodass dies selbst für Malprogramme zu grob auflösend war. Für Spiele wäre dieser Modus attraktiv gewesen, doch die große Zeit des PC als Spieleplattform kam erst noch. Ende der Achtziger war er dafür noch zu teuer und vor allem beherrschte er nur einstimmigen Sound der über einen kleinen internen Lautsprecher wiedergegeben wurde. Die VGA Karte hatte aber ein Feature, das von Bedeutung war: sie hatte mehrere Zeichensätze und konnte Text in mehreren Auflösungen bis hin zu 80 x 60 Zeichen ausgeben. Mit den Zeichensätzen konnte man im Textmodus aber Elemente wiedergeben wie sie grafische Oberflächen hatten, so Schaltflächen, Listboxen mit umrandeten Scrollleisten, selbst das Hervorheben selektierter Buttons durch den Schatten und die Farbe der Beschriftung war möglich. Anwendungen nutzten dies aus und wurden so bedienungsfreundlicher. Neben dem VGA Standard führte IBM auch den kurzlebigen MCGA Standard ein. Der 'Multi Colour Graphics Array hatte die doppelte Auflösung von CGA also 640 x 400 Punkte. Etwas weniger als VGA, aber in dieser Auflösung nur monochrom. Daneben beherrscht er noch den Grafikmodus der CGA Karte, aber weder den der EGA-Karte noch Hercules-Karte. IBM hatte mit 64 KByte Speicher einfach zu wenig Speicher auf der Karte installiert, eine VGA-Karte hatte viermal so viel. So verschwand MCGA bald wieder vom Markt innerhalb der PS/2 Familie war er auch nur auf dem kleinsten Modell verfügbar. Bedeutender für die Zukunft war der dritte Adapter IBM 8514/A. Er bot für diese Zeit enorme Grafikfähigkeiten - 1.024 × 768 Pixel in bis zu 256 Farben - das waren 12-mal so viele Bildpunkte wie bei VGA im gleichen Farbmodus. Leider kostete die Karte alleine 3.000 DM, der dazugehörige Monitor 8514 weitere 3.600 DM. So war er kein Erfolg, der Grafikstandard, den er einführte hatte allerdings noch lange Bestand. Dasselbe trifft auf VGA zu: VGA-Buchsen hat heute noch jeder PC und viele neue Fernseher. Sie sind mittlerweile jedoch verpönt, weil sich die Technik weiter entwickelt hat: als PS/2 eingeführt wurde war eine Neuerung das alle drei Standards analoge Signale verwendeten. Vorher waren es digitale. Das bedeutet: wenn es für jede der drei Grundfarben einen Kontakt gibt, dann konnte dieser an sein (farbig) oder aus (schwarz). Mischfarben gab es dann durch Kombination der drei Grundfarben und eines Drahtes für die Helligkeit (halbe/ganze). Für 16 verschiedene Farben (inklusive schwarz und weiß) benötigte man so vier Stecker. Je mehr Farben man wollte, desto mehr Stecker würden es werden. Bei analogen Signalen gibt es zwischen niedrigster und höchster Spannung dagegen beliebig viele Farben, je nachdem in wie viele Schnitte der Spannungsunterschied unterteilt ist. Man kommt mit nur einem Siugnal pro Grundfarbe aus. Da Röhrenmonitore auch analog funktionierten, also die Intensität des Elektronenstrahls für das Aufleuchten von Pixeln verändert werden konnte, versprach dies mehr Farben bei weniger aufwendigen Steckern. Mittlerweile arbeiten alle Computer aber an digital angesteuerten Flachbildschirmen und diese müssen die analogen Signale erst digitalisieren, was zu einer Signalverschlechterung führt.
Der ursprüngliche PC hatte einen sechspoligen Stecker die Tastatur. Mittlerweile waren auch Mäuse auf den Markt gekommen. Sie benötigte man für eine grafische Benutzeroberfläche, aber auch viele DOS-Programme unterstützen die Maus. So konnte man mit der Maus Menüs anfahren oder Text markieren. Da Mäuse im ursprünglichen System nicht vorgesehen waren, schloss man sie über die serielle Schnittstelle an, die sie dadurch blockierten. Die PS/2 Buchen waren nun zwei kleinere, neunpolige Buchsen. Eine für die Maus und eine für die Tastatur. Damit wurde der serielle Port wieder frei, z.B. um ein Modem anzuschließen. Weiterhin vereinfachte das den Hardwareaufbau der Mäuse die nun ihre Signale direkt übertragen konnten, anstatt das sie die Bewegungen erst in serielle Signale umwandeln mussten. Dazu gab es neue Tastaturen und Mäuse. Das Tastaturlayout der PS/2 Tastatur ist bis heute geblieben - wenn man davon absieht, dass neue Tasten hinzukamen. Es wurden aber nicht, wie dies bisher bei den beiden Sprüngen vorher war, Tasten umsortiert, also an eine neue Position verschoben. Auch die PS/2 Buchsen haben lange überlebt und fanden sich noch vor wenigen Jahren noch an jedem PC.
PS/2 führte Diskettenlaufwerke im 3,5 Zoll Format ein. Die kleineren Laufwerke verkleinerten auch die Gehäuse, die so auf dem Schreibtisch weniger Platz benötigten. Der Schritt war überfällig. 3,5 Zoll Laufwerke gab es seit drei Jahren auf dem Markt, Amiga und Atari ST setzten sie schon seit Jahren ein, auch Laptops von IBM. Auch neue Festplatten hatten inzwischen nur noch den Formfaktor ,35 Zoll, sodass dieser Schritt folgerichtig war. 3,5 Zoll Disketten sind nicht nur kompakter als die älteren 5,25 Zoll Disketten, sie sind durch den Metallschiebeverschluss, der das Loch in der Hülle verschließt, wenn die Diskette aus dem Laufwerk entnommen wird und dem Gehäuse aus Hartplastik anstatt biegsamer Hülle auch robuster als ihre Vorgänger. Die Disketten fassten 1,44 MiB pro Disk. Ebenso konnte man nun nur noch 3,5 Zoll Festplatten verbauen. Allerdings waren sie inkompatibel zu den vorherigen AT Disketten. Klar hatten die einen anderen Formfaktor 5,26 Zoll, aber selbst ein zusätzlich angeschlossenes 5,25 Zoll Laufwerk des AT konnte nicht betrieben werden. Der simple Grund: Beim PC und PS/2 drehen sich die Scheiben mit 250 U/min, beim AT mit 300 U/min.Das Diskettenformat war das letzte Format, das sich allgemein durchsetzte. Ein etwas später von IBM eingeführtes neues 3,5 Zoll Format mit 2,88 MiB pro Diskette schon nicht mehr. Diskettenlaufwerke sind inzwischen aus den PCs verschwunden. Sie boten einfach zu wenig Platz und waren zu langsam. Sie wurden zuerst von CDs später USB-Sticks verdrängt.
Die richtige revolutionäre Neuerung war der in den größeren Modellen eingeführt Microchannel Bus. IBM hatte erstmals daran gedacht, das dieses Bussystem wohl für längere Zeit Bestand haben würde und konzipierte ihn von vorneherein als 32 Bit Bus, obwohl die meisten Rechner noch 16-Bit Prozessoren hatten. Der Takt war viel höher als beim ISA-Bus, sodass er bis zu 66 MByte/s transferieren konnte - 12- mal mehr als der ISA-Bus. Bedeutsam war auch, das jede Karte eine eigene Hardwareadresse hatte und konfiguriert werden konnte einfach durch Software, ohne ihr eine Interrupt- oder Portadresse zuzuweisen. Erstmals konnte man in einen IBM PC einfach eine Karte einstecken, entsprechend waren auch die Gehäuse so konzipiert, das man sie ohne Werkzeuge öffnen konnte. Danach musste man nur noch Treiber installieren und ein Konfigurationsprogramm aufrufen. Weiterhin konnten nun mehrere Karten Busmastering. Sie konnten zum einen mehrere DMA-Kanäle nutzen, die neuere Prozessoren auch hatten, oder sie konnten sich gegenseitig bei der Nutzung eines DMA-Kanals absprechen.
Auf dem Papier war der MCA Bus (Microchannel Architecture) daher um Klassen besser als der alte ISA Bus. Aber es war ein patentgeschütztes Bussystem. Wer für den Bus Karten entwickelte musste Lizenzgebühren zahlen, ebenso wer das Bussystem übernehmen wollte, um zum Beispiel einen Nachbau eines PS/2 Modells auf den Markt zu bringen. Diese Strategie ging nicht auf. Es gab nur wenige MCA-Karten und diese waren erheblich teurer als ISA-Karten. Ebenso bauten andere Firmen nach wie vor Klones des PC, aber keine Klones des PS/2 Systems. Damit war MCA auch wegen der fehlenden Hardwarebasis unattraktiv. Die Beschränkungen des ISA-Busses blieben bestehen, bis dieser Anfang der Neunziger Jahre durch den PCI-Bus abgelöst wurde, diesmal von einem Industriegremium unter der Leitung von Intel zum Standard erhoben. Zumindest die Beschränkung in der Datenrate wurde schon vorher gelöst - Compaq hatte für ihren 386 Rechner einfach an den Stecker des ISA-Sots einen weiteren Stecker dran gehängt, der nun die Signale des 386 Prozessors auf das Bussystem übertrug. In ihn passten aber, anders als bei MCA die alten ISA-Karten, die eben nur den vorderen Teil des Steckers nutzen. Dieser EISA (Extended ISA) Standard bot zwar nicht die anderen Vorteile des MCA und hatte mit maximal 33 MByte/s auch nur die halbe Datenrate, aber er war nicht pantentgeschützt und vollkommen kompatibel zu ISA. So setzte er sich anstatt des MCA Busses durch.
SIMM-Module
Der wohl langlebigste und auch wichtigste neue Standard für die Bestückung mit RAM. Die lief bisher so ab: Auf einem Mainboard oder einer Erweiterungskarte gab es festgelötete Sockel für RAM-Bausteine. Manche waren voll bestückt, andere teilbestückt und konnten so später erweitert werden. Dann musste der Benutzer die RAM-Bausteine kaufen, sie händisch in die Sockel drücken, ohne die fragilen Beine zu verbiegen. Das war nichts für jeden und zudem war es fehleranfällig. Vor allem war der Ausbau so begrenzt auf die Größe die diese Sockel maximal vorgaben - beim organalen IBM PC z.B. auf 64 KByte, beim XT auf 256 KByte und beim AT auf 1 MByte. Mehr Speicher konnte man durch eine Erweiterungskarte hinzufügen. Das war jedoch nicht nur teuer, sondern da dieser Speicher erst über den Systembus angesprochen wurde mit einer maximalen Datenrate von unter 3 MByte/s bei einem AT war dies zudem langsam. PS/2 führte in allen Modellen die Erweiterung durch kleine Platinen ein, auf denen die Memorychips aufgelötet waren zusammen. Dazu kam ein kleines EPROM das über die genauen Parameter der Chips, wie Speichergröße, Zugriffszeit etc. informierte. Es konnte vom BIOS ausgelesen werden. Der Vorteil war offensichtlich: Die kleinen Platinen waren viel leichter montierbar und die Kapazität war nicht begrenzt auf die verbauten Sockel die sich natürlich immer auf verfügbare Speicherchips bezogen. Wenn man in einigen Jahren mehr Speicher benötigte konnte man so nachrüsten und zwar mit Modulen die dann Speicherchips einsetzten die beim Kauf des Computers noch gar nicht existierten.
Das Konzept der SIMM (single Inline Memory Module) Module hat bis heute überlebt, auch wenn der Busstandard sich seitdem mehrfach geändert hat, doch auch heutige DDR4 / DDr5 Module arbeiten nach deisem Prinzip.
Die ersten PS/2 Modelle erschienen noch mit DOS 3.3, einer leicht renovierten DOS Version. Gleichzeitig angekündigt wurde ein neues Betriebssystem, OS/2. Es würde vieles besser machen. OS/2 wäre für den 80286 Prozessor geschrieben. Es erlaubt so 16 MByte Speicher zu nutzen, es konnten mehrere Programme gleichzeitig laufen (Multitasking) und das Betriebssystem behält immer die Kontrolle über den PC. Es kann so abgestürzte Programme beenden, ohne das der Computer abstürzt. OS/2 erschien im Dezember 1987, erforderte aber auch neue Programme für OS/2. Es war inkompatibel zu DOS.
Meiner Ansicht nach begann das Scheitern von OS/2 schon bei der Geburt von OS/2. Hier wurden gleich mehrere Fehler gemacht. Der erste Fehler war, dass man viel zu spät damit begann. Die offizielle Ankündigung erfolgte am 4.4.1987, aber man hat schon vorher daran gearbeitet. Ein Vertrag zwischen Microsoft und IBM für die Erstellung von OS/2 wurde im August 1985 geschlossen. Auch wenn man nicht den genauen Start der Arbeiten kennt, war der Entwicklungsbeginn doch nach einigen anderen Daten:
Microsoft begann die Arbeit an Windows schon 1981, als das Produkt beschlossen wurde, nachdem Bill Gates bei der COMDEX 1982 Prototypen von visuellen Oberflächen sah und befürchtete Microsoft gerät ins Hintertreffen. Obwohl Windows mehr als eineinhalb Jahre zu spät erschien, war dies doch wenige Monate nach der Vertragsunterscheidung mit IBM. Man lag mit der Entwicklung von OS/2 also verglichen mit diesem Konkurrenzprodukt hinterher.
Der IBM PC AT, für den schon MS-DOS bzw. PC-DOS nicht adäquat war, weil es nur einen Bruchteil des Speichers und die erweiterten Fähigkeiten des 80286 nicht ausnützte, erschien schon 1984. Man fing also an ein Betriebssystem für einen Computer zu entwerfen, der mehr als ein Jahr schon auf dem Markt war, anstatt es zum Markteintritt verfügbar zu haben.
Der Nachfolgeprozessor 80386 war von Intel angekündigt und erschien am 17.10.1985. Bis das Betriebssystem erscheinen würde, wäre er der Standardprozessor.
Daneben gab es einige falsche Entscheidungen. Zum einen zwei technische Entscheidungen. IBM wollte für die erste Version von OS/2 (1.0) eine rein textbasierte Oberfläche entsprechend dem, was man von DOS gewohnt war. Microsoft drängte IBM dazu, gleich eine grafische Oberfläche anzustreben. IBM meinte, die textbasierte Oberfläche würde noch einige Jahre die wichtigere sein. Das Argument klingt aus der Retrospektive kurzsichtig, aber es war nicht aus der Luft gegriffen. Es dauerte bis 1995 bis mit Windows 95 auf dem PC MS-DOS als verbreitetste Oberfläche abgelöst wurde. Auch ich habe unter meinem PC mit Windows 3.1 meist unter DOS gebreitet. Turbo Pascal, DBASE, Spiele liefen nur unter DOS. Windows brauchte ich vor allem für die Textverarbeitung. Aber natürlich hätte man ein modernes System mit mehr Sicherheit, Speicher und Möglichkeiten als DOS implementieren können und zwei Shells - eine textbasierte und eine grafische darauf aufsetzen können. Daneben gab es mit dem Macintosh, Atari ST und Amgia schon Computer mit grafischen Oberflächen. Ein textbasiertes, mutititasking-Betriebsystem für den PC gab es auch schon - eine Adaption von UNIX. Die Version von Microsoft hieß XENIX. IBM kannte UNIX und setzte es unter der Bezeichnung AIX bei Großrechnern ein. So gesehen war die Überlegung erst in einem zweiten Schritt an das grafische System zu gehen, doch nicht die beste und für ein textbasiertes System hätte man auch das schon existierende XENIX nehmen können.
Die zweite Fehlentscheidung war die Entscheidung von IBM für die Codebasis des 80286. Der 80286 war der erste "richtige" 16-Bit-Prozessor von Intel. Intel hatte den 8086 schnell als Nachfolger des 8-Bit-Prozessors 8080 designt, mit der Option das ein Programm Assemblercode des 8080 in Assemblercode des 8086 umsetzen konnte. Das war zwar für die Einfühlung toll, führte aber dazu, dass alle Register nur 16 Bit breit waren und die Adressierung so über mehrere Fenster von je 64 KByte Größe erfolgte, die im Adressraum verschoben wurden - sehr umständlich und fehlerträchtig. Gängige Programmiersprachen unterstützten so maximal 64 KByte große Datenstrukturen, selbst wenn man 1 MByte Speicher verbaut hatte. Der 80286 hatte einen linearen Speicher von 16 MByte Größe wieder Motorola 68000, dazu noch Möglichkeiten Fehler abzufangen und vom Betriebssystem behandeln zu lassen. Wichtig für ein echtes Betriebssystem, bei dem der Computer nicht bei einem fehlerhaften Programm abstürzen soll. Leider hatte Intel dies so implementiert, dass es zwei Modi gab - den 8086 kompatiblen oder den neuen "Protected Mode". Man konnte vom ersten Modus, "Real Mode" genannt, in den Protected Mode wechseln, aber nicht umgekehrt. Das war für die Entwicklung eines Betriebssystems und jeglicher Software im Protected Mode problematisch, denn diese Entwicklung und das Testen musste ja im Real Mode erfolgen. Bill Gates persönlich drängte daher IBM dazu gleich auf den 80386 zu wechseln - er hatte viele neue Features, wie virtuelle Speicheradressierung vor allem aber für die Entwicklung wichtig und das Laufenlassen alter Software, einen "virtuellen Real Mode" - er konnte beliebig viele Prozesse im 8086 Modus starten, während er im Protected Modus war und diese waren voneinander abgeschottet - ideal für ein Betriebssystem, dass so auch alte DOS-Programme ausführen konnte. IBM wollte aber eine Lösung für die aktuellen Rechner - sehr kurzfristig, denn bis OS/2 erschien, waren IBMs eigene 80386 Rechner auch schon mehr als ein Jahr auf dem Markt.
Der langfristig größte Fehler war aber, dass IBM und Microsoft zusammen das Betriebssystem entwickelten. Denn beide Firmen hatten unterschiedliche Interessen. Microsoft wollte einen Nachfolger für DOS, am besten als Konkurrenz für die aufkommenden grafischen Oberflächen. IBM wollte dagegen die Marktposition ihrer eigenen Geräte stärken. Anders als bei DOS wäre OS/2 kein Lizenzprodukt von Microsoft, so hat man Einfluss über die Weitergabe an andere Hersteller. Dieser Widerspruch wurde gelöst, indem es eine Basisversion von OS/2 von Microsoft geben würde, eine erweiterte Version man aber nur von IBM kaufen konnte und diese sollte, wenn es nach IBM ging, auch nur mit einem IBM-Computer verkauft werden.
Daneben prallten Firmenkulturen aufeinander. IBM war eine viel größere Firma als Microsoft, mit langen Entscheidungswegen, vielen an einem Projekt Beteiligten. Microsoft zu dem Zeitpunkt noch eine typische Nerd-Firma, die durchaus auch unfertige Produkte raushaute. Microsoft war damals nicht für Softwarequalität bekannt - das sollte auch noch lange so bleiben - während diese bei IBM einen hohen Stellenwert hatte. Sie war bei einem Betriebssystem auch enorm wichtig, warum also machte IBM OS/2 nicht alleine? Die einfache Antwort - IBM meinte sie bräuchten alleine zu lange dazu und Microsoft würde sich durch die DOS-Entwicklung (drei Hauptversionen waren damals schon erschienen) sich so gut in der Systemprogrammierung auskennen, das es von Vorteil wäre mit Microsoft zusammenzuarbeiten.
Die Geschichte der Versionen von OS/2 will ich gar nicht so stark vertiefen. Ich verweise hier auf die Wikipedia, denn wie schon gesagt ich habe sie nicht benutzt und sollte daher klein Urteil über die Technik fällen. Der Geburtsfehler, der ersten OS/2-Version 1.0 war, das es aussah wie DOS, aber dazu inkompatibel war. Man konnte zwar neue Anwendungen so schreiben, dass sie unter beiden Betriebssystemen liefen, aber existierende DOS Anwendungen - und davon gab es sieben Jahre nach dem Erscheinen von DOS 1.0 etliche - liefen nicht unter OS/2. Damit war dem System schon ein Nischendasein beschieden.
Immerhin gab es anders als beim MCA Bus eine Brücke zu DOS. OS/2 konnte eine DOS-Anwendung starten. Sie bekam das unterste Megabyte an Speicher exklusiv zugeteilt, konnte dort direkt auf den Speicher und Ports zugreifen und Softwareinterrupts nutzen. Der Preis war aber, das OS/2 so über diesen Teil des Systems die komplette Kontrolle verlor. Bei einem ersten Test von OS/2 in der Computerzeitschrift ct stürzte der PC reproduzierbar ab, wenn das DOS Programm MS Word 4.0 lief und man unter OS/2 gleichzeitig eine Diskette formatieren wollte. Kurz: man konnte unter OS/2 DOS Programme laufen lassen, musste dann aber auf alle Vorteile von OS/2 verzichten. Die Misere setzte sich bei der Hardware fort. Damals konnte man nicht einfach Hardware in den PC einbauen und sie wurde automatisch erkannt. Man musste Treiber installieren. Wenn es diese nicht für OS/2 gab, dann lief sie nicht. So im besagten ct-Test eine Super-VGA Karte von Genoa die eben etwas mehr konnte als nur VGA.
Kurz: die erste Version von OS/2 war wie DOS textbasiert, konnte DOS-Programme ausführen, erforderte aber für die Nutzung der Vorteile von OS/2 neue Programme und erforderte ebenso für Nicht von IBM stammender Hardware neue Treiber. Sie nutzte nur die Codebasis des 80286 Prozessors. Demgegenüber gab es schon Betriebssysteme für den 80386, der die Beschränkungen der 8086 Emulation seines Vorgängers überwunden hatte und die diese Vorteile nutzten. So das PC-MOS/386, ein Multitasking Betriebssystem im Textmodus, kompatibel zu MS-DOS 3.2 oder DeskQview, ein Aufsatz auf MS-DOS für Multitasking, das sogar auf dem 8086 Prozessor funktionierte. Dazu gab es schon grafische Oberflächen wie GEM, das auf einem 8086 lief oder Windows 2.03, das es auch in einer Version für den 80386 gab, dass es erlaubte DOS Programme in einer Box laufen zu lassen. Dazu noch den computerübergreifenden Standard Unix - der allerdings eine komplett andere Betriebssystemarchitektur und Befehlssatz zur Basis hatte. Diese Alternativen offerierten (mit Ausnahme von Unix) Multitasking von DOS Programmen, vollständige Kompatibilität oder sogar eine grafische Benutzeroberfläche als Alternative. Sie allen waren zudem erheblich billiger. GEM kostete damals 102 DM, MS-Windows 205 DM, DOS als Untersatz für beide Oberflächen (sie waren noch keine eigenständigen Betriebssysteme) weitere 299 DM. Demgegenüber wurde OS/2 für 1.610 DM verkauft - für den Preis bekam man schon einen IBM-PC kompatiblen Nachbau. Aus den Gründen wurde OS/2 in der Version 1.0 kein kommerzieller Erfolg.
Während man weiter an OS/2 arbeitete - mit Version 2.0 sollte nun auch die grafische Oberfläche erscheinen, kam es zum Bruch der Allianz. Microsoft sah OS/2 als wenig erfolgversprechend an und setzte auf Windows. Zum einen ermöglichte Microsoft ein Durchbruch in der Entwicklung endlich das Debuggen von 286-er Code im Realmode und damit endete die Zeit, als Windows nur eine Shell auf DOS war (bei den Versionen 1,0 bis 2.x). Erstmals konnte Windows mehr Speicher als die 1 MByte nutzen und es konnte DOS-Programme ausführen, ohne das diese Windows gefährdeten oder man Windows verlassen musste. Windows 3.0 mit diesen Fähigkeiten erschien 1990. OS/2 2.0 mit ähnlichen Leistungen dagegen erst 1992. Gleichzeitig initiierte Microsoft eine Windows Version, die anders als das "normale" Windows für Kunden gedacht war, denen Stabilität wichtig war. Diese Windows NT (NT = New Technology) Serie kam schnell voran, weil man von DEC die Mannschaft übernommen hatte, die dort die legendären Betriebssysteme wie VMS entwickelt hatte. Damit hatte OS/2 auch im Umfeld von Geschäftskunden, bei denen nicht einfach der Computer mal so abschmieren dürfte, einen Konkurrenten.
Damit war eigentlich mit dem Erscheinen von OS/2 2.0 im Jahr 1992, zwei Jahre nach Windows 3.0 schon das Rennen gelaufen - Windows 3.0 und 3.1 verkaufen sich bei Privatpersonen gut, Firmenkunden griffen meist auf Windows NT zurück, nur Versicherungen und Banken schwören noch lange auf OS/2. In den technischen Features hinkte OS/2 immer Windows hinterher. Als Version 2.0 im Jahr 1992 erschien, war Windows 3.1 aktuell. Die Version nutzte (endlich) den 80386 und seine Möglichkeiten Prozesse zu isolieren (auch wenn der 32 Bit Befehlssatz noch nicht unterstützt wurde). OS/2 aber immer noch den 80286 Befehlssatz, obwohl Rechner mit diesem Prozessor kaum noch verkauft wurden.
Es gab Versuche Windows-User abzuwerben. Die Version 3.0 von OS/2 konnte Windows Programme ausführen. Ich kam mit Version 3.0 mal in Kontakt als Vobis um sich von Microsoft zu emanzipieren, OS/2 auf ihren Highscreen PC installierte und eine Käuferin sich über die Langsamkeit von Word (Windows Programm) beschwerte und mich um Rat fragte. Schnell war klar, dass das System mit der Windows Emulation mehr Speicher brauchte, als die 4 MB die im Computer steckten und ich gab ihr den Tipp, entweder Windows zu installieren oder Speicher aufzurüsten. Sie hat sich dann fürs Erstere entschieden.
Die letzte Version von IBM hatte noch eine Spracherkennung integriert. Das war in den Neunzigern ein "Buzzword". IBM hatte die Spracherkennung entwickelt und so natürlich dies als Pfund genutzt, um damit wuchern zu können. Wie ich aber feststellte, brauchte man einen ziemlich schnellen Rechner. Mein 80486 mit 100 MHz war zu langsam dafür. Dabei war der Rechner für seine Zeit (1996) immerhin noch im Mittelfeld der aktuellen Rechenleistung. Die letzte Version von OS/2, 4.0 "Warp" wurde schon verschenkt, ich hatte sie als Beilage bei einer Computerzeitschrift erworben. Mit der Version stellte IBM die Entwicklung ein. Es gab noch einige Nachbesserungen bis 2001 die letzte Version 4,52 erschien. Inzwischen hatte sich auch IBM von der x86 Plattform abgewandt. Bei den PC-Verkäufen sank der eigene Marktanteil stetig. Später verkaufte die Firma PC und Serversparte an Lenovo. So machte ein eigenes Betriebssystem für x86 Architekturen keinen Sinn, zumal es sich nicht am Markt durchsetzen konnte.
Diese hypothetische Frage ist nicht leicht zu beantworten. Ich meine nein. Selbst wenn man die besprochenen Fehler vermeiden hätte und gleich ein grafisches OS auf Basis des 80386 Befehlssatzes allein entwickelt hätte und einen Kompabilitätsmodus für DOS gehabt hätte, denke ich hätte IBM es nicht geschafft. Das Grundproblem lag nämlich im Ansatz. IBM sah sich in der zweiten Hälfte der Achtziger Jahre als Erfinder der PC-Plattform, aber unter Marktdruck durch zahlreiche Nachbauten. Diese waren immer billiger als IBM, oft auch leistungsfähiger z.B. mit einem schnelleren Prozessor. OS/2 war ein Stein in einer Strategie diesen Klonherstellern das Leben schwer zu machen. Man wollte wieder im Alleinbesitz der Technologie sein, sowohl bei der Hardware wie auch Software und dann entscheiden, wer diese nutzen darf und zu welchen Gebühren.
Genau diesen Bruch mit alten Zöpfen und einem Betriebssystem, an dem man nicht die Rechte hatte, hatte IBM aber auch mit OS/2 vor. Nur klappte das dort nie wegen der Konkurrenz durch Windows. Ein noch so tolles OS/2 wäre aber sinnlos, wenn die alte DOS-Software nicht läuft, selbst wenn man es frei kaufen könnte und es nicht nur auf einem IBM PC läuft. IBM wollte aber nie mit den Nachbauten über den Preis konkurrieren. Als das Modell 30 vorgestellt wurde, kostete es mit zwei Diskettenlaufwerken und Monochrommonitor 4.750 DM. Ein Schneider PC mit nur 512 anstatt 640 KRAM, 360 K anstatt 1,44 MB Floppies und Monochromgrafikkarte anstatt MCGA kostete mit 1.775 DM weniger als die Hälfte. Beim Modell 50 war die Differenz zu einem AT-Nachbau kleiner (512 anstatt 1 MByte Speicher, 1,2 anstatt 1,44 MB Laufwerke, EGA anstatt VGA): 10.720 DM für das PS/2 Modell 50, 6.990 DM für einen Noname-AT. Das war auch kein Wunder. Der billigste Monochrommonitor kostete 650 DM, woanders rund 300 DM. Ein Farbmonitor 1.620 DM, woanders 1.290 DM, eine Tastatur 600 DM, woanders 245 DM. Die Kombination von hohen Preisen und Inkompatibilität wurde vom Markt nicht akzeptiert.
Die 1987 groß angekündigte Abkehr von den beiden Standards - sowohl beim Betriebssystem wie auch beim Bus war nicht der erwartete Erfolg. Es gelang vor allem nicht, andere Hersteller zur Übernahme der neuen Standards zu bewegen. Nur die neuen Standards für Grafik (VGA), Maus und Tastaturanschlüsse (PS/2 Stecker) und 1,44-MB-Diskettenlaufwerke setzten sich durch, vielleicht auch, weil diese nicht patentrechtlich geschützt waren.
Anfang der neunziger Jahre war IBMs Marktanteil soweit abgesunken, dass IBM nur einer von mehreren größeren Herstellern war. Schlussendlich war das eingetreten, was das Management anfangs befürchtet hatte - die Firma war zu träge und die Entwicklungswege dauerten zu lange, um in diesem Markt langfristig dominierend zu sein.
Bei zig Herstellern, welche die gleiche Hardware einsetzten, fand der Kampf auf dem Markt über zwei Faktoren statt: zum einen den Preis, der bei IBM immer höher als bei der Konkurrenz war und zum Zweiten in dem möglichst schnellen Einsatz der neuesten Technik. Das bedeutet, sobald schnellere Versionen von Prozessoren, neue Speicherchips oder größere Festplatten verfügbar sind, gibt es Hersteller, welche diese einsetzten. Ihr Rechner ist für kurze Zeit der schnellste oder am besten ausgestattete. Dafür kann man höhere Preise verlangen - bis die nächste Innovation kommt oder die Konkurrenz nachzieht.
Am 1.5.2005 verkaufte IBM seine PC-Sparte für 1,75 Milliarden Dollar an den chinesischen Hersteller Lenovo. Zu diesem Zeitpunkt hatte IBM nur noch einen Marktanteil von 6% am PC-Markt. Am 23.1.2014 folgte die x86-Serversparte von IBM.
ct 6/1987 S. 26 - 39
ct 9/1988 S. 16 - 126
Zum Thema Computer ist auch von mir ein Buch erschienen. "Computergeschichte(n)" beinhaltet, das was der Titel aussagt: einzelne Episoden aus der Frühzeit des PC. Es sind Episoden aus den Lebensläufen von Ed Roberts, Bill Gates, Steve Jobs, Stephen Wozniak, Gary Kildall, Adam Osborne, Jack Tramiel und Chuck Peddle und wie sie den PC schufen.
Das Buch wird abgerundet durch eine kurze Erklärung der Computertechnik vor dem PC, sowie einer Zusammenfassung was danach geschah, als die Claims abgesteckt waren. Ich habe versucht ein Buch zu schreiben, dass sie dahingehend von anderen Büchern abhebt, dass es nicht nur Geschichte erzählt sondern auch erklärt warum bestimmte Produkte erfolgreich waren, also auf die Technik eingeht.
Die 2014 erschienene zweite Auflage wurde aktualisiert und leicht erweitert. Die umfangreichste Änderung ist ein 60 Seiten starkes Kapitel über Seymour Cray und die von ihm entworfenen Supercomputer. Bedingt durch Preissenkungen bei Neuauflagen ist es mit 19,90 Euro trotz gestiegenem Umfang um 5 Euro billiger als die erste Auflage. Es ist auch als e-Book für 10,99 Euro erschienen.
Mehr über das Buch auf dieser eigenen Seite.
Hier geht's zur Gesamtübersicht meiner Bücher mit direkten Links zum BOD-Buchshop. Die Bücher sind aber auch direkt im Buchhandel bestellbar (da ich über sehr spezielle Themen schreibe, wird man sie wohl kaum in der Auslage finden) und sie sind natürlich in den gängigen Online-Plattformen wie Amazon, Libri, Buecher.de erhältlich.
Sitemap | Kontakt | Impressum / Datenschutz | Neues | Hier werben / advertisment here | Buchshop | Bücher vom Autor |