Home Computer PC Hardware Site Map counter

Die Konzeption des IBM PC

Die Story um den IBM PC wurde schon oft erzählt, auch auf dieser Website. Zentrales Element ist natürlich, wie IBM zu PC-DOS kam. Aber auch die anderen Aspekte des PC sind interessant. In diesem Artikel geht es um wichtige Designentscheidungen geht, wie die Hardware des PC aufgebaut ist. Dabei sind zwei Aspekte aus der Geschichte wichtig:

DatamasterIBM Modell 5322 Datamaster

Fangen wir mit dem Zweiten an. Es gab ein Vorgängerprojekt und ein paralleles Projekt von „PC“, im Sinne von Rechnern für einen Benutzer in einem Preisbereich, den ein Selbstständiger noch finanzieren konnte.

Das Vorgängerprojekt System/23 „Datamaster“ wurde 1979 angekündigt und war im Juli 1981 verfügbar, zwei Monate vor dem IBM PC. Der Datamaster hatte eine Konsole, in der die Diskettenlaufwerke zusammen mit dem Monitor und Mainboard verbaut wurden. Die Tastatur war an der Vorderseite des Gehäuses angebracht, aber nicht abnehmbar.

Der Datamaster (IBM Nummer: 5322) setzte eine Intel 8085 CPU ein, ein verbesserter Nachfahr des 8080. Der monochrome Monitor mit grüner Beschichtung zeigt 80 × 24 Zeichen an und der Datamaster war nicht grafikfähig. Zwei acht Zoll Laufwerke von IBM dienten als Massenspeicher. Eingebaut war ein BASIC-Interpreter ebenfalls von IBM. Der Hauptspeicher betrug 64 KByte, mit Erweiterungskarten (es gab sechs Erweiterungsslots) erweiterbar auf 256 KByte RAM, über Bank-Switching. Die Kapazität der Laufwerke soll 4,4 MByte betragen – dies erscheint sehr viel, auch für 8 Zoll Laufwerke und der Autor meint, das sich dies wohl auf die von IBM hervorgehobene Kombination von zwei Datamaster bezieht, die sich einen Drucker teilen können. Ich plädiere als Parallele zum Modell 5120 (unten) auf 1,1 MByte pro Floppy.

Bedingt durch die beiden 8 Zoll Laufwerke, war der Rechner sehr schwer und wog 43 kg. Mit einem Drucker, einem umgelabelten Epson MX-80 der 80 Zeichen pro Sekunde druckte kostete das Modell 5322 dann 9.830 Dollar. Ein Textverarbeitungssystem war 2.200 Dollar teurer, da dafür auch der Speicher ausgebaut werden musste.

Der Datamaster war damit sehr teuer, bot Features wie die Vernetzung zweiter Geräte und viel Speicherplatz auf den Floppies, die aber dem Nutzer nicht nützten – bis man ein Diskette mit 300 KByte, so viel passten die Laufwerke damals mit Texten gefüllt hatte, musste man schon viel Tippen (der Autor spricht aus eigener Erfahrung!). Dafür war er teuer. Einen CP/M Rechner bekam man für etwa 3.000 bis 3.500 Dollar, Wordstar als Textverarbeitung kostete um 300 Dollar, nicht 2.200 für die Option beim Datamaster. Kurz: Für den Preis, den ein Datamaster als Textverarbeitungssystem kostete, hätte man ohne Problem woanders drei Computer kaufen können. Der Rechner war einfach zu teuer. Er kam noch dazu zu spät, obwohl mehr als ein Jahr vorher entwickelt nur einen Monat vor dem IBM PC auf den Markt. Eines überlebte aber: die Mechanik der Tastatur wurde später in die IBM PC Tastatur übernommen.

IBM 5120IBM Modell 5120

Der Vorgänger des Datamasters war das IBM Modell 5120. Die Konzeption war ähnlich. Auch hier war der Monitor in einem Gehäuse mit zwei acht Zoll Diskettenlaufwerken untergebracht, jede mit 1,2 Mbyte Speicher. Der Hauptspeicher betrug 32 KByte, erweiterbar auf 32 KByte, das ROM 64 KByte. Eine Erweiterungseinheit von Kühlschrankgröße nahm, wenn benötigt eine 8 Zoll Festplatte mit 42,2 MB Kapazität auf. Zwei Drucker mit Druckgeschwindigkeiten von 80 und 120 Zeichen/s waren verfügbar. Der Unterschied des im Februar 1980 erschienen Modell 5120 zum Datamaster war, das es vollständig auf IBM Technologie beruhte. Die CPU in PAL-Technologie wurde mit 1,9 MHz getaktet.  Der 9 Zoll Monitor zeigte 64 × 16 Zeichen an. Programmieren konnte man in APL und/oder BASIC.

Die Einstiegskonfiguration kostete 9.340 Dollar, mit einem Drucker stieg der Preis auf 13.500 Dollar, mit Erweiterungen konnte man auch bis zu 23.990 Dollar ausgeben.

Der Datamaster war so die erste Abkehr von IBM von eigener Technologie und Nutzung von Mikroprozessoren und Chips, die allgemein verfügbar waren. Er war dadurch wesentlich preiswerter als das Modell 5120, aber immer noch viel teurer als die verfügbaren Mikrocomputer. Wie der Datamaster war das System 5120 schwer und wog 48 kg.

IBM Displaywriter

Direkt als Textverarbeitungssystem – mit der Fähigkeit Text aus Bausteinen zusammenzusetzen und auch die Rechtschreibung (50.000 Worte im Wortschatz) zu prüfen wurde im Juni 1980 das IBM Displaywriter System angekündigt. Es basierte ebenfalls auf IBM Technologie, hatte 160 KByte bis 224 KByte Arbeitsspeicher und schon die äußere Form eines IBM PC: Die Zentraleinheit hatte eine abgesetzte Tastatur und einen separaten Monitor. Allerdings enthielt die Zentraleinheit nur den Mikroprozessor 8086 und die 8-Zoll-Laufwerke, jede Diskette speicherte hier nur 284 KByte, waren in einer eigenen Box untergebracht. Der Drucker war ein Typenraddrucker, da das System gedacht war zum Anschreiben von Personen mit weitestgehend automatisierten Briefen, die aber wie auf einer Schreibmaschine persönlich getippt, aussehen sollten. Die Basiskonfiguration war deutlich billiger als die beiden vorherigen Systeme und kostete 7.895 Dollar mit einem Drucker und einem Diskettenlaufwerk und der Basisversion der Software „Textpack 2“. Sie konnte nur Texte mit veränderlichen Adressaten verbinden und so Serienbriefe verschicken. Weitere Versionen der Software addierten das Erstellen eines Briefs aus Teilstücken, implementierten Rechtschreibprüfung oder automatische Trennung. Sie kosteten natürlich mehr. Ein System mit drei Konsolen und Monitoren, die sich einen Hochgeschwindigkeitsdrucker teilten, kostete 26.185 Dollar. Trotz des hohen Preises war der Displaywriter beliebt. Versicherungen hatten z. B. immer wieder dieselben Briefe zu schreiben, mit ähnlichen Formulierungen, die sich so von einer Sekretärin schnell auf dem Displaywriter aus wenigen Bausteinen zusammensetzen ließen. Später brachte aufgrund dessen IBM auch die Displaywriter Software für den IBM PC heraus. Der Displaywriter wurde im Juni 1980 zwischen Modell 5120 und Datamaster angekündigt.

DisplaywriterIBM hatte also schon eine Wende vollzogen von dem Vermarkten eigener Hardware (Modell 5120) zum Verwenden von „Standard“-Hardware. Mit dem Displaywriter gab es auch ein im Markt erfolgreiches Produkt, das allerdings eine feste Anwendung hatte und nicht geeignet war für Personen, die verschiedene Anwendungen einsetzen wollten.

Wer zu spät kommt, den bestraft der Markt

Das Zweite war der Faktor Zeit. Damals entwickelte sich der Markt enorm schnell. Als IBM 1980 an die Konzpetion ging, war der Altair 8800 gerade mal fünf Jahre alt. Der Altair war ein Gerät mit Kippschaltern, minimalem RAM ohne Bildschirm und Anschlüsse das in Maschinensprache programmiert wurde. 1977 erschienen mit Apple, TRS-80 und Commodore PET die ersten Rechner, die man aufstellen, einschalten und in BASIC programmieren konnte. Ein Jahr später erschienen die ersten Floppylaufwerke im 5,25 Format, die man an Rechner anschließen konnte. Gegenüber den 7 kg schweren 8 Zoll Geräte, die IBM noch nutzte waren sie viel kompakter und auch viel preiswerter. Etwa zeitgleich erschienen die ersten Rechner, die nicht nur einen TV als Ausgabegerät nahmen, sondern einen Monitor und die 80 Zeichen darstellten. Damit waren ab 1979/80 alle Voraussetzungen erfüllt, damit man mit einem Computer auch arbeiten und nicht nur programmieren lernen konnte. Um diese Zeit herum erschienen die ersten Standardprogramme für Textverarbeitung, Tabellenkalkulation und Datenbanken. Sie führten dazu, dass die Geräte nun nicht nur von Hobbisten gekauft wurden, sondern von Selbstständigen und Ingenieuren oder in die Vorzimmer der Chefs als Arbeitserleichterung für die Sekretärin einzogen. Die Nachfrage stieg kräftig an und es erschienen in rascher Folge immer mehr Computer auf dem Markt, auch weil es mit CP/M nun ein Standardbetriebssystem gab, das es den Herstellern ermöglichte einen PC auf den Markt zu bringen, ohne das ganze Betriebssystem neu schreiben zu müssen und gleichzeitig auf den schon etablierten Pool an Software für CP/M zugreifen zu können. So lief CP/M 1981, als der IBM PC erschien in 3.000 unterschiedlichen Konfigurationen auf den unterschiedlichsten Rechnern, mit Zusatzkarte sogar auf dem Apple II.

IBM fürchtete, wenn man zu lange für die Konzeption eines eigenen PC bräuchte, man zu spät auf dem Markt ankäme, um noch genügend Einfluss zu haben, um einen Standard zu setzen und dann nur ein Anbieter von vielen wären und die Umsätze gering wären wie beim Datamaster und 5120. 1980 verfasst der IBM CEO Frank Cary ein Rundschreiben an die Abteilungen, in denen er nach Vorschlägen fragt. Bill Loewe meint er wüsste, wie man einen PC in einem Jahr auf den Markt bringen könnte. Er bekommt für Cary zwei Wochen Zeit ein Konzept auszuarbeiten und stellt es im Juli 1980 auf einer Krisensitzung den Managern vor. Der Kernpunkt: Das Einzige was von IBM im PC stammt ist das 8 KByte große BIOS und das Schild auf dem Gehäuse (und die Tastatur). Alles andere sind Bausteine, Laufwerke und andere Teile, die auf dem freien Markt verfügbar sind. Das gilt auch für die Software. Das Betriebssystem und den Basic Interpreter und Anwendungssoftware. Selbst der Vertrieb wird anders als bisher sein, denn bisher gab es Computer nur direkt von IBM. Sie wurden geliefert und von Servicepersonal aufgestellt. Über den IBM Vertrieb wird der PC auch vertrieben aber nur für Großkunden, Aber eben auch durch die schon existierenden Computerläden und es gibt nicht den üblichen Service von IBM mit Personal, das zur Wartung kommt.

Dieses Konzept ist so revolutionär und bricht so mit IBMs vorheriger Politik, das Loewe die Hälfte der Zeit nur dafür aufwendet es zu erklären, bevor er überhaupt an den Aufbau des PC selbst ging. Er konnte Cary überzeugen und bekam so das Okay. Das war im Juli 1980, ein Jahr vor Markteinführung des IBM PC am 12.8.1981.

Das Konzept

Im August 1980 begann eine Gruppe von 12 Ingenieuren mit dem Design des Rechners – zum Vergleich, der fast zeitgleich herausgebrachte Datamaster wurde von Februar 1978 bis August 1980 designt, dann übernahm die Gruppe, die das Design in die Massenproduktion überführte. Man übernahm Lehren aus dem Projekt.

Die 8-Zoll-Laufwerke von IBM machten die Vorgänger schwer und voluminös. Sie speicherten viel mehr Daten als die verbreiteten 5,25 Zoll Laufwerke, aber der Nutzen für die Käufer war gering, wenn man bedenkt, dass man damals alle Daten, die man bearbeitete, auch eintippen musste – 300 Kbyte entsprechen dann 300.000 Anschlägen oder rund 150 Seiten Text und die passten problemlos auf eine 5,25-Zoll-Diskette.

Der Computer sollte wie der Datamaster über Erweiterungssteckplätze verfügen. Bussysteme, mit denen man Computer erweitern konnte, waren schon verbreitet. Apple hatte seinen eigenen Bus, viele Rechner auf Basis des 8080 / Z80 verwandten den vom Altair eingeführte S100 Bus, so benannt nach den 100 Pins, welche die Karten hatten. Karten auch von Drittherstellern waren wichtig für den Erfolg von Computern, denn so konnte man dem Computer erweitern, ihn um Fähigkeiten aufrüsten, die er beim Kauf nicht hatte. Der Apple II hatte bei erscheinen z.B. keinen Floppy Disk Controller, konnte keine 80 Zeichen darstellen. Diese Karten und Hunderte andere erschienen erst Jahre nach Einführung des Apple II. Zusammen mit den Speicherbausteinen und den Logikchips und dem Platz für das Netzteil stand die Größe fest des Mainboards fest, und damit wie viel Platz die Laufwerke einnehmen dürften. Auch das sprach gegen die 8-Zoll-Laufwerke. So flogen sie aus dem Design heraus. Ebenso entschloss man sich gegen einen Druckerport nach IBM Standard. Stattdessen wurde ein Centronics Anschluss gewählt. Das war der gängige Standard bei parallelem Interface. Das hat auch den Nebenvorteil, das IBM keinen Drucker entwickeln musste. Was IBM verkaufte, war ein umgelabelter Epson MX-80 Drucker. Ziemlich aufwendig entpuppte sich die Einhaltung der FCC-Vorschriften für elektromagnetische Strahlung. Vor allem die Adapterkarten mussten dafür mit wenig Spiel in die Stecker passen, damit die Ausstrahlung von Störstrahlung möglichst klein war.

Prototyp-BoardProzessor

Die Wahl für den 8086 fiel aus drei Gründen:

Nimmt man alle Forderungen zusammen, so war klar das nur der 8086/88 alle Bedingungen erfüllte. In Bocca Raton waren die Mitarbeiter mit dem Prozessor und seinen Bausteinen vertraut. Microsoft hatte BASIC schon vom 8080 auf den 8086 portiert und offerierte ein DOS für den Chip an (das wie sich herausstellen sollte weder von Microsoft stammte noch ein eigenständiges Betriebssystem war). Und er bot mehr als 64 K Speicher, wenn auch relativ umständlich über die Segmentadressierung. Ein Bonus war der 8087 Coprozessor den Intel damals ankündigte (aber nicht vor 1982 auslieferte). IBM baute einen Sockel für den Prozessor nach Intels Spezifikationen ein, verneinte aber eine Garantie, dass er auch laufen würde, wenn es ihn denn gäbe.

Arbeitsspeicher

Das Mainboard hatte – da war man vorausschauend - vier Reihen für 64 Speicherchips. Nicht ganz so vorausschauend war man beim Chiptyp. Es waren selbst für den 8088 langsame 16 KBit Chips mit 250 ns Zugriffs- und 410 ns Zykluszeit. Das war eigentlich zu langsam für die Taktfrequenz, so legte man noch einen Wartetakt ein. Als man das Board entwickelte, gab es schon 64 KBit Chips, sie waren 1979 erschienen, doch da diese anfangs noch teuer waren, setzte man lieber auf die seit 1976 verfügbaren 16 KBit Chips. Das Basismodell wurde tatsächlich mit acht 16 KBit Chips, mithin 16 KByte ausgeliefert. Es konnte vom Benutzer selbst erweitert werden, indem er weitere Chips in die Sockel einsteckte auf 32, 48 und 64 KByte - da der 8088 nur einen 8-Bit-Datenbus hatte, reichte es jeweils acht Chips pro Bank zu bestücken anstatt 16 beim 8086. Weiterhin wurden zwei Speichererweiterungskarten mit 32 und 64 KByte Kapazität (ebenfalls bestückt mit 16 KBit Chips) designt. Mit drei 64 KByte Karten und einem Ausbau des Speichers auf dem Mainboard kam man dann auf 256 KByte Speicher – dieser Ausbau war dann aber mit 2.030 Dollar teurer als das Einstiegsmodell, das 1.565 Dollar kostete. Das IBM von den Großrechnern herkam, zeigte sich aber darin, dass man eine einfache Methode zur Erkennung der Bitverfälschung im Speicher implementierte. Es waren pro Bank neun Chips nötig, acht speicherten die Daten, ein neunter erhielt bei jedem Schreiben eines Bytes die XOR-Verknüpfung des Bits. Das war beim damaligen Stand der Technik das einzige Verfahren, das mit vertretbarem Aufwand implementierbar war, ohne die Speichertransfers zu verlangsamen. War ein Bit verfälscht so stimmte das XOR-Bit nicht mit der Verknüpfung, welche die Schaltung beim Lesen durchführte, überein und dies löste einen Interrupt aus, den das Betriebssystem abfing und dann einen Speicherfehler meldete. Mehr als ein verfälschtes Bit konnte die Technik aber nicht erkennen und auch nicht wo es saß oder den Fehler gar korrigieren. Die Behandlung des Fehlers konnte ein Anwendungsprogramm sogar überschreiben, indem sie eine eigene Interruptserviceroutine verankerte.

Da der PC in der Basisausführung maximal 256 KByte Speicher bot – wurde bei der Systemarchitektur Folgendes gewählt:

Damit waren 384 KByte im oberen Bereich reserviert, das war, wie die Entwickler selbst zugeben „generös“. Auf der anderen Seite war der noch verbleibende Teil von 640 KByte immer noch groß, bedenkt man, dass Standard damals Computer mit 32 bis 64 KByte Arbeitsspeicher waren. Wenn man ehrlich ist: Wenn ein Programm 640 KByte belegt und damit nicht auskommt, dann werden weitere 384 KByte dann daran auch nicht viel ändern. Die Enge unterhalb der 640 K, die es zum Schluss bei DOS gab, lag ja vor allem daran, dass immer mehr Treiber dort auch Speicher anforderten, anstatt im oberen Bereich, weil man so die Hardware billiger fertigen konnte (Treiberprogramm anstatt Karte mit eigenem RAM/ROM) und zum Ende von DOS dort auch noch Windows neben DOS Speicher benötigte. Das der IBM PC bei der damaligen schnellen Entwicklung aber bis 1987 gefertigt werden würde und die 640-KByte-Grenze bis zur Einführung von Windows 95, 14 Jahre nach dem Launch des PC eine Grenze sein würde, konnten die Schöpfer damals nicht ahnen. MS-DOS / PC-DOS konnte in der ersten Version von dem Speicher eh keinen Gebrauch machen, denn diese Version war noch ein Klon von CP/M und hatte die dort üblichen COM Files als Standardformat für ausführbare Programme übernommen. Ein Programm konnte so maximal 64 KByte groß sein. Erst mit dem mit MS-DOS 2 eingeführten EXE Dateiformat konnten Programme länger als 64 K sein. Der Spruch „640 K sind genug für jedermann“ (640 kB ought to be enough for anybody) wird Bill Gates zugeschrieben, es gibt allerdings keinerlei Beweise, das er es jemals gesagt hat. In jedem Falle suggeriert das Zitat der Eindruck, es handele sich um eine Grenze von MS-DOS und nicht eine der Hardware. Das ist nicht korrekt, auch wenn man mit einem kleinen Trick MS-DOS überreden konnte, die an 640 KByte anschließenden 64 KByte noch zusätzlich zu nutzen, denn in diesem Bereich lagen praktisch keine Adapterkarten (bei B000:00 begann aber der Bildschirmspeicher für die Textdarstellung). Andere Rechner unter MS-DOS boten so auch mehr Speicher, der Apricot F-1 z.B. 768 K und der Sirius 1 sogar 896 K.

Prototypeboard obenPeripheriebausteine

IBM wählte den 8088 Prozessor aus Kostengründen – nicht so sehr weil er billiger als der 8086 war, sondern vielmehr, weil er mit nur 8 Datenbusleitungen sowohl das Design des Motherboards vereinfachte (es waren überall weniger Leitungen zu ziehen, angefangen von denen zu den Speicherchips, zu den Peripheriebausteinen und den Adapterkarten, wie auch es möglich war Peripheriebausteine für 8 Bit Breite, wie die 8255 PIO zu verwenden. Diese waren viel billiger als die Peripheriebausteine für den 8086 und vor allem lagen viel mehr Erfahrungen mit ihnen vor. Man baute dann aber zwei Zusatzchips ein die das System gegenüber einem 8 Bitter deutlich beschleunigen konnten. Das eine war ein DMA-Baustein (Intel 8237), ein Interruptcontroller (Intel 8259) und ein Zähler/Counter (Intel 8253). Alles waren Zusatzbausteine, für die 8080/85 Serie entwickelt wurden und mit bis zu 5 MHz spezifiziert. Dies und die Tatsache das man den PC mit der Farbgrafikkarte über einen Modulator auch an einen NTSC-Fernseher anschließen können sollte limitierte den Takt auf 4,77 MHz (es wurden aus 14,38 MHz Takt durch Teilen durch 3 bzw. 4 die Frequenzen für den 8088 und den NTSC-Takt gewonnen).

Ein DMA-Controller ermöglicht Transfers zwischen dem Arbeitsspeicher ohne das der Prozessor dies durchführt. Das sind typischerweise Kopieraktionen, wie sie vorkommen, wenn man aus einem Puffer Daten in den Hauptspeicher schreibt oder liest. Solche Puffer legt der Floppy Disk Controller oder später der Festplattenkontroller an, aber auch Druckerspooler, serielle Schnittstellen oder Netzwerkarten haben solche Puffer. Ohne DMA-Kontroller würde das ganze System stehen, wenn eine Diskette gelesen wird, für das Lesen von einer Festplatte wäre es sogar zu langsam. Der Interruptcontroller ermöglicht es, dass der Computer weiter arbeitet, wenn ein Gerät mit niedriger Datenrate ihn sonst aufhalten würde. Typische Anwendungen dafür sind die Druckerausgabe, serielle Datenübertragung oder das Warten auf das Keyboard. Das hatte aber trotzdem noch einen eigenen Mikroprozessor 8048 der die Tasten abfragte und einige Zeichen zwischenspeicherte. Ein Timer/Zähler (CTC) erlaubt es den Prozessor nach einer bestimmten Zeit durch Interrupt zu unterbrechen, das ist wichtig für Messsensoren. Im IBM PC ersetzte der Baustein aber eine Echtzeit Uhr. Eine solche wurde erst im IBM AT verbaut. Beim IBM PC musste man nach jedem Booten von DOS zuerst Datum und Uhrzeit neu eingeben. Der CTC wurde auch genutzt, um einen Sinuston zu erzeugen – mehr als einen Ton in reiner Form (ohne Obertöne) konnte der IBM PC nicht ausgeben und die Signale zu erzeugen, wenn man auf Kassette schrieb.

Der Lohn: auch wenn der IBM PC bei Benchmarks im Allgemeinen keine viel bessere Figur machte als schon etablierte 8 Bit Geräte mit optimierter, da schon „gereifter“ Software, so sah er doch durch den DMA Zugriff bei dem Schreiben und Lesen von den Diskettenlaufwerken sehr gut aus. Nicht immer wurde allerdings von allen Fähigkeiten Gebrauch gemacht, so nutzte, wenn man eine serielle Schnittstellenkarte einbaute, PC-DOS nicht die Möglichkeiten des Interrupt Controllers, sodass eine Datenübertragung den ganzen PC aufhielt.

Mainboard 1981 (erste Revision) mit 64 K bestücktText und Grafik

Ungewöhnlich war, dass das Mainboard keine Hardware für die Grafik oder Textdarstellung vorhanden war. IBM bot dafür zwei Karten an. Die erste MDA (Monochrome Display Adapter) bot reine Textdarstellung in den damals üblichen 80 × 25 Zeichen. Der erste Entwurf der MDA basierte auf der Hardware des Datamasters und einem Intel 8275 Videocontroller. Dieser konnte aber nur 128 verschiedene Zeichen darstellen. Da der Rechner international vermarktet werden sollte, (auch wenn es ein Jahr dauerte, bis er auch in Europa verkauft wurde) enthielt der Zeichensatz aber viele nationale Zeichen wie Umlaute, Accente oder Währungssymbole wie das Pfund-Zeichen. Dazu kamen Rahmensymbole, um damit Rahmen um Bildschirmmasken zu zeichnen und einfache Blockgrafikzeichen. So schuf man einen Zeichensatz mit 256 Zeichen (der bis heute Bestand hat) und setzte ein neues Design auf Basis des Motorola 6845 Videocontrollers um. Die MDA Karte gab Zeichen in einem feinen Raster (9 × 14 Punkte pro Zeichen) aus und verfügte über Attribute für das Hervorheben von Text, invertiert darstellen, Unterstreichen etc. Aber sie gab nur Zeichen aus dem ROM aus. Die MDA-Karte wurde an einen Monochrommonitor angeschlossen.

Grafik war mit der CGA-Karte (Color Grafik Adapter) ebenfalls auf Basis des MC 6845 möglich. Sie hatte mehrere Farbmodi mit 2, 4 oder 16 Farben, eine davon immer schwarz und 640 × 200, 320 × 200 und 160 ×

200 Punkten. Bis auf den höchstauflösenden Modus konnte man die Grafik auch auf einem NTSC-Fernseher ansehen, ansonsten auf einem Composite-Monitor. Textdarstellung war mit der CGA-Karte auch möglich, dann aber mit einem viel gröberen Raster als bei der MDA nämlich 8 × 8 Pixel pro Zeichen. Die Farbzahl war diktiert durch den Videospeicher von 16 KByte. Der 6845 war in der gewählten Version mit 1 MHz Takt beim Auslesen im 640 × 200 Pixel Mode schon am Anschlag, sodass wenn der Prozessor nun in das Bildschirm-RAM schrieb, das Störungen der Darstellung verursachte. Programmierumgebungen wie Turbo Pascal, die es erlaubten unter Umgehung von DOS (das diese Störungen vermied) direkt in den Bildschirmspeicher zu schreiben, hatten daher meist eine Variable, mit der man "Schneegestöber" zulassen oder blockieren konnte. Beim Blockieren schreib das System nur in der kurzen Zeit, die der Elektronenstrahl brauchte, um von einem Zeilenende zum nächsten Zeilenbeginn zu springen in den Videospeicher. Aber auch beim normalen Scrollen kam diese Störung vor und äußerte sich hier in einem Blinken.

Unverständlich ist aber, warum man nicht die MDA-Karte als Basis für die Darstellung von Text, auf dem Mainboard integrierte, denn die Textdarstellung benötigte jeder, wahrscheinlich war aber der Platz zu knapp. Immerhin hatte sie auch den Druckerport nach Centronics Standard mit an Bord, der auch auf der Hauptplatine fehlte. Was allerdings schlecht durchdacht war, war das die CGA-Karte einen anderen Monitortyp, als die MDA erforderte und so nicht einfach unter Verzicht auf Farbe an den Grünmonitor angeschlossen werden konnte. Wer eine CGA Grafikkarte hatte, hatte meist zwei Monitore auf dem Schreibtisch. So gab es aber einen Markt für Alternativen. Compaq integrierte in eine Karte MDA und CGA Modi und beliebt, weil man nur einen Monochrommonitor brauchte, war die Hercules Karte mit MDA-Textdarstellung aber einem monochromen Grafikmodus mit 720 × 350 Pixeln.

IBM dachte wohl der Computer wäre für alle. Als nicht nur für Geschäftsanwendungen, sondern auch ein „Heimcomputer“. Solche Geräte gab es schon, wie der VC-20 von Commodore, Ti 99/4a von Texas Instruments, Atari 400 und 800 oder den Sinclair ZX 81. Sie wurden an einen Fernseher angeschlossen und speicherten Programme und Daten auf Kassette mit einem Kassettenrekorder. Also gab es einen Anschluss für einen solchen und der BASIC-Interpreter im ROM war ein „Casette Basic“. Startete man den Rechner, so meldete sich dieser BASIC-Interpreter. Für das Verwenden der Diskettenlaufwerke unter BASIC musste man nochmals ein BASIC (diesmal auf Diskette) erwerben. Auf diese 32 KByte ROM hätte IBM leicht verzichten können, denn alleine die CGA-Karte kostete mehr als ein komplette VC-20 Rechner von Commodore. Das Basismodell mit CGA-Karte zum Anschluss an einen Fernseher und 16 KByte Speicher kostete 1.565 Dollar, für das Geld bekam man drei Ti 99/4a Rechner mit ebenfalls 16 KByte Speicher (der VIC-20 hatte nur 5 KByte), es war auch noch teurer als ein Apple II+ mit 48 KByte Speicher der 1.095 Dollar zu dem Zeitpunkt kostete (siehe Vergleich IBM PC / Apple II). Kurz für einen Heimcomputer war das Gerät völlig überteuert und bei dem Käuferkreis, die den Rechner typisch zum Programmieren lernen oder Spielen kauften, zog auch der Name „IBM“ nicht. Praktisch jeder der das „Einstiegssystem“ kaufte ergänzte es um Diskettenlaufwerke, meistens wurde das Einstiegssystem nur deswegen gekauft, weil die Diskettenlaufwerke Standardlaufwerke waren und man diese von Fremdherstellern viel billiger, als wie von IBM bekam.

IBM PCDiskettenlaufwerke

Die Diskettenlaufwerke waren auch nicht der Renner. Sie hatten eine formatierte Kapazität von 160 KByte – es gab damals auch schon Laufwerke mit der doppelten Kapazität. Mit DOS 1.1, das im Mai 1982 als fehlerbereinigte Version hinzukam, unterstützte das Betriebssystem das Beschreiben von Disks mit zwei Seiten. Angeblich konnten die Laufwerke dies schon immer, nur verhinderte ein Bug dies vorher. Festplatten gab es damals schon, auch wenn sie so teuer wie das Basisgerät waren, ihre Preise fielen jedoch rapide. Der Einbau einer Festplatte war aber im IBM PC nicht vorgesehen. Er hatte nur ein 63 Watt starkes Netzteil, das zu wenig Strom für eine Festplatte lieferte. Trotzdem boten Drittanbieter Festplatten mit Controller für den Einbau an. IBM legte schließlich selbst nach und bot ein Erweiterungsgehäuse (Modell 5161) an. Das war nochmals das Gehäuse der Zentraleinheit mit einem eigenen Netzteil und einer Festplatte. Man musste es mit einem Flachbandkabel mit der Zentraleinheit und dem Festplattenkontroller verbinden. Diese Lösung war schlecht und so folgte am 8.3.1983 als Nachfolge der IBM PC XT. Er hatte eine neu designte Hauptplatine die nun 64 KByte aufnahm und mit 64 KBit Speicherbausteinen auf 256 KByte aufgerüstet werden konnte. Die Hauptänderung war, dass das Netzteil nun 130 Watt lieferte. Es gab so genügend Strom für eine Festplatte, auch wenn der IBM PC XT auch als Floppymodell vertrieben wurde. Lediglich der schon beim ersten Modell völlig überflüssige Kassettenrekorderanschluss und das Casette BASIC verschwanden.

Bussystem

Das Bussystem stammte von Datamaster, auch dieser hatte dieselben Peripheriebausteine wie Interruptcontroller und DMA Controller. Man musste so lediglich 5 der 62 Pins des Steckers ändern, handelte ich aber eine Reihe von Nachteilen ein. So wurden an die Karten jeweils nur 10 Bits des Adressbusses übertragen. Man hatte auch übersehen, welche Folgen es hatte, wenn viele Karten miteinander und dem Prozessor harmonieren sollten. Also Folge hatten fast alle Erweiterungskarten einen Dip-Switch Block mit kleinen Schaltern („Mäuseklavier“), die man mit einem kleinen Schraubenzieher oder einer Pinzette umlegen konnte, um der Karte zu sagen, auf welcher Adresse im Adressraum sie sich angesprochen fühlen sollte. Das klappte erstaunlich gut, die Prozedur war aber nichts für Computerlaien. So bekam der IBM PC AT einen erweiterten XT Bus, der nicht nur mehr Daten- und Adressleitungen hatte, sondern auch das Verhalten der Karten zueinander regelte, sodass auf diese Jumper oder Dip-Switches verzichtet werden konnte. Bedingt durch die Verwendung der 8237 DMA, konnte der Bus maximal 0,96 MByte/s übertragen, eine Datenrate die eine Festplatte schon übertreffen konnte.

Es gab nur fünf Steckplätze weniger als beim Apple II (acht, aber einer konnte nicht universell genutzt werden). Das war knapp. Ein Rechner mit MDA-Karte, 64 K Erweiterung und Diskettenkontroller, die minimale Arbeitskonfiguration belegte schon drei Steckplätze. Beim XT gab es daher noch zwei weitere Steckplätze in die kürzere Karten wie die V24 oder Gameport Karte passten.

Preise

Vor allem aber bezahlte der Käufer den Namen mit. Beim Computer ist das schwer nachzuvollziehen, aber bei Einzelkomponenten aber schon. 16 KByte RAM Kits kosteten damals (nach den Anzeigen in der Zeitschrift Byte 10/1982) für andere Rechner 25 Dollar, beim IBM PC dagegen 90. Ein Laufwerk mit 250 K unformatierter Kapazität bei IBM 570 Dollar, ein Laufwerke von Shugart mit derselben Kapazität dagegen 240 Dollar. Diese Preispolitik hatte Bestand, auch wenn die Preise natürlich entsprechend der Verbilligung der Hardware sanken. Als im März 1983, der erste voll kompatible Klon, der Compaq Portable PC auf den Markt kam, kostete dieser 2999.- Dollar, ein gleich ausgestatteter IBM PC zu dieser Zeit dagegen 3.735 Dollar und er war durch sogar anders als der IBM PC als portabler Computer ausgelegt und konnte leicht transportiert werden (wenn man bei einem Gewicht von knapp 13 kg kein Laptop war, also nicht gedacht zum Arbeiten ohne Stromanschluss).

IBM PC internTastatur

Hervorragend war vor allem die Tastatur. Damals wurde der Anschlag mit starker Rückkopplung und lautem Geräusch gelobt, der Druck kam durch die Federn unter den Kappen, die erst niedergedrückt werden mussten. Sie hatte einen eigenen 8048 Prozessor, der einige Zeichen zwischenspeichern konnte und laufend die Tastaturmatrix abfragte. So verlor man keine Zeichen, wenn man weitertippte, der Computer aber gerade mit anderen Dingen beschäftigt war. Einzig die fehlende Handballenauflage trübte die Ergonomie der Tastatur, doch Ergonomie als Begriff, der ja auch die Lärmbelästigung durch die Tastatur umfasst, war damals noch ein Fremdwort. Auch sie stammte vom Datamaster ab, war anders als dessen aber separat und mit einem für die damaligen Verhältnisse langen Kabel von 1,8 m Länge verbunden. Damit konnte man, wenn man wollte, die Tastatur auch auf den Oberschenkeln halten. Schließlich musste die Computerbenutzung damals „lässig“ aussehen. An der Tastatur wurden von Testern nur Kleinigkeiten bemängelt. Am meisten die Position der linken Shifttaste und die zu kleine Enter-Taste. Von den Schöpfern der Tastatur wurde dies mit der Forderung nach einer Tastatur für alle Märkte begründet. Was man aber definitiv vergessen hatte, waren Leuchtdioden für drei Spezialtasten: Caps Lock, Umschaltung Ziffernblock/Cursorblock und Rollen/Scrollen. Man korrigierte dies beim IBM AT und das dort eingeführte Tastaturlayout hat bis auf die Einführung von Windows Tasten bis heute überdauert.

Eingeführt wurde auch der Affen- oder Klammergriff, nämlich das gleichzeitige Drücken von Ctrl-Alt-Del für einen Warmboot. Das wurde bewusst so gewählt, weil diese Tasten soweit auseinander liegen und man zwei Hände dafür braucht, dass ein Auslösen aus Versehen weitestgehend ausgeschlossen ist. Allerdings lösen diese Tasten nur einen Soft-Interrupt aus. Hängt das Betriebssystem, das die Tastenkombination abfangen soll, dann nützt sie nichts. Sie sparte aber einen Resetschalter am Gehäuse ein. Woanders dachte man weiter und integrierte ins BIOS eine Abfrage der ESC-Taste. Wurde sie beim Start gedrückt, so wurde das RAM nicht geprüft und der Rechner startete schneller. Dieser POST (Power On Self Test) war damals nicht üblich und manche User empfanden ihn als unnötig, IBM wollte aber jede verbaute Hardware verifizieren, bevor die Kontrolle an das Anwendungsprogramm überging. Auch hier sieht man die Erfahrung, die man bei größeren Rechnern gewann.

Deadline

Die Gruppe von IBM arbeitete schnell. Im September/Oktober stand das wesentliche Design und man schloss Verträge mit Zulieferern wie Intel oder Microsoft. IBM nutzte die Marktmacht, die sie hatten aus und bestanden bei Intel darauf, dass diese Second-Source Verträge an andere Halbleiter wie AMD oder Harris vergaben. Bis November war ein Prototyp fertig (siehe Screenshots des ersten Entwurfs der Hauptplatine)

Als ein Serienmodell fertig war, übernahm im Frühjahr eine zweite Gruppe den Aufbau der Fertigung. Im Juli liefen die ersten Rechner vom Band, am 12.8.1981 wurde der IBM PC öffentlich angekündigt und im September erhielten Computerzeitschriften Prototypen, die Allgemeinheit konnte ihn ab Oktober 1981 kaufen. Bis April 1982 wurden 50.000 Stück verkauft, bis August 1982, also nach nur weiteren vier Monaten 200.000 Stück. In Europa wurden die ersten PC erst ab August 1982 verkauft. Ursprünglich versprach Bill Loewe, man könnte 250.000 Stück über einen Zeitraum von fünf Jahren verkaufen. Das fand Frank Cary schon als überoptimistisch, da noch kein IBM-Computer sich mehr als 10.000-mal verkaufte. Technisch ist es übrigens das Modell 5160, was ihn in eine Reihe mit dem 5120 einordnet und nicht dem Datamaster.

Was mit dazu führte das wir bis heute mit dieser Architektur arbeiten war die Voraussicht von Philip Estridge, der als Manager das Vermarkten des PC übernahm. Estridge arbeitete schon privat mit einem Apple II und wüsste das dieser auch so erfolgreich war, weil Stephen Wozniak das ganze System dokumentiert hatte, Dadurch war es Drittanbietern möglich, Karten für den Apple II zu designen und Software für ihn zu schreiben. Er ordnete an das man dies beim IBM PC genauso machte, und zwar nicht nur die Hardware betreffend sondern auch der Code des BIOS veröffentlicht wurde. Apple ging nicht so weit. Steve Jobs patentierte eine Reihe von Erfindungen von Wozniak und ging aufgrund der Patente gegen jeden Nachbau vor – in den USA mit Erfolg, in Europa mit weitaus weniger Erfolg. So war es aber möglich, den IBM PC nachzubauen. Lediglich das BIOS musste man neu programmieren, sodass es dasselbe tat, wie das IBM BIOS aber es nicht der gleiche Code war. Compaq tat dies und gab 1 Million Dollar dafür aus, etwa die zehnfache Summe die Microsoft für PC-DOS bei in etwa gleicher Codegröße bekam. Später gab es von Phoenix ein copyrightfreies nachprogrammiertes BIOS für jeden PC-Hersteller.

Der Vorteil dieser „offenen“ Architektur war das IBM nicht für jeden Anwendungszweck eine Karte entwerfen musste, das konnten Drittanbieter tun. Je mehr es aber davon gäbe und je mehr Software, die dann nicht nur von IBM stammt, desto größer der potenzielle Kundenkreis. Man fürchtete sich nicht vor Konkurrenz und Clones, sondern nahm an, dass man alleine durch die Erfahrung in der Produktion und den Einkauf von Hardware in großen Stückzahlen so billig produzieren könnte, dass man preiswerter als die Konkurrenz wäre.

IBM PC XTAufstieg und Fall

Allerdings hatten die IBM Preise auch einen kräftigen Aufschlag für den Namen (siehe oben beim Vergleich mit dem Compaq) und so verkauften sich die Kompatiblen über den Preis recht gut. IBMs Umsätze stiegen trotzdem weiter bis 1985, doch sie mussten billiger werden um nicht an Marktanteilen zu verlieren. So war 1985 das Jahr mit dem höchsten Umsatz, aber gesunkenem Gewinn. Es war auch das Jahr mit dem höchsten Marktanteil von über 55 Prozent. Danach ging es bergab. Chip & Technologies erfanden 1987 den Chipsatz – sie ersetzten die 63 Logikbausteine einer IBM AT Platine durch fünf ASIC-Bausteine zu einem Bruchteil der Kosten. Damit musste ein Hersteller nicht mehr sein eigenes Board designen, sondern konnte auf diese Chipsätze zurückgreifen und bald gab es Hersteller von IBM kompatiblen Mainboards – nun konnte jeder PC Schrauber seinen IBM PC zusammenbauen, nicht wie vorher ein PC Hersteller. Die zweite Bedrohung war IBMs Langsamkeit. Der IBM PC war wirklich schnell entstanden. Er blieb jedoch eine Ausnahme. Der IBM PC jr der ein Flop wurde, wurde im November 1983 angekündigt aber erst im März 1984 ausgeliefert und er kostete dann erheblich mehr als angekündigt. Der IBM PC AT erschein erst 27 Monate, nachdem Intel den 80286 Mikroprozessor, auf dem er beruhte, herausgebracht hatten. Beim nächsten Prozessor, dem 80386 wartete dann Compaq nicht mehr. Sie schufen mit ihrem Compaq 386 keinen neuen Computer, sondern ersetzten einfach den 286 durch einen 386 Prozessor und verbreiterten die internen Wege und das Bussystem. Ansonsten war er völlig kompatibel (inklusive der Speicherbeschränkungen durch DOS) nur eben schneller. Von nun an hinkte IBM dem technischen Fortschritt hinterher. IBM versuchte mit dem PS/2 eine Abkehr von dem bisher offenen System, indem sie ein neues Bussystem schufen, das zwar besser als der alte Bus war, aber auch patentrechtlich geschützt und jeder der dafür Karten produzieren wollte musste Lizenzgebühren zahlen. Als Folge blieben die Kunden lieber bei den billigeren Kompatiblen und die PS/2 (Personal System 2) genannte Serie wurde zu einem großen Flop. In den Neunzigern führten dann mangels Marktmacht eines Anbieters Industriegremien meist unter Führung von Intel neue Standards für Bussysteme (PCI, PCI Express) Festplatten (ATS, später SATA) ein. IBM verkaufte ihre PC Sparte am 1,5,2005 für 1,75 Milliarden Dollar an den chinesischen Hersteller Lenovo.

Preistabelle

Hier die offizielle Preistabelle bei der Vorstellung. Folge ich der Wikipedia, so kann man die Preise verdreifachen um auf die heutige Kaufkraft kommen. In Deutschland kostete die übliche Arbeitskonfiguration mit zwei Floppylaufwerken und Monochrommonitor, als sie ein Jahr später verfügbar war, etwa 11.000 DM, was damals drei Monatslöhnen eines Facharbeiters entsprach.

Komponente

Preis (in US-$)

Zentraleinheit 16 K Speicher, Keyboard

1.265

Aufrüstung 16 KByte onboard (maximal 3)

90

32 KByte Erweiterungskarte

325

64 KByte Erweiterungskarte

540

Monochrommonitor 11,5 Zoll Typ: 5153

345

MDA-Karte mit Druckerport:

335

CGA-Karte

300

Diskettenlaufwerk

570

Diskettenkontroller

220

V 24 Schnittstelle

145

Gameportkarte

55

Tastatur

265

Software


PC DOS

40 (später 149)

CP-86

249 (später 149)

Easywriter

175

Hauptbuchhaltung

Je 595, ergeben zusammen eine Finanzbuchhaltung

Außenstände

Verbindlichkeiten

Disketten-BASIC

40

Pascal Compiler

300

Visicalc

200

Adventure

30

Mit 64 KByte Speicher, einem Diskettenlaufwerk, Monochrommonitor und MDA-Karte kostete eine arbeitsfähige Konfiguration 3005 Dollar, mit 128 KByte RAM, zwei Diskettenlaufwerken und einem 9 Nadeldrucker 4.500 Dollar, kaufte man noch einen Farbmonitor und eine CGA-Karte und Joystick hinzu, so lag man bei 6.000 Dollar.

Artikel erstellt am 7.1.2020

Zum Thema Computer ist auch von mir ein Buch erschienen. "Computergeschichte(n)" beinhaltet, das was der Titel aussagt: einzelne Episoden aus der Frühzeit des PC. Es sind Episoden aus den Lebensläufen von Ed Roberts, Bill Gates, Steve Jobs, Stephen Wozniak, Gary Kildall, Adam Osborne, Jack Tramiel und Chuck Peddle und wie sie den PC schufen.

Das Buch wird abgerundet durch eine kurze Erklärung der Computertechnik vor dem PC, sowie einer Zusammenfassung was danach geschah, als die Claims abgesteckt waren. Ich habe versucht ein Buch zu schreiben, dass sie dahingehend von anderen Büchern abhebt, dass es nicht nur Geschichte erzählt sondern auch erklärt warum bestimmte Produkte erfolgreich waren, also auf die Technik eingeht.

Die 2014 erschienene zweite Auflage wurde aktualisiert und leicht erweitert. Die umfangreichste Änderung ist ein 60 Seiten starkes Kapitel über Seymour Cray und die von ihm entworfenen Supercomputer. Bedingt durch Preissenkungen bei Neuauflagen ist es mit 19,90 Euro trotz gestiegenem Umfang um 5 Euro billiger als die erste Auflage. Es ist auch als e-Book für 10,99 Euro erschienen.

Mehr über das Buch auf dieser eigenen Seite.

Hier geht's zur Gesamtübersicht meiner Bücher mit direkten Links zum BOD-Buchshop. Die Bücher sind aber auch direkt im Buchhandel bestellbar (da ich über sehr spezielle Themen schreibe, wird man sie wohl kaum in der Auslage finden) und sie sind natürlich in den gängigen Online-Plattformen wie Amazon, Libri, Buecher.de erhältlich.


© des Textes: Bernd Leitenberger. Jede Veröffentlichung dieses Textes im Ganzen oder in Auszügen darf nur mit Zustimmung des Urhebers erfolgen.
Sitemap Kontakt Impressum / Datenschutz Neues Hier werben / advertisment here Buchshop Bücher vom Autor Top 99