Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 579: 1.1.2020 -

1.1.2010: Die 2020 SpaceX-Rückschau und die Wette für 2020

Wie j3den Monat eine Rückschau auf die SpaceX-Aktivitäten – oder wie es in diesem Jahr meist der Fall war – die Inaktivitäten der Firma. Wie fast immer habe ich meine Wette gegen SpaceX gewonnen. Nun wurde bei meinem letzten Blog angemerkt, das wäre nun ja bei „SpaceX-Speech“ kein Wunder. Okay, das SpaceX Dinge einhält die versprochen werden, und das selbst, wenn es um die kurzfristige Zeitplanung geht, wo man ja eigentlich wissen müsse, was in den nächsten Monaten geplant ist, ist so wahrscheinlich als, wie das Trump einen Tag lang nicht lügt. Ich habe auch gefragt, was ihr für Vorschläge für die neue Wette habt. Ich habe mich davon inspirieren lassen und überlegte eine Zeit lang, ob ich nicht wetten sollte, das der Flughafen BER vor dem orbitalen Erstflug des Starships eröffnet. Aber angesichts dessen, das dessen Eröffnung nun schon vor 7 Jahren stattfinden sollte und der Betreiber Journalisten eingeladen hat zur Besichtigung, sich also recht sicher ist, dass der nächste Termin nun hält, fand ich das dann doch unfair. Ich schwankte dann noch, ob ich wetten sollte ob das Starship jemals fliegt oder die Firma vorher in Konkurs geht. Ich habe mich dazu entschlossen, wieder eine Startwette zu machen. Doch dazu weiter unten mehr.

Ich fange mal zuerst mit der Dezembernachlese. Anstatt im November angekündigter vier Starts waren es nur zwei (siehe meine Bemerkung über die Unsicherheit selbst kurzfristiger Planung). Koenigsmann gab ja die Maximalnutzlast einer Falcon 9 für einen normalen GTO (27 x 200 x 35.887 km) mit 5,5 t an. Die Angaben auf der Homepage geben wohl dagegen eher das Wunschdenken des Managements an. Nun startete eine Falcon 9 den JCSAT-18/Kacific-1, dessen Startmasse zwischen 6.800 und 6.956 kg angegeben wird. Das liegt deutlich darüber. Erreicht wurde auch nur ein 272 x 20319 x 26,9 Grad Orbit. Das ist insofern interessant, weil dies deutlich mehr als 5,5 t in den echten GTO entspricht. Nach meinen Berechnungen sollte die Falcon 9, wenn sie 9,95 t in diesen Orbit transportieren kann, etwa 6 t in einen GTO bei gleicher Bergungsmethode. Ich vermute bei SpaceX hat man mit mehr Erfahrung vor allem sukzessive die Restmenge an Treibstoff für die Landung reduziert. Bei diesem Start hatte die erste Stufe nach 152 s Brennschluss, die Web Angabe beträgt 162 s. 10 s sind immerhin ein Sechzehntel des Treibstoffs, den man so nicht nutzen kann.

Interessanter war der Start der Frachtdragon. Nicht wegen der Primärnutzlast, sondern weil die Oberstufe einen weiteren Test durchführte, nachdem die Dragon abgetrennt wurde. Nach mehreren Stunden absolvierte die Stufe eine weitere Zündung über 20,1 s die auch die Inklination änderte. Warum das? Nun offensichtlich war die STP-2 Mission der Falcon Heavy, in der diese Stufe verschiedene Manöver demonstrieren sollte, die die Rakete braucht, um für militärische Missionen qualifiziert zu sein, nicht ganz erfolgreich, obwohl das SpaceX ja reklamierte. Das Manöver sollte die dritte Zündung einer Oberstufe simulieren, die in der Höhe des GTO erfolgt, um diesen zu zirkularisieren. Dass man dafür eigens Prallbleche installiert hat, was offensichtlich vorher nicht der Fall war, zeigt auch das es wohl vorher nicht klappte. Die Episode zeigt zumindest eines: man kann SpaceX nicht glauben. Dort heißt es immer 100 % Mission Success. Denn das es Probleme bei der STP-2 Mission gab, war ja neu und die USAF sagt, weil es eine militärische Mission ist, natürlich auch nichts. Das kennt man ja schon von der Zuma Mission, wo die Falcon 9 den Satelliten wieder versenkte. So ist bis heute offen wer dran schuld ist SpaceX, oder Grumman die den Adapter bauten oder beide, vielleicht weil irgendwo etwas in der Kommunikation und dadurch Installation schieflief.

Nun zum Jahresrückblick. Wie von mir gewettet, hat SpaceX nicht so viele Starts geschafft wie 2018, und zwar nicht ein bisschen weniger, sondern deutlich weniger. 13 anstatt 21. Ich meinte aber das SpaceX durchaus eine reelle Chance hatte, bei Jahresanfang die Starts von 2018 zu erreichen – zu Jahresanfang waren noch zwei weitere Missionen der Crewed Dragon geplant, zusätzlich sieben Starlink Starts. Wären diese erfolgt, so wären es 20 Starts gewesen. Und gerade bei Starlink tickt die Uhr (siehe unten) und daher sollte man annehmen, dass die Firma da dahinter ist. Bei den kommerziellen Starts gibt es keine großen Überraschungen. SpaceX generiert ja keine neue Nachfrage, die hohe Startrate in den letzten Jahren kam vor allem durch den Stau zustande, weil die Firma bisher immer ihrem Zeitplan hinterherhinkte. Zudem wurden Startaufträge angekündigt und können so verfolgt werden.

Stattdessen glänzte SpaceX durch drei Explosionen – neuer Rekord, bisher war es maximal eine pro Jahr. Man hat eine Crew Dragon mit dem System in die Luft gejagt, das sie eigentlich bei einer Havarie retten sollte – eine Blamage, wenn das Sicherheitssystem unsicherer als die Rakete selbst ist. Dann explodierte noch ein Raptor bei einem Versuch und zuletzt ein Prototyp der Starship/Super Heavy bei einer Probebetankung. Das ist schon außergewöhnlich. In der Häufung. Es gab zwar auch beim Test der Triebwerke für die Falcon 9 mindestens eine Explosion, aber eben nur eine.

Auch manche Aussagen zeigen, dass man bei SpaceX immer noch weiter von einer „richtigen“ Firma entfernt ist. So die folgende Aussage: “We definitely learned a lot,” Shotwell said Friday. “NASA warned us (that) crew is going to be 10 times harder (than cargo). And I think we were like, 10 times harder? What does that mean? What does that look like? How does that feel? You just don’t know until you start into the program.”

Oh welche Überraschung! Das bemannte Raumfahrtprogramm war schon immer um ein vielfaches teurer als das unbemannte. Für die Entwicklung der Dragon für Frachttransporte bekam SpaceX 396 Millionen Dollar, im Rahmen des CCDev Programmes 3145 Millionen Dollar, also die achtfache Summe. Da diese wohl auch mit Aufwendungen, vor allem Arbeitszeit verknüpft ist, würde ich auch annehmen, dass es achtmal mehr Arbeit gibt und entsprechend schwerer es ist eine bemannte Version zu entwickeln. Das liegt doch nahe bei den 10-Mal die Shotwell zitiert. Warum also die Überraschung dort? Hat man angenommen man, bekäme Milliarden von der NASA, ohne etwas dafür zu tun?

Die 2020 er Wette

Ich komme zur Wette für dieses Jahr. Ich habe mir die Zahl der Starlink Starts als Wette vorgenommen. Offiziell werden es 24 Starts sein, die ersten beiden noch im Januar, sodass wenn SpaceX diese Kadenz halten kann, es nicht unmöglich ist. Doch was wette ich dagegen? Eine Möglichkeit wäre es wie vorgeschlagen einen festen Faktor zu nehmen – 2/3 also 16 wurde vorgeschlagen. Aber ich will eine fundierte Schätzung machen und mich dem Thema unterschiedlich nähern. Eine Sache ist, wie viele Starts die Firma pro Jahr abwickeln kann. Das sind mindestens 21. Bei Wiederverwendung der ersten Stufe muss nur die zweite Stufe neu gefertigt werden das lässt eigentlich viele Starts zu. Daneben gibt es zwei Startrampen für unbemannte Starts in Vandenberg und dem Cape. Dazu noch LC39A nur für bemannte Starts, Vor allem die Starlink Satelliten können beide Rampen nutzen. Niedrige Inklinationen wie die ersten beiden Starts (bis etwa 56 Grad) das CCAF, ansonsten Vandenberg. Bisher gab es maximal 12 Starts pro Jahr von einer Rampe aus. Damit müsste es für Starlink und kommerzielle Starts mindestens 24 Startmöglichkeiten geben. Bei minimal 11 Tagen zwischen zwei Starts von einer Rampe die schon demonstriert wurden wären es sogar 66 Starts, wobei die Zahl natürlich ohne Urlaub und Feiertage ist und Verzögerungen und Unterbrechungen durch kommerzielle Starts nicht mit einschließt. Bei von mir geschätzten drei Wochen zwischen zwei Starts von einer Rampe aus, wären 34 Starts pro Jahr möglich. Das wären die 24 Starts für Starlink, 10 kommerzielle Starts (genauso viele wie dieses Jahr) und dann noch die bemannten Starts die vom Kennedy Space Center aus erfolgen. Kurz: die 24 Starts wären technisch möglich.

Eine andere Sache ist das mit den Terminen, und da gibt es irritierende Äußerungen. Am 29.3.2018, also gerade mal eineinhalb Jahre her, waren 4.425 Satelliten geplant und die FCC genehmigte diesen Plan mit der Auflage, das die Hälfte davon, also 2.212 Satelliten innerhalb von sechs Jahren, also bis zum 29.3.2024 starten sollte. SpaceX saget damals: diese Frist wäre „impractical“ und man in sechs Jahren 1.600 Satelliten starten könnte. Also Stand März 2018: SpaceX kann pro Jahr im Mittel 267 Satelliten starten. Selbst wenn man die beiden Jahre 2018/19 dazunimmt, in denen nur 120 Satelliten gestartet wurden. wären es für die nächsten vier Jahre 370 Satelliten pro Jahr oder etwa sieben Starts mit je 60 Satelliten wie bisher.

Inzwischen hat SpaceX die Zahl zuerst auf 12.000 und inzwischen auf 42.000 Satelliten erhöht – nur mal als Vergleich, seit dem Sputnik 1 wurden insgesamt nur 11.947 Nutzlasten gestartet – und nun planen sie alleine für nächstes Jahr 24 Starts mit 1.440 Satelliten also so viel, wie sie vor eineinhalb Jahren in sechs Jahren starten wollten. Also in eineinhalb Jahren von „unpraktikabel“ zu „nicht mal die Hälfte dessen, was wir planen“. So geht das bei SpaceX.

Ein offenes Buch ist, wie viele Starts die Firma finanzieren kann. Oneweb hat dieses Jahr weitere 1,25 Milliarden Dollar aufgebracht. Selbst wenn Gelder diese für die zweite Stufe des Ausbaus sind, auch hier sind weitere Starts geplant, sind es immer noch 2,1 Mrd. Dollar für die erste Stufe. Ein Satellit bei Oneweb soll in Serienfertigung 1 Million Dollar kosten, das sind 720 Millionen Dollar. Mindestens 22 Starts der Sojus, jeder sicher 50+ Millionen Dollar teuer, kommen dazu. Dazu noch die Fabrikanlage und nicht zu vergessen: Kunden gewinnen kostet auch Geld. Viasat gibt pro Kunde rund 700 Dollar aus für die Hardware, Marketing etc.

SpaceX mag die Herstellung billiger machen, doch nimmt man die Preise der Trägerraketen oder die Entwicklungskosten bei COTS und CCDev als Ausgang, so sicher nicht unter 2/3 der Kosten für Oneweb. Jeder Satellit wird dann netto (mit allen Nebenkosten) rund 2 Millionen Dollar kosten, gegenüber 3 Millionen bei Oneweb). Bisher haben sie rund 2 Milliarden Dollar für ihre beiden Projekte Starship und eben Starlink eingetrieben, wobei ich annehme, dass das Starship das teurere davon ist. Nehme ich eine Verteilung 50 zu 50 an, dann bleibt 1 Milliarde für die Konstellation übrig. Damit können sie 500 Satelliten finanzieren, die sie in rund 9 Starts in den Orbit befördern können.

Das wäre die Untergrenze für eine Schätzung.

Also würde ich bei Berücksichtigung der obigen Fakten eine Startzahl zwischen 9 und 24 Starts für 2020 für möglich halten. Ich habe mich für das Mittel entscheiden, das wären 16,5 Starts pro Jahr, ich runde mal auf 17 auf. Meine Wette für 2020 ist also:

Ich wette das SpaceX bis zum 31.12.2020 nicht mehr als 17 Starlink Starts durchführt

2.1.2020: Die Entscheidung beim IBM PC gegen den MC 68000

Als IBM 1980 an die Planung des IBM PC gingen, standen am Anfang grundlegende Designentscheidungen. Recht bald war klar, das der neue PC einen 16-Bit-Mikroprozessor haben sollte. Das war naheliegend, weil es zu dem Zeitpunkt schon etliche eingeführte 8 Bit Mikrocomputer gab – in den USA als Hauptabsatzmarkt dominierten Apple II, Tandy TRS-80 und die Commodore CBM Serie. Ein neuer PC von IBM würde mit diesen verglichen werden und wenn er hier den kürzeren ziehen würde, dann wäre das nicht gut. Mit einem neuen Prozessor wäre man dagegen in einem anderen, noch neuen, Marktsegment angesiedelt und könnte sogar mit den Vorteilen eines 16 Bitters werben. Nebenbei hatte IBM schon einen Rechner auf Basis des Intel 8085 in der Entwicklung, das System/23 Datamaster und der lief nicht so besonders gut.

Zu dem Zeitpunkt als IBM den IBM PC entwarf, gab es nur wenige 16 Bit CPUs auf dem Markt. Das waren:

Es gibt nun die Legende, das IBM den Motorola 68000 sehr bald aussortierte, weil er zu leistungsfähig gewesen wäre, IBM sich so selbst Konkurrenz gemacht hätte. Bill Gates meint, das er Intel überzeugt habe den 8086 zu nehmen. (Allerdings wurde dann der 8088 eingesetzt). Die Manager, die dafür verantwortlich waren, bestreiten beides. Nach offizieller Verlautbarung wurde der MC 68000 sehr bald aussortiert, weil er damals neu auf dem Markt war. Er war der jüngste des Trios. Es gab noch zahlreiche Kinderkrankheiten mit dem Prozessor, die allerdings bis der IBM PC ein Jahr später tatsächlich erschien, ausgeräumt waren. Für IBM aber mit dem Anspruch, den sie bei anderen Rechnern hatten, dass sie vielleicht nicht die leistungsfähigste und technisch neueste Hardware auslieferten, diese aber sehr zuverlässig war, war dies ein wichtiger Punkt. Was für den 8088 und TMS 9995 sprach, war das beide einen 8-Bit-Bus hatten. Das vereinfachte den Systemaufbau deutlich. Die Datenbusse führten beim IBM PC ja nicht nur zu den RAM-Bausteinen, von denen man 16 anstatt acht brachte, sondern auch den Erweiterungsteckplätzen. Diese kamen so weniger Pins und weniger Leitungen auf dem Mainboard aus. Daneben konnte bei beiden Prozessoren auch 8 Bit Peripheriebausteine einsetzen, so nutzte IBM die Zusatzbausteine des 8080 für die parallele und serielle Ausgabe. Diese wurden in großen Mengen produziert, weil etliche Z80 und 8080 Computer sie einsetzten und sie waren billig. Dieser Gesichtspunkt war dann auch wesentlich für die Wahl des 8088 und nicht des 8086. Es gelang nämlich beim Vorgängermodell 5120 nicht, dieses preiswert zu produzieren. Die kleinste Version kostete 9000 Dollar, eine typische Arbeitskonfiguration 13.500 Dollar. Selbst das schon zum Teil aus Nicht-IBM Teilen aufgebaute System/23 Datamaster kostete 5.490 Dollar und damit mehr als das doppelte eines CP/M Systems mit demselben Prozessor.

Hinsichtlich Performance lagen TMS 9995 und 8088 gleichauf. Texas Instruments hatte aus dem Einsatz des TMS 9900 auf dem Ti 99/4A gelernt. Der Prozessor wurde schon 1976 entwickelt, als RAM noch schneller als die Prozessoren war und so sparten sich die Entwickler die Register im Prozessor weitestgehend ein und nahmen einen Zeiger, mit dem man im RAM 16 Workspace Register ansprechen konnte und die 16 Register konnte man leicht wechseln, sodass in der Summe der Prozessor 256 Register im RAM ansprechen konnte. Die Geschwindigkeit von RAM wurde aber kaum gesteigert (Die RAS-CAS Delay Zeit betrug 1977 beim 4116 RAM (16 KBit) 50 ns, heute sind bei DDR4 RAM 8,9 ns, also nur etwa die sechsfache Geschwindigkeit üblich). Die TMS 9995 erhielt so internes RAM für den Workspace und durch eine Pipeline und einen so höheren Takt von 10 MHz war sie deutlich schneller als der TMS 9900. In Benchmarks war sie mit dem 8086 bei 8 Mhz vergleichbar, bei kompakterem Code. Das die TMS 9995 nur 64 KByte adressieren kann, spielte offenbar keine Rolle, denn der Computer sollte ursprünglich mit nur 16 KByte RAM erscheinen.

Für Intel sprach, das man schon einen PC auf Basis des 8085 gebaut hatte und das Intel auf den Wunsch nach Second-Source Quellen einging. Sprich: Intel vergab an andere Firmen wie Siemens, National Semiconductor, Harris oder AMD die Lizenz den 8088 zu fertigen, im IBM Pcjr steckte z.B. ein Prozessor von AMD. So war IBM nicht von einem Hersteller abhängig.

Low End PC

Genommen hat man den 8088, der erst nach dem 8086 erschien, und dann auch nur mit 5 MHz getaktet war. Das Letztere sparte zum einen Geld für teure RAMs, die man für 8 MHz Takt braucht und zum anderen sind die 8 Bit Zusatzbausteine auch nicht für den hohen Takt ausgelegt. Um weitere 50 ct für einen zweiten Quarz für die Erzeugung des NTSC-Signals (es war ein TV-Tuner mit eingebaut) wurde der Takt sogar nur bei 4,77 MHz angesetzt, so konnte man Prozessortakt und NTSC Takt durch Teilung aus einem 14,32 MHz Takt erzeugen.

Der IBM wie er 1981 erschien war in meinen Augen auch mehr ein Verwandter zu einem Heimcomputer als zu den Business PC der 8 Bit Ära wie dem Apple II, Commodore CBM 30xx System oder Tandy TRS 80, denn das Basisgerät hatte als Anschlüsse:

Es sollte mit 16 KB RAM auskommen, doch da das zu der Zeit schon Heimcomputer hatten und die Konkurrenz 32 bis 48 KByte RAM, wurde es mit 64 KByte bestückt, eine zweite leere Reihe lies die Aufrüstung auf 128 KByte zu. Das ROM enthielt einen BASIC-Interpreter von Microsoft, wie bei anderen Heimcomputern (es gab auch schon Business Computer, die ohne Interpreter kamen und die von Diskette CP/M booteten, sie kamen mit einem kleinen ROM BIOS aus). Der BASIC Interpreter konnte natürlich auch nur auf Kassetten schreiben und lesen.

Für den Einsatz in einem Büro, z.B. als Textverarbeitungssystem musste man mindestens hinzukaufen:

Das hob den Preis, der schon beim Grundgerät bei 1.600 Dollar lag auf 4.500 Dollar hoch. Ein Apple II vergleichbar, wenn man die Usability nimmt, die Prozessoren kann man ja nicht direkt vergleichen, kostete aber bei vergleichbarer Ausstattung nur die Hälfte. So schaltete Apple auch Anzeigen mit dem Spruch „Welcome IBM – seriously“.

Apple anzeige

IBM schadete auch dem Absatz der 8 Bittern nicht, einfach weil diese sich an andere Kunden wendeten – denen die weniger auf die Marke als das Preis-/Leistungsverhältnis schauten. Das waren Privatpersonen, Selbstständige oder Ingenieure. IBM war dafür gut Vertreten in Unternehmen, die schon Computer von IBM einsetzten. Zu der Zeit liefen auch noch gut andere Rechner auf Basis des 8086 die bei gleichem Preis wie der IBM PC mehr konnten die der Victor Sirius (echter 8086, Floppys mit mehr Speicher, hochauflösende Grafik) oder DEC Rainbow (Doppelprozessorsystem 8088 und Z80). Erst mit dem IBM PC XT, bei dem man dazu gelernt hatte und nun 128 KByte auf der Platine untergebracht (erweiterbar auf 256 Kbyte und ein Festplattenlaufwerk samt Controller verbaut. Das war 1983, und ab da setzte sich der IBM PC XT durch, wobei dies auf Kosten der 16 Bit Konkurrenten ging. Es dauerte bis 1986, bis selbst IBM PC kompatible auf das Preisniveau von 8 Bit Maschinen gesunken waren. Die 16 Bit Konkurrenten waren betroffen, weil aufgrund der Langsamkeit des 8088 immer mehr Programme für MS/PC-DOS direkt auf die Hardware zugriffen unter Umgehung des DOS und BIOS. Die liefen aber dann nur noch auf dem IBM PC und kompatiblen nicht auf den „nur“ MS-DOS Kompatiblen.

Aber zurück zum Thema: Ich denke es ist klar an der Auslegung des IBM PC mit seiner Armut an Schnittstellen, Beschränktheit von Speicher und Geschwindigkeit sich als 8 Bit Konkurrent etabliert hat. Trotzdem war er sehr teuer. Wenn IBM einen Rechner rund um den 68000 gebaut hätte, er wäre ziemlich teuer gewesen und sicher kein PC mehr – es gab ja auch teure PCs, sogar in der 8 Bit Welt. Mit einer Festplatte, viel RAM konnte man damals auch 20.000 DM für einen PC ausgeben. Nur verkauften diese sich eben nur in kleinen Stückzahlen.

Ich habe mir IBMs Produktpalette „nach unten“ angesehen. Unterhalb der Großrechner hatte IBM in der Tat kleinere Rechner, doch selbst die waren weder kompakt noch billig. Es waren keine Rechner für eine Person von „normaler Größe“, wie viele Minicomputer, sondern kleine Versionen ihrer Großrechner die eben nicht 100 sondern nur vier oder acht Terminals bedienten. Ein typischer „Minicomputer“ von IBM war das System/34, das für bis zu 14 Terminals ausgelegt war und in der Basisausführung ein Schrank mit bis zu vier Plattenlaufwerken. Selbst bei einem „Single User System“ wie das System/32 war die CPU so groß wie ein Schreibtisch hatte nur 16 bis 32 KByte Speicher und keinen Bildschirmarbeitsplatz, sondern eine Typenradschreibmaschine als Terminal. Verglichen mit diesem System 32 war ein IBM PC schon fortschrittlich und bei Mietkosten von 1000 Dollar pro Monat für das System/32 schon bezahlbar. Auf der anderen Seite reichte die Leistung nicht aus ein System 34 zu ersetzen, das über Festplatten verfügte und mehrere User bedienen konnte. Die oben erwähnten Rechner als „PC“ waren durch die Verwendung von IBM Hardware dann auch nie billig und konnten sich am Markt nicht durchsetzen, weshalb man ja den IBM PC auf Basis von Teilen entwickelte, die jeder Hersteller auf dem freien Markt kaufen konnte.

Ein Computer mit der MC 68000 CPU wäre vielmehr eine Bedrohung für den Minicomputermarkt gewesen, in dem sich andere Firmen wie DEC, General Data oder HP tummelten. Doch auch diese fertigten billiger als IBM und müssten sich so keine Sorgen machen. Nach offiziellen Benchmarks hat eine 68000 CPU in etwa die Geschwindigkeit eines PDP 11/70, wenn sie mit 10 MHz getaktet ist, bei 8 MHz Takt, die Geschwindigkeit einer VAX 11/750, allerdings nicht deren Features wie virtuellen Speicher und volle 32 Bit Architektur. Daher habe ich die PDP 11/70 als Vergleich für den MC 68000 genommen. Die PDP 11/70 kostete 1975 80.000 Dollar, allerdings gab es 1985 das Nachfolgemodell PDP 11/84 mit der gleichen Leistung für einen Drittel des Preises. 1981, das Erscheinungsjahr des IBM PC liegt zeitlich genau in der Mitte, nehmen wir also die Hälfte des Preises an, 40.000 Dollar. Die Speichergröße einer PDP 11/70 betrug etwa 1-2 MByte. Als Vergleich für die MC 68000 Architektur kann man die erste Sun nehmen, die auf diesem Prozessor basierte. Sie erschien 1982 mit 256 KByte Speicher und kostete 8.900 Dollar. Das ist nun weniger Speicher, aber die Sun konnte auch auf 2 MByte aufgerüstet werden.

Selbst wenn dies den Preis verdoppelt hätte (basierend auf dem Preis der damals für Speichererweiterungen bei Heimcomputern verlangt wurde hätte es etwa 3.900 Dollar gekostete), wäre die Sun nur halb so teuer wie die PDP 11 gewesen. Die Sun, aber auch andere Rechner von Silicon Graphics und HP waren die ersten Workstations – so leistungsfähig wie ein Minicomputer, aber anders als dieser kompakter, so groß wie ein PC und mit einem hochauflösenden Bildschirm. Gedacht vor allem für grafische Aufgaben – die Sun 1 hatte eine Auflösung von 1024 x 800 in Monochrom und 640 x 480 in 256 Farben – der IBM PC leistete zu der Zeit nur 320 x 200 Pixel in 4 Farben machten sie Minicomputern Konkurrenz da sie deren Leistungsfähigkeit hatten, aber anders als diese hervorragende Grafik. Sie waren mit IBM „entry Segment“ Rechnern nicht zu vergleichen diese waren alle textbasiert und verfügten auch nicht über Multitasking Betriebssystem wie UNIX.

Wenige Jahre später brachte IBM den IBM PC AT heraus. Mit 1 MByte RAM, 80286 Prozessor lag er von der Leistungsfähigkeit in dem Bereich einer Sun 1, wenngleich von der Grafik und dem Betriebssystem trotzdem deutlich unterlegen, kostete mit 6.000 Dollar aber auch ähnlich viel. Allerdings war der IBM AT ein Luxus PC, bei dem man nicht mal den Speicher vollständig mit DOS ausnutzen konnte, ohne Netzwerkfähigkeiten und schlechter Grafik und damit auch keine Bedrohung für den Minicomputermarkt. XENIX als UNIX Derivat von Microsoft gab es zwar, aber die meisten Käufer nutzten ihn nur als PC. Beide Modellreihen konkurrierten mit den Minicomputern, und zwar dort wo diese als einziger Arbeitsplatz eingesetzt wurden wie in Labors oder bei Ingenieuren. So ging der Minicomputermarkt in den Achtzigern dem Ende zu. Workstations wurden aber lange Zeit nicht von den PCs verdrängt, denn es fehlten wichtige Schlüsseltechnologien wie hochauflösende Grafik, Vernetzung und ein Multi User Betriebssystem. Erst die enorme Steigerung der Prozessor Performance durch Intel führte Mitte der Neunziger dazu das auch die Workstations Hersteller Probleme bekamen. Mittlerweile gab es mit Windows NT auch ein Betriebssystem, das die Fähigkeiten der Geräte wenigstens ausnutzte.

Fazit

Ich denke die Entscheidung gegen den 68000 ist nachvollziehbar. Bei den hohen Kosten die IBM hatte, selbst wenn sie den Rechner aus fremden Bauteilen zusammenbauten, wäre ein 68000-er Rechner zu teuer gewesen. Er wäre aber auch in einem anderen Marktsegment angesiedelt gewesen. IBM war beim IBM PC nicht innovativ und das blieb auch so: der IBM AT war eigentlich nur schneller, nichts mehr. Erst Jahre später ging IBM an die Entwicklung eines Betriebssystems für den 80286 Prozessor OS/2 und auch die EGA Grafikkarte war schlechter als die etwa zeitgleich erschienene Grafik des Amiga. Das führte ja sogar dazu, dass bei der nächsten Generation, dem 80386 Compaq, die bisher nur IBM PC nachbauten, nicht warten wollte (der AT erschien zwei Jahre nach dem 80286 Prozessor) und selbst einen PC auf Basis des 80386 entwickelten – mit derselben Philosophie, nur schneller dafür kompatibel.


3.1.2019: Der Apple II und der IBM PC

Als der IBM PC im August 1981 erschien, kauften sich Apple Entwickler, darunter Andy Herzfeld einen, Namen ihn auseinander und mussten – zumindest nach Herzfeld Aussage über ihn lachen, denn er bot ihrer Ansicht nach weniger als der Apple II der ja schon 1977 erschien.

Ich habe mir die Aufgabe gemacht, mal beide Systeme zu vergleichen. Der Apple II war damals auf dem US-Markt der Verkaufsschlager. Eine technisch besserer Vergleich, wäre wohl mit einem CP/M Rechner gewesen, da der originale IBM PC auch CP/M 86 laufen lassen konnte. Nur ist es da schwerer die Daten für einen Preisvergleich zu finden und vor allem gibt es eben nicht nur einen also DEN CP/M Rechner, mit dem man vergleichen konnte.

Ich habe vor allem auf den Nutzeraspekt abgehoben. Das heißt, was bot ein Apple II einem Nutzer, was ein IBM PC. Bei den Preisen damals, die bei Komplettgeräten 3.000 Dollar erreichten, das entspricht heute über 4.000 Euro, war der typische Benutzer jemand der den Rechner für Textverarbeitung oder Tabellenkalkulation nutzte.

Anforderungen

Für diesen Einsatzzweck benötigt man neben den Basisgeräten, die keinen Massenspeicher hatten, noch einen Monitor und eine Grafikkarte. Beim Apple II eine 80 Zeichen Karte, da er standardmäßig nur 40 Zeichen pro Zeile darstellte, beim IBM PC einen Monochrom Display Adapter, der einen reinen Textmodus beherrschte. Die grafikfähige Color Grafik Adapter Karte kam erst später heraus. Weiterhin benötigte man mindestens ein Diskettenlaufwerk mit Controller. Das zweite Laufwerk war ohne Controller meistens billiger.

Will man etwas ausdrucken, so benötigt man in beiden Fällen noch eine Druckerkarte um einen Drucker anzuschließen und den Drucker selbst, bei dem man aber dank standardisierter Anschlüsse die freie Auswahl hatte.

Prozessor und RAM

Natürlich ist klar, das ein 6502 mit 1 MHz Takt in der Leistung nicht vergleichbar ist mit einem 8088 mit 4,77 MHz. Doch in der Praxis spielte eine Rolle, „was hinten rauskommt“. Der Apple II war zu dem Zeitpunkt schon vier Jahre auf dem Markt. Software, die speziell für ihn geschrieben war und seine Hardwarefähigkeiten direkt in Maschinensprache ausnutzte, war verfügbar. Ein Beispiel dafür war Visicalc, das bei seinem Erscheinen einen Absatzboom für Apple auslöste. Die ersten Programme für den IBM PC waren von anderem Kaliber. Ein Vorteil des 8086/88 war, dass sein Befehlssatz und seine Register sehr dem Vorgänger 8080 ähnelten. Dadurch konnte man ein Programm, dass für den 8080 geschrieben war, per Crossassembler in 8086 Maschinensprache umsetzen. Es gelang sogar bei Binärcode. Seattle Computer Products, die vor IBM einen Einplatinencomputer auf Basis des 8086 entwickelten und Probleme mit dem Absatz hatten entwickelten eine Software die 8080 Programme in 8086 Programme umsetzte.

So kamen praktisch alle der ersten Programme zustande. Manchen wie Wordstar sieht man sogar an, das es die gleichen sind wie unter CP/M. Diese Lösung hat aber enorme Nachteile. Der 8080 musste für 16 Bit Operationen immer zwei Register einsetzen. 16 Bit Worte konnte er nur über das HL-Register laden und speichern. Der 8086 konnte das mit allen Registern und so ersetzte eine 8086 Anweisung mehrere Befehle des 8080, bei der 1:1 Übersetzung war das aber bedeutungslos. Es gab dann eben die unnötigen Anweisungen die ein 16 Bit Register in zwei 8 Bit Register mappten obwohl man auch direkt das 16 Bit Register laden konnte. Ebenso gab es neue Befehle, mit denen man schnell Datenblöcke kopieren oder durchsuchen konnte. Neue Adressierungsmodi, wie Index-Adressierung, die den Zugriff bei festen Strukturen vereinfachten. All dies nutzte konvertierte Software nicht aus. Noch 1984 schrieb die Zeitschrift ct‘, das Benchmarks in interpretiertem BASIC bei dem IBM PC langsamer liefen als auf aktuellen 6502 und Z80 Systemen. Diese Situation besserte sich erst ab 1984 als nativ für den IBM PC geschriebene Programme, wie Lotus 1-2-3 oder Sidekick erschienen. Diese umgingen auch das MS-DOS, weil es zwei Schichten (BIOS und BDOS) über die Hardware legte. Nur so wurde der Bildschirmaufbau wirklich schnell. Das war beim Apple nicht nötig, dort konnte man die Hardware direkt ansteuern.

Ein weiterer Punkt ist das der Code für beide Prozessoren unterschiedlich lang ist. Die meisten Befehle des 8086 benötigen zwei Bytes für den Opcode. Dazu kommen noch die Daten, in der Regel 16 Bit Werte. Der 6502 kam mit einem Byte für den Opcode aus und wenn er die Zeropage nutzte, mit einem Byte für die Adressierung. Der Code ist dadurch beim Apple II erheblich kompakter. Das spielt eine Rolle, wenn man den RAM-Ausbau betrachtet. Ein 48 K Apple hatte so in de Regel mehr freies RAM für die Nutzdaten, wenn man ein Anwendungsprogramm lud, als ein 64 K IBM PC, auch da vom IBM PC noch der speicher abging denn DOS belegte, das beim Apple in einem ROM war.

16 Bit Vorteile

Theoretisch war der 8086 des IBM PC „zukunftsfähiger“ als der Apple II. Das galt aber nicht für die erste Version des IBM PC. MS-DOS 1.0 war eine Kopie von CP/M 80 und konnte wie dieses maximal 64 KByte große Programme (die Größe eines Segments) verwalten. Immerhin belegte der Bildschirmspeicher keinen Arbeitsspeicher, weil er sich auf einer eigenen Karte in einem eigenen Bereich des Adressraums befand. Auch die .com Files, die MS-DOS 1.0 als ausführbares Format einsetzte, nutze, nur 64 KByte. Das änderte sich erst, als die verbesserte Version MS-DOS 2.0 eingeführt wurde. Der Ur-IBM PC hatte daher für einen Anwender keinen Mehrwert im Sinne von mehr verfügbarem Arbeitsspeicher. Auch das Netzteil war nicht fähig eine Festplatte mit Strom zu versorgen.

Grafikfähigkeit

Ein grundlegender Unterschied des Apple II zum IBM PC war, das er grafikfähig war. Die höchste Auflösung betrug 280 x 192 Pixel in zwei Farben. Mit der für das professionelle Arbeiten sowieso nötigen 80-Zeichen-Karte konnte das noch auf 560 x 192 Pixel gesteigert werden. Allerdings war dann auch ein RAM-Ausbau auf 64 KByte nötig, da dafür mehr Speicher benötigt wurde. Die Standard Karte für den IBM PC (MDA) erlaubte nur Textdarstellung. Zwar in zwei Intensitäten und mit Attributen wie Unterstrichen und in einer hohen Auflösung von 9 x 14 Pixeln (Apple: 7 x 8), aber eben keine Grafik. Das spielte allerdings bei den damals üblichen Standardprogrammen die textbasiert waren keine Rolle. Erst mit Tabellenkalkulationen, die auch Diagramme anzeigten, änderte sich dies. Als Option konnte man auch eine Color Graphic Adapter Karte einbauen, die dann 320 x 200 Pixel in vier Farben darstellte. Dafür benötigte man aber einen Farbmonitor zusätzlich, denn Text konnte diese nur mit maximal 40 Zeichen pro Zeile darstellen. In der Preistabelle habe ich diese Option nicht berücksichtigt auch, weil sie erst nach dem IBM PC erschien. Plante man Grafiken zu erstellen, dann war der Apple sicher das bessere System. Für die Textdarstellung war die Darstellung der MDA Karte aber dem Apple hinsichtlich Bildpunkten und damit Schärfe überlegen.

Diskettenlaufwerke

Als beide Systeme auf den Markt kamen waren Festplatten noch unüblich und teurer als der restliche Rechner. IBM stellte erst 1983 den IBM XT vor, der eine Festplatte enthielt. Apple machte dies bei der Apple II Reihe nie. Beide Systeme benötigten für den Betrieb von Diskettenlaufwerken einen Diskettenkontroller. Das zweite Laufwerk ohne Kontroller war dann bedeutend preiswerter. Dies war eine Zusatzkarte, die ins Gehäuse eingebaut wurde. Der Apple erschien mehrere Jahre vor dem IBM PC. Der Apple verwandte ursprünglich Disketten mit 35 Spuren und 143 KByte formatierter Kapazität. Beim IBM PC waren Laufwerke, die beide Seiten einer Diskette nutzen konnten und 40 Spuren einsetzten – das waren theoretisch 360 KByte pro Diskette. Durch einen Fehler in PC-DOS wurden sie aber nur einseitig angesteuert und so waren es nur 180 nutzbare KByte. In das Gehäuse des IBM PC passten zwei Diskettenlaufwerke. Der Apple Kontroller konnte bis zu drei Floppis ansteuern, die aber auf dem Gerät neben dem Monitor platziert wurden. In der Regel benötigte man für einen Arbeitsplatzrechner zwei Diskettenlaufwerke, weil auf einem Laufwerk die Diskette mit Betriebssystem und Anwendungsprogramm war und auf dem anderen Laufwerk die Diskette für die Texte oder Tabellen. Zudem wird sonst schon das kopieren einer Datei zu einer Herausforderung. Mehr als zwei Laufwerke benötigte man aber auch nicht. So war das dritte Laufwerk bei Apple kein Vorteil. Es gab aber einen anderen Vorteil: Bei Apple konnte man auch andere Laufwerke als von Apple selbst anschließen mit höherer Kapazität. Für den Einsatz von Software blieb man beim ersten Laufwerk bei dem Apple Format, das war nötig um System- oder Anwendungsprogramme zu laden. Für das zweite Laufwerk gab es aber Lösungen die bis zu 655 KByte also ein Vielfaches des Originallaufwerks speicherten und das bei nahezu gleichen Kosten für das Laufwerk.

Druckeranschluss

Ein Merkmal, das aber schon damals eher selten war, war das beide Geräte in der Standardausführung über keinen Druckeranschluss verfügten. Dafür musste man eine Zusatzkarte einbauen. Danach konnte man aber dank des Centronics Standards jeden Drucker anschließen. IBM bot einen eigenen Drucker an, der jedoch nur ein umgelabelter Epson Drucker war. Apple analog den Silentwriter, einen Thermodrucker der nur das Apple Logo hatte.

Ausbaufähigkeit

In Sachen Ausbaufähigkeit punktet der IBM PC. Beide Rechner haben eine Gemeinsamkeit: Sie sind durch Steckkarten ausbaubar. Allerdings ist das Apple-Gehäuse durch die eingebaute Tastatur deutlich flacher und die Tastatur sorgt auch für eine Schräge an der Front. Karten für den Apple sind daher erheblich kleiner als für einen IBM PC. So gab es Speichererweiterungskarten für den IBM PC die 512 KByte RAM aufnahmen, so viel wäre im Apple II nicht möglich gewesen, allerdings dort auch nicht sinnvoll. Dies glich der Apple II aber dadurch aus, dass er acht Slots hatte, der IBM PC nur fünf. Bei einem Standardsystem benötigten die Rechner folgende Karten:

IBM PC

Apple

Druckeranschlusskarte

Druckeranschlusskarte

Diskettenkontrollerkarte

Diskettenkontrollerkarte

Textmoduskarte

80-Zeichen Karte


Damit waren zwei bzw. fünf Slots frei. Der Apple war im Mainboard auf maximal 48 KByte ausbaubar (wenig später erschien der Apple Iie, der mit 64 KByte ausgeliefert wurde), der IBM PC war von 16 auf 64 KByte durch Wechseln der Speicherchips aufrüstbar. Mehr Speicher erforderte eine weitere Karte. Für den Apple gab es damals eine mit 16 KByte RAM, mehr konnte der Prozessor nicht adressieren. Beim IBM PC waren es anfangs 64 und 256 KByte RAM auf den Erweiterungskarten, später erschienen Karten mit noch mehr RAM.

Ergonomie

Wo IBM punkten konnte, war das Thema Ergonomie. Schließlich produzierte die Firma seit Jahren Terminals für die Eingabe bei größeren Computern. Die IBM Tastatur mit einem guten Druckpunkt und langen Fingerweg erhielt damals ausnahmslos gute Noten bei Tests, auch wenn sie für heutige Verhältnisse relativ schwergängig war. Der Apple II hatte dagegen im Gehäuse die Tastatur integriert, was das Gerät zwar kompakt und stylish machte, aber nicht so ergonomisch war.

CP/M Komptabilität

Der Softwarestandard der damaligen Zeit war CP/M. Auch wenn kein einzelner CP/M Rechner die Verkaufszahlen von Apple erreichte, so war die Summe dieser Rechner doch höher als die Verkäufe aller Apples. Microsoft hatte die Softcard herausgebracht um ihre Programmiersprachen, die nur unter CP/M liefen, auf dem Apple laufen zu lassen und sie wurde zu einem Verkaufsschlager. Die Softcard enthielt einen Z80 Prozessor, der wenn CP/M gebootete wurde, den 6502 weitestehend (bis auf die Ein-/Ausgabe) ersetzte und das im Rechner verbaute RAM nutzte. Damit war ein Apple voll kompatibel zu CP/M. Diese Karte kostete 1981 rund 290 Dollar. Der IBM PC war durch den 8086 Prozessor nicht direkt kompatibel zu CP/M. Es gab aber eine CP/M Version für den 8086, CP/M-86. Ein CP/M für 8 Bit Prozessoren musste nur neu übersetzt werden und lief dann auch unter CP/M 86. Allerdings kostete dieses Betriebssystem 240 Dollar, PC-DOS nur 40. Für die CP/M Komptabilität waren also in beiden Fällen rund 250 bis 300 Dollar zusätzlich zu berappen. Wer allerdings einen CP/M Rechner haben wollte, konnte diesen auch direkt kaufen. Es gab in den USA, wo beide Firmen ihren Hauptmarkt hatten, bekannte Anbieter wie Northstar, Cromenco, Altos oder Zenit. Die Kosten für einen CP/M Rechner mit 64 K Speicher und zwei Disclettenlaufwerken lagen typisch damals bei 2900 bis 3200 Dollar und damit in der Region eines Apple II.

Kosten

Die folgenden Kosten habe ich Anzeigen, in der Byte 10/1981 entnommen in der auch der IBM PC erstmals getestet wurde. Beim Apple gab es zu diesem Zeitpunkt natürlich schon viele Fremdanbieter und Zubehör. Beim IBM PC konnte man nur zwischen verschiedenen Standardkonfigurationen von IBM wählen.

Komponente

Apple II

Dollar

IBM PC

Dollar

Basisgerät

Apple II+ 48 K

1.095

IBM PC 16 K

1.595

Speichererweiterung

16 k RAM Card

130 - 179



Diskettenlaufwerk

Erstes Laufwerk mit Controller

Zweites Laufwerk

490

410



Grafikkarte

80 Zeichen Karte

329



Monitor

Zenit grün

Sanyo Monochrom

Sanyo Farbe

149

249
469



Druckeranschluss

Parallel Printer Card

155



Komplettgerät ohne Drucker

Apple II+, 1 Disk mit Controller, Zenit Grünmonitor

2.063

64 K, ein Diskettenlaufwerk mit Controller. Monochrommonitor

2.999

Komplettgerät mit Drucker

Mit Epson MX-80, Zenit Grünmonitor

3.223

Mit IBM Drucker (ebenfalls Epson)

4.500

Das Grundgerät des Apple II ist bei mehr Speicher um 500 Dollar günstiger. Der Unterschied steigt auf 900 Dollar, wenn man eine Konfiguration mit einem Diskettenlaufwerk und Monitor nimmt. Bei einer Vollkonfiguration mit zwei Laufwerken und einem Drucker beträgt der Preisunterschied schließlich 1.300 Dollar. Das ist signifikant mehr.

Das zeigt auch die Geschichte. 1981/82 verkaufte IBM noch verhältnismäßig wenige PC, Apple dagegen mehr Apple II als im vorherigen Jahr. Die Umsätze von Apple II steigen weiter an. 1983 erreichte das den Höhepunkt mit 1 Million verkauften Apple II. Das Problem war aber das sich die PC-Plattform weiter entwickelte. Es kam der IBM XT auf, der eine Festplatte enthielt. Die Platinen nahmen dann auch 256 KByte RAM auf, das mit MS-DOS 2.x auch genutzt werden konnte und es erschien die Hercules Grafikkarte die Grafik und Text konnte, wenn auch nur monochrom. Dazu erschienen Clones die besser als der IBM PC waren oder einfach billiger.

Daneben wandten sich aber beide auch an eine unterschiedliche Kundschaft. Leute, die IBM kauften, waren meist die, die schon mit IBM zu tun hatten – Manager oder anderes Führungspersonal und der Rechner landete dann bei der Sekretärin. Sie waren auch die hohen Preise von IBM gewohnt – es gab ja schon bei den Großrechnern günstigere Nachbauten wie von Amdahl, einer Firma gegründet von dem Ingenieur der das IBM System 360 designte. Bei Firmen spielten die Kosten weniger eine Rolle, als wenn man den Rechner selber bezahlte und es gab das geflügelte Wort: „Es wurde noch niemals jemand entlassen, weil er IBM kaufte“. Der Apple II Kunde war dagegen meist selbstständig oder Ingenieur, ohne Zugang zu größeren Rechnern. Er kaufte eine Lösung, die er benötigte und nicht nach Firmennamen oder er programmierte diese sogar selbst. Für Apple wurde die Situation erst bedrohlich, als das Nachfolgeprodukt Macintosh nicht der Renner war, den man sich erhoffte und durch zahlreiche Kompatible die Preise für PCs sanken und nun auch Software die Vorteile des 8086 Prozessors und mehr RAM auch wirklich nutzte. Das war ab 1984 der Fall.

Fazit

Beim Erscheinen des IBM PC bot er einige Vorteile in der Ergonomie, wie abgesetzte Tastatur und scharfe Textdarstellung, nicht jedoch im täglichen praktischen Einsatz. Er war aber über ein Drittel teurer. So verwundert es nicht, dass Apple IBMs Markteintritt begrüßte. Es lohnte sich: denn mit dem Eintritt des Markführers wurde dieser neue Markt in Firmen allgemein akzeptiert. Auch die Verkäufe anderer Rechner stiegen an, weil diese nun nicht mehr nur als das teure Spielzeug von Nerds angesehen wurden, sondern als eine Arbeitshilfe im Büro.

Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99