Home Site Map Sonstige Aufsätze Weblog und Gequassel counter

Web Log Teil 579: 1.1.2020 - 19.1.2020

1.1.2010: Die 2020 SpaceX-Rückschau und die Wette für 2020

Wie j3den Monat eine Rückschau auf die SpaceX-Aktivitäten – oder wie es in diesem Jahr meist der Fall war – die Inaktivitäten der Firma. Wie fast immer habe ich meine Wette gegen SpaceX gewonnen. Nun wurde bei meinem letzten Blog angemerkt, das wäre nun ja bei „SpaceX-Speech“ kein Wunder. Okay, das SpaceX Dinge einhält die versprochen werden, und das selbst, wenn es um die kurzfristige Zeitplanung geht, wo man ja eigentlich wissen müsse, was in den nächsten Monaten geplant ist, ist so wahrscheinlich als, wie das Trump einen Tag lang nicht lügt. Ich habe auch gefragt, was ihr für Vorschläge für die neue Wette habt. Ich habe mich davon inspirieren lassen und überlegte eine Zeit lang, ob ich nicht wetten sollte, das der Flughafen BER vor dem orbitalen Erstflug des Starships eröffnet. Aber angesichts dessen, das dessen Eröffnung nun schon vor 7 Jahren stattfinden sollte und der Betreiber Journalisten eingeladen hat zur Besichtigung, sich also recht sicher ist, dass der nächste Termin nun hält, fand ich das dann doch unfair. Ich schwankte dann noch, ob ich wetten sollte ob das Starship jemals fliegt oder die Firma vorher in Konkurs geht. Ich habe mich dazu entschlossen, wieder eine Startwette zu machen. Doch dazu weiter unten mehr.

Ich fange mal zuerst mit der Dezembernachlese. Anstatt im November angekündigter vier Starts waren es nur zwei (siehe meine Bemerkung über die Unsicherheit selbst kurzfristiger Planung). Koenigsmann gab ja die Maximalnutzlast einer Falcon 9 für einen normalen GTO (27 x 200 x 35.887 km) mit 5,5 t an. Die Angaben auf der Homepage geben wohl dagegen eher das Wunschdenken des Managements an. Nun startete eine Falcon 9 den JCSAT-18/Kacific-1, dessen Startmasse zwischen 6.800 und 6.956 kg angegeben wird. Das liegt deutlich darüber. Erreicht wurde auch nur ein 272 x 20319 x 26,9 Grad Orbit. Das ist insofern interessant, weil dies deutlich mehr als 5,5 t in den echten GTO entspricht. Nach meinen Berechnungen sollte die Falcon 9, wenn sie 9,95 t in diesen Orbit transportieren kann, etwa 6 t in einen GTO bei gleicher Bergungsmethode. Ich vermute bei SpaceX hat man mit mehr Erfahrung vor allem sukzessive die Restmenge an Treibstoff für die Landung reduziert. Bei diesem Start hatte die erste Stufe nach 152 s Brennschluss, die Web Angabe beträgt 162 s. 10 s sind immerhin ein Sechzehntel des Treibstoffs, den man so nicht nutzen kann.

Interessanter war der Start der Frachtdragon. Nicht wegen der Primärnutzlast, sondern weil die Oberstufe einen weiteren Test durchführte, nachdem die Dragon abgetrennt wurde. Nach mehreren Stunden absolvierte die Stufe eine weitere Zündung über 20,1 s die auch die Inklination änderte. Warum das? Nun offensichtlich war die STP-2 Mission der Falcon Heavy, in der diese Stufe verschiedene Manöver demonstrieren sollte, die die Rakete braucht, um für militärische Missionen qualifiziert zu sein, nicht ganz erfolgreich, obwohl das SpaceX ja reklamierte. Das Manöver sollte die dritte Zündung einer Oberstufe simulieren, die in der Höhe des GTO erfolgt, um diesen zu zirkularisieren. Dass man dafür eigens Prallbleche installiert hat, was offensichtlich vorher nicht der Fall war, zeigt auch das es wohl vorher nicht klappte. Die Episode zeigt zumindest eines: man kann SpaceX nicht glauben. Dort heißt es immer 100 % Mission Success. Denn das es Probleme bei der STP-2 Mission gab, war ja neu und die USAF sagt, weil es eine militärische Mission ist, natürlich auch nichts. Das kennt man ja schon von der Zuma Mission, wo die Falcon 9 den Satelliten wieder versenkte. So ist bis heute offen wer dran schuld ist SpaceX, oder Grumman die den Adapter bauten oder beide, vielleicht weil irgendwo etwas in der Kommunikation und dadurch Installation schieflief.

Nun zum Jahresrückblick. Wie von mir gewettet, hat SpaceX nicht so viele Starts geschafft wie 2018, und zwar nicht ein bisschen weniger, sondern deutlich weniger. 13 anstatt 21. Ich meinte aber das SpaceX durchaus eine reelle Chance hatte, bei Jahresanfang die Starts von 2018 zu erreichen – zu Jahresanfang waren noch zwei weitere Missionen der Crewed Dragon geplant, zusätzlich sieben Starlink Starts. Wären diese erfolgt, so wären es 20 Starts gewesen. Und gerade bei Starlink tickt die Uhr (siehe unten) und daher sollte man annehmen, dass die Firma da dahinter ist. Bei den kommerziellen Starts gibt es keine großen Überraschungen. SpaceX generiert ja keine neue Nachfrage, die hohe Startrate in den letzten Jahren kam vor allem durch den Stau zustande, weil die Firma bisher immer ihrem Zeitplan hinterherhinkte. Zudem wurden Startaufträge angekündigt und können so verfolgt werden.

Stattdessen glänzte SpaceX durch drei Explosionen – neuer Rekord, bisher war es maximal eine pro Jahr. Man hat eine Crew Dragon mit dem System in die Luft gejagt, das sie eigentlich bei einer Havarie retten sollte – eine Blamage, wenn das Sicherheitssystem unsicherer als die Rakete selbst ist. Dann explodierte noch ein Raptor bei einem Versuch und zuletzt ein Prototyp der Starship/Super Heavy bei einer Probebetankung. Das ist schon außergewöhnlich. In der Häufung. Es gab zwar auch beim Test der Triebwerke für die Falcon 9 mindestens eine Explosion, aber eben nur eine.

Auch manche Aussagen zeigen, dass man bei SpaceX immer noch weiter von einer „richtigen“ Firma entfernt ist. So die folgende Aussage: “We definitely learned a lot,” Shotwell said Friday. “NASA warned us (that) crew is going to be 10 times harder (than cargo). And I think we were like, 10 times harder? What does that mean? What does that look like? How does that feel? You just don’t know until you start into the program.”

Oh welche Überraschung! Das bemannte Raumfahrtprogramm war schon immer um ein vielfaches teurer als das unbemannte. Für die Entwicklung der Dragon für Frachttransporte bekam SpaceX 396 Millionen Dollar, im Rahmen des CCDev Programmes 3145 Millionen Dollar, also die achtfache Summe. Da diese wohl auch mit Aufwendungen, vor allem Arbeitszeit verknüpft ist, würde ich auch annehmen, dass es achtmal mehr Arbeit gibt und entsprechend schwerer es ist eine bemannte Version zu entwickeln. Das liegt doch nahe bei den 10-Mal die Shotwell zitiert. Warum also die Überraschung dort? Hat man angenommen man, bekäme Milliarden von der NASA, ohne etwas dafür zu tun?

Die 2020 er Wette

Ich komme zur Wette für dieses Jahr. Ich habe mir die Zahl der Starlink Starts als Wette vorgenommen. Offiziell werden es 24 Starts sein, die ersten beiden noch im Januar, sodass wenn SpaceX diese Kadenz halten kann, es nicht unmöglich ist. Doch was wette ich dagegen? Eine Möglichkeit wäre es wie vorgeschlagen einen festen Faktor zu nehmen – 2/3 also 16 wurde vorgeschlagen. Aber ich will eine fundierte Schätzung machen und mich dem Thema unterschiedlich nähern. Eine Sache ist, wie viele Starts die Firma pro Jahr abwickeln kann. Das sind mindestens 21. Bei Wiederverwendung der ersten Stufe muss nur die zweite Stufe neu gefertigt werden das lässt eigentlich viele Starts zu. Daneben gibt es zwei Startrampen für unbemannte Starts in Vandenberg und dem Cape. Dazu noch LC39A nur für bemannte Starts, Vor allem die Starlink Satelliten können beide Rampen nutzen. Niedrige Inklinationen wie die ersten beiden Starts (bis etwa 56 Grad) das CCAF, ansonsten Vandenberg. Bisher gab es maximal 12 Starts pro Jahr von einer Rampe aus. Damit müsste es für Starlink und kommerzielle Starts mindestens 24 Startmöglichkeiten geben. Bei minimal 11 Tagen zwischen zwei Starts von einer Rampe die schon demonstriert wurden wären es sogar 66 Starts, wobei die Zahl natürlich ohne Urlaub und Feiertage ist und Verzögerungen und Unterbrechungen durch kommerzielle Starts nicht mit einschließt. Bei von mir geschätzten drei Wochen zwischen zwei Starts von einer Rampe aus, wären 34 Starts pro Jahr möglich. Das wären die 24 Starts für Starlink, 10 kommerzielle Starts (genauso viele wie dieses Jahr) und dann noch die bemannten Starts die vom Kennedy Space Center aus erfolgen. Kurz: die 24 Starts wären technisch möglich.

Eine andere Sache ist das mit den Terminen, und da gibt es irritierende Äußerungen. Am 29.3.2018, also gerade mal eineinhalb Jahre her, waren 4.425 Satelliten geplant und die FCC genehmigte diesen Plan mit der Auflage, das die Hälfte davon, also 2.212 Satelliten innerhalb von sechs Jahren, also bis zum 29.3.2024 starten sollte. SpaceX saget damals: diese Frist wäre „impractical“ und man in sechs Jahren 1.600 Satelliten starten könnte. Also Stand März 2018: SpaceX kann pro Jahr im Mittel 267 Satelliten starten. Selbst wenn man die beiden Jahre 2018/19 dazunimmt, in denen nur 120 Satelliten gestartet wurden. wären es für die nächsten vier Jahre 370 Satelliten pro Jahr oder etwa sieben Starts mit je 60 Satelliten wie bisher.

Inzwischen hat SpaceX die Zahl zuerst auf 12.000 und inzwischen auf 42.000 Satelliten erhöht – nur mal als Vergleich, seit dem Sputnik 1 wurden insgesamt nur 11.947 Nutzlasten gestartet – und nun planen sie alleine für nächstes Jahr 24 Starts mit 1.440 Satelliten also so viel, wie sie vor eineinhalb Jahren in sechs Jahren starten wollten. Also in eineinhalb Jahren von „unpraktikabel“ zu „nicht mal die Hälfte dessen, was wir planen“. So geht das bei SpaceX.

Ein offenes Buch ist, wie viele Starts die Firma finanzieren kann. Oneweb hat dieses Jahr weitere 1,25 Milliarden Dollar aufgebracht. Selbst wenn Gelder diese für die zweite Stufe des Ausbaus sind, auch hier sind weitere Starts geplant, sind es immer noch 2,1 Mrd. Dollar für die erste Stufe. Ein Satellit bei Oneweb soll in Serienfertigung 1 Million Dollar kosten, das sind 720 Millionen Dollar. Mindestens 22 Starts der Sojus, jeder sicher 50+ Millionen Dollar teuer, kommen dazu. Dazu noch die Fabrikanlage und nicht zu vergessen: Kunden gewinnen kostet auch Geld. Viasat gibt pro Kunde rund 700 Dollar aus für die Hardware, Marketing etc.

SpaceX mag die Herstellung billiger machen, doch nimmt man die Preise der Trägerraketen oder die Entwicklungskosten bei COTS und CCDev als Ausgang, so sicher nicht unter 2/3 der Kosten für Oneweb. Jeder Satellit wird dann netto (mit allen Nebenkosten) rund 2 Millionen Dollar kosten, gegenüber 3 Millionen bei Oneweb). Bisher haben sie rund 2 Milliarden Dollar für ihre beiden Projekte Starship und eben Starlink eingetrieben, wobei ich annehme, dass das Starship das teurere davon ist. Nehme ich eine Verteilung 50 zu 50 an, dann bleibt 1 Milliarde für die Konstellation übrig. Damit können sie 500 Satelliten finanzieren, die sie in rund 9 Starts in den Orbit befördern können.

Das wäre die Untergrenze für eine Schätzung.

Also würde ich bei Berücksichtigung der obigen Fakten eine Startzahl zwischen 9 und 24 Starts für 2020 für möglich halten. Ich habe mich für das Mittel entscheiden, das wären 16,5 Starts pro Jahr, ich runde mal auf 17 auf. Meine Wette für 2020 ist also:

Ich wette das SpaceX bis zum 31.12.2020 nicht mehr als 17 Starlink Starts durchführt

2.1.2020: Die Entscheidung beim IBM PC gegen den MC 68000

Als IBM 1980 an die Planung des IBM PC gingen, standen am Anfang grundlegende Designentscheidungen. Recht bald war klar, das der neue PC einen 16-Bit-Mikroprozessor haben sollte. Das war naheliegend, weil es zu dem Zeitpunkt schon etliche eingeführte 8 Bit Mikrocomputer gab – in den USA als Hauptabsatzmarkt dominierten Apple II, Tandy TRS-80 und die Commodore CBM Serie. Ein neuer PC von IBM würde mit diesen verglichen werden und wenn er hier den kürzeren ziehen würde, dann wäre das nicht gut. Mit einem neuen Prozessor wäre man dagegen in einem anderen, noch neuen, Marktsegment angesiedelt und könnte sogar mit den Vorteilen eines 16 Bitters werben. Nebenbei hatte IBM schon einen Rechner auf Basis des Intel 8085 in der Entwicklung, das System/23 Datamaster und der lief nicht so besonders gut.

Zu dem Zeitpunkt als IBM den IBM PC entwarf, gab es nur wenige 16 Bit CPUs auf dem Markt. Das waren:

Es gibt nun die Legende, das IBM den Motorola 68000 sehr bald aussortierte, weil er zu leistungsfähig gewesen wäre, IBM sich so selbst Konkurrenz gemacht hätte. Bill Gates meint, das er Intel überzeugt habe den 8086 zu nehmen. (Allerdings wurde dann der 8088 eingesetzt). Die Manager, die dafür verantwortlich waren, bestreiten beides. Nach offizieller Verlautbarung wurde der MC 68000 sehr bald aussortiert, weil er damals neu auf dem Markt war. Er war der jüngste des Trios. Es gab noch zahlreiche Kinderkrankheiten mit dem Prozessor, die allerdings bis der IBM PC ein Jahr später tatsächlich erschien, ausgeräumt waren. Für IBM aber mit dem Anspruch, den sie bei anderen Rechnern hatten, dass sie vielleicht nicht die leistungsfähigste und technisch neueste Hardware auslieferten, diese aber sehr zuverlässig war, war dies ein wichtiger Punkt. Was für den 8088 und TMS 9995 sprach, war das beide einen 8-Bit-Bus hatten. Das vereinfachte den Systemaufbau deutlich. Die Datenbusse führten beim IBM PC ja nicht nur zu den RAM-Bausteinen, von denen man 16 anstatt acht brachte, sondern auch den Erweiterungsteckplätzen. Diese kamen so weniger Pins und weniger Leitungen auf dem Mainboard aus. Daneben konnte bei beiden Prozessoren auch 8 Bit Peripheriebausteine einsetzen, so nutzte IBM die Zusatzbausteine des 8080 für die parallele und serielle Ausgabe. Diese wurden in großen Mengen produziert, weil etliche Z80 und 8080 Computer sie einsetzten und sie waren billig. Dieser Gesichtspunkt war dann auch wesentlich für die Wahl des 8088 und nicht des 8086. Es gelang nämlich beim Vorgängermodell 5120 nicht, dieses preiswert zu produzieren. Die kleinste Version kostete 9000 Dollar, eine typische Arbeitskonfiguration 13.500 Dollar. Selbst das schon zum Teil aus Nicht-IBM Teilen aufgebaute System/23 Datamaster kostete 5.490 Dollar und damit mehr als das doppelte eines CP/M Systems mit demselben Prozessor.

Hinsichtlich Performance lagen TMS 9995 und 8088 gleichauf. Texas Instruments hatte aus dem Einsatz des TMS 9900 auf dem Ti 99/4A gelernt. Der Prozessor wurde schon 1976 entwickelt, als RAM noch schneller als die Prozessoren war und so sparten sich die Entwickler die Register im Prozessor weitestgehend ein und nahmen einen Zeiger, mit dem man im RAM 16 Workspace Register ansprechen konnte und die 16 Register konnte man leicht wechseln, sodass in der Summe der Prozessor 256 Register im RAM ansprechen konnte. Die Geschwindigkeit von RAM wurde aber kaum gesteigert (Die RAS-CAS Delay Zeit betrug 1977 beim 4116 RAM (16 KBit) 50 ns, heute sind bei DDR4 RAM 8,9 ns, also nur etwa die sechsfache Geschwindigkeit üblich). Die TMS 9995 erhielt so internes RAM für den Workspace und durch eine Pipeline und einen so höheren Takt von 10 MHz war sie deutlich schneller als der TMS 9900. In Benchmarks war sie mit dem 8086 bei 8 Mhz vergleichbar, bei kompakterem Code. Das die TMS 9995 nur 64 KByte adressieren kann, spielte offenbar keine Rolle, denn der Computer sollte ursprünglich mit nur 16 KByte RAM erscheinen.

Für Intel sprach, das man schon einen PC auf Basis des 8085 gebaut hatte und das Intel auf den Wunsch nach Second-Source Quellen einging. Sprich: Intel vergab an andere Firmen wie Siemens, National Semiconductor, Harris oder AMD die Lizenz den 8088 zu fertigen, im IBM Pcjr steckte z.B. ein Prozessor von AMD. So war IBM nicht von einem Hersteller abhängig.

Low End PC

Genommen hat man den 8088, der erst nach dem 8086 erschien, und dann auch nur mit 5 MHz getaktet war. Das Letztere sparte zum einen Geld für teure RAMs, die man für 8 MHz Takt braucht und zum anderen sind die 8 Bit Zusatzbausteine auch nicht für den hohen Takt ausgelegt. Um weitere 50 ct für einen zweiten Quarz für die Erzeugung des NTSC-Signals (es war ein TV-Tuner mit eingebaut) wurde der Takt sogar nur bei 4,77 MHz angesetzt, so konnte man Prozessortakt und NTSC Takt durch Teilung aus einem 14,32 MHz Takt erzeugen.

Der IBM wie er 1981 erschien war in meinen Augen auch mehr ein Verwandter zu einem Heimcomputer als zu den Business PC der 8 Bit Ära wie dem Apple II, Commodore CBM 30xx System oder Tandy TRS 80, denn das Basisgerät hatte als Anschlüsse:

Es sollte mit 16 KB RAM auskommen, doch da das zu der Zeit schon Heimcomputer hatten und die Konkurrenz 32 bis 48 KByte RAM, wurde es mit 64 KByte bestückt, eine zweite leere Reihe lies die Aufrüstung auf 128 KByte zu. Das ROM enthielt einen BASIC-Interpreter von Microsoft, wie bei anderen Heimcomputern (es gab auch schon Business Computer, die ohne Interpreter kamen und die von Diskette CP/M booteten, sie kamen mit einem kleinen ROM BIOS aus). Der BASIC Interpreter konnte natürlich auch nur auf Kassetten schreiben und lesen.

Für den Einsatz in einem Büro, z.B. als Textverarbeitungssystem musste man mindestens hinzukaufen:

Das hob den Preis, der schon beim Grundgerät bei 1.600 Dollar lag auf 4.500 Dollar hoch. Ein Apple II vergleichbar, wenn man die Usability nimmt, die Prozessoren kann man ja nicht direkt vergleichen, kostete aber bei vergleichbarer Ausstattung nur die Hälfte. So schaltete Apple auch Anzeigen mit dem Spruch „Welcome IBM – seriously“.

Apple anzeige

IBM schadete auch dem Absatz der 8 Bittern nicht, einfach weil diese sich an andere Kunden wendeten – denen die weniger auf die Marke als das Preis-/Leistungsverhältnis schauten. Das waren Privatpersonen, Selbstständige oder Ingenieure. IBM war dafür gut Vertreten in Unternehmen, die schon Computer von IBM einsetzten. Zu der Zeit liefen auch noch gut andere Rechner auf Basis des 8086 die bei gleichem Preis wie der IBM PC mehr konnten die der Victor Sirius (echter 8086, Floppys mit mehr Speicher, hochauflösende Grafik) oder DEC Rainbow (Doppelprozessorsystem 8088 und Z80). Erst mit dem IBM PC XT, bei dem man dazu gelernt hatte und nun 128 KByte auf der Platine untergebracht (erweiterbar auf 256 Kbyte und ein Festplattenlaufwerk samt Controller verbaut. Das war 1983, und ab da setzte sich der IBM PC XT durch, wobei dies auf Kosten der 16 Bit Konkurrenten ging. Es dauerte bis 1986, bis selbst IBM PC kompatible auf das Preisniveau von 8 Bit Maschinen gesunken waren. Die 16 Bit Konkurrenten waren betroffen, weil aufgrund der Langsamkeit des 8088 immer mehr Programme für MS/PC-DOS direkt auf die Hardware zugriffen unter Umgehung des DOS und BIOS. Die liefen aber dann nur noch auf dem IBM PC und kompatiblen nicht auf den „nur“ MS-DOS Kompatiblen.

Aber zurück zum Thema: Ich denke es ist klar an der Auslegung des IBM PC mit seiner Armut an Schnittstellen, Beschränktheit von Speicher und Geschwindigkeit sich als 8 Bit Konkurrent etabliert hat. Trotzdem war er sehr teuer. Wenn IBM einen Rechner rund um den 68000 gebaut hätte, er wäre ziemlich teuer gewesen und sicher kein PC mehr – es gab ja auch teure PCs, sogar in der 8 Bit Welt. Mit einer Festplatte, viel RAM konnte man damals auch 20.000 DM für einen PC ausgeben. Nur verkauften diese sich eben nur in kleinen Stückzahlen.

Ich habe mir IBMs Produktpalette „nach unten“ angesehen. Unterhalb der Großrechner hatte IBM in der Tat kleinere Rechner, doch selbst die waren weder kompakt noch billig. Es waren keine Rechner für eine Person von „normaler Größe“, wie viele Minicomputer, sondern kleine Versionen ihrer Großrechner die eben nicht 100 sondern nur vier oder acht Terminals bedienten. Ein typischer „Minicomputer“ von IBM war das System/34, das für bis zu 14 Terminals ausgelegt war und in der Basisausführung ein Schrank mit bis zu vier Plattenlaufwerken. Selbst bei einem „Single User System“ wie das System/32 war die CPU so groß wie ein Schreibtisch hatte nur 16 bis 32 KByte Speicher und keinen Bildschirmarbeitsplatz, sondern eine Typenradschreibmaschine als Terminal. Verglichen mit diesem System 32 war ein IBM PC schon fortschrittlich und bei Mietkosten von 1000 Dollar pro Monat für das System/32 schon bezahlbar. Auf der anderen Seite reichte die Leistung nicht aus ein System 34 zu ersetzen, das über Festplatten verfügte und mehrere User bedienen konnte. Die oben erwähnten Rechner als „PC“ waren durch die Verwendung von IBM Hardware dann auch nie billig und konnten sich am Markt nicht durchsetzen, weshalb man ja den IBM PC auf Basis von Teilen entwickelte, die jeder Hersteller auf dem freien Markt kaufen konnte.

Ein Computer mit der MC 68000 CPU wäre vielmehr eine Bedrohung für den Minicomputermarkt gewesen, in dem sich andere Firmen wie DEC, General Data oder HP tummelten. Doch auch diese fertigten billiger als IBM und müssten sich so keine Sorgen machen. Nach offiziellen Benchmarks hat eine 68000 CPU in etwa die Geschwindigkeit eines PDP 11/70, wenn sie mit 10 MHz getaktet ist, bei 8 MHz Takt, die Geschwindigkeit einer VAX 11/750, allerdings nicht deren Features wie virtuellen Speicher und volle 32 Bit Architektur. Daher habe ich die PDP 11/70 als Vergleich für den MC 68000 genommen. Die PDP 11/70 kostete 1975 80.000 Dollar, allerdings gab es 1985 das Nachfolgemodell PDP 11/84 mit der gleichen Leistung für einen Drittel des Preises. 1981, das Erscheinungsjahr des IBM PC liegt zeitlich genau in der Mitte, nehmen wir also die Hälfte des Preises an, 40.000 Dollar. Die Speichergröße einer PDP 11/70 betrug etwa 1-2 MByte. Als Vergleich für die MC 68000 Architektur kann man die erste Sun nehmen, die auf diesem Prozessor basierte. Sie erschien 1982 mit 256 KByte Speicher und kostete 8.900 Dollar. Das ist nun weniger Speicher, aber die Sun konnte auch auf 2 MByte aufgerüstet werden.

Selbst wenn dies den Preis verdoppelt hätte (basierend auf dem Preis der damals für Speichererweiterungen bei Heimcomputern verlangt wurde hätte es etwa 3.900 Dollar gekostete), wäre die Sun nur halb so teuer wie die PDP 11 gewesen. Die Sun, aber auch andere Rechner von Silicon Graphics und HP waren die ersten Workstations – so leistungsfähig wie ein Minicomputer, aber anders als dieser kompakter, so groß wie ein PC und mit einem hochauflösenden Bildschirm. Gedacht vor allem für grafische Aufgaben – die Sun 1 hatte eine Auflösung von 1024 x 800 in Monochrom und 640 x 480 in 256 Farben – der IBM PC leistete zu der Zeit nur 320 x 200 Pixel in 4 Farben machten sie Minicomputern Konkurrenz da sie deren Leistungsfähigkeit hatten, aber anders als diese hervorragende Grafik. Sie waren mit IBM „entry Segment“ Rechnern nicht zu vergleichen diese waren alle textbasiert und verfügten auch nicht über Multitasking Betriebssystem wie UNIX.

Wenige Jahre später brachte IBM den IBM PC AT heraus. Mit 1 MByte RAM, 80286 Prozessor lag er von der Leistungsfähigkeit in dem Bereich einer Sun 1, wenngleich von der Grafik und dem Betriebssystem trotzdem deutlich unterlegen, kostete mit 6.000 Dollar aber auch ähnlich viel. Allerdings war der IBM AT ein Luxus PC, bei dem man nicht mal den Speicher vollständig mit DOS ausnutzen konnte, ohne Netzwerkfähigkeiten und schlechter Grafik und damit auch keine Bedrohung für den Minicomputermarkt. XENIX als UNIX Derivat von Microsoft gab es zwar, aber die meisten Käufer nutzten ihn nur als PC. Beide Modellreihen konkurrierten mit den Minicomputern, und zwar dort wo diese als einziger Arbeitsplatz eingesetzt wurden wie in Labors oder bei Ingenieuren. So ging der Minicomputermarkt in den Achtzigern dem Ende zu. Workstations wurden aber lange Zeit nicht von den PCs verdrängt, denn es fehlten wichtige Schlüsseltechnologien wie hochauflösende Grafik, Vernetzung und ein Multi User Betriebssystem. Erst die enorme Steigerung der Prozessor Performance durch Intel führte Mitte der Neunziger dazu das auch die Workstations Hersteller Probleme bekamen. Mittlerweile gab es mit Windows NT auch ein Betriebssystem, das die Fähigkeiten der Geräte wenigstens ausnutzte.

Fazit

Ich denke die Entscheidung gegen den 68000 ist nachvollziehbar. Bei den hohen Kosten die IBM hatte, selbst wenn sie den Rechner aus fremden Bauteilen zusammenbauten, wäre ein 68000-er Rechner zu teuer gewesen. Er wäre aber auch in einem anderen Marktsegment angesiedelt gewesen. IBM war beim IBM PC nicht innovativ und das blieb auch so: der IBM AT war eigentlich nur schneller, nichts mehr. Erst Jahre später ging IBM an die Entwicklung eines Betriebssystems für den 80286 Prozessor OS/2 und auch die EGA Grafikkarte war schlechter als die etwa zeitgleich erschienene Grafik des Amiga. Das führte ja sogar dazu, dass bei der nächsten Generation, dem 80386 Compaq, die bisher nur IBM PC nachbauten, nicht warten wollte (der AT erschien zwei Jahre nach dem 80286 Prozessor) und selbst einen PC auf Basis des 80386 entwickelten – mit derselben Philosophie, nur schneller dafür kompatibel.


3.1.2019: Der Apple II und der IBM PC

Als der IBM PC im August 1981 erschien, kauften sich Apple Entwickler, darunter Andy Herzfeld einen, Namen ihn auseinander und mussten – zumindest nach Herzfeld Aussage über ihn lachen, denn er bot ihrer Ansicht nach weniger als der Apple II der ja schon 1977 erschien.

Ich habe mir die Aufgabe gemacht, mal beide Systeme zu vergleichen. Der Apple II war damals auf dem US-Markt der Verkaufsschlager. Eine technisch besserer Vergleich, wäre wohl mit einem CP/M Rechner gewesen, da der originale IBM PC auch CP/M 86 laufen lassen konnte. Nur ist es da schwerer die Daten für einen Preisvergleich zu finden und vor allem gibt es eben nicht nur einen also DEN CP/M Rechner, mit dem man vergleichen konnte.

Ich habe vor allem auf den Nutzeraspekt abgehoben. Das heißt, was bot ein Apple II einem Nutzer, was ein IBM PC. Bei den Preisen damals, die bei Komplettgeräten 3.000 Dollar erreichten, das entspricht heute über 4.000 Euro, war der typische Benutzer jemand der den Rechner für Textverarbeitung oder Tabellenkalkulation nutzte.

Anforderungen

Für diesen Einsatzzweck benötigt man neben den Basisgeräten, die keinen Massenspeicher hatten, noch einen Monitor und eine Grafikkarte. Beim Apple II eine 80 Zeichen Karte, da er standardmäßig nur 40 Zeichen pro Zeile darstellte, beim IBM PC einen Monochrom Display Adapter, der einen reinen Textmodus beherrschte. Die grafikfähige Color Grafik Adapter Karte kam erst später heraus. Weiterhin benötigte man mindestens ein Diskettenlaufwerk mit Controller. Das zweite Laufwerk war ohne Controller meistens billiger.

Will man etwas ausdrucken, so benötigt man in beiden Fällen noch eine Druckerkarte um einen Drucker anzuschließen und den Drucker selbst, bei dem man aber dank standardisierter Anschlüsse die freie Auswahl hatte.

Prozessor und RAM

Natürlich ist klar, das ein 6502 mit 1 MHz Takt in der Leistung nicht vergleichbar ist mit einem 8088 mit 4,77 MHz. Doch in der Praxis spielte eine Rolle, „was hinten rauskommt“. Der Apple II war zu dem Zeitpunkt schon vier Jahre auf dem Markt. Software, die speziell für ihn geschrieben war und seine Hardwarefähigkeiten direkt in Maschinensprache ausnutzte, war verfügbar. Ein Beispiel dafür war Visicalc, das bei seinem Erscheinen einen Absatzboom für Apple auslöste. Die ersten Programme für den IBM PC waren von anderem Kaliber. Ein Vorteil des 8086/88 war, dass sein Befehlssatz und seine Register sehr dem Vorgänger 8080 ähnelten. Dadurch konnte man ein Programm, dass für den 8080 geschrieben war, per Crossassembler in 8086 Maschinensprache umsetzen. Es gelang sogar bei Binärcode. Seattle Computer Products, die vor IBM einen Einplatinencomputer auf Basis des 8086 entwickelten und Probleme mit dem Absatz hatten entwickelten eine Software die 8080 Programme in 8086 Programme umsetzte.

So kamen praktisch alle der ersten Programme zustande. Manchen wie Wordstar sieht man sogar an, das es die gleichen sind wie unter CP/M. Diese Lösung hat aber enorme Nachteile. Der 8080 musste für 16 Bit Operationen immer zwei Register einsetzen. 16 Bit Worte konnte er nur über das HL-Register laden und speichern. Der 8086 konnte das mit allen Registern und so ersetzte eine 8086 Anweisung mehrere Befehle des 8080, bei der 1:1 Übersetzung war das aber bedeutungslos. Es gab dann eben die unnötigen Anweisungen die ein 16 Bit Register in zwei 8 Bit Register mappten obwohl man auch direkt das 16 Bit Register laden konnte. Ebenso gab es neue Befehle, mit denen man schnell Datenblöcke kopieren oder durchsuchen konnte. Neue Adressierungsmodi, wie Index-Adressierung, die den Zugriff bei festen Strukturen vereinfachten. All dies nutzte konvertierte Software nicht aus. Noch 1984 schrieb die Zeitschrift ct‘, das Benchmarks in interpretiertem BASIC bei dem IBM PC langsamer liefen als auf aktuellen 6502 und Z80 Systemen. Diese Situation besserte sich erst ab 1984 als nativ für den IBM PC geschriebene Programme, wie Lotus 1-2-3 oder Sidekick erschienen. Diese umgingen auch das MS-DOS, weil es zwei Schichten (BIOS und BDOS) über die Hardware legte. Nur so wurde der Bildschirmaufbau wirklich schnell. Das war beim Apple nicht nötig, dort konnte man die Hardware direkt ansteuern.

Ein weiterer Punkt ist das der Code für beide Prozessoren unterschiedlich lang ist. Die meisten Befehle des 8086 benötigen zwei Bytes für den Opcode. Dazu kommen noch die Daten, in der Regel 16 Bit Werte. Der 6502 kam mit einem Byte für den Opcode aus und wenn er die Zeropage nutzte, mit einem Byte für die Adressierung. Der Code ist dadurch beim Apple II erheblich kompakter. Das spielt eine Rolle, wenn man den RAM-Ausbau betrachtet. Ein 48 K Apple hatte so in de Regel mehr freies RAM für die Nutzdaten, wenn man ein Anwendungsprogramm lud, als ein 64 K IBM PC, auch da vom IBM PC noch der speicher abging denn DOS belegte, das beim Apple in einem ROM war.

16 Bit Vorteile

Theoretisch war der 8086 des IBM PC „zukunftsfähiger“ als der Apple II. Das galt aber nicht für die erste Version des IBM PC. MS-DOS 1.0 war eine Kopie von CP/M 80 und konnte wie dieses maximal 64 KByte große Programme (die Größe eines Segments) verwalten. Immerhin belegte der Bildschirmspeicher keinen Arbeitsspeicher, weil er sich auf einer eigenen Karte in einem eigenen Bereich des Adressraums befand. Auch die .com Files, die MS-DOS 1.0 als ausführbares Format einsetzte, nutze, nur 64 KByte. Das änderte sich erst, als die verbesserte Version MS-DOS 2.0 eingeführt wurde. Der Ur-IBM PC hatte daher für einen Anwender keinen Mehrwert im Sinne von mehr verfügbarem Arbeitsspeicher. Auch das Netzteil war nicht fähig eine Festplatte mit Strom zu versorgen.

Grafikfähigkeit

Ein grundlegender Unterschied des Apple II zum IBM PC war, das er grafikfähig war. Die höchste Auflösung betrug 280 x 192 Pixel in zwei Farben. Mit der für das professionelle Arbeiten sowieso nötigen 80-Zeichen-Karte konnte das noch auf 560 x 192 Pixel gesteigert werden. Allerdings war dann auch ein RAM-Ausbau auf 64 KByte nötig, da dafür mehr Speicher benötigt wurde. Die Standard Karte für den IBM PC (MDA) erlaubte nur Textdarstellung. Zwar in zwei Intensitäten und mit Attributen wie Unterstrichen und in einer hohen Auflösung von 9 x 14 Pixeln (Apple: 7 x 8), aber eben keine Grafik. Das spielte allerdings bei den damals üblichen Standardprogrammen die textbasiert waren keine Rolle. Erst mit Tabellenkalkulationen, die auch Diagramme anzeigten, änderte sich dies. Als Option konnte man auch eine Color Graphic Adapter Karte einbauen, die dann 320 x 200 Pixel in vier Farben darstellte. Dafür benötigte man aber einen Farbmonitor zusätzlich, denn Text konnte diese nur mit maximal 40 Zeichen pro Zeile darstellen. In der Preistabelle habe ich diese Option nicht berücksichtigt auch, weil sie erst nach dem IBM PC erschien. Plante man Grafiken zu erstellen, dann war der Apple sicher das bessere System. Für die Textdarstellung war die Darstellung der MDA Karte aber dem Apple hinsichtlich Bildpunkten und damit Schärfe überlegen.

Diskettenlaufwerke

Als beide Systeme auf den Markt kamen waren Festplatten noch unüblich und teurer als der restliche Rechner. IBM stellte erst 1983 den IBM XT vor, der eine Festplatte enthielt. Apple machte dies bei der Apple II Reihe nie. Beide Systeme benötigten für den Betrieb von Diskettenlaufwerken einen Diskettenkontroller. Das zweite Laufwerk ohne Kontroller war dann bedeutend preiswerter. Dies war eine Zusatzkarte, die ins Gehäuse eingebaut wurde. Der Apple erschien mehrere Jahre vor dem IBM PC. Der Apple verwandte ursprünglich Disketten mit 35 Spuren und 143 KByte formatierter Kapazität. Beim IBM PC waren Laufwerke, die beide Seiten einer Diskette nutzen konnten und 40 Spuren einsetzten – das waren theoretisch 360 KByte pro Diskette. Durch einen Fehler in PC-DOS wurden sie aber nur einseitig angesteuert und so waren es nur 180 nutzbare KByte. In das Gehäuse des IBM PC passten zwei Diskettenlaufwerke. Der Apple Kontroller konnte bis zu drei Floppis ansteuern, die aber auf dem Gerät neben dem Monitor platziert wurden. In der Regel benötigte man für einen Arbeitsplatzrechner zwei Diskettenlaufwerke, weil auf einem Laufwerk die Diskette mit Betriebssystem und Anwendungsprogramm war und auf dem anderen Laufwerk die Diskette für die Texte oder Tabellen. Zudem wird sonst schon das kopieren einer Datei zu einer Herausforderung. Mehr als zwei Laufwerke benötigte man aber auch nicht. So war das dritte Laufwerk bei Apple kein Vorteil. Es gab aber einen anderen Vorteil: Bei Apple konnte man auch andere Laufwerke als von Apple selbst anschließen mit höherer Kapazität. Für den Einsatz von Software blieb man beim ersten Laufwerk bei dem Apple Format, das war nötig um System- oder Anwendungsprogramme zu laden. Für das zweite Laufwerk gab es aber Lösungen die bis zu 655 KByte also ein Vielfaches des Originallaufwerks speicherten und das bei nahezu gleichen Kosten für das Laufwerk.

Druckeranschluss

Ein Merkmal, das aber schon damals eher selten war, war das beide Geräte in der Standardausführung über keinen Druckeranschluss verfügten. Dafür musste man eine Zusatzkarte einbauen. Danach konnte man aber dank des Centronics Standards jeden Drucker anschließen. IBM bot einen eigenen Drucker an, der jedoch nur ein umgelabelter Epson Drucker war. Apple analog den Silentwriter, einen Thermodrucker der nur das Apple Logo hatte.

Ausbaufähigkeit

In Sachen Ausbaufähigkeit punktet der IBM PC. Beide Rechner haben eine Gemeinsamkeit: Sie sind durch Steckkarten ausbaubar. Allerdings ist das Apple-Gehäuse durch die eingebaute Tastatur deutlich flacher und die Tastatur sorgt auch für eine Schräge an der Front. Karten für den Apple sind daher erheblich kleiner als für einen IBM PC. So gab es Speichererweiterungskarten für den IBM PC die 512 KByte RAM aufnahmen, so viel wäre im Apple II nicht möglich gewesen, allerdings dort auch nicht sinnvoll. Dies glich der Apple II aber dadurch aus, dass er acht Slots hatte, der IBM PC nur fünf. Bei einem Standardsystem benötigten die Rechner folgende Karten:

IBM PC

Apple

Druckeranschlusskarte

Druckeranschlusskarte

Diskettenkontrollerkarte

Diskettenkontrollerkarte

Textmoduskarte

80-Zeichen Karte


Damit waren zwei bzw. fünf Slots frei. Der Apple war im Mainboard auf maximal 48 KByte ausbaubar (wenig später erschien der Apple Iie, der mit 64 KByte ausgeliefert wurde), der IBM PC war von 16 auf 64 KByte durch Wechseln der Speicherchips aufrüstbar. Mehr Speicher erforderte eine weitere Karte. Für den Apple gab es damals eine mit 16 KByte RAM, mehr konnte der Prozessor nicht adressieren. Beim IBM PC waren es anfangs 64 und 256 KByte RAM auf den Erweiterungskarten, später erschienen Karten mit noch mehr RAM.

Ergonomie

Wo IBM punkten konnte, war das Thema Ergonomie. Schließlich produzierte die Firma seit Jahren Terminals für die Eingabe bei größeren Computern. Die IBM Tastatur mit einem guten Druckpunkt und langen Fingerweg erhielt damals ausnahmslos gute Noten bei Tests, auch wenn sie für heutige Verhältnisse relativ schwergängig war. Der Apple II hatte dagegen im Gehäuse die Tastatur integriert, was das Gerät zwar kompakt und stylish machte, aber nicht so ergonomisch war.

CP/M Komptabilität

Der Softwarestandard der damaligen Zeit war CP/M. Auch wenn kein einzelner CP/M Rechner die Verkaufszahlen von Apple erreichte, so war die Summe dieser Rechner doch höher als die Verkäufe aller Apples. Microsoft hatte die Softcard herausgebracht um ihre Programmiersprachen, die nur unter CP/M liefen, auf dem Apple laufen zu lassen und sie wurde zu einem Verkaufsschlager. Die Softcard enthielt einen Z80 Prozessor, der wenn CP/M gebootete wurde, den 6502 weitestehend (bis auf die Ein-/Ausgabe) ersetzte und das im Rechner verbaute RAM nutzte. Damit war ein Apple voll kompatibel zu CP/M. Diese Karte kostete 1981 rund 290 Dollar. Der IBM PC war durch den 8086 Prozessor nicht direkt kompatibel zu CP/M. Es gab aber eine CP/M Version für den 8086, CP/M-86. Ein CP/M für 8 Bit Prozessoren musste nur neu übersetzt werden und lief dann auch unter CP/M 86. Allerdings kostete dieses Betriebssystem 240 Dollar, PC-DOS nur 40. Für die CP/M Komptabilität waren also in beiden Fällen rund 250 bis 300 Dollar zusätzlich zu berappen. Wer allerdings einen CP/M Rechner haben wollte, konnte diesen auch direkt kaufen. Es gab in den USA, wo beide Firmen ihren Hauptmarkt hatten, bekannte Anbieter wie Northstar, Cromenco, Altos oder Zenit. Die Kosten für einen CP/M Rechner mit 64 K Speicher und zwei Disclettenlaufwerken lagen typisch damals bei 2900 bis 3200 Dollar und damit in der Region eines Apple II.

Kosten

Die folgenden Kosten habe ich Anzeigen, in der Byte 10/1981 entnommen in der auch der IBM PC erstmals getestet wurde. Beim Apple gab es zu diesem Zeitpunkt natürlich schon viele Fremdanbieter und Zubehör. Beim IBM PC konnte man nur zwischen verschiedenen Standardkonfigurationen von IBM wählen.

Komponente

Apple II

Dollar

IBM PC

Dollar

Basisgerät

Apple II+ 48 K

1.095

IBM PC 16 K

1.595

Speichererweiterung

16 k RAM Card

130 - 179



Diskettenlaufwerk

Erstes Laufwerk mit Controller

Zweites Laufwerk

490

410



Grafikkarte

80 Zeichen Karte

329



Monitor

Zenit grün

Sanyo Monochrom

Sanyo Farbe

149

249
469



Druckeranschluss

Parallel Printer Card

155



Komplettgerät ohne Drucker

Apple II+, 1 Disk mit Controller, Zenit Grünmonitor

2.063

64 K, ein Diskettenlaufwerk mit Controller. Monochrommonitor

2.999

Komplettgerät mit Drucker

Mit Epson MX-80, Zenit Grünmonitor

3.223

Mit IBM Drucker (ebenfalls Epson)

4.500

Das Grundgerät des Apple II ist bei mehr Speicher um 500 Dollar günstiger. Der Unterschied steigt auf 900 Dollar, wenn man eine Konfiguration mit einem Diskettenlaufwerk und Monitor nimmt. Bei einer Vollkonfiguration mit zwei Laufwerken und einem Drucker beträgt der Preisunterschied schließlich 1.300 Dollar. Das ist signifikant mehr.

Das zeigt auch die Geschichte. 1981/82 verkaufte IBM noch verhältnismäßig wenige PC, Apple dagegen mehr Apple II als im vorherigen Jahr. Die Umsätze von Apple II steigen weiter an. 1983 erreichte das den Höhepunkt mit 1 Million verkauften Apple II. Das Problem war aber das sich die PC-Plattform weiter entwickelte. Es kam der IBM XT auf, der eine Festplatte enthielt. Die Platinen nahmen dann auch 256 KByte RAM auf, das mit MS-DOS 2.x auch genutzt werden konnte und es erschien die Hercules Grafikkarte die Grafik und Text konnte, wenn auch nur monochrom. Dazu erschienen Clones die besser als der IBM PC waren oder einfach billiger.

Daneben wandten sich aber beide auch an eine unterschiedliche Kundschaft. Leute, die IBM kauften, waren meist die, die schon mit IBM zu tun hatten – Manager oder anderes Führungspersonal und der Rechner landete dann bei der Sekretärin. Sie waren auch die hohen Preise von IBM gewohnt – es gab ja schon bei den Großrechnern günstigere Nachbauten wie von Amdahl, einer Firma gegründet von dem Ingenieur der das IBM System 360 designte. Bei Firmen spielten die Kosten weniger eine Rolle, als wenn man den Rechner selber bezahlte und es gab das geflügelte Wort: „Es wurde noch niemals jemand entlassen, weil er IBM kaufte“. Der Apple II Kunde war dagegen meist selbstständig oder Ingenieur, ohne Zugang zu größeren Rechnern. Er kaufte eine Lösung, die er benötigte und nicht nach Firmennamen oder er programmierte diese sogar selbst. Für Apple wurde die Situation erst bedrohlich, als das Nachfolgeprodukt Macintosh nicht der Renner war, den man sich erhoffte und durch zahlreiche Kompatible die Preise für PCs sanken und nun auch Software die Vorteile des 8086 Prozessors und mehr RAM auch wirklich nutzte. Das war ab 1984 der Fall.

Fazit

Beim Erscheinen des IBM PC bot er einige Vorteile in der Ergonomie, wie abgesetzte Tastatur und scharfe Textdarstellung, nicht jedoch im täglichen praktischen Einsatz. Er war aber über ein Drittel teurer. So verwundert es nicht, dass Apple IBMs Markteintritt begrüßte. Es lohnte sich: denn mit dem Eintritt des Markführers wurde dieser neue Markt in Firmen allgemein akzeptiert. Auch die Verkäufe anderer Rechner stiegen an, weil diese nun nicht mehr nur als das teure Spielzeug von Nerds angesehen wurden, sondern als eine Arbeitshilfe im Büro.

16.1.2020: Eiweiß Power oder nicht Power

Schaue ich mir die Prospekte der Discounter an, so tauchen dort immer mehr Produkte auf, angereichert mit Protein. Seit Jahren gibt es schon das „Eiweißbrot“ im Brotregal, dazu gesellten sich dann „Powerriegel“ an der Kasse und nun findet sich in den Prospekten der Discounter ganze Doppelseiten nur mit Produkten, die mit Eiweiß angereichert sind oder fast reines Eiweißpulver um Getränke anzurühren. Das diese Welle aus den USA zu uns schwappt sieht man daran das von „Protein“ die Rede ist – fachlich korrekt, aber bei uns ist eben „Eiweiß“ als Bezeichnung gebräuchlicher. Dazu dann eine ganze Produktserie die „Whey“ im Namen trägt – verkauft sich wohl besser, als wenn man von "Molke" spricht.

Das passt einher mit der „Professionalisierung“ des Freizeitsport. Das heißt selbst einfache Sportarten, die man ohne besondere Ausrüstung machen, kann wie Laufen und Fahrradfahren erfordern in den Augen von Amateuren die richtige Bekleidung. Die Folgen sehe ich auf der Straße jeden Tag. Jogger in Neonfarben mit Schweißbändern die so langsam joggen, dass ich sie mal manchmal aus Spaß mit etwas schnellem Gehen einhole, Radfahrer mit spiegelnder Brille, Fahrradshirt, Fahrradshorts, Fahrradschuhen, Fahrradhandschuhen auf dem Mountainbike fahren (aber nur im Sommer bei schönem Wetter). Also wenn man schon professionell Sport betreibt, dann muss wohl auch die Ernährung professionell sein. Und wenn man schon für die Bekleidung viel Geld ausgegeben hat, dann ist man sicher bereit auch für die Ernährung etwas mehr auszugeben.

Denn teuer sind die Produkte 50 g Proteinchips: 1,99 Euro, ein Proteinriegel von 45 g Gewicht 0,95 bis 1,29 €, 500 g Proteinpulver: 9,99 €.

Grundlagen

Worauf die Werbung setzt, ist die allgemeine Kenntnis, das der Körper Eiweiß benötigt und viele Menschen wissen auch, dass Sportler mehr Eiweiß benötigen. Das ist auch richtig so. Der Körper baut ständig Zellen ab und zerlegt sie in ihre Einzelbestandteile, andere Zellen verlieren wir sogar kontinuierlich wie Haare oder Hautschuppen. Das geschieht nicht optimal, ein Teil der Aminosäuren, die dabei anfallen, kann der Körper nicht wieder nutzen, um neues Eiweiß zu produzieren, diese verbrennt er und erzeugt dabei Harnstoff, den die Niere ausscheidet. Ebenfalls richtig ist, dass Sportler mehr Eiweiß benötigen. Das liegt an zwei Faktoren. Zum einen haben sie mehr Muskelmasse. Muskeln enthalten mehr Eiweiß als Bindegewebe, was den größten Teil der Körpermasse ausmacht. Daneben werden sie durch Sport beansprucht, dadurch werden Zellen aber auch schneller abgebaut. Hochleistungssportler, das sind aber Leute mit wirklich viel Muskelmasse, die täglich mehrere Stunden trainieren, benötigen je nach Quelle 1,5 bis 1,8 g Eiweiß pro Kilogramm Körpergewicht, beim Normalbürger sind es 0,8 g/kg. Für Jugendliche im Wachstum und Ältere ab 65 Jahren, bei denen vermehrt Eiweiß abgebaut wird, werden 1,0 g/Tag empfohlen. Jemand der aber nur etwas joggt, also damit eigentlich nur die fehlende Bewegung bei einer sonst sitzenden oder stehenden Tätigkeit ausgleicht, kann sich aber bei den Referenzwerten für Normalbürger orientieren. Baut man Muskeln auf, das ist bei Krafttraining der Fall, kann man die Menge auf bis zu 1,2 g/kg erhöhen. Für die tägliche Aufnahmemenge muss man dies dann noch mit dem Körpergewicht multiplizieren.

Die DGE hat in den letzten Jahrzehnten die Referenzwerte, anders als diese Produkte suggerieren, abgesenkt. Das hat einen Grund: zu viel Eiweiß ist nämlich nicht gesund. Der entstehende Harnstoff muss in der Niere konzentriert werden, das beansprucht sie sehr viel stärker als die Ausscheidung anderer Abfallstoffe oder Elektrolyte. Nierenkranke erhalten daher oft eine eiweißreduzierte Kost. Als Zweites ist die Verdauung und der Stoffwechsel von Eiweiß sehr ineffektiv. Die einzelnen Nährstoffe werden nicht vollständig vom Darm in den Blutkreislauf überführt. Dabei gibt es Verluste. Sie beruhen auf dem enzymatischen Abbau, dem Energieaufwand sie aus dem Darm gegen das Konzentrationsgefälle aufzunehmen und andern Faktoren. Diese Verluste liegen bei Fett bei 2 bis 4 Prozent, Kohlehydraten 4 bis 9 Prozent, bei Eiweiß aber bei 14 bis 20 %. Dabei entstehen dieselben Abbauprodukte wie sonst auch im Stoffwechsel. Aufgrund dieses Effektes werden auch eiweißreiche Diäten als effizient postuliert, wobei dies aber umstritten ist. In jedem Falle wird aber das aufgenommene, aber nicht zum Körperaufbau benötigte Eiweiß verbrannt, wie Kohlenhydrate und fett die nur zur Energiegewinnung dienen. Damit belastete es die Niere noch mehr.

Kurz: es macht nicht Sinn mehr Eiweiß aufzunehmen, als man benötigt. Man kann es auch nur bedingt Speicher. Es scheint einen Aminosäurenpool zu geben, der durch den Abbau, aber auch die Nahrung aufgefüllt wird. Er wird aber mehrmals am Tag umgesetzt. Deswegen muss man aber nicht dauernd Protein aufnehmen, denn der Umsatz an Protein ist viel größer als die Aufnahme, kurz die meisten Proteine werden durch Abbau alter Zellen wieder gebildet.

Ein weiterer Punkt ist das Protein nicht Protein ist. Der Körper besteht aus vielen verschiedenen Proteinen. Aber wenn man die Bilanz des Abbaus betrachtet, kann man eine „durchschnittliche“ Verteilung der Aminosäuren festlegen. Der Körper besteht aus 20 Aminosäuren, wenn man einige Modifikationen auslässt. Acht dieser 20 Aminsäuren sind essenziell, Basisaminsäuren, aus denen durch chemische Modifikation die anderen 12 hergestellt werden müssen. Aufgenommenes Eiweiß wird in diese 20 (oder weniger) Aminosäuren aufgespaltet und diese dann aufgenommen. Der Körper kann aber nur diese nutzen, die dem körpereigenen Spektrum entsprechen. Den Rest muss er verbrennen also zur Energiegewinnung nutzen. Ein altes Bild, das aber relativ gut den Sachverhalt wiedergibt, ist das eines Fasses, das aus verschiedenen Spanten besteht. Die Höhe jedes Spants entspricht dem prozentualen Anteil der Aminosäuren in der Nahrung und ist eine in zu geringer Menge vorhanden, dann ist das Fass eben nur bis zu dieser Höhe füllbar und der Rest der Höhe nützt einem nichts. Der Prozentsatz, aus dem man aus aufgenommenen Protein körpereigenes Protein bilden kann, heißt biologische Wertigkeit.

Das ist von Bedeutung, da aufgrund der evolutionären Ähnlichkeit tierische Proteine eine größere Ähnlichkeit in der Zusammensetzung haben wie das menschliche. Milch, Eier, Fisch und Fleisch haben eine hohe biologische Wertigkeit. Pflanzliche Proteine in der Regel eine niedrige. Das ist von Bedeutung, weil es verschiedene Möglichkeiten Lebensmittel mit Protein anzureichern. Eiweißbrot wird mit Protein angereichert, indem es mit Weizenklebereiweiß angereichter wird. Das Gluten entsteht, wenn man aus Mehl Stärke gewinnt und es wird auch normalen Brot zugesetzt, um die Backeigenschaften zu verbessern. Daneben setzt man Getreidesorten ein die eiweißreicher sind wie Hafer. Getreideproteine haben aber eine niedrige biologische Wertigkeit. Weizen z. B. eine biologische Wertigkeit von 35-50 %, dass heißt von dem zusätzlichen Eiweiß hat man nur wenig, wenn man dadurch Muskeln aufbauen will.

Bei Eiweißriegeln oder anderen Produkten wird in der Regel Proteinpulver aus Soja oder gleich Sojapulver zugesetzt. Sojabohnen sind sehr proteinreich und auch in der veganen Ernährung (Tofu) beliebt. Sojaprotein hat eine hohe biologische Wertigkeit, die nur noch leicht unter dem tierlichen Proteins liegt (75 bis 85 Prozent). Das als „Whey“ bezeichnete Molkenprotein fällt als Abfallprodukt bei der Herstellung von Butter und Käse an. Es enthält die Proteine der Milch, die nicht durch Labferment ausfällbar sind und hat ebenfalls eine hohe biologische Wertigkeit.

Das heißt, wenn das zugesetzte Protein aus Soja oder Molke stammt, dann kann man wenigstens zum größten Teil auch körpereigenes Eiweiß aufbauen.

Benötigt man zusätzliches Protein?

Eigentlich nein. In Deutschland essen wir eigentlich schon zu viel Protein. Hier die DGE-Empfehlungen und die IST-Zusammensetzung unserer Bahrung:

Nährstoff

DGE-Empfehlung

Ist

Kohlenhydrate

> 50 %

41 %

Fett

< 35 %

41 %

Eiweiß

10 – 15 %

14 %

Die Zufuhr an Protein liegt im Durchschnitt also schon an der oberen Grenze der Referenzwerte. Die sind aber schon für erhöhten Bedarf (z. B. bei Kindern, Krankheiten und eben auch höherem Bedarf durch Sport) gedacht und so gibt es selbst für Amateursportler keinen Grund Nahrungsergänzungsmittel zu sich zu nehmen. Das liegt auch an der viel zu fleischreichen Ernährung in Deutschland.

Fazit

In gewisser Hinsicht gibt es Parallelen zum Holz. Eiweiß wie Holz kann man als Baustoff nutzen oder verbrennen. Beides sollte man primär als Baustoff verwenden. Verbrennt man Holz, so erzeugt man Feinstaub, krebserregende organische Verbindungen, Stickoxide und Schwefeldioxid. Wird Eiweiß verbrannt, so entsteht Harnstoff als Abfallprodukt, dass die Niere belastet und es gibt Hinweise, das der Eiweißabbau auch für den Stoffwechsel belastender ist als der Abbau von Kohlehydraten und Fett. Er ist in jedem Falle aufwendiger und beim Stoffwechsel entstehen immer Radikale die für chemische und genetische Veränderungen verantwortlich gemacht werden die zur Zellalterung, aber auch Krebs führen können.

19.1.2020: Die Lösung für ein überflüssiges Problem: Die Kommunikation mit den Marssiedlern

Langfristiges Ziel von SpaceX ist ja die Besiedlung des Mars, und wenn es erst mal das Starship gibt, dass überall landen kann (genauso wie die Dragon) dann geht das ja auch endlich mal los. Ich will mich heute mit der Frage beschäftigen, wie gut die Kommunikation mit den Marssiedlern sein wird.

Klar wird das meiste innerhalb der Kolonien erfolgen und selbst, wenn diese über den Mars verstreut sind, reichen einige geostationäre Satelliten diese zu verbinden. Die geostationäre Bahn ist beim Mars sogar näher, sodass die Funkverzögerungen nur halb so groß sind. Aber die Siedler werden sicher mit der Erde kommunizieren wollen und das vielleicht nicht nur per Email, was wegen der kleinen Datenmenge problemlos ist, sondern per Voice Mail oder sogar Videos schirken. Auf der anderen Seite wollen sie sicher die neuesten irdischen Serienbuster anschauen und das Internet studieren. Noch leben viel mehr Menschen immer noch auf der Erde, dort werden die Verwandten sein und dort wird auch viel mehr zum Konsumieren produziert.

Woran man nichts ändern kann, ist die Distanz und das Signal nicht schneller als Lichtgeschwindigkeit sind. Der Mars kann sich der Erde auf 56 bis 100 Millionen km nähern (das hängt von der Position in der Umlaufbahn ab, ein Minimum wird alle 13/15 Jahre im Wechsel erreicht) und sich bis auf 400 Millionen km entfernen. Das entspricht Signallaufzeiten von 187 – 334 s bei minimalem Abstand und 1.334 s (das sind über 22 Minuten) bei maximalem Abstand. Eine Unterhaltung wir es also nicht geben, stattdessen wird man Botschaften schicken. Wahrscheinlich werden aber auch die nicht sofort beantwortet, man kann ja nicht erwarten, dass die Leute dann stundenlang nur mit der Kommunikation beschäftigt sind und zwischen jeder Nachricht bis zu 40 Minuten (Hin- und Rückweg) warten.

Datenrate

Ich nehme als Basis für einen Vergleich das Sendesystem des Exomars Trace Gas Orbiter. Dies hat folgende Eckdaten:

Wenn man von einigen Ausnahmen absieht, dann haben die größten frei beweglichen Radioantennen rund 64 bis 70 m Durchmesser. Die Sendeleistung beträgt in der Regel 20 kW. Es gibt bei einer DSN-Antenne einen 400 kW Sender, doch der wird in der Regel nicht für die Kommunikation genutzt, sondern als Radargerät. Damit entstanden schon „Aufnahmen“ vorbeifliegender NEOs.

Aufgrund der Physik – die Datenrate ist proportional zur Sendeleistung und nimmt quadratisch mit dem Durchmesser der Antennen zu – ist bei einer 64 m Antenne beim Senden und Empfang und 20 kW Sendeleistung die Datenrate um den Faktor 870.000 höher. In der Praxis wahrscheinlich kleiner, weil anders als bei einer Raumsonde die Datenblöcke bei Fehlern erneut übertragen, kann man bei einem dauernden Stream diesen nicht wiederholen will oder kann und man nicht noch weitere Verzögerungen für die erneute Übertragung addieren will.

Bei 150 kbit wären das 130,5 Gbit/s. Bei 900 kbit/s sogar 783 Gbit/s. Das klingt doch schon mal gut, solange sich nicht allzu viele Siedler diese Datenrate teilen müssen. Doch selbst bei Upstreams von HD-Videos reden wir von zigtausenden parallel laufenden Streams.

Auf dem Mars benötigt man mehrere dieser Antennen, da der Planet rotiert, ähnlich wie beim Deep Space Network von ESA und NASA es drei Antennenkomplexe auf drei Kontinente gibt. ´Zwischen den Antennen können geostationäre Satelliten die Daten zu der Station transferieren, die gerade Funkkontakt hat. Satelliten schaffen das: Viasat 2 erreicht schon 300 Gbit/s. Bei der kleineren Distanz beim Mars und geringerer atmosphärischer Absorption dürften es noch mehr sein. Notfalls braucht man eben mehr als einen Satelliten für den Transfer zwischen zwei Bodenstationen.

Die Rechnung gilt für das X-Band in dem Exomars sendet. Da liegt die Sendefrequenz bei etwa 8 GHz. In Erprobung seit fast zwei Jahrzehnten ist das Ka-Band, bei dem die Sendefrequenz bei 32 GHz liegt. Je höher die Frequenz bei gleicher Antenne und Sendeleistung ist desto höher die Datenrate, da der Strahl dann stärker gebündelt wird. Auf der anderen Seite ist das Band schon durch atmosphärische Störungen, vor allem Wasserdampf stark gestört und deutlich weniger lang verfügbar. Das wäre wichtiger, denn man wird wohl nicht angefangenen Übertragungen wiederholen wollen. Eventuell weicht man auch auf eine Frequenz aus, die noch weniger gestört wird, auch wenn die Datenrate dann noch weiter sinkt. Im S-Band sandten z.B. die Sender der Pioneer Venus Sonden und der Galileo Atmosphärensonde, also Sonden, die aus einer stark abschirmenden Atmosphäre sandten. Hier liegt die Sendefrequenz bei 2,2 GHz.

Wegen der Signallaufzeit wird man wohl ein Proxysystem implementieren. Das heißt alle anfragen gehen an einen Computer der schaut, ob es eine Kopie auf einem Massenspeicher gibt. Das gilt sowohl für Multimediainhalte wie Fernsehshows wie auch Internetinhalte. Was es nicht gibt, wird nachgeladen und der Benutzer bekommt dann zuerst eine „Jetzt gerade nicht, aber in 20 Minuten“ Nachricht angezeigt. Die wichtigsten Inhalte, wie News-Portale, Soziale Medien etc. werden wohl automatisch aktualisiert. Für Seitenänderungen wird man um Bandbreite zu sparen, zuerst einen Hashcode oder Datumsstempel anfordern, der informiert ob es überhaupt Änderungen gab. Der Computercomplex wird auch überwachen, wie viele Benutzer eine Seite hat und die Aktualisierung nach Priorität machen. Damit selten gefragte Seiten nicht durch das Raster fallen, wird wohl jeder Nutzer ein Kontingent haben, das er frei verwenden kann, um Seiten, die seinen Interessen genügen, abzurufen.

So denke ich könnte die Kommunikation mit den Siedlern aussehen. Bei der optischen Datenübertragung wird es nicht viel anders sein, wobei ich nicht denke das diese überlegen ist. Optische Datenübertragung hat Vorteile, wenn bei einem Segment das Gewicht eine große Rolle spielt, in allen Projekten: das Sendesystem an Bord einer Raumsonde. Doch es ist viel einfacher möglich eine große Antenne mit einem starken Sender zu bauen als ein großes Teleskop mit einem starken Laser, denn auch hier reden wir dann von einigen Kilowatt Leistung (und zwar Sendeleitung nicht Aufnahmeleistung des Lasers).

 

Sitemap Kontakt Neues Impressum / Datenschutz Hier werben / Your advertisment here Buchshop Bücher vom Autor Top 99